Microsoft разработала генеративную модель искусственного интеллекта на базе GPT-4, специально адаптированную для использования спецслужбами США. Эта модель функционирует в оффлайн-режиме, что исключает необходимость подключения к интернету.

Сообщается, что это первый случай, когда Microsoft развернула основную языковую модель в безопасной среде с целью анализа сверхсекретной информации для разведывательных служб без риска утечки данных. Также она обеспечивает безопасные коммуникации с чат-ботами, аналогичными ChatGPT и Microsoft Copilot.

По информации Bloomberg, новый сервис искусственного интеллекта (пока без публичного названия) отвечает нарастающему интересу разведывательных агентств к использованию генеративного ИИ для обработки конфиденциальных данных, снижая риски утечки и взлома. В отличие от облачных серверов, на которых обычно работает ChatGPT и где есть потенциальный риск утечки данных, новая модель Microsoft функционирует в безопасной среде, не имея доступа к общедоступному интернету. В связи с этим ЦРУ в прошлом году объявило о своих планах разработки собственного сервиса, сопоставимого с ChatGPT, однако проект Microsoft является самостоятельным.

Уильям Чаппел, главный технический директор Microsoft по стратегическим миссиям и технологиям, отмечает, что создание новой системы включало в себя 18 месяцев работы по модификации суперкомпьютера ИИ в Айове. Модифицированная модель GPT-4 предназначена для анализа файлов, предоставленных пользователями, и не имеет доступа к открытому интернету.

В четверг была запущена новая служба, которая теперь доступна приблизительно для 10 тыс. членов разведывательного сообщества и готова к последующему тестированию соответствующими агентствами. По словам Чаппелла, в данный момент она “отвечает на вопросы”.

Одним из серьезных недостатков использования GPT-4 для анализа важных данных является его потенциальная способность генерировать неточные результаты, делать ошибочные выводы или предоставлять недостоверную информацию своим пользователям. Поскольку нейронные сети ИИ обучаются на основе статистических вероятностей и не являются полноценными базами данных, они могут создавать ошибочные представления, если не имеют доступа к дополнительным источникам информации с использованием таких методов, как расширенная поисковая генерация. Учитывая этот недостаток, возникает риск того, что GPT-4 может потенциально дезинформировать или ввести в заблуждение американские спецслужбы, если не используется должным образом.

Источник: arstechnica

В случае возникновения дополнительных вопросов, пожалуйста, обращайтесь по электронному адресу sales@softico.ua или по телефону +380 (44) 383 4410.