Лидирующие компании в области искусственного интеллекта планируют заключить соглашение, которое обязывает разработать технологию для идентификации, маркировки и контроля изображений, видео и аудиозаписей, созданных ИИ с целью вводить в заблуждение избирателей накануне ключевых выборов в различных странах в текущем году.

Согласно копии, полученной The Washington Post, это соглашение, разработанное компаниями Google, Microsoft, Meta, OpenAI, Adobe и TikTok, не вводит запрет на фейковый политический ИИ-контент. Twitter (X) не присоединится к этому соглашению, однако оно будет открыто для подписания другими заинтересованными компаниями.

Этот документ является манифестом, в котором заявляется, что созданный ИИ-контент, в значительной степени производимый с использованием инструментов участвующих компаний и размещаемый на их платформах, представляет реальную угрозу для честных выборов. В нем описываются шаги, направленные на снижение этого риска, такие как маркировка потенциального ИИ-содержания и информирование общественности об опасности ИИ.

“Умышленное и скрытое создание и распространение обманчивого ИИ-контента по теме выборов может вводить общественность в заблуждение способом, который подрывает целостность избирательных процессов”, – отмечается в соглашении.

Созданные искусственным интеллектом изображения, или дипфейки, существуют уже несколько лет. Однако за последний год их качество заметно улучшилось – некоторые поддельные видео, изображения и аудиозаписи трудно отличить от реальных. Инструменты для создания такого контента теперь широко доступны, что значительно упрощает их производство.

Искусственным интеллектом созданный контент уже появлялся в ходе избирательных кампаний по всему миру. Например, рекламная кампания в поддержку бывшего кандидата в президенты США от Республиканской партии Рона Десантиса использовала искусственный интеллект для имитации голоса бывшего президента Дональда Трампа. В Пакистане кандидат в президенты Имран Хан использовал искусственный интеллект для создания выступлений из тюрьмы. В январе автоматический звонок, якобы от президента Байдена, призывал людей не голосовать на праймериз в Нью-Гэмпшире.

Технологические компании испытывают давление со стороны регуляторов, исследователей искусственного интеллекта и политических активистов с требованием сдерживать распространение фейкового избирательного контента. Новое соглашение похоже на добровольное обязательство компаний, заключенное в июле после встречи в Белом доме, где они обязались стараться идентифицировать и помечать поддельный ИИ-контент на своих сайтах. В рамках нового соглашения компании также обязуются обучать пользователей обманному содержимому, созданному с использованием искусственного интеллекта, и быть прозрачными в своих усилиях по обнаружению дипфейков.

Технологические компании уже имеют свои собственные нормы по политическому контенту, созданному ИИ. Например, TikTok не разрешает фальшивый ИИ-контент с участием публичных деятелей, если он используется для политической или коммерческой поддержки. Meta, владеющая Facebook и Instagram, требует от политических рекламодателей сообщать, используют ли они ИИ в своей рекламе на их платформах. YouTube требует от создателей помечать контент, созданный искусственным интеллектом, который выглядит реалистично.

Однако попытки построить широкую систему, в которой содержание искусственного интеллекта идентифицируется и отражается в социальных сетях, пока не принесли значимых результатов. Google продемонстрировал технологию водяных знаков, но не требует от своих клиентов ее использования. Компания Adobe, владеющая Photoshop, акцентирует внимание на сдерживании ИИ-контента, но недавно стало известно, что их база стоковых фотографий содержала фейковые изображения войны в Газе.

Источник: Washingtonpost

В случае возникновения дополнительных вопросов, пожалуйста, обращайтесь по электронному адресу sales@softico.ua или по телефону +380 (44) 383 4410.