За последний год развитие искусственного интеллекта значительно ускорилось, вызвав резонанс как среди специалистов по кибербезопасности, так и среди обычных пользователей Интернета. В то время как специалисты применяют искусственный интеллект (ИИ) для повышения кибербезопасности, злоумышленники используют технологию в своих целях. Поэтому в этом году ожидается рост мошенничества, схем социальной инженерии, афер с учетными записями, дезинформационных кампаний и других угроз.

В связи с ростом интереса к использованию искусственного интеллекта специалисты ESET подготовили перечень основных схем, которые могут использовать злоумышленники, а также рассказали о возможных угрозах для конфиденциальности и преимуществах использования ИИ.

Как злоумышленники используют технологии ИИ

Искусственный интеллект уже используется различными типами угроз, а количество кибератак с его применением растет с каждым годом. Наиболее опасной является угроза в контексте социальной инженерии, где генеративный ИИ может помочь злоумышленникам создавать достаточно убедительный текст на локальных языках. Среди других самых распространенных схем с использованием искусственного интеллекта злоумышленниками:

  • Обход аутентификации: дипфейк-технология помогает мошенникам выдавать себя за пользователей во время проверок на основе селфи и видео для создания новых учетных записей и получения доступа к ним.
  • Взлом корпоративной электронной почты: искусственный интеллект позволяет обманом заставить жертву перевести средства на учетную запись под контролем мошенника. Также могут использоваться аудио и видео дипфейки, чтобы замаскироваться под генеральных директоров и других руководителей во время телефонных звонков и онлайн-встреч.
  • Мошенничество с выдачей себя за другое лицо: программы, созданные на базе больших языковых моделей (LLM), откроют новые возможности для мошенников. Благодаря данным, полученным из взломанных или общедоступных учетных записей в соцсетях, мошенники могут выдать себя за жертву виртуального похищения и других афер, предназначенных для обмана друзей и близких.
  • Аферы с влиятельными лицами: в 2025 году ожидается использование мошенниками технологии ИИ для создания поддельных или дублирующих учетных записей знаменитостей, влиятельных лиц и других известных людей в соцсетях. В частности злоумышленники могут опубликовать дипфейк-видео, чтобы заманить подписчиков поделиться личной информацией и деньгами.
  • Дезинформация: киберпреступники будут использовать искусственный интеллект для создания поддельного контента, таким образом заманивая доверчивых пользователей соцсетей следить за фальшивыми аккаунтами. В дальнейшем эти пользователи могут стать инструментом для других операций злоумышленников.
  • Взлом паролей: инструменты на основе искусственного интеллекта способны за считанные секунды выманивать учетные данные для доступа к корпоративным сетям и данным, а также аккаунтам пользователей.

Какие угрозы для конфиденциальности

Помимо использования искусственного интеллекта как инструмента в атаках киберпреступников, он также может увеличить риски утечек данных. Программы на базе больших языковых моделей требуют огромных объемов текста, изображений и видео для их обучения. Часто случайно некоторые из этих данных будут конфиденциальными: биометрия, медицинская или финансовая информация. Также некоторые соцсети и другие компании могут изменить условия предоставления услуг, чтобы использовать данные пользователей для обучения моделей.

Предоставление информации модели искусственного интеллекта представляет опасность для пользователя из-за возможности взлома системы или передачи ее другим через программы, которые работают на основе LLM. В частности корпоративные пользователи могут непреднамеренно делиться конфиденциальной информацией, связанной с работой, через подсказки искусственного интеллекта. Согласно опросу, пятая часть британских компаний случайно раскрыла потенциально конфиденциальные данные из-за использования технологий ИИ сотрудниками.

В чем преимущества искусственного интеллекта

Искусственный интеллект будет играть все большую роль в работе команд по кибербезопасности в течение этого года, поскольку он будет встроен в новые продукты и услуги. В частности это поможет:

  • генерировать данные для обучения пользователей, групп безопасности и даже инструментов по безопасности на основе ИИ;
  • обобщать длинные и сложные отчеты об угрозах для аналитиков и способствовать более быстрому принятию решений по инцидентам;
  • повысить производительность специалистов по безопасности путем автоматизации рабочих процессов для расследования и исправления;
  • сканировать большие объемы данных на признаки подозрительного поведения;
  • повышать квалификации ИТ-команд с помощью функции «второго пилота», встроенной в различные продукты, чтобы уменьшить вероятность неправильных настроек.

Однако специалисты ИТ отрасли должны понимать ограничения искусственного интеллекта и важность опыта человека в процессе принятия решений. В 2025 году важным будет баланс между человеческими ресурсами и машинной работой, чтобы уменьшить риски ошибок, а также потенциально негативные последствия. Технологии ИИ необходимо сочетать с другими инструментами и техниками для получения оптимальных результатов.

В 2025 году искусственный интеллект радикально изменит способ взаимодействия с технологиями. Использование инструментов на основе ИИ имеет огромные потенциальные выгоды для предприятий и отдельных пользователей, но также создает новые риски, которыми необходимо управлять. Поэтому государство, предприятия и пользователи должны сотрудничать, чтобы использовать потенциал искусственного интеллекта, одновременно уменьшая риски.

Источник: ESET

В случае возникновения дополнительных вопросов, пожалуйста, обращайтесь на электронный адрес sales@softico.ua или по телефону +380 (44) 383 4410.

Categories: НовостиPublished On: Февраль 3, 2025

Leave A Comment