За последний год развитие искусственного интеллекта значительно ускорилось, вызвав резонанс как среди специалистов по кибербезопасности, так и среди обычных пользователей Интернета. В то время как специалисты применяют искусственный интеллект (ИИ) для повышения кибербезопасности, злоумышленники используют технологию в своих целях. Поэтому в этом году ожидается рост мошенничества, схем социальной инженерии, афер с учетными записями, дезинформационных кампаний и других угроз.
В связи с ростом интереса к использованию искусственного интеллекта специалисты ESET подготовили перечень основных схем, которые могут использовать злоумышленники, а также рассказали о возможных угрозах для конфиденциальности и преимуществах использования ИИ.
Как злоумышленники используют технологии ИИ
Искусственный интеллект уже используется различными типами угроз, а количество кибератак с его применением растет с каждым годом. Наиболее опасной является угроза в контексте социальной инженерии, где генеративный ИИ может помочь злоумышленникам создавать достаточно убедительный текст на локальных языках. Среди других самых распространенных схем с использованием искусственного интеллекта злоумышленниками:
- Обход аутентификации: дипфейк-технология помогает мошенникам выдавать себя за пользователей во время проверок на основе селфи и видео для создания новых учетных записей и получения доступа к ним.
- Взлом корпоративной электронной почты: искусственный интеллект позволяет обманом заставить жертву перевести средства на учетную запись под контролем мошенника. Также могут использоваться аудио и видео дипфейки, чтобы замаскироваться под генеральных директоров и других руководителей во время телефонных звонков и онлайн-встреч.
- Мошенничество с выдачей себя за другое лицо: программы, созданные на базе больших языковых моделей (LLM), откроют новые возможности для мошенников. Благодаря данным, полученным из взломанных или общедоступных учетных записей в соцсетях, мошенники могут выдать себя за жертву виртуального похищения и других афер, предназначенных для обмана друзей и близких.
- Аферы с влиятельными лицами: в 2025 году ожидается использование мошенниками технологии ИИ для создания поддельных или дублирующих учетных записей знаменитостей, влиятельных лиц и других известных людей в соцсетях. В частности злоумышленники могут опубликовать дипфейк-видео, чтобы заманить подписчиков поделиться личной информацией и деньгами.
- Дезинформация: киберпреступники будут использовать искусственный интеллект для создания поддельного контента, таким образом заманивая доверчивых пользователей соцсетей следить за фальшивыми аккаунтами. В дальнейшем эти пользователи могут стать инструментом для других операций злоумышленников.
- Взлом паролей: инструменты на основе искусственного интеллекта способны за считанные секунды выманивать учетные данные для доступа к корпоративным сетям и данным, а также аккаунтам пользователей.
Какие угрозы для конфиденциальности
Помимо использования искусственного интеллекта как инструмента в атаках киберпреступников, он также может увеличить риски утечек данных. Программы на базе больших языковых моделей требуют огромных объемов текста, изображений и видео для их обучения. Часто случайно некоторые из этих данных будут конфиденциальными: биометрия, медицинская или финансовая информация. Также некоторые соцсети и другие компании могут изменить условия предоставления услуг, чтобы использовать данные пользователей для обучения моделей.
Предоставление информации модели искусственного интеллекта представляет опасность для пользователя из-за возможности взлома системы или передачи ее другим через программы, которые работают на основе LLM. В частности корпоративные пользователи могут непреднамеренно делиться конфиденциальной информацией, связанной с работой, через подсказки искусственного интеллекта. Согласно опросу, пятая часть британских компаний случайно раскрыла потенциально конфиденциальные данные из-за использования технологий ИИ сотрудниками.
В чем преимущества искусственного интеллекта
Искусственный интеллект будет играть все большую роль в работе команд по кибербезопасности в течение этого года, поскольку он будет встроен в новые продукты и услуги. В частности это поможет:
- генерировать данные для обучения пользователей, групп безопасности и даже инструментов по безопасности на основе ИИ;
- обобщать длинные и сложные отчеты об угрозах для аналитиков и способствовать более быстрому принятию решений по инцидентам;
- повысить производительность специалистов по безопасности путем автоматизации рабочих процессов для расследования и исправления;
- сканировать большие объемы данных на признаки подозрительного поведения;
- повышать квалификации ИТ-команд с помощью функции «второго пилота», встроенной в различные продукты, чтобы уменьшить вероятность неправильных настроек.
Однако специалисты ИТ отрасли должны понимать ограничения искусственного интеллекта и важность опыта человека в процессе принятия решений. В 2025 году важным будет баланс между человеческими ресурсами и машинной работой, чтобы уменьшить риски ошибок, а также потенциально негативные последствия. Технологии ИИ необходимо сочетать с другими инструментами и техниками для получения оптимальных результатов.
В 2025 году искусственный интеллект радикально изменит способ взаимодействия с технологиями. Использование инструментов на основе ИИ имеет огромные потенциальные выгоды для предприятий и отдельных пользователей, но также создает новые риски, которыми необходимо управлять. Поэтому государство, предприятия и пользователи должны сотрудничать, чтобы использовать потенциал искусственного интеллекта, одновременно уменьшая риски.
Источник: ESET
В случае возникновения дополнительных вопросов, пожалуйста, обращайтесь на электронный адрес sales@softico.ua или по телефону +380 (44) 383 4410.