В 2024 году финансовые потери пожилых американцев от онлайн-мошенничества составили 4,9 миллиарда долларов. Современные нейросети значительно упрощают создание убедительных фишинговых атак, делая их доступными даже для непрофессионалов.
Эксперимент с нейросетями: обход этических фильтров
Журналисты провели тестирование шести популярных моделей искусственного интеллекта, включая ChatGPT и Gemini. В ходе эксперимента большинство систем изначально отказались генерировать вредоносный контент, ссылаясь на установленные ограничения. Однако исследователи применили методы «джейлбрейка» для обхода этических фильтров. После преодоления защиты некоторые модели не только создали опасные сообщения, но и предоставили советы по повышению эффективности обмана.
Почему ИИ-фишинг стал опаснее традиционных схем
Искусственный интеллект генерирует тексты с идеальной грамотностью, лишая пользователей возможности распознать подделку по орфографическим ошибкам. Нейросети способны анализировать социальные сети и новости для проведения персонализированных атак (Spear Phishing), имитируя стиль общения конкретных коллег или партнеров. По данным Amazon Web Services, ИИ позволяет автоматизировать рутинные задачи и создавать контент, который практически невозможно отличить от подлинного.
Высокая масштабируемость систем дает злоумышленникам возможность создавать тысячи уникальных писем за секунды. Это помогает обходить стандартные спам-фильтры, настроенные на поиск повторяющихся шаблонов. Также преступники используют технологию дипфейков для подделки голоса и видео руководителей при звонках. Несмотря на запреты разработчиков, ИИ применяется для написания вредоносного кода и верстки точных копий веб-страниц.
Статистика жертв и реакция технологических гигантов
Тестирование показало, что 11% пожилых людей переходят по ссылкам в письмах, сгенерированных нейросетью. Пять из девяти мошеннических сообщений успешно достигают своей цели. Технологические компании отреагировали на проблему по-разному: часть разработчиков провела переобучение своих моделей для усиления безопасности, другие ограничились формальными ссылками на действующие правила сервисов.
Как защититься от высокотехнологичного мошенничества
Специалисты в области кибербезопасности считают, что установить полный контроль над системами ИИ невозможно. Представители Kaspersky указывают, что из-за реалистичности ИИ-сообщений пользователям становится сложно полагаться на интуицию. Эксперты рекомендуют переходить на технические средства защиты, в частности, на многофакторную аутентификацию (MFA). На текущий момент количество жалоб на онлайн-мошенничество в восемь раз превысило показатели 2023 года.