Как разработчики искусственного интеллекта, так и законодатели ряда стран понимают угрозы и риски, связанные с широким распространением многочисленных инструментов, использующих искусственный интеллект. В сегодняшней публикации мы рассмотрим лишь некоторые из них на основе реальных преступлений, о которых стало известно из средств массовой информации, а в следующей статье — поговорим о том, как искусственный интеллект помогает правоохранительным органам.
Искусственный интеллект уже использовался для написания зловредного кода (работоспособных червей и троянов) и писем для шантажистов-вымогателей, позволяющих преступнику скрыть свои языковые особенности, но такие случаи редко попадают в газеты. Намного больший резонанс вызывают случаи, когда искусственный интеллект используется для мошенничества, создания дипфейков как с целью опорочить жертву, так и для шантажа или с политическими целями. Мошенники изобретательны в своём использовании ИИ. Подделывают фотографии, голос и даже видео. Основные категории преступлений, связанных с использованием ИИ, включают:
Но не будем голословны и поговорим о случаях, когда использование ИИ преступниками попало в газеты.
Излюбленная цель преступников — уязвимые категории людей, такие, как одинокие пожилые люди. У пожилых людей, особенно одиноких, часто снижается критическое восприятие; им бывает тяжело отличить реальность от подделки, особенно — такой убедительной подделки, которые в массовых количествах создают мошенники и особенно — если в неё хочется верить. В статье Elder scams can have real-world health effects. Will AI make it worse? журналисты Association of Health Care Journalists рассказывают о многочисленных случаях, когда мошенники использовали инструменты искусственного интеллекта, чтобы сделать вымышленные истории более убедительными. Целью преступников являются пожилые люди. О массовости явления свидетельствует число звонков, поступивших на «горячую линию» AARP Fraud Watch Network, которое за 2023 год превысило сто тысяч.
Как это работает? Как правило, преступники могут представляться внуками или другими родственниками, связь с которыми по какой-либо причине прервалась. Для придания большей убедительности вымышленным историям создаются фальшивые учётные записи в социальных сетях, куда выкладываются изображения, созданные или отредактированные (технология дипфейк) искусственным интеллектом. В статье Thousands scammed by AI voices mimicking loved ones in emergencies журналисты Ars Technica рассказывают о том, как мошенники используют в тех же целях искусственно сгенерированные голоса, имитирующие голоса реальных родственников. Подобные технологии, согласно публикации в Vice, использовались и для создания голосовых дипфейков, в которых голоса знаменитостей использовались для записи расистских и экстремистских высказываний.
Разумеется, целью мошенников становятся не только пожилые. Так, в Индии известность получил случай, когда мошенники использовали ИИ для клонирования голоса председателя Airtel Сунила Миттала, пытаясь обмануть одного из его сотрудников и выманить крупную сумму денег. Посредством аналогичной атаки злоумышленники выманили порядка 35 миллионов долларов у неназванной японской компании. Подобные истории можно перечислять бесконечно; голосовые ИИ достигли той стадии, когда отличить обработанный голос от необработанного на слух стало невозможным (а о том, какими средствами правоохранительные органы это всё-таки могут сделать — в нашей следующей статье).
Голосовые дипфейки не обошли и российских преступников. Банк России выпустил статью о том, как Мошенники обманывают людей с помощью дипфейков, а в статье Осторожно, дипфейк: как злоумышленники наживаются на россиянах с помощью ИИ журналисты из Лиги безопасного Интернета рассказывают об основных схемах, посредством которых мошенники обманывают своих жертв, используя подделанные при помощи ИИ голоса. Наконец, в Блоге Касперского опубликована статья, в которой подробно описаны механизмы создания и использования голосовых дипфейков.
Тему голосовых дипфейков нельзя считать полностью раскрытой, не рассказав и о таком явлении, как пранкеры. Широкую известность получила пара пранкеров Владимир Кузнецов (Вован) и Алексей Столяров (Лексус), которые неоднократно обманывали мировых лидеров, включая президента Франции Эммануэля Макрона и президента Польши Анджея Дуду. Многие специалисты считают, что для подделки голосов были использованы технологии голосовых дипфейков, но сами пранкеры утверждают, что использовали живых актёров.
Отдельной категорией преступлений является травля в учебных заведениях, в процессе которой агрессоры используют нейросети для создания убедительных дипфейков, на которых жертвы (в большинстве случаев — несовершеннолетние) изображаются в сексуализированном виде. Широкое распространение, анонимность и простота использования как генеративных нейросетей, так и дополнений к ним, позволяющим создавать убедительные дипфейки на основе единственной фотографии жертвы, делают такие инструменты привлекательными для агрессоров. В статье Фальшивая порнография перечислены реальные и прямые последствия для детей, включая клевету, домогательства, вымогательства и издевательства.
В отчёте Associated Press говорят о том, какими способами государство может противодействовать описываемому явлению, однако фактически единственным работающим решением является криминализация травли и издевательств. На момент написания известен по крайней мере один случай в США, когда авторы дипфейков были арестованы за создание и распространение дипфейков с изображениями одноклассниц; в Испании по той же статье 15 подростков получили условные сроки.
Чрезвычайную остроту проблема получила в Южной Корее, в которой на данный момент уголовной полицией расследуется 513 дел о создании дипфейков. В стране разворачивается масштабный кризис дипфейков, 93% из которых создаются подростками в возрасте до 20 лет.
Отметим, что создание и распространение сексуализированных фотореалистичных изображений несовершеннолетних является уголовным преступлением в большинстве стран, даже если на сгенерированных картинках не изображены реальные личности: согласно отчётам, огромное количество подобных материалов затрудняет работу полиции по выявлению реальных случаев эксплуатации детей.
Дипфейки активно и массово создаются различными террористическими организациями в целях пропаганды. Так, террористическая организация ХАМАС активно использует технологии искусственного интеллекта, включая дипфейки, для создания пропагандистских материалов. С октября 2023 года в интернете распространялись изображения, якобы демонстрирующие последствия израильских атак на сектор Газа, включая фотографии раненых и погибших детей. Однако, как сообщает агентство Associated Press, многие из этих изображений были созданы с помощью ИИ и не отражают реальных событий.
Как ХАМАС, так и другие террористические организации используют дипфейки для распространения ложной информации. Создаваемые материалы направлены на деморализацию гражданского общества и усиление поддержки со стороны мировой общественности. Использование ИИ в пропагандистских целях позволяет террористическим организациям создавать убедительные материалы, которые сложно отличить от реальных, что усиливает их влияние на аудиторию и усложняет борьбу с дезинформацией.
Не брезгуют созданием дипфейков и неонацисты, которые используют искусственный интеллект для создания пропагандистских материалов и распространения своей идеологии, а также для получения чертежей оружия для 3D-печати и создания вредоносного кода. С развитием технологий ИИ экстремистские группировки смогут создавать всё более сложный и убедительный пропагандистский контент, что ещё сильнее усложнит борьбу с экстремизмом.
Наконец, рассмотрим ещё одну категорию инструментов искусственного интеллекта, которая часто используется мошенниками. Мы уже обсудили голосовые и видео-дипфейки, а также сгенерированные и отредактированные изображения. На очереди — большие языковые модели (LLM), или искусственные интеллекты, которые общаются текстом.
В 2024 году, по данным исследовательской компании Intel 471, наблюдается значительное увеличение использования ИИ в сфере киберпреступности. Модели искусственного интеллекта используются для автоматизированного анализа огромных массивов данных, полученных в результате утечек. ИИ используется для создания специализированных чат-ботов и персонализированных атак, которые, в свою очередь, используются для создания фальшивых личностей, манипуляции жертвами, втягивания их в романтические и иные схемы вымогательства. Чат-боты на базе ИИ часто используют для создания реалистичных сообщений, которые обманывают пользователей и побуждают их раскрывать личную информацию или переводить деньги мошенникам.
Нечистоплотные продавцы используют ИИ для написания фальшивых отзывов к продуктам на Amazon, а нечистоплотные писатели генерируют при помощи ИИ целые книги, что привело к по крайней мере одному отравлению.
Искусственный интеллект используют и для создания фальшивых новостей («фейков»). В статье Generative AI is the ultimate disinformation amplifier журналисты DW рассказывают о том, каким образом использование ИИ влияет на на распространение дезинформации. ИИ позволяет любому пользователю быстро, легко и массово создавать большие объёмы фальшивого контента, который трудно отличить от реального и который зачастую более эмоционально окрашен и выглядит более правдоподобно и привлекательно в сравнении с реальным. Эти факторы приводят к тому, что фальшивые новости пользователи социальных сетей распространяют шире, чем «скучные» настоящие, серьёзно затрудняя борьбу с дезинформацией без использования других моделей искусственного интеллекта.