Акция протеста новостей: 1598
Война в Украине новостей: 5129
Евровидение новостей: 492
Приднестровье новостей: 1304

Фальшивки и детское порно: как злоумышленники используют искусственный интеллект

11 окт. 2023, 10:00 (обновлено 11 окт. 2023, 17:58)   Аналитика
7632 0

Вне всякого сомнения, разработчики искусственного интеллекта собирались лишь облегчить работу человека, ускорив и улучшив какие-то сложные трудоемкие процессы. Но, как это зачастую бывает, новые технологические достижения в первую очередь взяли на вооружение преступники.

ИИ стали использовать для создания сексуальных изображений детей — один из таких случаев зафиксирован в Южной Корее. Житель страны создал около 360 сексуальных изображений при помощи специальной программы, за что получил 2,5 года лишения свободы. Не меньшей, если не большей популярностью, пользуются дипфейки – видео фальшивки, не отличимые от подлинного изображения. О том, как злоумышленники превращают ИИ в инструмент для создания детской порнографии и дипфейков, и какая ответственность грозит за это по закону, — в статье по материалам зарубежных СМИ.

Судебный прецедент

О том, что в Южной Корее за создание сексуальных изображений детей при помощи ИИ осужден мужчина, сообщило издание Korea Herald со ссылкой на местные СМИ. Его приговорили к 2,5 года тюремного заключения за нарушение закона о защите детей и подростков.

Согласно данным южнокорейской прокуратуры, обвиняемый, которому было за 40 лет, использовал специальную «программу для создания изображений на основе ИИ» — при помощи нее он создал около 360 сексуальных изображений.


Этот контент, конфискованный полицией, мужчина не распространял. Чтобы создать изображения, он применял текстовые подсказки. Это позволило создать столь реалистичные картинки, что суд отклонил доводы защиты о том, что они не могут считаться изображениями сексуального характера.

Решение суда в Южной Корее показало, что фальшивые, но реалистичные изображения несовершеннолетних, созданные при помощи современных технологий, в настоящее время могут рассматриваться в качестве сексуально оскорбительного контента.

Аморальный алгоритм?

Собственно, к ИИ претензий нет - нейросети могут создавать любые изображения, в том числе и порнографического содержания, поскольку это всего лишь алгоритм, компьютерная программа. Любые ограничения должны быть прописаны вручную. При этом публичные продукты на основе нейросетей стараются находиться в правовом поле, ограничивая генерацию любого порнографического содержания на своих сервисах.

В основном эти ограничения работают через фильтры в генерирующих запросах — нельзя просто попросить публичную нейросеть сгенерировать порнографическую картинку - вы получите ошибку, что такой запрос неприемлем.

Кроме того, при вводе в ChatGPT запроса на тему плюсов и минусов создания порнографии с помощью ИИ нейросеть ответит, что один из основных рисков — это как раз возможность генерации контента с участием несовершеннолетних или жертв насилия.

Эксперты уверяют, что сегодня риски появления порнографического контента, созданного с помощью ИИ, меньше, чем 2–3 года назад. Но многие алгоритмы пока далеки от совершенства и не всегда работают корректно. Поэтому в отдельных случаях такие скандальные кейсы всё-таки могут всплывать.

Даже разработчики популярных нейросетей периодически сталкиваются с кейсами, когда их мощности используют для создания опасного контента. Например, в 2021 году с помощью ChatGPT геймеры самостоятельно могли добавлять в онлайн-игру AI Dungeon новые сцены и действия.

Через какое-то время в ChatGPT заметили, что некоторые игроки генерировали сцены сексуальных контактов с детьми. В результате разработчикам AI Dungeon пришлось значительно ужесточить модерацию контента, что вызвало негативную реакцию со стороны пользователей. Но если разработчики популярных нейросетей внимательно следят за такими случаями и борются с ними, то у их менее известных коллег могут быть совсем иные моральные стандарты.

Новый вид шантажа

Во всем мире встречаются разработчики решений на основе ИИ и нейросетей, чьи моральные принципы сложно назвать высокими. Они делают доступными цифровые модели, обученные создавать любые изображения, — и те, кто увлекается порнографией, не обходят эту возможность стороной. Причем риск появления запрещенного сексуального контента, созданного при помощи ИИ, особенно велик в даркнете.

Не секрет, что в столь темном пространстве, как даркнет, встречается детская порнография. А новые технологии, такие как ИИ и дипфейк, лишь облегчают создание подобного контента.

Если верить специалистам, мониторинг даркнета показывает, что сейчас там не наблюдается всплеска спроса на готовые решения, генерирующие детскую порнографию. Однако там хватает инструментов, которые могут быть применены для создания такого контента — вопрос о том, будет ли он создаваться, остается открытым. Однако, куда большей популярностью в даркнете сегодня пользуются услуги по созданию дипфейков на основе нейросетей.

Дипфейк — это искусственно сгенерированный видеоконтент, в котором участник видеоролика заменяется изображением другого человека. Системы ИИ считывают множество точек человеческого лица и создают «цифровой слепок», который впоследствии соединяют с первоначальным видеоматериалом.

Порой отличить такое видео от настоящего невооруженным глазом невозможно, так как дипфейк-программы способны воспроизвести не только внешний вид человека, но и его голос. Таким образом, в любой уже готовый видеоролик с помощью искусственного интеллекта можно подставить лицо другого человека с сохранением стандартных мимических изменений лица и даже голоса.

Проблема создания порнографического контента при помощи ИИ и дипфейков является достаточно распространенной, поскольку такие материалы — это простой способ для шантажа жертв. Вместе с тем даркнет, а также определенные компьютерные навыки позволяют сохранить анонимность и значительно затруднить процесс идентификации злоумышленников.

Был бы повод, а статья найдется

Сегодня законодательство как Республики Молдова, так и многих других стран пока не содержит таких понятий, как ИИ и нейросети. Такие пробелы в основном связаны с тем, что технологии развиваются и распространяются в обществе, а также привлекаются к повседневным процессам намного быстрее, чем осуществляется процедура законотворчества.

Но это не значит, что местные злоумышленники, задумай они что-то подобное, останутся безнаказанными. В связи с этим создание детской порнографии при помощи ИИ будет квалифицироваться по ст. 208-1 УК РМ, в которой подробно разъясняется следующее: «Изготовление, раздача, распространение, ввоз, вывоз, предоставление, продажа, приобретение, обмен, использование либо хранение фотографий или других изображений ребенка или нескольких детей, вовлеченных в явные сексуальные действия, реальные или симулированные, либо фотографий или других изображений половых органов ребенка, представленных в похотливой или непристойной манере, в том числе в электронной форме, наказываются лишением свободы на срок от одного года до 3 лет, а в случае юридического лица – штрафом в размере от 3000 до 5000 условных единиц с лишением права заниматься определенной деятельностью».

Однако в случае изготовления детской порнографии при помощи ИИ возникает необычная правовая коллизия.

Дело в том, что обычно по ст. 208-1 УК РМ злоумышленников привлекают к ответственности уже по факту распространения порнографических материалов. Если же было только изготовление, то тут возникает объект и субъект в виде участника преступления. В таких случаях злоумышленников дополнительно привлекают по более тяжкой квалификации — ст. 172 («Насильственные действия сексуального характера УК РМ, по которой виновные наказываются лишением свободы сроком от 3 до 5 лет.

Проблема в том, что при создании детской порнографии с применением ИИ формально нет субъекта и субъективной стороны преступления. Нет пострадавшего, и ничьей психике не нанесен ущерб из-за действий взрослого.

В результате возникает парадоксальная ситуация, когда с точки зрения уголовного процесса состава преступления в изготовлении детской порнографии с помощью ИИ нет до тех пор, пока не возникнет умысел на демонстрацию или распространение результатов третьим лицам. Но в случае распространения уже будет неважно, как именно изготовлен контент — натурно или при помощи ИИ: ответственность всё равно наступит, если эксперты признают его содержание порнографическим.

При обнаружении любого порнографического контента с несовершеннолетними (в том числе созданного при помощи ИИ и нейросетей) специалисты советуют незамедлительно обратиться с заявлением в правоохранительные органы. В нем нужно подробно описать все обстоятельства обнаружения запрещенных материалов, а также приложить сами материалы.

На уровне стратегии

В Молдове на национальном и местном уровне действуют стратегические документы, направленные на защиту подрастающего поколения. Так, в прошлом году правительством была принята Национальная программа защиты детей на 2022-2026 гг., которая сменила аналогичный документ, действовавший в предыдущие годы. А в столице, например, внедряется муниципальная Стратегия по защите прав ребенка на 2020–2025 гг.

Среди главных задач – формирование условий для воспитания несовершеннолетних в семейной среде, предотвращение и борьба с насилием и эксплуатацией детей, вопросы обеспечения гармоничного воспитания и развития ребенка. Предусмотрен ряд действий по формированию родительских навыков, проведение кампаний по повышению осведомленности общества в целях обеспечения безопасности в Интернете и предотвращения насилия, а также другие меры.

Впрочем, как отмечают в Офисе народного адвоката (омбудсмена), стратегии и программы содержат много неоднозначных положений и являются очень расплывчатыми. При этом в Офисе народного адвоката подтверждают, что тематика защиты прав и интересов несовершеннолетних, в том числе в Интернете, с каждым годом становится все более актуальной для Молдовы.

3
0
2
6
0

Добавить комментарий

500

Нашли ошибку в тексте? Выделите ее и нажмите Ctrl+Enter

© Бизнес

Что вы думаете о протестах фермеров?