Главные новости » Эксклюзив » Заявление ЮНИСЕФ: Дипфейки все чаще применяются для создания контента сексуального характера с участием детей
Эксклюзив

Заявление ЮНИСЕФ: Дипфейки все чаще применяются для создания контента сексуального характера с участием детей

259
Заявление ЮНИСЕФ: Дипфейки все чаще применяются для создания контента сексуального характера с участием детей

По данным исследования, проведенного ЮНИСЕФ совместно с международной организацией ECPAT и Интерполом, более 1,2 миллиона детей в 11 странах сообщили, что в прошлом году их изображения были подделаны для создания откровенного контента. В некоторых регионах пострадал каждый 25-й ребенок, что означает, что в классе из 25 учеников как минимум один стал жертвой.

Дети, участвующие в исследовании, осознают риски, связанные с использованием ИИ для создания фальшивых сексуализированных изображений. В некоторых странах до двух третей респондентов выразили беспокойство о том, что технологии могут быть использованы для создания поддельного контента сексуального характера. Уровень тревожности варьируется в зависимости от страны, что подчеркивает необходимость в повышении осведомленности и усилении мер защиты.

Важно отметить, что сексуализированные изображения детей, созданные с помощью ИИ, относятся к материалам, связанным с сексуальным насилием (CSAM). Злоупотребление дипфейками может иметь серьезные последствия и причинять реальный вред.

Когда используется изображение ребенка, он становится непосредственной жертвой. Даже если ребенок не может быть идентифицирован, такие материалы способствуют нормализации сексуальной эксплуатации детей и создают проблемы для правоохранительных органов в области защиты детей.

ЮНИСЕФ поддерживает инициативы разработчиков ИИ, которые внедряют системы обеспечения безопасности и меры по предотвращению неправомерного использования своих технологий. Тем не менее, ситуация остается неоднородной, и многие модели ИИ создаются без должных защитных механизмов. Риски увеличиваются, когда генеративные ИИ интегрированы в социальные сети, что способствует быстрому распространению обработанных изображений.

ЮНИСЕФ подчеркивает необходимость принятия следующих мер для борьбы с растущей угрозой, связанной с контентом сексуального характера, созданным с помощью ИИ:


  • Все правительства должны расширить определения материалов о сексуальном насилии над детьми (CSAM), включая контент, созданный ИИ, и сделать его создание, распространение и хранение уголовно наказуемыми.

  • Разработчики ИИ должны внедрять меры безопасности на этапе проектирования и разрабатывать эффективные механизмы защиты, чтобы предотвратить неправомерное использование их технологий.

  • Цифровые компании обязаны принимать меры по предотвращению распространения материалов с изображением сексуального насилия над детьми, созданных с помощью ИИ, а не лишь реагировать на факты злоупотреблений; необходимы инвестиции в технологии обнаружения, чтобы материалы могли быть удалены сразу, а не спустя несколько дней после обращения жертвы.


Вред от злоупотребления дипфейками является серьезной проблемой, требующей незамедлительных действий. Дети не могут ждать, пока будут приняты необходимые законы.
0 комментариев
Обсудим?
Смотрите также:
Продолжая просматривать сайт report.kg вы принимаете политику конфидициальности.
ОК