Подпишись на 2025 год со скидками до 57% и получи гарантированные подарки на сумму 55€!

Подписаться на журнал
Педофилы уже начали использовать ИИ в своих ужасных целях
фото: Shutterstock
Иллюстративное фото
Реально & Невероятно

Педофилы уже начали использовать ИИ в своих ужасных целях

Rus.jauns.lv

В руках злоумышленников искусственный интеллект (ИИ) превращается во вредоносный инструмент. Речь идет о педофилах, которые начали создавать и распространять материалы о сексуальном насилии над детьми. Соответствующий материал вышел в издании The Washington Post.

Эксперты рассказали журналистам, что именно вызывает у них обеспокоенность по этому вопросу, пишет портал Obozrevatel.

Так, по мнению директора по науке о данных в некоммерческой группе по защите детей Thorn Ребекки Портнофф, детские изображения, в том числе фото известных жертв насилия, перерабатываются с помощью ИИ. Это может осложнить правоохранительным органам работу по оказанию помощи жертвам таких преступлений. Портнофф также отметила, что ее группа фиксирует рост количества подобного контента месяц от месяца, начиная с минувшей осени.

Эксперт отметила, что полиции и так непросто идентифицировать жертв. А инструменты ИИ, которые легко использовать и которые создают реалистичные изображения, делают эту задачу еще сложнее. "Идентификация жертвы – это уже игла в стоге сена, когда правоохранительные органы пытаются найти ребенка в опасности", – продолжила Портнофф. 

Как выяснили журналисты издания, большинство злоумышленников, скорее всего, используют генераторы изображений с открытым исходным кодом, такие как модель Stable Diffusion. И хотя в этом инструменте есть несколько предохранителей против подобного использования, включая соответствующие фильтры, внесение нескольких правок в код может легко обойти их.

Идентифицировать такие изображения может быть очень тяжело. Существующие системы для остановки распространения подобного нелегального контента были разработаны для обнаружения уже известных изображений, а не вновь созданных.