Педофилы уже начали использовать ИИ в своих ужасных целях
В руках злоумышленников искусственный интеллект (ИИ) превращается во вредоносный инструмент. Речь идет о педофилах, которые начали создавать и распространять материалы о сексуальном насилии над детьми. Соответствующий материал вышел в издании The Washington Post.
Эксперты рассказали журналистам, что именно вызывает у них обеспокоенность по этому вопросу, пишет портал Obozrevatel.
Так, по мнению директора по науке о данных в некоммерческой группе по защите детей Thorn Ребекки Портнофф, детские изображения, в том числе фото известных жертв насилия, перерабатываются с помощью ИИ. Это может осложнить правоохранительным органам работу по оказанию помощи жертвам таких преступлений. Портнофф также отметила, что ее группа фиксирует рост количества подобного контента месяц от месяца, начиная с минувшей осени.
Эксперт отметила, что полиции и так непросто идентифицировать жертв. А инструменты ИИ, которые легко использовать и которые создают реалистичные изображения, делают эту задачу еще сложнее. "Идентификация жертвы – это уже игла в стоге сена, когда правоохранительные органы пытаются найти ребенка в опасности", – продолжила Портнофф.
Как выяснили журналисты издания, большинство злоумышленников, скорее всего, используют генераторы изображений с открытым исходным кодом, такие как модель Stable Diffusion. И хотя в этом инструменте есть несколько предохранителей против подобного использования, включая соответствующие фильтры, внесение нескольких правок в код может легко обойти их.
Идентифицировать такие изображения может быть очень тяжело. Существующие системы для остановки распространения подобного нелегального контента были разработаны для обнаружения уже известных изображений, а не вновь созданных.