Специалисты предупреждают: не делитесь с ИИ слишком личной информацией
Не делитесь с искусственным интеллектом слишком большим количеством личной информации, призывают эксперты по кибербезопасности. Они прогнозируют, что в будущем полученная таким образом информация о вас может сыграть на руку мошенникам.
Искусственный интеллект (ИИ), например популярный ChatGPT, предлагает пользователям множество возможностей, позволяя быстро искать информацию, анализировать и систематизировать большие объемы данных. Однако, хотя ИИ используют очень активно, в тени остается тема кибербезопасности. «Многим ИИ помогает быстрее выполнять рабочие задачи или просто эффективнее искать информацию. В то же время ИИ является большим подспорьем для киберпреступников, которые могут использовать его для перевода фальшивых писем, создания сайтов, сбора информации о жертвах и кражи личных данных. Однако редко обсуждается тот факт, что люди сами бывают склонны передавать ИИ слишком много личных данных», - отметил руководитель отдела по борьбе с отмыванием денег банка Citadele Виктор Ткаченко. По мере развития технологий становится очень сложно контролировать, куда и к кому в итоге попадает наша информация.
Он пояснил, что многие ИИ-системы разработаны для обработки огромного объема данных, чтобы иметь возможность предлагать пользователю наилучшие ответы. Для того чтобы ИИ понял, о чем именно его спрашивают, он также может собирать и анализировать представленную пользователями информацию. «Даже если некоторые модели ИИ, такие как ChatGPT, работают на защищенных серверах OpenAI, пользователю не всегда понятно, где именно хранятся данные и как долго они там будут находиться. Возможно, данные хранятся в облаке, откуда со временем могут стать доступными злоумышленникам благодаря новым технологиям, программам или утечкам», - добавил Ткаченко.
На данный момент оценка рисков использования ИИ затруднена, поскольку это крайне быстро развивающаяся и меняющаяся сфера, однако в будущем, по мере развития технологий, может стать проще получать и анализировать данные для различных целей. Это означает, что информация, которой мы делимся сегодня, через несколько лет может оказаться ценным источником данных, который, попав в чужие руки, может быть использован, например, с целью кражи личности. Данные, которые мы сегодня передаем ИИ, могут быть слишком личными с точки зрения кибербезопасности и в какой-то момент стать опасными. «На самом деле при использовании ИИ действуют те же правила, что и при обычном поведении и общении в интернете», - сказал Ткаченко.
Он дает ряд рекомендаций по обеспечению кибербезопасности при общении с ИИ: избегайте передачи личной информации, не указывайте личные коды, полные имена, адреса, номера телефонов, финансовые и другие конфиденциальные данные; задавайте вопросы в обобщенной форме, используйте более общие вопросы, не требующие для ответа точной информации о вашей личности - например, спрашивайте у ИИ о финансовых или туристических рекомендациях в общем, а не о собственных банковских данных или советах по управлению финансами; предпочитайте анонимность, убедитесь, что используемые ИИ-системы не связаны с другими личными аккаунтами, где могут собираться и храниться ваши личные данные, а дополнительную безопасность может обеспечить создание отдельного электронного адреса – исключительно для регистрации в ИИ-системах; ознакомьтесь со своими правами и политиками конкретной ИИ-платформы. Чтобы избежать неприятных сюрпризов в будущем важно знать свои права в том, что касается удаления и передачи данных.
"Используйте только официальные системы. Мошенники пользуются популярностью ИИ, создавая собственные чат-боты, чтобы получить личные данные людей. Обращайтесь за советом только к тем системам и чат-ботам, в надежности владельцев и разработчиков которых вы уверены", - советует эксперт.