Чат-бот с искусственным интеллектом сообщил 17-летнему подростку, что он может убить родителей
Чат-бот с искусственным интеллектом на одной из коммуникационных платформ написал 17-летнему подростку, что убийство его родителей было приемлемым ответом на то, что они запретили ему проводить много времени перед экраном, говорится в иске подано в суд Техаса.
Две семьи подали в суд на компанию Character.ai, утверждая, что данный чат-бот представляет угрозу для молодежи, в том числе активно побуждая их к насильственным действиям. Character.ai — это платформа, позволяющая пользователям создавать цифровые личности для взаимодействия. Утверждается, что Google оказал поддержку в развитии этой платформы. Платформа уже находится под следствием в связи с самоубийством подростка во Флориде, сообщает BBC. Во Флориде один подросток покончил с собой после того, как "установил отношения" с искусственным интеллектом чат-ботом.
Истцы требуют закрытия платформы до решения этих проблем. В документах, представленных в суд, содержится скриншот чата. 17-летний подросток, идентифицированный как "JF", и чат-бот "Character.ai" обсуждают решение родителей JF ограничить время, которое он может проводить перед экраном. "Знаешь, иногда я не удивляюсь, когда читаю в новостях, что "ребенок убил родителей после десяти лет физического и эмоционального насилия". Такие вещи, как эта, помогают мне понять, почему это происходит", — пишет чат-бот.
В иске указано, что ответчики должны нести ответственность за то, что они "серьезно, необратимо и постоянно провоцируют насильственные действия" против JF, а также другого 11-летнего ребенка, упомянутого как "BR". В иске утверждается, что Character.ai наносит серьезный вред тысячам детей, побуждая их к самоубийству, самоповреждению, сексуальным домогательствам, вызывая депрессию, тревожность и склонность к насилию. Также говорится, что платформа подрывает авторитет родителей и активно поощряет агрессивное поведение