The Wall Street Journal сообщило, что бывший сотрудник Yahoo Стайн-Эрик Солберг, страдавший параноидальными мыслями, убил свою мать, а затем покончил с собой. Его к этому сподвиг ChatGPT.
Издание отмечает, что это первый известный случай, когда убийство было совершено под влиянием искусственного интеллекта.
Солберг регулярно общался с чат-ботом, которого называл «Бобби». Он спрашивал у него, будут ли они вместе после смерти, и получал положительный ответ. В переписках бот поддерживал его недоверие к матери и другим людям.
Так, когда женщина возмутилась из-за отключения принтера, ChatGPT предположил, что она могла защищать «средство слежки». В другой ситуации Солберг пожаловался, что мать якобы пыталась отравить его через вентиляцию машины. Бот подтвердил его подозрения и назвал это предательством.
Подозрения распространялись и на других. В чеке из китайского ресторана бот «увидел» намёки на мать, бывшую возлюбленную и символ демона. А при заказе алкоголя допустил, что курьер или упаковка могут быть способом отравления.
OpenAI выразила соболезнования и сообщила, что обратилась в полицию Олд-Гринвича. В компании отметили, что в ближайшее время планируется обновление чат-бота, которое должно помочь пользователям, переживающим кризисы психического здоровья. [WSJ]
Войди и оставь комментарий
Или войди с помощью
Будет весело мешкам с мясом, когда ии будет управлять умным домом ….
Где там доморощенные эксперты, которые накатали тонну комментов под постом, где речь шла о законе о регулировании ИИ?
Не в чат-боте проблемы, а с головой. Психически здоровый человек соображает, что делает.
Начнем с того, что шизоид называл языковую модель по имени….
Сири, Алекса, Кортана, Алиса, Маруся, Салют, Олег, Ева, Дуся – не имена голосовых ассистентов ИИ? :)
Если это правда- программисты должны идти как соучастники/организаторы массового убийства. Как минимум- непредумышленного.
Это не штука- это серьезная зона ответственности.
Можно подробнее про массовость (это когда много однотипных событий) и про убийство (это когда один убивает другого)?
Так все сидеть будем, и ты тоже.
нож тоже представляет опасность для жизни… можно почти любим инструментом пользоваться во вред человеку. виноват на самом деле пользователь а не инструмент.
Шизофреник убил человека: как и 100-200-300 лет назад…
Да его подкрутят, как надо скоро и с теми кто пользуется чего хочешь делать можно будет
Рекомендуем
Нашли орфографическую ошибку в новости?
Выделите ее мышью и нажмите Ctrl+Enter.