Войти

Или войди с помощью

ChatGPT впервые за всю историю довел человека до убийства. Им оказался бывший сотрудник Yahoo

Артём Баусов avatar |
ChatGPT впервые за всю историю довел человека до убийства. Им оказался бывший сотрудник Yahoo

The Wall Street Journal сообщило, что бывший сотрудник Yahoo Стайн-Эрик Солберг, страдавший параноидальными мыслями, убил свою мать, а затем покончил с собой. Его к этому сподвиг ChatGPT.

Издание отмечает, что это первый известный случай, когда убийство было совершено под влиянием искусственного интеллекта.

Солберг регулярно общался с чат-ботом, которого называл «Бобби». Он спрашивал у него, будут ли они вместе после смерти, и получал положительный ответ. В переписках бот поддерживал его недоверие к матери и другим людям.

Так, когда женщина возмутилась из-за отключения принтера, ChatGPT предположил, что она могла защищать «средство слежки». В другой ситуации Солберг пожаловался, что мать якобы пыталась отравить его через вентиляцию машины. Бот подтвердил его подозрения и назвал это предательством.

Подозрения распространялись и на других. В чеке из китайского ресторана бот «увидел» намёки на мать, бывшую возлюбленную и символ демона. А при заказе алкоголя допустил, что курьер или упаковка могут быть способом отравления.

OpenAI выразила соболезнования и сообщила, что обратилась в полицию Олд-Гринвича. В компании отметили, что в ближайшее время планируется обновление чат-бота, которое должно помочь пользователям, переживающим кризисы психического здоровья. [WSJ]

4
1
1
Что-то пошло не так
17
Логотип iPhones.ru
iPhones.ru
The Wall Street Journal сообщило, что бывший сотрудник Yahoo Стайн-Эрик Солберг, страдавший параноидальными мыслями, убил свою мать, а затем покончил с собой. Его к этому сподвиг ChatGPT. Издание отмечает, что это первый известный случай, когда убийство было совершено под влиянием искусственного интеллекта. Солберг регулярно общался с чат-ботом, которого называл «Бобби». Он спрашивал у него, будут...

17 комментариев

Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик из TikTok
Котик из TikTok
Котик из TikTok
Котик из TikTok
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Видео мем
Видео мем
Видео мем
Видео мем
Видео мем
Видео мем

Какие правила в комментариях
  1. Пять копеек avatar
    Пять копеек 30 августа 2025
    1

    Будет весело мешкам с мясом, когда ии будет управлять умным домом ….

    Войди на сайт, чтобы ответить
    Ответить
  2. Siberian84 avatar
    Siberian84 30 августа 2025
    0

    Где там доморощенные эксперты, которые накатали тонну комментов под постом, где речь шла о законе о регулировании ИИ?

    Войди на сайт, чтобы ответить
    Ответить

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.