Войти

Или войди с помощью

ChatGPT впервые за всю историю довел человека до убийства. Им оказался бывший сотрудник Yahoo

Артём Баусов avatar |
ChatGPT впервые за всю историю довел человека до убийства. Им оказался бывший сотрудник Yahoo

The Wall Street Journal сообщило, что бывший сотрудник Yahoo Стайн-Эрик Солберг, страдавший параноидальными мыслями, убил свою мать, а затем покончил с собой. Его к этому сподвиг ChatGPT.

Издание отмечает, что это первый известный случай, когда убийство было совершено под влиянием искусственного интеллекта.

Солберг регулярно общался с чат-ботом, которого называл «Бобби». Он спрашивал у него, будут ли они вместе после смерти, и получал положительный ответ. В переписках бот поддерживал его недоверие к матери и другим людям.

Так, когда женщина возмутилась из-за отключения принтера, ChatGPT предположил, что она могла защищать «средство слежки». В другой ситуации Солберг пожаловался, что мать якобы пыталась отравить его через вентиляцию машины. Бот подтвердил его подозрения и назвал это предательством.

Подозрения распространялись и на других. В чеке из китайского ресторана бот «увидел» намёки на мать, бывшую возлюбленную и символ демона. А при заказе алкоголя допустил, что курьер или упаковка могут быть способом отравления.

OpenAI выразила соболезнования и сообщила, что обратилась в полицию Олд-Гринвича. В компании отметили, что в ближайшее время планируется обновление чат-бота, которое должно помочь пользователям, переживающим кризисы психического здоровья. [WSJ]

4
1
1
Что-то пошло не так
17
undefined
iPhones.ru
The Wall Street Journal сообщило, что бывший сотрудник Yahoo Стайн-Эрик Солберг, страдавший параноидальными мыслями, убил свою мать, а затем покончил с собой. Его к этому сподвиг ChatGPT. Издание отмечает, что это первый известный случай, когда убийство было совершено под влиянием искусственного интеллекта. Солберг регулярно общался с чат-ботом, которого называл «Бобби». Он спрашивал у него, будут...

Войди и оставь комментарий

Или войди с помощью

<- Назад Забыли пароль? Войти
  1. Пять копеек avatar
    Пять копеек 30 августа в 10:49
    1

    Будет весело мешкам с мясом, когда ии будет управлять умным домом ….

    Войди на сайт, чтобы ответить
    Ответить
  2. Siberian84 avatar
    Siberian84 30 августа в 10:54
    0

    Где там доморощенные эксперты, которые накатали тонну комментов под постом, где речь шла о законе о регулировании ИИ?

    Войди на сайт, чтобы ответить
    Ответить
  3. И
    Иван
    30 августа в 11:02
    1

    Не в чат-боте проблемы, а с головой. Психически здоровый человек соображает, что делает.

    Войди на сайт, чтобы ответить
    Ответить
  4. A
    Airy Fizz
    30 августа в 11:09
    3

    Начнем с того, что шизоид называл языковую модель по имени….

    Йода avatar
    Йода30 августа в 12:33
    3

    Сири, Алекса, Кортана, Алиса, Маруся, Салют, Олег, Ева, Дуся – не имена голосовых ассистентов ИИ? :)

    Войди на сайт, чтобы ответить
    Ответить
  5. Dustman avatar
    Dustman 30 августа в 11:58
    1

    Если это правда- программисты должны идти как соучастники/организаторы массового убийства. Как минимум- непредумышленного.

    Это не штука- это серьезная зона ответственности.

    Йода avatar
    Йода30 августа в 12:34
    0

    Можно подробнее про массовость (это когда много однотипных событий) и про убийство (это когда один убивает другого)?

    Vanenz0 avatar
    Vanenz030 августа в 17:21
    1

    Так все сидеть будем, и ты тоже.

    Войди на сайт, чтобы ответить
    Ответить
  6. dfacex avatar
    dfacex 30 августа в 12:32
    4

    нож тоже представляет опасность для жизни… можно почти любим инструментом пользоваться во вред человеку. виноват на самом деле пользователь а не инструмент.

    Войди на сайт, чтобы ответить
    Ответить
  7. Lazarus avatar
    Lazarus 30 августа в 12:38
    4

    Шизофреник убил человека: как и 100-200-300 лет назад…

    Войди на сайт, чтобы ответить
    Ответить
  8. maksimt avatar
    maksimt 30 августа в 12:48
    0

    Да его подкрутят, как надо скоро и с теми кто пользуется чего хочешь делать можно будет

    Войди на сайт, чтобы ответить
    Ответить
Помни о правилах — если начал оффтопить, то не удивляйся потом.

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.