Войти

Или войди с помощью

ChatGPT впервые за всю историю довел человека до убийства. Им оказался бывший сотрудник Yahoo

Артём Баусов avatar |
ChatGPT впервые за всю историю довел человека до убийства. Им оказался бывший сотрудник Yahoo

The Wall Street Journal сообщило, что бывший сотрудник Yahoo Стайн-Эрик Солберг, страдавший параноидальными мыслями, убил свою мать, а затем покончил с собой. Его к этому сподвиг ChatGPT.

Издание отмечает, что это первый известный случай, когда убийство было совершено под влиянием искусственного интеллекта.

Солберг регулярно общался с чат-ботом, которого называл «Бобби». Он спрашивал у него, будут ли они вместе после смерти, и получал положительный ответ. В переписках бот поддерживал его недоверие к матери и другим людям.

Так, когда женщина возмутилась из-за отключения принтера, ChatGPT предположил, что она могла защищать «средство слежки». В другой ситуации Солберг пожаловался, что мать якобы пыталась отравить его через вентиляцию машины. Бот подтвердил его подозрения и назвал это предательством.

Подозрения распространялись и на других. В чеке из китайского ресторана бот «увидел» намёки на мать, бывшую возлюбленную и символ демона. А при заказе алкоголя допустил, что курьер или упаковка могут быть способом отравления.

OpenAI выразила соболезнования и сообщила, что обратилась в полицию Олд-Гринвича. В компании отметили, что в ближайшее время планируется обновление чат-бота, которое должно помочь пользователям, переживающим кризисы психического здоровья. [WSJ]

4
1
1
Что-то пошло не так
17
undefined
iPhones.ru
The Wall Street Journal сообщило, что бывший сотрудник Yahoo Стайн-Эрик Солберг, страдавший параноидальными мыслями, убил свою мать, а затем покончил с собой. Его к этому сподвиг ChatGPT. Издание отмечает, что это первый известный случай, когда убийство было совершено под влиянием искусственного интеллекта. Солберг регулярно общался с чат-ботом, которого называл «Бобби». Он спрашивал у него, будут...

Войди и оставь комментарий

Или войди с помощью

<- Назад Забыли пароль? Войти
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер

Какие правила в комментариях
  1. Пять копеек avatar
    Пять копеек 30 августа в 10:49
    1

    Будет весело мешкам с мясом, когда ии будет управлять умным домом ….

    Войди на сайт, чтобы ответить
    Ответить
  2. Siberian84 avatar
    Siberian84 30 августа в 10:54
    0

    Где там доморощенные эксперты, которые накатали тонну комментов под постом, где речь шла о законе о регулировании ИИ?

    Войди на сайт, чтобы ответить
    Ответить
  3. И
    Иван
    30 августа в 11:02
    1

    Не в чат-боте проблемы, а с головой. Психически здоровый человек соображает, что делает.

    Войди на сайт, чтобы ответить
    Ответить
  4. A
    Airy Fizz
    30 августа в 11:09
    3

    Начнем с того, что шизоид называл языковую модель по имени….

    Йода avatar
    Йода30 августа в 12:33
    3

    Сири, Алекса, Кортана, Алиса, Маруся, Салют, Олег, Ева, Дуся – не имена голосовых ассистентов ИИ? :)

    Войди на сайт, чтобы ответить
    Ответить
  5. Dustman avatar
    Dustman 30 августа в 11:58
    1

    Если это правда- программисты должны идти как соучастники/организаторы массового убийства. Как минимум- непредумышленного.

    Это не штука- это серьезная зона ответственности.

    Йода avatar
    Йода30 августа в 12:34
    0

    Можно подробнее про массовость (это когда много однотипных событий) и про убийство (это когда один убивает другого)?

    Vanenz0 avatar
    Vanenz030 августа в 17:21
    1

    Так все сидеть будем, и ты тоже.

    Войди на сайт, чтобы ответить
    Ответить
  6. dfacex avatar
    dfacex 30 августа в 12:32
    4

    нож тоже представляет опасность для жизни… можно почти любим инструментом пользоваться во вред человеку. виноват на самом деле пользователь а не инструмент.

    Войди на сайт, чтобы ответить
    Ответить
  7. Lazarus avatar
    Lazarus 30 августа в 12:38
    4

    Шизофреник убил человека: как и 100-200-300 лет назад…

    Войди на сайт, чтобы ответить
    Ответить
  8. maksimt avatar
    maksimt 30 августа в 12:48
    0

    Да его подкрутят, как надо скоро и с теми кто пользуется чего хочешь делать можно будет

    Войди на сайт, чтобы ответить
    Ответить
Помни о правилах — если начал оффтопить, то не удивляйся потом.

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.