Войти

Или войди с помощью

Сотрудники OpenAI выпустили открытое письмо с предупреждением об опасности развития ИИ

Артём Баусов avatar |
Сотрудники OpenAI выпустили открытое письмо с предупреждением об опасности развития ИИ

Несколько текущих и бывших сотрудников OpenAI и Google DeepMind опубликовали открытое письмом с предупреждением об опасностях ИИ и отсутствии надзора за компаниями, работающими над соответствующими технологиями.

Они считают, что существует ряд рисков, с которыми мы сталкиваемся в связи с развитием ИИ. Например, манипуляции и дезинформация, а также потеря контроля над автономными системами, что, как говорится в письме, может привести к вымиранию человечества.

Вот, какие меры предлагают предпринять подписавшиеся под письмом. Они касаются как самой технологии, так и компаний, занимающимися ей:

• Избегайте создания соглашений, которые препятствуют критике в отношении проблем, связанных с рисками

• Предложите сотрудникам анонимный процесс передачи информации о своей обеспокоенности рисками, которые можно направить совету директоров, регулирующим органам и независимым организациям с соответствующим опытом

• Поддерживайте культуру открытой критики при условии защиты коммерческой тайны

• Избегайте принятия ответных мер в отношении сотрудников, которые публично делятся конфиденциальной информацией, связанной с рисками, после того, как другие процессы потерпели неудачу

В общей сложности письмо подписало 13 человек, в том числе 7 бывших и 4 нынешних сотрудника OpenAI, 1 бывший и 1 текущий работник Google DeepMind.

OpenAI пригрозила сотрудникам потерей принадлежащего им капитала за высказывания и заставила подписывать соглашения о неразглашении информации, которые запрещают любую критику. [MacRumors]

🔥 Кстати, мы прямо сейчас разыгрываем крутой смарт-телевизор KIVI в нашем Telegram-канале! Кликайте и участвуйте 😎

13
Логотип iPhones.ru
iPhones.ru
Несколько текущих и бывших сотрудников OpenAI и Google DeepMind опубликовали открытое письмом с предупреждением об опасностях ИИ и отсутствии надзора за компаниями, работающими над соответствующими технологиями. Они считают, что существует ряд рисков, с которыми мы сталкиваемся в связи с развитием ИИ. Например, манипуляции и дезинформация, а также потеря контроля над автономными системами, что, как говорится...

13 комментариев

Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик из TikTok
Котик из TikTok
Котик из TikTok
Котик из TikTok
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Момент из фильма
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Офис стикер
Видео мем
Видео мем
Видео мем
Видео мем
Видео мем
Видео мем

Какие правила в комментариях
  1. CrueHead avatar
    CrueHead 5 июня 2024
    5

    Это совершенно очевидная вещь. ИИ – зло, и меня абсолютно удивляют слюнявые ликования по его развитию.

    rum avatar
    rum5 июня 2024
    2

    @CrueHead, за одну Midjourney можно бы запретить нахрен ИИ.

    ❖ avatar
    6 июня 2024
    0

    @rum, зачем? Очень полезная нужна вещица, столько денег экономит и времени.

    Zeder avatar
    Zeder13 июня 2024
    0

    @CrueHead, кто тебе в колхоз провел интернет?

    Войди на сайт, чтобы ответить
    Ответить
  2. chirkov avatar
    chirkov 5 июня 2024
    4

    OpenAI сами стоят на передовой развития ИИ и тут же предостерегают. лол

    Войди на сайт, чтобы ответить
    Ответить

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.