Войти

Или войди с помощью

Meta* может перестать разрабатывать ИИ, которые она считает очень опасными для человечества

Илья Сидоров avatar |
Meta* может перестать разрабатывать ИИ, которые она считает очень опасными для человечества

Meta* опубликовала новый документ Frontier AI Framework, в котором рассматриваются сценарии, при которых компания может отказаться от выпуска нового ИИ.

Компания выделяет два потенциально опасных типа ИИ: системы «высокого риска» и «критического риска». Они способны содействовать проведению кибератак, а также использоваться в химических и биологических атаках.

Разница заключается в том, что системы «критического риска» могут привести к «катастрофическим последствиям, которые невозможно смягчить в предложенном контексте развертывания». В то время как системы «высокого риска» могут облегчить проведение атаки, но не обладают столь же разрушительным потенциалом.

Meta* приводит примеры таких угроз, как «автоматизированная сквозная компрометация корпоративной среды, защищенной передовыми методами» и «распространение биологического оружия с высокой степенью поражения». Компания считает, что подобные инциденты наиболее вероятны при выпуске мощных ИИ-систем.

Если Meta* определит, что ИИ имеет высокий уровень риска, компания не будет выпускать его до снижения риска до «умеренного уровня». Если система окажется критически опасной, Meta* предпримет все возможные меры безопасности для предотвращения кражи технологии и приостановит разработку до тех пор, пока не будет найден способ сделать ИИ менее опасным. [TechCrunch]

*признана экстремистской и запрещена в России

3
undefined
iPhones.ru
Meta* опубликовала новый документ Frontier AI Framework, в котором рассматриваются сценарии, при которых компания может отказаться от выпуска нового ИИ. Компания выделяет два потенциально опасных типа ИИ: системы «высокого риска» и «критического риска». Они способны содействовать проведению кибератак, а также использоваться в химических и биологических атаках. Разница заключается в том, что системы «критического риска» могут...

Войди и оставь комментарий

Или войди с помощью

<- Назад Забыли пароль? Войти
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Котик
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер
Мем стикер

Какие правила в комментариях
  1. E
    Evgeny
    4 февраля в 9:55
    3

    Читай: мы профакапили гонку «вооружения» ИИ и не способны выдать конкурентный инструмент.
    Поэтому мы за озеленение природы и безопасность во всем мире ✨
    ’с уважением, Ваша самая продажная контора под покровительством США 🙏

    Войди на сайт, чтобы ответить
    Ответить
  2. А
    Александр
    4 февраля в 10:40
    1

    Оно опасно, но, т.к. Мета не может не зарабатывать, вслух они откажутся, а тихонько будут пилить.

    Это как со слежкой за всем человечеством – сколько они клялись, а их потом за руку снова ловили )

    Войди на сайт, чтобы ответить
    Ответить
  3. Kaji avatar
    Kaji 4 февраля в 12:21
    1

    Хм. А при чем тут Adobe Illustrator?

    Войди на сайт, чтобы ответить
    Ответить
Помни о правилах — если начал оффтопить, то не удивляйся потом.

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.