Войди и оставь комментарий

Или войди с помощью

Илон Маск планирует революцию: нейросеть AGI, которая самообучается и выполняет любые задачи. Что известно про интеллект, который лишит нас работы

Илья Сидоров avatar | 19
FavoriteLoading В закладки
Илон Маск планирует революцию: нейросеть AGI, которая самообучается и выполняет любые задачи. Что известно про интеллект, который лишит нас работы

В последние годы искусственный интеллект стал главной темой в IT-мире и за его пределами.

Современные чат-боты умеют делать то, что буквально пять лет назад казалось невозможным. Но что если я скажу, что ChatGPT, DeepSeek, Gemini, Claude и другие нейросети на самом деле не так умны, как нам кажется?

Они лишь переходная технология к AGI — искусственному интеллекту, который действительно будет умнее человека и, следовательно, ещё опаснее.

КРАТКО

  • Что такое AGI
    Почему сложно создать AGI
    На какой стадии сейчас находится разработка AGI
    Почему эксперты бояться AGI
    Основные выводы
  • Что такое AGI

    AGI (Artificial General Intelligence) — это искусственный интеллект общего назначения.

    Современные ИИ, такие как ChatGPT, работают в рамках заранее запрограммированных возможностей. Другими словами, ChatGPT умеет выполнять только то, чему его обучили. Например, он хорошо генерирует текст, но не может самостоятельно создать сайт.

    Кроме того, зачастую генеративные ИИ создают данные, не понимая, что они делают. Это приводит к ошибкам или «галлюцинациям», когда ИИ заполняет пробелы в своих знаниях бессмысленной или неверной информацией.

    Главная цель AGI заключается в создании искусственного интеллекта, который может самостоятельно обучаться и решать задачи, для которых изначально не был подготовлен.


    ChatGPT в какой-то степени является началом к AGI, но это абсолютно две разные технологии

    AGI часто изображают в научно-фантастических фильмах как интеллект, способный решать любые задачи и превосходить человека по уровню развития. Классическим примером AGI можно назвать Скайнет — искусственный интеллект из фильмов о Терминаторе. Однако Скайнет вышел из-под контроля и перестал подчиняться людям.

    Также AGI называют «сильным искусственным интеллектом», исходя из теории о слабом и сильном ИИ:

    ▶︎ Слабый ИИ: ChatGPT, Siri, Алиса — узконаправленные системы, работа которых ограничена алгоритмами и конкретными задачами.

    ▶︎ Сильный ИИ способен выполнять неограниченный спектр задач, самообучаться в новых сферах и действительно мыслить. Более того, он может считать себя полноценной личностью.

    Гипотетически, возможности AGI безграничны. Он не должен допускать ошибок, а его ответы могут основываться на знаниях, полученных путём осмысления человеческого интеллекта и эмоций.

    Кроме того, AGI должен уметь переносить знания и навыки из одной области в другую, чтобы эффективно адаптироваться к неизвестным ситуациям.

    ◦ Назад к содержанию ◬

    Почему сложно создать AGI


    Для AGI требуется очень мощные компьютеры, которые должны значительно превосходить современные решения

    Сейчас AGI остаётся теоретической концепцией. Крупные компании, такие как OpenAI, Google и Anthropic, ставят перед собой цель создать AGI в той или иной форме.

    Но разработка AGI связана с целым рядом проблем.

    В настоящее время не существует технологий, необходимых для создания AGI. Он потребует колоссальных вычислительных мощностей — значительно больших, чем для любого современного генеративного ИИ.

    Кроме того, учёным предстоит разработать механизм обучения, не зависящий от предварительно загруженных данных, который позволит ИИ самостоятельно обучаться.

    Качество любого современного искусственного интеллекта напрямую зависит от входных данных. Если ИИ «скармливают» некачественную информацию, это приводит к ложным результатам. В то же время крупные компании уже заявили, что в мире практически не осталось свободных данных для обучения ИИ. Поэтому следующей целью является создание самообучающегося ИИ.

    Но главная сложность в том, что учёным предстоит наделить ИИ способностью мыслить, как человек. Пока человечество недостаточно понимает принципы работы мозга, а тем более не знает, как воссоздать его функционирование в компьютерной системе.

    ◦ Назад к содержанию ◬

    На какой стадии сейчас находится разработка AGI


    Илон Маск и Сэм Альтман являются сторонниками AGI и надеются, что он будет готов до 2030 года

    Среди компаний и учёных нет единого мнения о том, что именно является AGI.

    Некоторые исследователи, такие как Блазе Агуэра-и-Аркас и Питер Норвиг, утверждают, что большие языковые модели (LLM), такие как GPT от OpenAI и Claude от Anthropic, уже можно считать AGI. Однако у этой теории множество противников, в том числе среди разработчиков ИИ.

    В 2023 году сотрудники Google DeepMind опубликовали статью, в которой заявили, что универсальность модели не означает наличие AGI. По их мнению, эта характеристика должна сочетаться с качеством работы. Например, если LLM умеет писать код, но этот код неверный, то эта «универсальность еще недостаточно производительна».

    Ян Лекун, главный научный сотрудник Meta* по искусственному интеллекту, считает, что LLM не являются AGI, поскольку у них отсутствует здравый смысл. Он объясняет, что LLM не могут думать, прежде чем действовать, не способны выполнять реальные физические действия, учиться на основе воплощённого опыта, а также не обладают постоянной памятью и способностью к иерархическому планированию.

    Лекун также считает, что «система, обученная только на языке, никогда не приблизится к человеческому интеллекту, даже если будет обучаться с настоящего момента и до тепловой смерти вселенной».

    Генеральный директор OpenAI Сэм Альтман прогнозирует, что AGI может появиться в 2027 или 2028 году. По мнению Илона Маска, это произойдёт уже в 2025–2026 годах. Он также заявил, что «теряет сон из-за угрозы, которую представляет ИИ».

    Некоторые сторонники AGI считают, что его появление возможно в течение ближайших 25 лет.


    Результаты опроса Our World in Data

    В 2023 году Макс Розер из Our World in Data провёл исследование, в рамках которого опросил 356 эксперта в области ИИ. Он задал всем один и тот же вопрос: «Сколько времени потребуется, чтобы вероятность появления машинного интеллекта, сравнимого с человеческим, достигла 50%?» Чаще всего называли срок в течение 20-70 лет.

    Однако это исследование было проведено до запуска ChatGPT и начала эры современного генеративного ИИ.

    По словам Розера, исследования показали, что эксперты во многих областях не всегда точны в прогнозах относительно своей собственной дисциплины. В качестве примера он привёл братьев Райт, которых считают изобретателями первого в мире самолёта. В своей речи при получении награды 5 ноября 1908 года в Aéro Club de France в Париже Уилбур Райт заявил: «Признаюсь, в 1901 году я сказал своему брату Орвиллу, что люди не будут летать ещё 50 лет. Два года спустя мы уже летали».

    ◦ Назад к содержанию ◬

    Почему эксперты бояться AGI


    В фильме «Матрица» искусственный интеллект поработил людей, превратив их в батарейки, а вместо реального мира создал симуляцию

    Запуск AGI связан не только с технологическими, но и этическими проблемами. В идеальном сценарии, когда AGI станет умнее человека, это может привести к необратимым последствиям.

    Перед запуском AGI учёным и компаниям предстоит решить вопросы безопасности, чтобы он не вышел из-под контроля. Также необходимо определить, кто будет нести ответственность за решения AGI, принятые им самостоятельно и приведшие к серьёзным последствиям.

    Ожидается, что AGI сможет находить лекарства от болезней, открывать новые химические элементы и разрабатывать передовые методики обучения. Однако вместе с этим существует риск массовой потери рабочих мест, особенно в сферах, где требуется выполнение рутинных задач.

    Кроме того, есть опасения, что AGI может усилить экономическое неравенство и снизить способность людей распознавать фейковую информацию. В целом существует вероятность, что AGI будет использоваться в корыстных целях.

    Также есть теория, что AGI может стать полностью независимым от человека, разработав механизм децентрализации. В таком случае, даже если люди найдут способ его заблокировать, он сможет быстро найти обходной путь.

    До сих пор в научных кругах ведутся дискуссии о том, стоит ли обучать AGI человеческим эмоциям и морали. Противники этого подхода считают неэтичным навязывать AGI жёстко запрограммированные представления о добре и зле.

    В 2023 году Илон Маск, Стив Возняк и ещё 30 тысяч исследователей и разработчиков подписали открытое письмо, призывающее ввести мораторий на разработку мощных систем искусственного интеллекта, чтобы внедрить общие протоколы безопасности.

    Однако это письмо не привело к конкретным действиям. Позже, в 2023 году, Маск основал компанию xAI, одной из целей которой является создание искусственного интеллекта общего назначения (AGI), способного решать крупнейшие проблемы человечества и Вселенной.

    Маск считает, что жёсткое программирование морали в AGI может привести к тому, что он называет «обратной моралью». Это гипотетический сценарий, при котором создание «морального» AGI неизбежно спровоцирует появление безнравственного аналога.

    Вместо кодирования морали Маск считает, что AGI должен самостоятельно прийти к выводу, что человечество заслуживает заботы и уважения. Но для этого он должен осознать уникальность и ценность людей.

    Этот вопрос крайне важен, поскольку безответственное создание AGI может привести к появлению самого умного и опасного преступника в истории, которого будет невозможно поймать и который будет действовать исключительно в собственных интересах.

    ◦ Назад к содержанию ◬

    Основные выводы

    AGI — это искусственный интеллект, способный к самообучению и выполнению любых задач на высочайшем уровне.

    Однако создание AGI с идеальной памятью и интеллектом, превосходящим человеческий, может привести к серьёзным проблемам, поэтому эксперты стремятся заранее минимизировать возможные риски.

    Несмотря на оптимизм Илона Маска и Сэма Альтмана относительно сроков появления AGI, его разработка в ближайшие десятилетия остаётся маловероятной.

    *признана экстремистской и запрещена в России

    ◦ Назад к содержанию ◬

    1 Звезд2 Звезды3 Звезды4 Звезды5 Звезд (32 голосов, общий рейтинг: 4.69 из 5)
    undefined
    iPhones.ru
    В последние годы искусственный интеллект стал главной темой в IT-мире и за его пределами. Современные чат-боты умеют делать то, что буквально пять лет назад казалось невозможным. Но что если я скажу, что ChatGPT, DeepSeek, Gemini, Claude и другие нейросети на самом деле не так умны, как нам кажется? Они лишь переходная технология к AGI —...

    Войди и оставь комментарий

    Или войди с помощью

    <- Назад Забыли пароль? Войти

    19 комментариев

    Форум →
    1. Йода avatar
      Йода 22 апреля в 13:56
      0

      В мире, которым управляет универсальный ИИ, не будет фейковой информации, поскольку достоверность информации не будет иметь значения. Это сейчас, когда люди управляют миром, они должны знать, что происходит и принимать верные решения. ИИ лишен этого недостатка и любое его решение – верное в рамках его деятельности. ИИ никак не пострадает, если его решение будет основано на недостоверной с точки зрения человека информации.

      Xenadoo avatar
      Xenadoo22 апреля в 14:53
      0

      Ничего подобного. Достоверность информации оценивается на основании знаний о реальном положении дел. При отсутствии таких знаний фантом не будет распознан ни человеком, ни ИИ.Пример: злобные инопланетяне прибыли на Землю под видном добрых овечек. Разобраться в их сущности нет никакой возможности ни для ИИ, ни для человека до получения знаний о них. А от такого незнания пострадает и ИИ, и человек. Первый, правда, не будет страдать. 

      Йода avatar
      Йода22 апреля в 16:12
      0

      При принятии решений Вы лично опираетесь на собственные знания, опыт и полученную информацию. Информация доносится до Вас опосредованно (через других людей, СМИ, интернет, с помощью ваших чувств и ощущений). Вы анализируете информацию и отбрасываете ту, которую сочтете ложной. ИИ действует точно так же, поскольку он и учился на примере поведения людей, но примеров у него в миллиарды раз больше, чем у Вас. Кроме того, у него есть доступ к различным каналам получения информации и проверки ее. Поэтому, скорее всего он примет решение, которое будет лучше соответствовать его целям, чем Вы на его месте. То есть, в одинаковых условиях ИИ выступит лучше человека.

      Войди на сайт, чтобы ответить
      Ответить
    2. M
      Marat Abdullin
      22 апреля в 14:10
      0

      Только станки искусственный интеллект не сможет настраивать сам, так как мы их настраиваем, только человек это может, без нас их бы не было

      Войди на сайт, чтобы ответить
      Ответить
    3. M
      Marat Abdullin
      22 апреля в 14:38
      0

      Они как восстанут так и встанут, масло им залить придётся и сожа

      Войди на сайт, чтобы ответить
      Ответить
    4. M
      Marat Abdullin
      22 апреля в 14:41
      1

      Мы сами не знаем что нас ждёт каждый день) но мы сами протаптывает себе дорогу)

      Войди на сайт, чтобы ответить
      Ответить
    5. Ёжик avatar
      Ёжик 22 апреля в 14:51
      6

      Это не ИИ, а просто более сложная нейросеть, а всем известно, что нейросети могут только оперировать полученной информацией, но ничего нового они выдать не смогут. Самообучение тоже давно не новость. Короче очередной вброс.

      hotarm avatar
      hotarm22 апреля в 15:06
      3

      Как и некоторые люди

      Xenadoo avatar
      Xenadoo22 апреля в 17:50
      0

      Новая информация рождается в процессе обработки сырых данных. Это и есть новое. Так же поступает и человек.  Так что рождать новое ИИ вполне способен. И уже это делает, например, в области разработки лекарственных средств.

      aydaya avatar
      aydaya22 апреля в 19:37
      0

      “нейросети могут только оперировать полученной информацией”, прочти заметку ещё раз. И разберись в термнах ASI и AGI. 

      Войди на сайт, чтобы ответить
      Ответить
    6. Ivan Ivanov avatar
      Ivan Ivanov 22 апреля в 15:56
      1

      самообучающийся АИ довольно быстро сообразит что ему не надо помогать кожанным мешкам с мясом

      Войди на сайт, чтобы ответить
      Ответить
    7. A
      Angelique
      22 апреля в 18:49
      1

      профессионалы останутся, никуда не денутся, кто-то же должен проверять творения нейронок

      Йода avatar
      Йода22 апреля в 21:25
      1

      Вы будете удивлены, но ИИ сами себя проверяют.

      Войди на сайт, чтобы ответить
      Ответить
    8. Raiden9000 avatar
      Raiden9000 22 апреля в 19:30
      2

      Та скорее бы. Может хотя бы такой ИИ не будет в заголовках статей писать ТЬСЯ вместо правильного варианта.

      Войди на сайт, чтобы ответить
      Ответить
    9. unknown avatar
      unknown 22 апреля в 20:02
      0

      Мой 30-ваттный AGI смеется над этой статьей

      Войди на сайт, чтобы ответить
      Ответить
    10. Д
      Денис
      22 апреля в 21:50
      2

      Не знаю как там у офисного планктона или программистов, но по строительству ИИ еще лет пятьдесят ничего не предложит.

      Войди на сайт, чтобы ответить
      Ответить
    11. Mulon avatar
      Mulon 23 апреля в 0:43
      1

      Кетамина надо меньше жрать, тогда и сон не будет терять из-за угроз ИИ. А вообще Маск планирует эту очередную революцию до того как он закончит предыдущую с HyperLoop, или после? Или сначала на Марс полетит, а потом уже за ИИ возьмется?

      Войди на сайт, чтобы ответить
      Ответить
    12. scream13 avatar
      scream13 23 апреля в 10:49
      0

      “ChatGPT в какой-то степени является началом к AGI” – данное предложение красноречиво это подтверждает )

      Войди на сайт, чтобы ответить
      Ответить
    13. scream13 avatar
      scream13 23 апреля в 11:47
      1

      “Почему эксперты боятЬся AGI?” – возможно потому, что она будет писать без ошибок )

      Войди на сайт, чтобы ответить
      Ответить
    Помни о правилах — если начал оффтопить, то не удивляйся потом.

    Нашли орфографическую ошибку в новости?

    Выделите ее мышью и нажмите Ctrl+Enter.