Почему искусственный интеллект вряд ли убьёт нас

Николай Маслов avatar | 33
FavoriteLoading В закладки
Почему искусственный интеллект вряд ли убьёт нас

Пока менеджер Илон Маск паникует и пытается создать комитеты слежения за искусственным интеллектом во имя спасения человечества, профессиональные инженеры из IEEE заставили всех соблюдать законы робототехники. Хочешь проектировать ИИ? Только если обеспечишь безопасность.

Причем тут Илон Маск и Марк Цукерберг?


Еще 15 июля Илон Маск призвал американских губернаторов создать организацию для слежки за системами искусственного интеллекта. Мотив простой — по мнению Маска, рано или поздно они уничтожат человечество. Но мы еще этого не замечаем:

Илон Маск:

Пока люди не видят роботов, убивающих людей на улицах, они не знают, как реагировать, потому что такой сценарий кажется им нереалистичным.


Парадоксальное выступление от человека на острии науки, правда? Его высмеял даже Цукерберг. Невольно задумываешься — он вообще понимает, о чем говорит? Действительно ли он в состоянии проектировать будущее? Или, может быть, за этим предложением прячется желание законодательно одобренного шпионажа для получения новейших разработок?

Спи сладко, Илон. Спи сладко, читатель. За тебя уже все сделали в IEEE. ИИ больше не навредит.

Кто такие IEEE?


IEEEИнститут инженеров электротехники и электроники, международная некоммерческая организация-разработчик стандартов по радиоэлектронике, электротехнике и аппаратному обеспечению вычислительных систем и сетей.

Фактически, организация обобщает и приводит к общему знаменателю разрозненные разработки, превращая их в единую систему: как для справки, так и для развития. С помощью этих стандартов разные разработчики получают возможность проектирования совместимых с чужими систем. Среди самых известных стандартов IEEE:

  • IEEE 1294 — USB,
  • IEEE 1394 — FireWire (i-Link),
  • IEEE 802 — семейство сетевых протоколов.

Последний знаком даже простым пользователям — вспомните, как называется версия Wi-Fi?

Как IEEE планирует регулировать ИИ


IEEE выпустила три новых стандарта, регулирующие этические вопросы работы систем искусственного интеллекта при обработке данных и взаимодействии с окружающим.

Документы относятся к разряду обязательных стандартов сообщества и были разработаны в рамках стандартизации работ по изучению этических аспектов ИИ и самоуправляемых автомобилей.

Содержимое стандартов объемно и содержит преимущественно информацию для разработчиков. В основе текстов — постановка этических проблем при обработке данных искусственным интеллектом и способы их решения.

В результате IEEE предложила готовую матрицу для программирования систем с учетом интересов и моральных норм человечества.

Что описывают стандарты IEEE о искусственном интеллекте?


Один из стандартов, IEEE P7004, описывает правила сертификации и контроля тех организаций и систем, которые обрабатывают данные о детях и студентах. IEEE P7005 регулирует работу с данными о наемных работниках.

При его соблюдении ИИ и организации, работающие с данными, обязаны действовать, основываясь на безопасности и благополучии — даже с теми, что находятся в свободном доступе. Так же IEEE описала обязательные нормы, которым должны соответствовать доступ, сбор, хранение, использование, совместное использование и уничтожение данных о детях и учащихся.

Третий стандарт IEEE P7006 описывает для создание и контроль работы персонализированных ИИ-агентов — посредников в принятиях решений между несколькими компьютерами или системами. Методология разработки и технические элементы, заложенные в стандарте, должны исключить любые проблемы в работе интеллектуального аппарата.

Роботы не убьют человеков. IEEE всех спасли


Самое интересное кроется в стандарте IEEE P7006. Он не просто описывает способы сертификации и задает законы робототехники — он процедуру, принцип работы искусственного интеллекта, связывающего человека и машину:

  • как должен работать ИИ-агент;
  • как должен предоставляться доступ к нему;
  • как должна вводиться информация;
  • как должно проходить обучение ИИ;
  • какие нормы этические нормы, правила и ценности должен заложить разработчик.

Первая версия стандарта если не введет 3 закона робототехники в обязательные для исполнения правила, то хотя бы минимизирует возможный вред. По мере развития технологий P70006 станет единым правилом, которое обеспечит защиту личности и безопасность всего человечества.

А если я не хочу соблюдать стандарт?

Стандарты IEEE как правило принимаются всем сообществом, и через некоторое время либо становятся универсальным документом для всех использующих технологию, либо превращаются в документ другой организации — при сохранении функций.

Соблюдение стандартов IEEE необходимо не только для получения бумаг от официальных структур. Многие принципы, заложенные в них, обеспечивают совместимость систем различных разработчиков. Кроме того, они работают в качестве сертификата соответствия, говоря о надежности продукта.

Правила просты:

Не хочешь соблюдать — выйди из системы и живи без сертификата, проектируй для себя и не публикуйся. Хочешь, чтобы тебе доверяли и приобретали продукт — соответствуй!

1 Звезд2 Звезды3 Звезды4 Звезды5 Звезд (Проголосуйте первым за статью!)
undefined
iPhones.ru
Самообучающиеся системы не смогут навредить наемным работникам, детям и принять неэтичные решения. Встречайте законы робототехники, которые не обойти. Илон Маск может спать спокойно.
Прокомментировать

🙈 Комментарии 33

  1. DarkGothicLady avatar
    DarkGothicLady30 июля 2017
    2

    Излишняя самоуверенность не есть хорошо. И чтобы однажды не проснуться в известном фильме, только это будет реальность, надо с этим сейчас что-то делать.

    Николай Маслов avatar
    0

    @DarkGothicLady, IEEE уже занялось. Стандартизация методологий разработки, описание проблемных ситуаций и их возможное разрешение – необходимы.

  2. andyfinch avatar
    andyfinch30 июля 2017
    16

    Человечество погубят статьи Баусова и Сида

    battllerr avatar
    battllerr30 июля 2017
    5

    @andyfinch, люто плюсую:).

    По теме : как математически можно описать “этические нормы и стандарты “?:).
    Это субъективные понятия, не подлежащие однозначному толкованию,всегда есть допуск или иное понимание,а значит-уде заложена ошибка.
    Мы все умрем,машины форева.

    Николай Маслов avatar
    0

    @battllerr, не так просто, как кажется. Но и не так сложно. У вас же есть базовые понятия: нельзя убивать, нельзя красть, нельзя сжигать чужую собственность. Это примитивные выражения, легко программируемые.

    Стандарты IEEE в первую очередь оговаривают – с чем нельзя оперировать машине, что она не должна отдавать в общий доступ, как строить ее общение с пользователем. Это не законы – это методология разработки. Что и когда нужно учесть, чтобы машина работала правильно. И что нужно в нее заложить, чтобы при отклонении произошла коррекция или остановка системы. Допуск всегда возможен – так же как у человека. Поверьте, запрограммировать можно все – но IEEE пытается решить более общую и важную задачу.

    galan avatar
    galan31 июля 2017
    1

    @Николай Маслов, а сжигать чужую собственность, чтобы спасти жизнь человеку? А если этот человек убийца? Можно ли убивать человека, чтобы спасть двух? А если этот человек ребёнок? А можно ли убить взрослого, чтобы спасти ребёнка? Можно ли красть у вора? Для себя? Для того, чтобы вернуть награбленное?

    Все эти базовые понятия на самом деле очень многогранные и мозг наш незаметно проделывает огромную работу при выборе вариантов. А вот запрограммировать это будет ой как непросто.

    XPEH01 avatar
    XPEH0131 июля 2017
    0

    @galan, решить вопросы морали и этики, а так же оцифровать их, человечеству еще только предстоит. На мой взгляд, основная проблема заключается в том, что мы, будучи индивидами, пытаемся создать другой индивидуум, забывая, что в процессе создания закладываем в него черты собственной индивидуальности. Поясню: я считаю, что можно убить одного для спасения двух, вы считаете, что нельзя. Обе точки зрения достаточно объективны и имеют равные права на существование. Вопрос: ИИ как будет считать? Ответ: смотря кто будет ИИ создавать – вы или я.

    XPEH01 avatar
    XPEH0131 июля 2017
    0

    @battllerr, описать можно достаточно легко, если вы знакомы с нечеткой логикой и нечеткой математикой.

  3. nightloner avatar
    nightloner30 июля 2017
    0

    Прочел спросоня заголовок – думал показалось! Словно попал в фильм “Я Робот”..
    Знаем мы ваши законы робототехники..

    Николай Маслов avatar
    1

    @nightloner, у самого Азимова законы робототехники строго выполняются во всех случаях. ;)

  4. boshlin avatar
    boshlin30 июля 2017
    1

    И будут эти законы работать, пока роботы не придумают сами себе 0 закон, где можно убить человека, ради сохранения человечества

  5. Arden avatar
    Arden30 июля 2017
    1

    Наивно думать, что люди смогут контролировать будущие воплощения ИИ при помощи таких ограничений. Это все равно, что мухи бы придумывали правила для людей.
    Человечество в нынешнем виде доживает последние века, но что прийдет на смену ему – предугадать невозможно.

    Николай Маслов avatar
    0

    @Arden, если человек способен контролировать миллионы себе подобных – почему он не может сделать это с замкнутым в собственной экосистемы алгоритмом?

    Arden avatar
    Arden31 июля 2017
    2

    @Николай Маслов, потому, что замкнутая система алгоритма может быть на порядки больше замкнутой системы человека.
    Никто не будет создавать ИИ, возможности которого не превосходят человеческие.

    XPEH01 avatar
    XPEH0131 июля 2017
    0

    @Николай Маслов, потому что как бы экосистема хомо сапиенсов сама не оказалась частью экосистемы чего-то большего, что эти хомо сапиенсы и создали.

  6. ivolandi avatar
    ivolandi30 июля 2017
    0

    Автор не знаком с принципами машинного обучения и теорией искусственного интеллекта от слова “совсем”

    Николай Маслов avatar
    0

    @ivolandi, как в воздух. В чем претензия? Вы считаете, что в методах машинного обучения запрещены методы задания граничных условий на ранних этапах обучения? Кто будет выпускать в свет необученный алгоритм – во всяком случае, после необходимости его сертификации и подтверждения соответствия работы алгоритмов общедозволенным?

    ivolandi avatar
    ivolandi31 июля 2017
    0

    @Николай Маслов, теперь предметно к посту об АI. О тесте Тьюринга, прохождение которого ожидается ближайшие года (менее 5):
    «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор»

    Т.е. задача компьютера повторить интеллект человека. Это значит прохождение серии вопросов которые будут направлены на соответствие абсолютно ЛЮБЫМ стандартам. Например просьба совершить действие противоречащее стандарту с целью выявления программы. Другими словами, задача компьютера превзойти не только вычислительные возможности мозга человека, но и сформировать систему нравственности не отличную от человеческой, в которой такие вещи как убийство или вред кому-либо ради более важной цели более чем оправданное средство.

    ivolandi avatar
    ivolandi31 июля 2017
    0

    @Николай Маслов, и не затрагиваю даже такие темы как использование МО в военных целях. Почитайте статьи где описано, что гугл сразу на примере дума, а сейчас в 3хмерном пространстве оптимизирует нейронную сеть задача которой захыватывать (в случае с думом) стрелять по движущимся в пространстве объекта. Уже сегодня любой поехавший крышей датасайнтист может взять в открытом доступе алгоритм, прикрутить его к дрону с пулеметом и запустить в небо “на вольные хлеба”. И тут даже близко не идет речи не о каком АI.

  7. kostik avatar
    kostik30 июля 2017
    0

    На месте Цукерберга я бы не очень выступал. У них уже началось:
    https://www.popmech.ru/technologies/news-370982-chat-boty-facebook-izobreli-svoy-sobstvennyy-yazyk/

    Николай Маслов avatar
    0

    @kostik, ну и что? Это не ведет к негативным последствиям крупных масштабов. Пока. Зато дает понятие – что может быть потом. Отличный эксперимент.

  8. Carib avatar
    Carib30 июля 2017
    0

    Какой вообще ИИ, если можно только складывать и вычитать единички и нолики. Да даже рандомное число выбрать программа выбрать не в состоянии.

    Arden avatar
    Arden30 июля 2017
    0

    @Carib, у людей десятичная система и не больше 100 букв в алфавите. Этого оказалось достаточно, чтобы кардинально изменить жизнь на Земле и уничтожить множество других видов.

    Carib avatar
    Carib31 июля 2017
    0

    @Arden, причем тут это, я говорю о том как софтом описать хоть что-то похожее на человека, а не только если А, то Б

    Николай Маслов avatar
    1

    @Carib, так же, как человека. Мозг устроен на многосвяхных, но классических связях, описываемых стандартными алгоритмами

    Николай Маслов avatar
    1

    @Carib, ваш мозг работает по тем же принципам, что и транзистор. То есть, компьютер + алгоритмы машинного обучения и соответствующее ПО = невероятно упрощенный мозг. Не думайте, что моделирование человеческого мозга невозможно.

    Carib avatar
    Carib31 июля 2017
    0

    @Николай Маслов, нет, давайте код чтобы просто выбрать число (от 1 до 10 хотя бы) абсолютно рандомно, как это может сделать человек. Сам я давно уже жду восстание машин, правда. Но пока не подключат мозг человека к машине, видимо этого не будет.

    Николай Маслов avatar
    2

    @Carib, вы уверены, что человек способен делать что-либо совершенно произвольно? Не преувеличивайте человеческих способностей – все, что он делает, строится на связях, подобных транзиторным. Но с большим числом свобод. Однако, это не говорит о принципиальном отличии человеческой логики от компьютерной. Любое решение неосознанно несет штамп опыта, образования, стиля мышления и личных предпочтений. Поэтому кто-то в 8 случаях из 10 назовет случайное число 5, а кто-то – 7. И вероятность чисел 2, 4,6,8 значительно ниже 3,5,7,9.

    ivolandi avatar
    ivolandi31 июля 2017
    0

    @Carib, а с чего Вы взяли что мозг человека способен генерить рандомное число?
    Если Вы не понимаете алгоритма и параметров исходя из которых человек сгенерировал “рандомное число”, то это абсолютно не значит, что число рандомное.
    Я почти уверен, что уже сегодня можно настроить алгоритм, который будет с очень высокой вероятностью предсказывать рандомное число, которое попросят назвать человека опираясь на входных параметрах самого человека

    ivolandi avatar
    ivolandi31 июля 2017
    1

    @Carib, мешно )
    Переведу “да о каком интеллекте может идти речь, если человек своим мозгом только что и может, так это гонять прерывные электромагнитные импульсы

  9. voice avatar
    voice31 июля 2017
    2

    Если вы думаете , что Межгосударственный авиационный комитет спасает нас от аварий самолетов то это не так.
    Так и IEEE не гарантирует ни чего. Это какая то чушь в чистом виде.

    Николай Маслов avatar
    0

    @voice, поскольку я работаю в авиационной промышленности, могу вас верить – да, МАК спасает нас от многих проблем при перелетах. Благодаря установленные общепринятым стандартам все работает так, как должно – и не выходит за рамки разумного. Так же, исходя из опыта работы, могу вас верить – без мак и сертификации катастроф было бы на порядки больше – даже исключительно из-за механических и приборных проблем

    ivolandi avatar
    ivolandi31 июля 2017
    0

    @Николай Маслов, ну может пример не самый удачный, но поймите основное, что сама суть ИИ заключается в том, что он должен превзойти способности человеческого мозга включая такие как нравственность.
    Одной из аксиом является принцип самосохранения, т.е. развитый в достаточной степени алгоритм направленный на достижение максимизации абсолютно любой функции, главнейшим критерием достижения результата будет считать необходимость собственного развития и сохранения. Исходя из этого следует, что любой искуственно заданный стандарт в определенных условиях может противоречить первоначально заданной цели. Ну а если даже это ограничение будет заложено на базовом уровне (хотя я не представляю как), то вынудит контролирующую сторону (комитет или контролирующий орган) путем шантажа или обмана ограничение снять. Помните, что для ИИ важность имеет только одно – максимизация целевой функции, остальное воспринимается как барьеры и ограничения, которые нужно обойти.

Вы должны авторизоваться или зарегистрироваться для комментирования.

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.

Как установить аватар в комментариях?

Ответ вот здесь