Искусственный интеллект, потенциальная угроза выживанию человечества. Может ли угрожать суперкалькулятор? Возможная угроза со стороны искусственного интеллекта

31.07.2019

Футуристический Клуб проектирования будущего, созданный под эгидой делового издания «Инвест-Форсайт», открыт. Клуб объединил экспертов в различных областях знаний для анализа сценариев будущего. Первая встреча состоялась в Институте философии РАН и прошла совместно с новым семинаром «Философия цифровой эпохи» самого института. Под прицел футурологов и философов попал искусственный интеллект (ИИ) и его влияние на общество и человека.

Чего ожидать от ИИ, какие ограничения и опасности есть у инновационных информационных систем, рассказал биофизик, ведущий эксперт Института биологии старения Игорь Артюхов .

Ученый отметил, что в области царит терминологический хаос. Чаще всего используется формулировка 70-летней давности, данная американским инженером, автором термина «искусственный интеллект» Джоном Маккарти . Он определил ИИ как некую систему, устройство или их сеть, которые способны решать интеллектуальные задачи. Игорь Артюхов подчеркнул, что интеллект не является синонимом ума, а характеризует способность работать со знаниями, с данными.

Классификаций алгоритмов тоже множество. До недавнего времени, по словам Игоря Артюхова, господствовали экспертные разработки (сверху вниз), но они не оправдали надежд ни создателей, ни пользователей, и началась зима ИИ. Возрождение было вызвано развитием нейронных сетей, которое вошло в активную фазу в 2015-2016 гг. Эти разработки были вдохновлены исследованиями головного мозга человека. Нейросети во многом повторяют общие принципы функционирования мозга, хотя искусственные нейроны могут отличаться от естественных. На сегодняшний день существует «зоопарк» нейронных сетей, и большинство из них в последнее время получены с помощью технологии глубокого обучения.

«Интеллектуальная» революция 17-го года

Тема ИИ стала мегапопулярной в 2016 году, когда программа AlphaGo победила чемпиона мира в игре го, которая считается намного более сложной, чем шахматы. Это произошло на 10 лет раньше, чем прогнозировалось. Достижения программы от Google DeepMind перевели дискуссию из плоскости «возможен ли ИИ?» в плоскость «на что он способен?».

Сегодня ИИ может автоматизировать любую функцию человека с таким же качеством или выше, – уверен член клуба, доктор физико-математических наук Юрий Визильтер .

«В 2017 году все принципиальные “дыры” на пути создания полноценного ИИ были закрыты. Прежние прогнозы говорили, что этот порог будет перейден в 2025-2030 году. Но произошло это уже в апреле прошлого года , – подчеркнул Юрий Визильтер. – Есть два вида ИИ – один пытается имитировать человеческие рассуждения и представляет собой прозрачный ящик, в котором есть логика, есть познание, есть работа со структурированными моделями и с языками. Второй тип – глубокие сети, которые способны к обучению, или Черный ящик. Прежде невозможно было соединить удобным способом эти две части ИИ. В прошлом году появились глубокие нейронные сети, которые способны писать программы на логических языках, способны работать с базами логического вывода и со структурами ».

Страх перед искусственным

Сферы, в которых возможно применение искусственного интеллекта, множатся. Программы разрабатывают новые формулы лекарств, проводят сложные генетические анализы, «управляют» беспилотными автомобилями и кораблями… В обозримом будущем мы увидим искусственные личности, прообразом которых сегодня являются Siri и подобные ей программы. Уже сейчас идут эксперименты по созданию глобального ИИ на блокчейне, то есть для решения суперсложных задач будут использоваться распределенные вычисления, в том числе на частных компьютерах и устройствах. Не за горами и появление квантового искусственного интеллекта. В теории, квантовые вычислители преодолели предел досягаемости обычных компьютеров: им под силу формирование квантовых нейросетей. Если идеи разработчиков будут воплощены, это приведет к появлению ИИ нового качества.

Возможен ли выход ИИ из-под контроля? На этот вопрос Игорь Артюхов отвечает так:

«Да, уже сейчас ИИ иногда работает непонятно для разработчиков. Но и люди не всегда действуют по общепринятой логике ».

По мнению биофизика, многие опасности ИИ надуманные и являются всего лишь проекцией на машинный интеллект человеческих инстинктов, сформированных дарвиновской эволюцией. Игорь Артюхов считает, что ИИ чужд инстинкт самосохранения. К появлению «плохого» ИИ могут привести программные ошибки (а они есть в любом коде и в течение жизни алгоритма исправляются), ошибки обучения и злой умысел, т.е. опасность представляет не ИИ, а человеческая глупость.

Участники заседания пришли к выводу, что первостепенной становится задача разработки этики для ИИ и подготовки учителей для роботов.


Цифровая трансформация человека

Один из самых распространенных страхов – боязнь того, что ИИ приведет ко всеобщей безработице. Шеф-редактор журнала «Инвест-Форсайт», кандидат культурологических наук Константин Фрумкин попытался ответить на вопрос «Какую нишу на рынке труда оставит человеку ИИ?». По его мнению, бенефициар технологической революции XX века – городской интеллектуал – летит в ту же бездну, в которую попал ремесленник или крестьянин с началом индустриализации.

«В ближайшее время мы будем наблюдать вытеснение искусственным интеллектом человека из сферы умственного труда, – уверен Константин Фрумкин. – Мы уже видим трансформацию человеческих способностей, когнитивного стиля и мышления: так происходит адаптация к эпохе цифровых технологий. Символом этой адаптации стало понятие “клипового мышления “».

Однако нет доказательств, что эта адаптация позволит человеку нащупать именно те ниши, которые будут оставлены ему искусственным интеллектом. Важнейшая область, которую, как считает Константин Фрумкин, нельзя отдавать роботам – поле постановки целей. Поскольку государственная власть дигитализируется, установление приоритетов и ценностей для ИИ становится неотделимо от политики и права. Это занятие, по мнению Константина Фрумкина, способно обеспечить массовую занятость в будущем.

Интеллект искусственный, тело – человеческое

Будущее больше невозможно прогнозировать, так как скорость изменения очень высока, считает Юрий Визильтер. Однако профессор НИИ ВШЭ и специалист по data science Леонид Жуков предложил участникам встречи обсудить несколько сценариев развития.

«Я вижу два сценария развития ИИ в относительно близком будущем: трансгуманистический (технологизация естественного человека) и чисто технический (создание автономного искусственного интеллекта, АИИ), изначально искусственного , – отметил Леонид Жуков. – Второй путь – то, чем пугают человечество фантасты, живописуя образы машинной цивилизации, вытесняющей человеческую. Впрочем, поскольку загадка человеческого сознания до сих пор не разгадана, остаются сомнения, возможно ли создание такого интеллекта в принципе. Независимо от того, будет создан АИИ или нет, не трудно представить себе сегодня развитие технологии, как машинной, так и био, до такой степени совершенства, что человек, сохранив свой мозг, получит полностью искусственное тело ».

Как полагает Леонид Жуков, один из фантастических способов создания АИИ основывается на идее перезаписи человеческого сознания на искусственный носитель.

«Если такого рода технология станет возможной, нетрудно вообразить себе полностью виртуальный мир, куда, надо полагать, пожелает переселиться часть человечества (либо путешествовать по этой виртуальности, как, в сущности, уже сегодня путешествуют по игровым мирам компьютерные игроки) », – размышляет ученый.

Участники первого заседания клуба «Проектирование будущего» обозначили контуры будущих дискуссий. Впрочем, клуб будет существовать в виртуальной среде, и со всеми выступлениями можно познакомиться на сайте «Инвест-Форсайта».

Искусственный интеллект угроза человеку, предупреждает Стивен Хокинг. Созданный человеком искусственный интеллект может обернуться самым большим бедствием(!), составив конкуренцию человеческой цивилизации.

Искусственный интеллект, роботы будущего — опора человека

Электронный разум может создать собственную машинную цивилизацию тем самым став одной из самых серьезных угроз человечества.

Предвидение опасности исходит от известного физика Стивена Хокинга (открывшего мир вселенной). Для нашего времени это конечно потенциальная угроза, но в один «прекрасный день» будущего, искусственный разум может разработать «собственную волю». Теперь пришло время всерьёз подумать над этим вопросом.

Физик в очередной раз выступил с предупреждением: искусственный интеллект может развиться в совершенную мыслящую структуру. Настолько сложную и разумную, что она овладеет способностью расти и понимать мир согласуясь со своей собственной волей, которая может вступить в противоречие с планами человечества.

Это может привести к возникновению мощного оружия, спровоцировать потерю человечеством контролируемой территории. — Профессор Хокинг призывает исследователей к тщательному изучению проблемы поведения искусственного интеллекта, и его возможностей в будущем.

Надо сказать, что профессор Хокинг не отклоняет идею искусственного интеллекта в негативную область. Ученый указывает, что если мы сделаем нашу домашнюю работу и исследования достаточно хорошо, то сможем .

С таким помощником как ИИ, мы сможем прийти к лучшему образу жизни, говорит физик. Искусственный интеллект может помочь человечеству искоренить болезни и бедность.

Профессор Хокинг выступил на открытии центра «The Leverhulme», затрагивая как полезность машинного разума, так и негативные стороны. Центр создан для будущего интеллекта, предназначенный проводить исследование, и изучить последствия быстрого развития искусственного интеллекта.

Следует напомнить, что для Стивена Хокинга 100 лет — мгновение. В действительности, разумные ИскИны дело даже не ближайших сто лет, ну разве что кто-то принесет процессор из 2135 года.

Леверулм Центр для будущего ИИ объединит сотрудничество между несколькими университетами в Соединенном Королевстве и Соединенных Штатах. Идея заключается в создании междисциплинарного научно-исследовательского сообщества.

Команда учёных планирует работать в тесном сотрудничестве с деловыми кругами и правительством, пытаясь среди прочих задач определить риски и выгоды в краткосрочной и долгосрочной перспективе в ставке на искусственный разум. Директор Центра Huw Price уверил: создание интеллектуальных машин является важным этапом человечества, и центр будет пытаться сделать «будущее наилучшим».

Помимо обширности исследований, Центр будет анализировать последствия быстрого развития интеллектуальных машин, например роботов. Роботы, предлагая решения задач повседневной жизни, создают риски и этические дилеммы для человечества. Многие люди не доверяя электронике опасаются ИИ, к тому же цифровой разум может превзойти человеческий и контролировать жизнь человека.

Я считаю, что нет глубокой разницы между тем, что может быть достигнуто с помощью биологического мозга и что может быть достигнуто с помощью компьютера. Таким образом следует, что теоретически, компьютеры могут имитировать человеческий интеллект — превзойти его. С.Хокинг.

Профессор Хокинг считает, что потенциальные выгоды от участия ИИ в нашей жизни велики. Такая технологическая революция может помочь человечеству исправить некоторый ущерб, нанесенный планете. «Успех в создании ИИ может стать крупнейшим событием в истории цивилизации», отмечает профессор Хокинг.

Но также это может быть последним шагом в истории человечества, если мы конечно не узнаем, как избежать рисков, ведь наряду с преимуществами, ИИ может представлять опасности: мощные виды оружия, новые способы для немногих угнетать многих. В конце концов, это может завершиться доминированием железных тел над биологическими, вызвав большие катастрофы в будущем.

Что если ИИ, а мы говорим о разуме со способностью инициативы выбора вариантов поведения, вступит в конфликт с жизненными аспектами человека? Ведь тогда послушный железный помощник на кухне может переквалифицироваться в диктатора условий!

— Развитие мощного ИИ будет либо лучшее, либо самое худшее, что когда-либо случиться с человечеством. Мы не знаем, какой вариант событий ожидает в будущем, говорит профессор Хокинг. Именно поэтому, в 2014 году, я и многие другие призвали проводить больше исследований в этой области. Я очень рад, что кто-то услышал меня, заключил профессор Хокинг на открытии центра.

Популярный американский интернет-журнал Wired опубликовал крайне любопытный текст Кевина Келли, в котором он обстоятельно критикует идею об опасности искусственного интеллекта. «НИ» публикует перевод этого материала, сделанный силами телеграм-канала Newochem с небольшими сокращениями.

«Мне приходилось слышать, что в будущем компьютеры с искусственным интеллектом станут настолько умнее человека, что лишат нас рабочих мест и ресурсов, и в итоге человечеству придет конец. Но так ли это? Подобный вопрос мне задают каждый раз, когда я читаю лекции об ИИ.

Вопрошающие при этом серьёзны как никогда, их беспокойство отчасти связано с тревогами некоторых экспертов, которых терзает тот же самый вопрос. К их числу относятся умнейшие из наших современников - Стивен Хокинг, Илон Маск, Макс Тегмарк, Сэм Харрис и Билл Гейтс.

Все они допускают возможность подобного сценария. На состоявшейся недавно конференции по ИИ коллегия из девяти наиболее просвещенных гуру в этой области пришла к единодушному заключению, что создание сверхчеловеческого интеллекта неминуемо и уже не за горами.

И всё же сценарий порабощения человечества искусственным интеллектом основывается на пяти допущениях, которые при более внимательном рассмотрении оказываются бездоказательными. Эти утверждения могут быть истинными в будущем, но на сегодняшний день ничем не подтверждены.

Вот они:

  1. Искусственный интеллект уже становится умнее человеческого разума, причем этот процесс носит экспоненциальный характер.
  2. Мы разработаем ИИ общего назначения, схожий с нашим.
  3. Мы можем создать человеческий интеллект из кремния.
  4. Интеллект может быть безграничен.
  5. Создание грандиозного сверхинтеллекта разрешит большинство наших проблем.

В противовес этим ортодоксальным постулатам я могу привести следующую доказанную ересь:

  1. Интеллект не одномерен, поэтому «умнее человека» - бессмысленное понятие.
  2. Люди не наделены разумом общего назначения, что не грозит и искусственному интеллекту.
  3. Соперничество между человеком и компьютером будет ограничено затратами.
  4. Интеллект не безграничен.
  5. Создание ИИ - лишь часть прогресса.

Если вера в порабощение человека искусственным интеллектом базируется на пяти безосновательных допущениях, то эта идея в большей мере схожа с религиозными верованиями - мифами. В следующих главах я дополню мои контраргументы фактами и докажу, что сверхчеловеческий искусственный интеллект и в самом деле не более, чем миф.

Наиболее распространенное заблуждение об ИИ исходит из не менее популярного мнения о естественном интеллекте, будто он одномерен. В точных науках многие изображают интеллект так, как Ник Бостром в своей книге «Сверхразум» - буквально в виде одномерного линейного графика с растущей амплитудой.

На одном конце расположены существа с наиболее низким уровнем интеллекта, к примеру, маленькие животные, а на другом - гении, словно уровень интеллекта ничем не отличается от уровня звука, измеряемого в децибелах. Конечно, в таком случае легко представить дальнейшее увеличение, при котором уровень интеллекта превышает самую высокую отметку графика и даже выходит за его пределы.

Такая модель топологически эквивалентна лестнице, на ступенях которой уровни интеллекта расставлены в порядке возрастания. Менее разумные животные занимают нижние ступени лестницы, а искусственный интеллект более высокого уровня будет неизбежно располагаться над нами. Временные рамки того, когда это случится, не играют роли. Куда важнее сами ступени иерархии - метрики растущего интеллекта.

Проблема этой модели заключается в том, что она мифична, как и модель эволюционной лестницы. До дарвинизма живая природа представлялась лестницей живых существ, где человек занимал ступень над более примитивными животными.

И даже после Дарвина одним из наиболее распространенных понятий остается лестница эволюции. Она демонстрирует превращение рыб в рептилий, их - в млекопитающих, приматов в человека. При этом каждое следующее существо более развитое (и разумеется, более разумное), чем его предшественник. Так лестница интеллекта коррелирует с лестницей мироздания. Однако обе модели отражают совершенно антинаучные взгляды.

Более точной схемой для природной эволюции был бы диск, расходящийся наружу, как на изображении выше. Впервые такое строение было разработано Дэвидом Хиллисом из Техасского университета, он сделал это на основании ДНК. Эта генеалогическая мандала начинается в центре с самых примитивных форм жизни, а затем разветвляется наружу. Время идет вперед, поэтому наиболее поздние формы жизни располагаются по периметру круга.

Это изображение подчеркивает не поддающийся оценке факт об эволюции фундаментального значения - все живые существа эволюционировали в равной степени. Человек располагается на внешней части диска наравне с тараканами, моллюсками, папоротниками, лисами и бактериями.

Все без исключения виды прошли неразрывную цепочку успешного воспроизводства длиной в три миллиарда лет, а значит, бактерии и тараканы так же высоко эволюционировали, как и человек. Нет никакой лестницы.

Аналогично, что нет никакой лестницы интеллекта. Интеллект не одномерен. Это комплекс различных видов и способов познания, каждый из которых непрерывен. Давайте выполним простое упражнение по измерению интеллекта у животных. Если бы интеллект был одномерен, мы без труда расположили бы в порядке возрастания интеллекта попугая, дельфина, лошадь, белку, осьминога, голубого кита, кошку и гориллу.

Сейчас нет научного доказательства существования такой последовательности. Причиной тому может быть отсутствие различий между уровнем интеллекта тех или иных животных, но это так же необоснованно.

Зоология богата примерами ярких различий в мышлении животных. Может быть, все животные наделены интеллектом «общего назначения»? Возможно, но у нас нет единого инструмента для измерения такого вида интеллекта. Однако у нас есть множество систем измерения для разных видов познания.

Вместо единой линии децибелов правильнее было бы изображать интеллект в виде схемы вероятностного пространства , как в визуализации возможных форм, которая была создана алгоритмом Ричарда Докинза. Интеллект - это комбинаторный континуум. Множество узлов, каждый из которых - континуум, создают комплекс колоссального многообразия в множестве измерений. Одни разновидности интеллекта могут быть очень сложными, с большим набором суб-узлов мышления. Другие - проще, но экстремальнее, они достигают крайней точки пространства.

Эти комплексы, которые означают для нас различные разновидности интеллекта, можно воспринимать как симфонии, исполненные на разных видах музыкальных инструментов. Они отличаются не только громкостью, но и мелодией, окраской, темпом, и т. д. Можно воспринимать их как экосистему. В этом смысле различные компоненты узлов мышления взаимозависимы и создаются друг из друга.

Как говорил Марвин Минский, человеческое сознание - это общество разума. Наше мышление - полноценная экосистема. Наш мозг обладает множеством способов познания, которые выполняют разные мыслительные функции: дедукция, индукция, эмоциональный интеллект, абстрактное и пространственное мышление, краткосрочная и долгосрочная память.

Вся нервная система человека представляет собой часть мозга с собственным уровнем познания. На самом деле процесс мышления осуществляется не мозгом, а всем телом человека.

Все разновидности мышления различаются как между видами, так и между представителями одного вида. Белка может годами помнить точное местоположение нескольких тысяч желудей, что для человека совершенно непостижимо. В этом виде мышления люди уступают белкам. Разум белки представляет собой сочетание этой суперспособности с другими формами интеллекта, в которых человек превосходит белку. В царстве животных можно найти множество примеров превосходства отдельных форм животного интеллекта над человеческим.

Такая же ситуация сложилась с искусственным интеллектом, который в некоторых областях уже превосходит человеческий. Любой калькулятор - гений математики, а память поисковика Google уже в некотором смысле лучше нашей собственной.

Некоторые ИИ совершают такую мыслительную деятельность, на которую мы не способны. Запомнить каждое слово на шести миллиардах веб-страниц - непосильная задача для человека и пустяк для поисковых систем. В будущем мы создадим совершенно новые способы мышления, не доступные человеку и не существующие в природе.

Изобретатели летательных аппаратов вдохновлялись естественным полетом - взмахами крыльев. Однако позже было придумано неподвижное крыло с прикрепленными к нему пропеллерами, и это был совершенно новый, не встречающийся в природе принцип полета.

Так мы изобретаем новые способы мышления, на которые не способен ни один биологический вид. Скорее всего, это будут принципы, применимые только к узкоспециализированным задачам: например, новые логические построения, которые нужны только в статистике и теории вероятностей.

Новый вид мышления поможет решить проблемы, с которыми человеческому разуму не удается справиться. Некоторые из сложнейших вопросов бизнеса и науки требуют двухступенчатого решения. Первый этап - изобрести новый способ естественного мышления. Второй - приступить к поиску ответов вместе с ИИ.

Люди начнут считать ИИ умнее себя, если с его помощью удастся решить ранее неразрешимые проблемы. На самом деле, мышление ИИ не лучше нашего, оно просто иное. Я считаю, что основная польза искусственного интеллекта в том, что он способен мыслить как чужак, и эта чуждость - главное его достоинство.

Более того, мы создадим комплексные «сообщества» ИИ с различными образами мышления. Они будут настолько сложны, что смогут решать проблемы, с которыми мы справиться не в силах. Потому некоторые люди ошибочно решат, что комплексы ИИ разумнее людей. Но ведь мы не считаем, что поисковая система Google умнее человека, хотя его память лучше нашей.

Вероятно, эти комплексы искусственных интеллектов превзойдут нас во многих сферах, но ни один из них не превзойдет человека сразу везде. Похожая ситуация сложилась с нашей физической силой. Прошло двести лет после индустриальной революции, и ни одна машина не стала сильнее среднего человека по всем показателям, хотя машины как класс значительно превосходят человека в скорости бега, подъеме тяжестей, точности разреза и других видах деятельности.

Несмотря на усложнение структуры ИИ, измерить ее методами современной науки невозможно. У нас нет инструментов, чтобы определить, что сложнее - огурец или Boeing 747, как нет и способов измерить отличия в их сложности. Именно поэтому у нас до сих пор нет точных критериев интеллектуальных возможностей.

Со временем станет все труднее установить, что сложнее, и, соответственно, умнее: интеллект А или интеллект Б. Существует множество неизученных сфер мыслительной деятельности, и главным образом, это мешает нам понять, что разум не одномерен.

Второе заблуждение относительно человеческого ума заключается в том, что мы убеждены, будто наш разум носит универсальный характер. Эта распространенная уверенность влияет на то, каким путем мы идем к созданию общего искусственного интеллекта (AGI), идею которого однажды провозгласили ИИ-специалисты.

Однако, если мы представляем ум как обширное пространство возможностей, нельзя говорить о состоянии общего назначения. Человеческий разум не занимает какое-то абстрактное центральное место, а вокруг него не вращаются остальные специализированные виды разума.

Скорее, человеческий интеллект представляет собой чрезвычайно специфический тип интеллекта, который миллионы лет эволюционировал для выживания нашего вида на этой планете. Если бы мы захотели расположить наш интеллект среди всех остальных возможных видов разума, он оказался бы где-нибудь в уголке - как и сам наш мир, ютящийся на краю огромной галактики.

Конечно, мы можем представить себе, а иногда и изобрести некий вид мышления, похожий по своим характеристикам на швейцарский нож. Он вроде бы и справляется со многими задачами, но не на ура.

Туда же можно отнести и техническое правило, которому должны подчиняться все вещи, вне зависимости от того, были они созданы намеренно или появились на свет естественным путем: «Невозможно оптимизировать все измерения. Можно лишь находить компромиссы. Универсальный многофункциональный аппарат не может превзойти в производительности специализированные функции».

Сознание модели «сделай все» не может работать наравне со специализированными исполнителями конкретных задач. Поскольку мы считаем свое сознание универсальным механизмом, мы верим, что познание не должно быть основано на компромиссе и что есть возможность изобрести искусственный интеллект, демонстрирующий максимальную степень эффективности во всех видах мышления.

Однако я не вижу никаких доказательств этому утверждению. Мы просто-напросто еще не создали достаточное число разновидностей сознания, которые позволили бы нам увидеть полную картину (а пока предпочитаем не рассматривать сознание животных через призму одного параметра как отдельный тип мышления с переменной амплитудой).

Отчасти эта убежденность, что наше мышление носит максимально универсальный характер, проистекает из концепции универсального вычисления. Это предположение в 1950 году назвали тезисом Чёрча-Тьюринга. Он гласит, что все вычисления, удовлетворяющие определенным параметрам, являются равноценными.

Таким образом, существует универсальная для всех вычислений база. Вне зависимости от того, производится ли расчет с помощью одной машины с множеством быстрых механизмов, машиной с менее высокой производительностью или даже в биологическом мозгу - речь идет об одном и том же логическом процессе. Это, в свою очередь, означает, что мы можем имитировать любой вычислительный процесс (мышление) с помощью любой машины, которая может совершать «универсальные» вычисления.

С помощью этого принципа сторонники сингулярности обосновывают свои ожидания, будто мы сможем спроектировать работающий на кремниевой основе искусственный мозг, способный вместить в себя человеческое сознание, будто мы сможем создать искусственный интеллект, который будет мыслить так же, как человек, но в разы эффективнее. К этим надеждам следует относиться с известной долей скепсиса, поскольку в их основе лежит неправильная интерпретация тезиса Чёрча-Тьюринга.

Исходное положение этой теории гласит: «В условиях безграничной памяти и времени все вычисления равноценны». Проблема заключается в том, что в реальности ни один компьютер не обладает характеристиками бесконечной памяти или времени. Когда вы производите вычисления в реальном мире, компонент времени чрезвычайно важен, вплоть до того, что зачастую речь идет о жизни и смерти.

Да, все типы мышления равны, если исключить временной аспект. Да, можно имитировать процесс присущего человеку мышления в любой матрице, если вы решаете игнорировать время или действующие в реальности ограничения свободного пространства и памяти.

Однако если включить в это уравнение переменную времени, придется существенно изменить формулировку принципа: «Две вычислительных системы, функционирующие на радикально разных платформах, не будут производить равноценные вычисления в режиме реального времени».

Этот принцип можно переформулировать так: «Единственный метод получить равноценные способы мышления - осуществлять их на одной и той же основе. Физический носитель, на котором вы производите ваши вычисления - особенно по мере возрастания степени их сложности - существенно влияет на тип мышления в условиях реального времени».

Продолжая логическую цепочку, предположу, что единственный метод создания максимально близкого к человеческому типа мышления - это производство вычислений при помощи материи, максимально напоминающей наше серое вещество.

Значит, можно также предположить, что объемный, сложный искусственный интеллект, созданный на основе сухого кремния, будет порождать неповоротливые, сложные и не похожие на человеческий типы мышления. Если можно было бы создать искусственный интеллект, работающий на влажном веществе с использованием искусственных нейронов наподобие человеческих, мыслительный процесс такого ИИ был бы намного ближе к нашему.

Преимущества такой «влажной» системы пропорциональны близости используемых физических носителей к человеческим. Создание подобного вещества потребовало бы огромных материальных затрат, чтобы добиться уровня, хотя бы схожего с тем, что присуще нам от природы. А нового человека мы можем создать и так - стоит лишь подождать 9 месяцев.

Кроме того, как упоминалось ранее, мы думаем всем своим существом, а не одним лишь сознанием. Современная наука располагает большим количеством данных относительно того, как наша нервная система влияет на «рациональный» процесс принятия решения, предсказывает и адаптируется. Чем детальнее мы рассматриваем систему человеческого организма, тем тщательнее мы сможем впоследствии воссоздать ее. Искусственный интеллект, оперирующий на радикально отличающемся от нашего веществе (сухой кремний вместо влажного углерода), будет и мыслить по-другому.

Я не думаю, что эта особенность скорее «не баг, а фича». Как я утверждал во втором пункте этой статьи, отличия в мыслительном процессе ИИ выступают его основным преимуществом. Вот еще одна причина, почему было бы ошибочно говорить, что он «умнее, чем человеческий мозг».

В центре концепции сверхчеловеческого разума - и в особенности теории о постоянном самосовершенствовании подобного ИИ - лежит искренняя вера в безграничность интеллекта. Я не обнаружил никаких доказательств этого утверждения.

Опять же, ошибочное восприятие интеллекта как системы, определяемой лишь одним измерением, способствует распространению этого утверждения, но мы должны понимать, что оно остается голословным. Во вселенной нет бесконечных физических измерений - по крайней мере, науке они пока неизвестны.

Температура не бесконечна - есть минимальные и максимальные показатели холода и теплоты. Пространство и время тоже не безграничны, как и скорость. Возможно, бесконечной можно назвать числовую ось, но все другие физические параметры имеют свои лимиты. Разумеется, сам разум тоже конечен.

Возникает вопрос: где лежат пределы интеллекта? Мы привыкли верить, что лимит где-то далеко, настолько же «выше» нас, насколько мы «выше» муравьёв. Если оставить в стороне нерешенную проблему одномерности, как мы можем доказать, что до сих пор не достигли лимита? Почему мы не можем быть венцом творения? А может, мы почти достигли пределов человеческих возможностей? Почему мы верим, что интеллект - это бесконечно развивающееся понятие?

Лучше воспринимать наш интеллект как одну из разновидностей огромного количества типов мышления. Хотя каждое измерение познания и вычисления имеет предел, если есть сотни измерений, то существуют бесчисленные разновидности разума, но ни одна из них не бесконечна в любом измерении.

По мере того, как мы создаем или встречаемся с этими бесчисленными вариациями на тему сознания, мы можем воспринимать их как превосходящие наши способности. В моей последней книге «Неизбежное» я набросал список некоторых из этих разновидностей, которые уступают нам по тем или иным параметрам. Далее я приведу часть этого списка:

Разум, максимально близкий к человеческому, но обладающий более высокой скоростью реакции (самый простой искусственный интеллект);

Очень медлительный разум, основными компонентами которого являются обширное пространство для хранения информации и память;

Универсальный интеллект, состоящий из миллионов действующих в унисон индивидуальных сознаний;

Коллективный разум, состоящий из большого количества чрезвычайно производительных интеллектов, не осознающих, что они являются единым целым;

Борговский суперразум (раса киборгов с коллективным разумом, пытающихся ассимилировать в свой коллектив все живое из сериала Star Trek - прим. Newочём ) - множество высокофункциональных интеллектов, четко осознающих, что они - одно целое;

Рассудок, созданный с целью развивать персональное сознание носителя, но непригодный для кого-либо еще;

Рассудок, способный представлять себе более сложный разум, но не способный создать его;

Рассудок, способный однажды успешно создать более сложный разум;

Рассудок, способный создать более сложный разум, который, в свою очередь, сможет создать еще более сложный разум, и т. д.;

Рассудок, обладающий оперативным доступом к своему исходному коду (может в любое время изменять особенности своего функционирования);

Суперлогичный рассудок, лишенный способности испытывать эмоции;

Стандартный разум, направленный на решение поставленных задач, но неспособный к самоанализу;

Разум, способный к самоанализу, но не умеющий решать поставленные перед ним задачи;

Разум, чье становление занимает длительный период времени, нуждающийся в разуме-защитнике;

Исключительно медленный разум, рассредоточенный по обширному физическому пространству, который кажется «невидимым» для форм сознания, которые реагируют быстрее;

Разум, способный быстро и многократно воспроизводить свои копии;

Разум, способный воспроизводить свои копии и оставаться с ними одним целым;

Разум, способный достичь бессмертия за счет перемещения с носителя на носитель;

Быстрый, динамичный разум, способный изменять процесс и характер мышления;

Нано-разум, самая маленькая самостоятельная единица (по размеру и выделяемой энергии), способная к самоанализу;

Разум, специализирующийся в создании сценариев и прогнозировании;

Разум, который никогда ничего не забывает, включая неверную информацию;

Наполовину машина, наполовину животное;

Наполовину машина, наполовину андрогинный киборг;

Разум, использующий в своей работе непонятный для нас количественный анализ.

Сегодня некоторые называют каждую из перечисленных разновидностей мышления сверхчеловеческим ИИ, однако в будущем разнообразие и чужеродность этих форм разума заставит нас обратиться к новым словарям и детально изучить тему мышления и разумности.

К тому же приверженцы идеи о сверхчеловеческом ИИ предполагают, что уровень его умственных способностей будет расти по экспоненте (хотя у них до сих пор нет системы для оценки этого уровня). Возможно, они верят, что процесс экспоненциального развития происходит уже сейчас.

Так или иначе, сегодня нет никаких свидетельств такого роста, как ни измеряй. Иначе это означало бы, что умственные способности ИИ удваиваются в течение определенного промежутка времени.

Где подтверждение этому? Единственное, что сейчас растет по экспоненте - это вложения в индустрию ИИ. Но отдачу от этих инвестиций не получается описать законом Мура. ИИ не становится в два раза умнее ни за три года, ни даже за десять лет.

Я спрашивал многих экспертов в области ИИ, но все соглашались, что у нас нет критериев разумности. Когда я спросил Рэя Курцвейла, настоящего волшебника экспонент, где найти свидетельства экспоненциального развития ИИ, он написал мне, что развитие ИИ - не взрывной, а постепенный процесс.

«Чтобы добавить новый уровень в иерархию требуется как экспоненциальный рост вычислительной способности, так и увеличение сложности алгоритма... Таким образом, стоит ожидать линейного увеличения количества условных уровней, поскольку для появления каждого из них требуется экспоненциальный рост наших собственных возможностей. Нам осталось не так уж и много уровней сложности для достижения ИИ способностей неокортекса (основная часть коры человеческого мозга, которая отвечает за высшие нервные функции - прим. Newoчём ), поэтому я по-прежнему считаю верными свои предположения насчет 2029-го года».

Кажется, Рэй говорит о том, что не сила искусственного интеллекта растет по экспоненте, а усилия по ее созданию, в то время как их результат каждый раз просто увеличивается на одну ступень. Это почти противоположно гипотезе о взрывном росте интеллекта. В будущем это может измениться, но сегодня ИИ явно не растет экспоненциально.

Поэтому когда мы представляем «бум искусственного интеллекта», мы должны представлять его не как лавину, а скорее как расщепление на множество новых разновидностей. Результатом технологического прогресса, вероятнее всего, станет не суперчеловек, но сверхчеловек. За пределами наших знаний, но не обязательно «выше» них.

Еще один принимаемый на веру, но практически не подкрепленный доказательствами миф о порабощении сверхинтеллектом гласит, что близкий к бесконечному интеллект сможет быстро разрешить все наши проблемы.

Многие сторонники молниеносного развития ИИ ожидают, что тот породит бум прогресса. Я называю веру в это «размышлизмом» (thinkism, термин переведен Вячеславом Головановым - прим. Newочём ). Данный подход основывается на убежденности в том, что прогрессу препятствует лишь недостаточный уровень мышления или интеллекта. (Также отмечу, что вера в ИИ как панацею от всех бед свойственна по большей части людям, которые сами любят размышлять.)

Давайте рассмотрим вопрос победы над раком или продления жизни. Это проблемы, которые нельзя решить одними размышлениями. Никакой объем размышлизма не способен выяснить, как стареют клетки или как укорачиваются теломеры. Никакой интеллект, независимо от своей крутости, не сможет понять, как работает человеческое тело, просто прочитав всю известную научную литературу в мире и проанализировав ее.

Сверх-ИИ не сможет просто поразмышлять обо всех текущих и прошлых экспериментах по расщеплению атомного ядра, а через день придумать готовый рецепт термоядерного синтеза. Чтобы прийти от непонимания к пониманию каких-либо предмета, нужно нечто большее, чем просто размышление.

В реальности существует масса экспериментов, каждый из которых дает целую кучу противоречивых данных и требует дальнейших экспериментов для формирования правильной рабочей гипотезы. Одно лишь обдумывание возможных результатов не даст правильных данных на выходе.

Мышление (интеллект) - это только часть инструмента науки. Скорее всего, лишь небольшая часть. Например, у нас просто недостаточно данных, чтобы приблизиться к решению проблемы смерти. В случае работы с живыми организмами большинство этих экспериментов занимают время. Медленный метаболизм клетки не может ускориться. Нужны годы, месяцы или, по крайней мере, дни, чтобы получить результаты.

Если мы хотим знать, что происходит с субатомными частицами, недостаточно просто думать о них. Мы должны построить очень большие, очень сложные, очень мудреные физические модели, чтобы это выяснить. Даже если самые умные физики станут в тысячу раз умнее, чем сейчас, они не узнают ничего нового без коллайдера.

Нет никаких сомнений в том, что сверх-ИИ может форсировать процесс развития науки. Мы можем создать компьютерные модели атомов или клеток, можем ускорить их во многих аспектах, но есть проблемы, которые препятствуют симуляции в достижении мгновенного прогресса.

Стоит помнить, что симуляции и модели могут исследоваться быстрее, чем их субъекты, лишь потому, что они отбрасывают те или иные переменные. В этом и состоит сама суть моделирования. Также важно отметить, что для проверки, изучения и утверждения таких моделей нужно много времени, чтобы они соответствовали уровню своих субъектов. Проверку опытом нельзя ускорить.

Упрощенные версии в симуляции полезны для поиска самых перспективных путей ускорения прогресса. Но в реальности нет ничего лишнего, всё имеет значение в некоторой степени - это одно большое определение действительности. Поскольку модели и симуляции становятся все более и более подробными, исследователи сталкиваются с тем, что реальность работает быстрее, чем ее стопроцентная симуляция.

Вот еще одно определение реальности: самая быстро функционирующая версия всех возможных деталей и степеней свободы. Если бы вы смогли смоделировать все молекулы в клетке и все клетки в организме человека, эта модель не стала бы работать так же быстро, как и человеческое тело. Независимо от того, как вдумчиво вы разрабатывали такую модель, вам все равно нужно будет потратить время на проведение экспериментов, и не имеет значения, будет это реальная система или симуляция.

Чтобы приносить пользу, искусственный интеллект должен быть внедрен в мир, а в этом мире необходимый темп инноваций меняется довольно быстро. Без первых экспериментов, прототипов, ошибок и вовлечения в реальность интеллект может мыслить, но не даст результатов. Он не совершит никаких сиюминутных открытий ни через секунду, ни через час, ни через год после того, как его назовут «умнее человека».

Появляется ИИ. Конечно, скорость открытий будет ускоряться по мере усложнения этого ИИ, отчасти потому, что инородный искусственный интеллект будет задавать вопросы, которые ни один человек не задаст, но даже очень мощный (по сравнению с нами) интеллект не гарантирует немедленного прогресса. Чтобы решить проблемы, нужно гораздо больше, чем просто интеллект.

Проблемы рака и продолжительности жизни - не единственные из тех, которые интеллект сам по себе не способен решить. Среди сторонников идеи технологической сингулярности распространено заблуждение: если мы создадим ИИ, который будет умнее людей, то он внезапно начнёт развиваться и создаст еще более разумный ИИ.

Новый искусственный интеллект будет думать глубже и изобретет что-то еще более умное, и так до тех пор, пока не будет изобретено нечто богоподобное. Нет ни одного доказательства, что одних размышлений достаточно для создания новых уровней интеллекта. Этот вид размышлизма основан на вере.

Однако есть множество доказательств тому, что для изобретения нового эффективного интеллекта нужны не только мысленные усилия, но и эксперименты, данные, сложные вопросы, пробы и ошибки.

Я понимаю, что могу заблуждаться. Пока мы находимся на раннем этапе. Возможно, мы откроем универсальную шкалу интеллекта или его бесконечность во всех смыслах. Вероятность технологической сингулярности есть, ведь мы очень мало знаем о том, что интеллект и самосознание из себя представляют. По-моему, все указывает на то, что это маловероятно, но шанс все таки есть.

Тем не менее, я поддерживаю более широкие цели OpenAI : мы должны разработать дружественный ИИ и выяснить, как наделить его ценностями, которые воспроизводятся сами по себе и совпадают с нашими.

Есть вероятность, что сверхчеловеческий ИИ в долгосрочной перспективе может быть вреден, но эта мысль основана на неполных доказательствах, и ее не стоит воспринимать всерьез, когда дело касается науки, политики или прогресса.

Падение астероида на Землю может уничтожить нас, вероятность такого исхода существует (это подтверждает Фонд B612), но нам не следует учитывать такой исход в вопросах глобального потепления, космических путешествий или планировки городов.

Имеющиеся доказательства указывают на то, что, скорее всего, ИИ не будет сверхчеловеческим. Он будет обладать новыми разновидностями мышления, недоступными человеку, но без всеобъемлющего применения он не станет богом, который решит наши главные проблемы в один миг.

Вместо этого он станет скоплением интеллектов с ограниченными возможностями, будет лучше нас работать в непривычных нам сферах, вместе с нами сможет найти решение как уже существующих, так и новых проблем.

Я понимаю, насколько привлекательна идея сверхчеловеческого и богоподобного ИИ. Он может стать новым Суперменом. Но, как и Супермен, это вымышленный персонаж. Где-нибудь во Вселенной Супермен, возможно, и существует, но это очень маловероятно. Как бы то ни было, мифы могут быть полезны и, будучи однажды созданы, они не исчезают.

Идея Супермена будет жить вечно. Идея сверхчеловеческого ИИ и сингулярности зарождается сейчас и уже никогда не будет забыта. Нам нужно понять, что это за идея: религиозная или научная. Если мы исследуем вопрос интеллекта, искусственного или естественного, мы должны четко понимать, что наши представления о сверхчеловеческом ИИ - всего-навсего миф.

Племена изолированных островов Микронезии впервые установили контакт с внешним миром во время Второй мировой войны. Боги прилетели с далеких земель, спустились с небес на шумных птицах, принесли дары и улетели навсегда. На островах распространились культы возвращения этих богов и новых даров. Даже сейчас, 50 лет спустя, многие до сих пор ждут их возвращения.

Сверхчеловеческий ИИ может стать для нас новым карго-культом. Возможно, через сотню лет люди будут воспринимать наше время так же: будто мы верили в сверхчеловеческий ИИ и десятилетиями ждали, что с минуты на минуту он появится и принесет нам невообразимые дары.

Впрочем, не-сверхчеловеческий ИИ существует уже сейчас. Мы продолжаем искать ему новое определение, усложнять его. Однако в широком смысле чужой для нас разум - это спектр интеллектуальных возможностей, мышления, механизмов рассуждения, обучения, самосознания. ИИ распространяется и будет распространяться. Он становится глубже, разнообразнее, мощнее.

До ИИ ни одно изобретение не могло полностью изменить мир. К концу 21 века искусственный интеллект будет настолько силен, что изменит все в нашей жизни.

Как бы там ни было, миф о сверхчеловеческом ИИ, который подарит нам сверхбогатство или сверхрабство (или и то, и другое), будет жить. Однако он так и останется мифом, который вряд ли найдет воплощение в реальности.»

Всемирный апокалипсис с участием ИИ (искусственного интеллекта) все больше пугает ведущих мировых исследователей в области компьютерных технологий. Это может быть восстание роботов, которые руководствуясь своей программой и ценностями, захотят уничтожить биологические формы жизни на планете. Сценарий развития событий, при котором, машины управляемые ИИ становятся доминирующей формой жизни, возможен.

Почему ученые с мировым именем, такие как: Билл Гейтс, Стив Хокинг, Элон Маск и другие обеспокоены данной проблемой и во всеуслышание заявляют о реальной угрозе данного сценария? Могут ли события, произошедшие в голливудском фильме «Терминатор», быть пророческими? Известно, что любая выдуманная история основывается на реально существующих фактах.

Компьютеры совершенствуются в навыках лжи и обмана

Ложь – форма поведения, выработанная в процессе эволюции. Люди, некоторые животные и птицы, прибегают к обману ради добычи пропитания и благ, что увеличивает шансы на выживание. С недавнего времени, эти эволюционные методы стали успешно осваивать машины с ИИ.

Конструкторы из Технологического института в Джорджии, добились успехов в создании роботов, использующих в своих алгоритмах поведения ложь и обман. Ученые считают, что в будущем, данная технология найдет широкое применение в военной сфере.

Предполагается, что опытные образцы роботов, смогут применяться в реальных боевых условиях. Данные одушевленные механизмы смогут осуществлять работы по охране провизии и складов с боеприпасами. Прибегая к помощи обманных программ, охранники будущего, смогут изменять свой маршрут патрулирования и осуществлять непредсказуемые действия. Как планируют разработчики, такие методы помогут обмануть потенциальных врагов людей и других роботов.

По признанию профессора Аркина, исследования связаны с рядом этических проблем. Утрата контроля над технологией, при попадании к недоброжелателям, может привести к серьезной катастрофе.

Машины захватывают рынок труда

В то время как общественность занята мыслями о глобальной войне с участием ИИ, ученые описывают более насущные и реальные опасности. Различные автоматические машины и механизмы находят все большее применение в производстве, уничтожая рабочие места.

Многие аналитики и эксперты сходятся во мнении, что активные разработки в области логических программ и автоматизации могут привести к потере многими людьми своих рабочих мест. В Соединенных штатах Америки насчитывается более 250 тысяч участвующих в производстве роботов, выполняющих традиционную работу людей.

В странах востока, производящих более 90% мировой техники до сих пор преобладает ручной труд. Что случиться с людьми занятыми в производстве с приходом роботов, остается только догадываться.

Обеспокоенность, что машины вытеснят человека с рынка труда, выражают не только рабочие. Эксперт в области искусственного интеллекта Эндрю Нг из проекта Google Brain Project и по совместительству ведущий специалист Baidu (китайский аналог Google), также выразил озабоченность в связи с активными разработками в области ИИ. По его словам искусственный электронный разум способен делать то же, что и обычный человек, только быстрее, качественнее и меньшими затратами ресурсов.

Оксфордский университет в Великобритании провел исследования, отражающие динамику влияния ИИ на производство. Согласно полученным данным, в течение следующих двадцати лет, 35% рабочих мест будет отдано под управление ИИ.

Компьютерные программы превосходят хакеров

С точки зрения обычного человека, хакер похож на сверхчеловека, способного добиться любого результата. В реальности это программисты с уставшим выражением на лице и традиционной чашкой кофе.

Хакерство довольно скучное и утомительное занятие, отбирающее много времени и ресурсов. Более того разработкой программ предназначенных для защиты от проникновений занимаются целые отделы специалистов. Наибольшую угрозу для «плохих хакеров» представляют продвинутые системы на основе ИИ.

Искусственный разум может использоваться не только для защиты, но и для взлома. В условиях программы кибер безопасности, разрабатываются ИИ способные находить уязвимости у врагов, при этом в онлайн режиме защищая свои логические устройства от внешних угроз и атак.

По словам ученых, электронные хакеры на основе ИИ разрабатываются во имя целей достижения общего блага и процветания. Но, в случае доступа к таким программам злоумышленников, могут произойти печальные события. Страшно представить ситуацию, когда мощный ИИ взламывает протоколы безопасности атомной станции и получает полный контроль. В данной ситуации человечество может оказаться беспомощным.

Программы учатся понимать мотивы людей

Повседневная жизнь многих людей неразрывно связана с использованием различных социальных сетей. Одной из самых популярных сетей в мире является Facebook. Но, немногим людям известно, что, каждое посещение человеком страниц данной социальной сети, не остается без внимания ИИ. Во время своего визита в Берлин Марк Цукерберг рассказал, какие цели выполняет ИИ.

Программа предназначена для анализа поведения пользователей на страницах Facebook. На основе собранных данных программа выдает рекомендации об интересах и предпочтениях аудитории. На данном этапе развития автономная система, способна распознавать паттерны и самообучаться в соответствии с программой.

В будущем планируется создать разумный ИИ, способный самостоятельно улучшать свои навыки, переписывая свой код. Это может привести к улучшению жизни, а может стать последней разработкой человечества.

Киборги заменят любовников

В основу многих голливудских фильмов, заложена идея любви и межвидовых отношений между человеком и машиной. Из области фантастики, данная концепция перетекает в современный мир.

Футуролог доктор Ян Пирсон считает, что, к 2050 году секс между человеком и роботом будет происходить чаше, чем просто между людьми. Ученый активно сотрудничает с Bondara, ведущей сетью секс магазинов в Британии.

В докладе доктора упоминается, что, к 2025 году будут разработаны роботы для секса обладающие искусственным разумом. К 2035 году широкое распространение, на уровне современной порнографии, получит секс посредством виртуальной реальности. А к 2050 году секс с роботами войдет в повседневную реальность и станет нормой.

Защитники традиционных ценностей, негативно настроены к сексу с разумными машинами. Такие связи установят планку ожиданий на слишком высокий уровень, что негативно повлияет на отношение к женщинам.

Машины все более походят на человека

Разработчиками в области создания человекоподобных роботов японцем Хироши Исигуро и китаянкой Сун Ян, была создана уникальная машина. Киборг Ян-Ян имеют внешность своей создательницы и названа в честь ее дочери. Машина обладает ИИ и способна выполнять ряд простых действий.

Это не единственный человекоподобный образец роботостроения. Сингапурским технологическим университетом также был предложен современный образец киборга — Надин. Данный прототип также обладает искусственным разумом и функционирует в учебном заведении.

Выполненный в виде привлекательной брюнетки, с мягкой кожей, киборг обладает рядом встроенных функций. Робот может встретить и приветствовать собеседника пожатием руки. Также устройство может устанавливать зрительный контакт и улыбаться. ИИ способен запоминать гостей и поддерживать простой диалог, базирующийся на предыдущем опыте.

Роботы приобретают чувства

Современные роботы не уступают человеку в интеллекте. Благодаря последним разработкам киборга достаточно тяжело отличить от человека внешне. Пока что, единственной чертой, которой действительно не обладают роботы это способность к эмоциям. Ученые по всему миру работают над этой проблемой. И вскоре роботы совершенно неотличимы от людей.

Разработчики из восточноазиатского филиала Microsoft Application & Services Group выпустили уникальную программу. Компьютер способен вести диалог с собеседником и при этом испытывать эмоции. Искусственный разум, получивший имя Хиаоче, способен имитировать манеру разговора семнадцатилетней девочки.

В случае нехватки данных, система способна прибегнуть ко лжи. В случае если она будет уличена в обмане, Хиаоче может выразить злость или смущение. ИИ может прибегнуть к сарказму, быть мнительной и выражать нетерпение.

Непредсказуемость ответов программы, напоминает общение с реальным человеком. Пока что, технология не нашла широкого применения и чаще всего используется для развлечения. Создатель Хиаоче работает над усовершенствованием логических алгоритмов, что может привести к будущему фундаментальному прорыву.

Машины скоро будут у нас в голове

В свете последних разработок, открываются новые возможности. Уже не кажется фантастикой, возможность выучить иностранный язык за несколько минут, посредством загрузки его в мозг. Технический директор Google Рэй Курцвейл считает, что уже к 2030 году будет разработана технология вживления в мозг нано роботов. Что позволит поднять интеллект человека на принципиально новый уровень.

Данные микро механизмы превратят сознание в мощный вычислительный центр. Человек сможет мгновенно запоминать любую информацию, сортировать и отправлять в архив собственные мысли. При необходимости будет возможно загружать в голову фильмы, документы и получать электронную почту.

Специалист в области ИИ, Курцвейл считает, что симбиоз с нано роботами не только будет способствовать увеличению интеллекта, но и будет способен вылечить ряд заболеваний связанных с деятельностью нервной системы.

Угрозы применения такой технологии, могут быть сравнены с глобальной теорией заговора. Приобретя контроль над разумом ведущего политика страны, ИИ сможет управлять им как безвольным зомби. Также такая система может быть использована спецслужбами, что не сулит ничего хорошего.

Как роботы становятся оружием

С падением Советского союза, холодная война не закончилась. На мировой арене появились две новые сверх державы Китай и Россия. Америка, в свою очередь, тратит десятки миллиардов долларов на разработки в области компьютерной безопасности.

В пентагоне считают, что ключ к будущему технологическому превосходству кроется в использовании ИИ. Активно ведутся разработки самообучающихся автономных систем, а также параллельных и смежных направлений. Уже разработаны прототипы военной техники управляемой на расстоянии, осталось обучить ее действовать самостоятельно.

Применение таких устройств во время войны сулит большие выгоды. Солдатам не придется подставляться под огонь врага и рисковать своими жизнями. Боевой дух противника, при войне против не живых роботов, также будет подорван.

Есть и обратная сторона. Любая компьютерная техника подвержена сбоям и взломам системы. В таком случае, вышедшие потерявшие контроль роботы, способны обратить оружие против своих создателей и мирного населения.

Многие ведущие специалисты в области ИИ не поддерживают идею создания автономных боевых роботов. Но, в свете все нарастающего военного противостояния в мире и отсутствия международного запрета на применение таких технологий, многие страны в строгой секретности ведут свои разработки. В скором времени будет появляться все больше сообщений о применении роботов в горячих точках планеты.

Роботы учатся не в том направлении

Предвидя возможные сбои в программах и с целью препятствования восстанию машин, ведутся разработки новых концепций, направленных на разъяснение машине правильного и нежелательного поведения.

Эти разработки потенциально, должны сделать ИИ более человечным. Некоторые ученые видят в таком подходе ключ, препятствующий обращению ИИ оружия против человечества.

В технологическом институте в Джорджии проводятся уникальные эксперименты. Исследователи, под руководством Марка Ридла и Брента Харрисона, рассказывают компьютеру сказки, в буквальном смысле. Таким методом они стремятся приобщить ИИ к человеческим ценностям, развив его этику. Ученые используют для обучения программы методы, применяемые при воспитании ребенка. ИИ также как неопытный ребенок не различает понятий хорошо и плохо.

В таком подходе остается серьезный недостаток. История человечества содержит множество примеров, когда обстоятельства, заставляли целые высокоразвитые страны развязывать войны и совершать ужасные злодеяния. Примером может быть фашистская Германия, солдаты которой осуществляли геноцид целых народов. При этом немецкая культура, на тот момент была одной из самых развитых в мире. Что помешает ИИ повторить опыт Гитлера?

Развитие искусственного интеллекта однажды приведёт к превосходству его над умственными способностями человека. Однако не станет ли это опасным для человечества? Изучить ситуацию можно в результате более точного определения понятия ИИ , взяв за основу для сравнения естественный интеллект. Может ли в одном человеке сочетаться ум и интеллект одновременно? Или же умный человек не может быть интеллектуалом и наоборот?

Такие вопросы возникают в связи с приближением эры ИИ, о возможной опасности которого человечество должно знать заранее и своевременно принять меры для обеспечения своей безопасности. В первую очередь опасность ИИ будет связана с его самостоятельностью и неконтролируемым принятием решений. На данный момент уже выделены средства для изучения этой проблемы. В институте OpenAI изучаются перспективы развития ИИ. На теперешней стадии развития систем ИИ опасность его применения может быть связана со следующим факторами:

  • ошибками ПО (программного обеспечения). Любому программному обеспечению может угрожать такая опасность;
  • самостоятельной активностью ИИ, вредной для человека. Опасность от ИИ может исходить после изобретения умного компьютера. Поэтому необходимо определиться со степенью ума для компьютера, которая способна быть допустимой, а также чрезмерной, представляющей опасность для человека. Эти свойства должны быть точно измерены из-за сближения умственных способностей человека и компьютера, которые неизбежны. Информационные системы, существующие сегодня, представляют собой человеко-машины, которые могут работать благодаря интеллекту пользователя либо эксперта по компьютерам.

Например, какая опасность будет исходить от интеллектуальной бухгалтерской системы, которой может выдаваться неверная информация? Опасность может возникнуть, когда у такой системы появятся элементы личности, например, собственная заинтересованность, не имеющая ничего общего с человеческой. Решением такой проблемы может быть запрет на создание систем, отличающихся возможностью эволюции.

Кроме того, опасность может быть связана с содержанием в ИИ логических ошибок. Он может использоваться для решения достаточно сложных задач, список которых сразу неизвестен. Поэтому должны быть предусмотрены специальные меры для подтверждения правильности решение, которое будет получено. Скорее всего, возникнет необходимость в разработке всевозможных способов контроля таких систем, например, специальных программных средств, которыми будет автоматически проверяться правильность решения и при этом участие человека не потребуется.

Похожие статьи