Угрожает ли людям ИИ? Экстрасенсы

31.07.2019

Илон Маск, известный бизнесмен-миллионер, на встрече Национальной ассоциации губернаторов (США) неожиданно назвал искусственный интеллект (далее - И.И.) главной угрозой для человечества.

"Искусственный интеллект - тот редкий случай, когда нам нужно быть активным в регулировании, а не реагировать, - заявил миллионер, - Потому что к тому времени, когда мы будем реагировать, станет уже слишком поздно". После этого Маск призвал законодателей серьезно подумать над вопросом.

Конечно, роботы - это уже не сказка в духе "Мира Дикого Запада", а реальность. Последние успешные эксперименты по автоматизации процессов уже привели к тому, что люди лишаются рабочих мест, а многие профессии отпадают за ненадобностью. Даже если и не произойдет "бунта машин", через несколько десятилетий может наступить момент, когда человек окажется не у дел.

Среди новых опасностей, считает Маск, участие И.И. в информационных войнах, подделка учетных записей и манипуляция информацией.

Впрочем, из уст бизнесмена, представляющего крупнейшие корпорации, такое заявление, пожалуй, выглядит несколько подозрительно. С чем может быть связано заявление Маска и насколько И.И. является угрозой для человечества, Царьграду объяснили эксперты в сфере IT.

Леонид Делицын: Маск просто может получить из этого выгоду

Аналитик холдинга "Финам", эксперт по IT Леонид Делицын пояснил, во всех случаях, когда в дело вмешиваются законодатели и начинают определять круг допустимых активностей, чаще всего выигрывают крупные корпорации. "Потому что им легче договориться с законодателями о степени вмешательства в эту сферу. Они могут пролоббировать свои интересы" , - отметил эксперт.

Маск, безусловно, один из самых успешных лоббистов в Соединенных Штатах, добавил Делицын. "Насколько я знаю, выражалась озабоченность проникновением китайского капитала в американские фирмы, которые занимаются разработкой в области искусственного интеллекта. И озабоченность, в частности, тем, что им уже трудно помешать получать доступ к любым разработкам и достижениям в этой сфере. Соответственно, потенциально это обозначает, что Китай может укреплять свою армию и силовые структуры за счет передовых разработок", - предположил эксперт.

Но скорее всего Китай проникает не в такие корпорации, как у Илона Маска, а в компании поменьше. Поэтому можно предположить, что если такие компании столкнутся с законодательными ограничениями и барьерами, им придется согласовывать все детали. А это станет некоторым барьером на пути доступа китайских силовиков к достижениям в Штатах, объяснил Делицын.

"В таком случае позиция Маска становится логичной - его корпорации, Google, Apple и другие монстры, извлекут некоторую выгоду из сотрудничества с государством. Может быть, будут какие-то заказы, в это время мелкие конкуренты будут приторможены" , - сказал эксперт.

Роботы против людей: как выжить?

Комментируя саму проблему робота и человека, Делицын напомнил, что прецеденты по борьбе с развитием технологий были - например, движение луддитов, у которых станки забрали рабочие места.

"Безусловно, мы видим, какую революцию сейчас испытывает рынок такси, как у них падают цены. Потому что в этот мир пришла автоматизация заказов и, в общем-то, система становится все более оптимизированной. Таксистов вынуждают брать очень мелкие заказы, которые они, может быть, не брали бы в обычной ситуации, покрывая их за счет цен, и т.д."

В перспективе из-за роботизации действительно могут исчезнуть некоторые профессии. Это коснется сфер, где используется человеческий интеллект или низкая квалификация. Речь идет, например, как об аналитиках и журналистах, так и о таксистах.

"Быстро будут автоматизироваться сферы, связанные с обработкой больших объемов информации, особенно с рутинной обработкой больших объемов информации", - пояснил Делицын, напомнив о судьбе бухгалтеров. "Поговаривают даже о том, что благодаря технологии block chain юридические специалисты окажутся под угрозой" .

"Сильнее пострадают те сферы, где человек выполняет рутинную работу, которую не очень приятно выполнять и которую, может быть, человек выполнять и не должен. То есть та, которая наиболее легко автоматизируется", - резюмировал эксперт.

Там же, где большую роль играет интуиция и опыт, автоматизация будет ниже.

Фото: www.globallookpress.com

Если есть потребление - значит, это кому-нибудь нужно…

Впрочем, кому-то же надо потреблять товары - а это стимул придумать систему, в которой для человека останется место.

"Найдется ли место человеку в этой системе - большой вопрос. Потому что, конечно, с одной стороны это интересы фирмы, которой нужно урезать расходы, с другой - сотрудник, который хочет сохранить свое рабочее место. Но надо понимать, что нужен еще и потребитель, который будет покупать товары и услуги. А чтобы потребитель покупал товары и услуги, он должен что-то зарабатывать", - пояснил эксперт.

Так что при желании выход найти можно. Либо создадут систему, как в странах, богатыми на нефть, где распределяются доходы от углеводорода. Возможно, придумают систему, при которой роботы будут работать, а мы будем получать пенсию лет с 25 лет, и на это мы сможем покупать товары и услуги.

"Понятно, что у робота нет интереса продать товар и услугу, потому что ему это не очень нужно. А вот у фирмы этот интерес есть, потому что у фирмы есть владелец, и сейчас это все еще человек, а не робот. Поэтому фирме и нужны потребители, а чтобы потребители могли потреблять, им нужны какие-то заработки".

Александр Токаренко: Раз люди между собой не могут договориться, то что говорить об искусственном интеллекте?

Как отметил в интервью Царьграду член "Ассоциации руководителей служб информационной безопасности", руководитель комитета Межрегиональной общественной организации" Александр Токаренко , И.И. может стать угрозой для людей. "Естественно, если люди между собой не могут договориться, то как они договорятся с интерактивным интеллектом?"

По прогнозам эксперта, реальной проблемой для людей это может стать где-то через столетие. На вопрос о том, как можно избежать катастрофы, Токаренко напомнил о трех законах робототехники Айзека Азимова.

"Если искусственные вычислительные системы будут придерживаться вот этих норм, изначально создаваться по ним, то, может, нам еще что-то светит".

При этом, по оценке эксперта, главная угроза - не в потере рабочих мест, и не в создании фейковых новостей (с этим и так прекрасно справляются сами люди) - а в создании автоматизированного оружия . Такие системы уже есть - и не дай Бог в них появится интеллект. Вот тогда у человечества возникнут огромные проблемы.

Фото: www.globallookpress.com

Игорь Ашманов: главной угрозой человечества являются такие, как Маск

В свою очередь, директор компании "Ашманов и партнеры" Игорь Ашманов не согласился с тем, что заявление Илона Маска нужно воспринимать серьезно. По его мнению, это скорее жулик, который спекулирует на горячих темах.

"Это бредовые идеи и апокалиптические прогнозы о том, что мы все погибнем и все пропадем. Они, в общей сложности, обычно нужны для получения медийного покрытия", - считает эксперт.

"На мой взгляд, главной угрозой человечества являются такие, как Маск. То есть, безответственные жулики, которые пытаются нам втюхать цифровое общество. А для нас они особенно опасны в связи с тем, что НАСА изучает цифровую колонизацию. Он, конечно, не все делает сам - кто-то передает ему технологии НАСА, вносит деньги, повышает оценку его компании".

Люди - самый опасный вид на этой планете

В целом, по мнению Ашманова, И.И. как злая угроза - довольно раздутая в фильмах тема. "На самом деле, гораздо хуже интеллект, в которого волю заложили люди. Например, автоматические дроны, при помощи которых американцы в пяти-семи странах охотятся на людей".

Уже сейчас И.И., встроенный в этот дрон, позволяет ему лучше распознавать цели, но пока не принимать решения. Но это решение не за горами.

"В итоге это будет не искусственный интеллект, который захватил власть, а боевая собака, которую натравливают на людей вполне конкретные люди" , - полагает Ашманов.

Поэтому основную опасность для нас, как всегда, представляют люди, а не искусственный интеллект, резюмировал эксперт. "Люди - самый опасный вид на этой планете, склонный к непрерывному кровопролитию. Самым опасным является не искусственный интеллект, а стремление некоторых людей передать ему право принимать решения. Это разные вещи".

И другие известные исследователи написали открытое письмо, призывая создать стандарты безопасности в области разработок искусственного интеллекта (ИИ). /сайт/

В частности они призвали к исследованиям и разработке системы надёжного управления, которая бы не позволила неисправному искусственному интеллекту нанести вред людям. «Необходимо проделать техническую работу, чтобы обеспечить полноценный контроль со стороны людей», ― говорится в письме.

Несмотря на умеренный тон письма, луддиты, боящиеся новых технологий, впали в панику. В ответ в прессе появилось множество интервью и высказываний учёных, рассеявших эти опасения.

Эндрю Нг, эксперт по ИИ из Baidu, заявил в интервью Fusion: «Я не представляю реалистичного сценария, как программное обеспечение, над которым мы работаем сегодня, может стать разрушительным».

В свою очередь журналист Скотт Александр составил список известных учёных, участвующих в разработках ИИ, которые говорили о потенциальной опасности со стороны ИИ.

Страх и опасения

Стюарт Рассер, профессор информатики из Калифорнийского университета в Беркли, сравнил разработку механизмов контроля над ИИ с принятием мер безопасности атомных реакторов.

«Некоторые считают, что этот вопрос не представляет опасности для человечества в ближайшие несколько сотен лет. Они забывают, что Лео Силард открыл цепную ядерную реакцию через 24 часа после того, как Резерфорд уверенно заявил, что атомная энергия никогда не будет получена», ― написал Рассел.

Рассел не одинок в своём мнении. В ходе опроса, проведённого Винсентом Мюллером и Ником Бостромом в 2014 г. среди 170 ведущих специалистов ИИ, оказалось, что 18% из них считают, что создание машины со сверхинтеллектом, станет «реальной катастрофой» для человечества. 13% заявили, что продвинутый ИИ окажет негативные последствия для людей. Чуть больше половины учёных сказали, что он окажет положительное влияние.

Хотя мнение специалистов о влиянии ИИ неоднозначно, большинство сходятся во мнении, что создание развитого ИИ ― только вопрос времени. По прогнозам, ИИ, равный человеку, будет создан уже в 2050 г. (50% вероятности) или к 2075 г. (90% вероятности). А 30 лет спустя после его создания появится искусственный сверхинтеллект, который превзойдёт человека во всех аспектах.

Сумасшедшие грузовики

Как может выглядеть восстание машин? В фантастических фильмах, вроде «Терминатора», «Робота», «Аниматрица», показана война людей с киборгами.

Судя по фантастическим фильмам, у многих может сложиться мнение, что потенциальной опасности легко избежать, В конце концов, по сути ИИ ― это просто программное обеспечение для компьютера.

Однако искусственному интеллекту необязательно иметь механическое тело, чтобы обрести власть в реальном мире: он просто может начать контролировать все наши повседневные электронные приборы.

Стивен Кинг представил такой сценарий в рассказе «Грузовики». В рассказе, написанном в 70-е годы, грузовики обретают сознание и начинают нападать на людей. Группа людей прячется от взбесившихся грузовиков. Грузовикам для работы по-прежнему требуется топливо, и они при помощи кода Морзе приказывают людям заправить их, иначе бульдозер снесёт их укрытие. Люди подчиняются.

История заканчивается видением рассказчика о том, что грузовики поработили человечество и навязывают везде свои ценности, например, заставляют строить магистрали по всему миру. Из мира фантазий его выводит звук пролетающего в небе самолёта.

Рассказ Стивена Кинга казался футуристическим в эпоху, когда он был написан, но он не так далёк от реальности современного мира. Самоуправляемые грузовики уже существуют, и в будущем компании с целью экономии могут заменить водителей на автономную навигационную систему.

Взлом Sony в прошлом году демонстрирует, что наши информационные системы становятся всё более уязвимыми. Это одно из следствий всё большей компьютеризации инфраструктур.

Однако пока нет причин для беспокойства. Искусственному интеллекту предстоит проделать долгий путь, прежде чем он сможет сравниться с мозгом человека. Пример с самоуправляемыми грузовиками хорошо демонстрирует это. Пока они ещё слишком несовершенны, чтобы самостоятельно ездить по переполненным городским улицам.

Установили бы Вы себе на телефон приложение для чтения статей сайта epochtimes?

Машина против человека

О том, что роботы заменяют человека повсеместно, мы слышим едва ли не каждый день. По самым оптимистичным прогнозам, в ближайшие десятилетия машины оставят без работы миллионы людей. Но в большинстве случаев речь идет об узкоспециализированных программах, которые, хотя и могут заменить отдельно взятого специалиста, но уж никак не станут «альтернативой» Homo sapiens.

Не секрет, что искусственный интеллект уже может конкурировать с человеком. Самый яркий тому пример – созданная специалистами Google программа AlphaGo. Ранее различные программы уже одерживали верх над человеком в шашках, шахматах и нардах. Но вот древнекитайскую логическую игру го считали «слишком сложной для ИИ». В ней действительно присутствует глубокое стратегическое содержание. Дело в том, что в го почти невозможно перебрать все комбинации, и в силу этого ИИ сложно просчитать варианты развития событий. Тем не менее, созданная Google программа AlphaGo в 2016 году смогла обыграть чемпиона Европы по игре го Фаня Хуэя. Причем сделала она это с разгромным счетом 5:0.

Но как удалось добиться такого результата? Ведь, как мы уже говорили, здесь нельзя было применить обычные алгоритмы. Создатели AlphaGo разработали две нейронные сети: особые алгоритмы, которые имитировали работу цепочек нейронов в человеческом мозге. Одна сеть несла ответственность за определение текущей позиции на доске, а вторая применяла результаты анализа, которые были подготовлены первой сетью, чтобы выбрать следующее действие.

«Нобелевский лауреат»

Этот удивительный пример не единственное доказательство усиления позиций ИИ. Недавно группе австралийских физиков удалось создать программу, которая может сама проводить исследования. Более того, у нее уже получилось воспроизвести эксперимент, за который в 2001 году присудили Нобелевскую премию по физике. Речь идет о награде, которая в 2001 досталась Эрику Корнеллу, Вольфгангу Кеттерле и Карлу Виману за «экспериментальное наблюдение бозе-эйнштейновской конденсации в разреженных газах атомов щелочных металлов и за первые фундаментальные исследования свойств таких конденсатов». В рамках эксперимента исследователи охладили газ до температуры около одного микрокельвина, а после этого отдали контроль над несколькими лазерными лучами искусственному интеллекту для охлаждения захваченного газа до нанокельвина. Машина научилась проводить эксперимент менее чем за час. Больше того, она смогла подойти к процессу «творчески». ИИ, например, менял мощность одного лазера, компенсируя это другим лазером. Сами авторы нового исследования говорят, что «человек не смог бы додуматься до такого».

Кто есть кто

Как мы видим, прогресс в деле создания ИИ очевиден и описанные выше случаи – лишь одни из многих. Другой вопрос: что именно считать искусственным интеллектом и, более того, что можно вложить в содержание понятия «полноценный ИИ»? Этот вопрос волнует великие умы на протяжении десятилетий, но даже сейчас, в наш продвинутый информационный век, ответить на него очень трудно. В 1980 году американский философ Джон Роджерс Сёрл ввел термин «сильный искусственный интеллект». Речь идет о программе, которая будет представлять собой не просто модель разума, а станет разумом в буквальном смысле этого слова. В противовес этому сторонники «слабого искусственного интеллекта» оценивают ИИ лишь в контексте решения узкоспециализированных задач. Проще говоря, они не могут себе представить, чтобы машина действовала наравне с человеком.

Не менее важен и морально-этический аспект. Предположим, ученые создадут продвинутый ИИ, который заменит собой человека буквально во всех сферах. Но будет ли такая программа иметь привычную для человеческого общества мораль? Или же ее в принципе невозможно будет наделить такими качествами… Интересно, что ранее был введен специальный термин «чистый искусственный разум»: в этом случае машина понимает и решает вопросы, как настоящий человек, но лишена характерных для людей эмоций. Последнее, кстати, может стать конкурентным преимуществом машины перед человеком, но об этом позже.

Угроза для выживания?

«Слабый ИИ», конечно, может лишить человека работы, но вряд ли станет угрозой для выживания всего вида Homo sapiens. В качестве основной угрозы эксперты называют именно продвинутый полноценный искусственный интеллект, которому человек станет попросту не нужен. Довольно пугающий прогноз в 2015 году сделал известный британский физик-теоретик Стивен Хокинг, заявивший, что машины в течение ста лет возьмут над человеком верх. «Уже в ближайшие 100 лет искусственный интеллект превзойдет человеческий. И до того, как это случится, мы должны сделать все, чтобы цели машин совпадали с нашими», – заявил Хокинг. Исследователь обеспокоен недальновидностью разработчиков ИИ. Еще раньше ученый назвал причину превосходства ИИ над Homo sapiens: по его мнению, человек эволюционирует очень медленно, в то время как машины смогут самосовершенствоваться невероятно быстро.

Опасения Хокинга разделяет основатель Microsoft Билл Гейтс. «Я в том лагере, который обеспокоен перспективой развития суперинтеллекта. Сначала машины будут выполнять большую часть работы за нас, однако не будут обладать суперинтеллектом. Это хорошо, если мы правильно будем этим управлять. Через несколько десятилетий искусственный интеллект станет достаточно развитым, чтобы стать причиной для беспокойства», – заявил он в 2015 году.

Интересно, что об угрозе ИИ говорит даже главный инноватор нашего времени Илон Маск, который, казалось бы, должен видеть плюсы во всех новых технологиях. Он заявил о возможности появления полноценного искусственного интеллекта уже в ближайшие годы. «Искусственный интеллект прогрессирует очень стремительно. Вы понятия не имеете, насколько. Это происходит по экспоненте», – сказал он в 2015 году.

Фантазии и реальность

Свою лепту в распространение тезиса об угрозе ИИ, конечно, внесли фантасты. Пожалуй, самый пугающий прогноз конца света – это «серая слизь». В этом случае неуправляемые самореплицирующиеся нанороботы, выполняя программу саморазмножения, поглотят все доступное им вещество на нашей планете.

Сейчас это звучит как бред, но многим этот сценарий не кажется таким уж невероятным. Шотландский ученый Данкан Форган даже предложил в 2015 году искать погибшие инопланетные цивилизации по «серой слизи». В случае такого развития сценария конца света, по его мнению, чужая планета будет покрыта «песком» из миниатюрных машин. Они будут отражать свет и резко повышать яркость планеты при ее прохождении по диску светила.

Но не все фантасты склонны видеть в роботах угрозу. Наиболее системно к вопросу развития ИИ подошел знаменитый Айзек Азимов, сформулировавший три закона робототехники:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2.Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

В любом случае пока что от ИИ пользы намного больше, чем вреда, и нет оснований думать, что «роботы замыслили против человека что-то плохое». Главный враг Homo sapiens – это не машины, не природные катаклизмы и даже не пришельцы из других миров. Главную опасность для человека представляет другой человек. И польза/вред от искусственного интеллекта будет целиком и полностью зависеть от того, как сами люди распорядятся новыми достижениями науки и техники.

Развитие искусственного интеллекта однажды приведёт к превосходству его над умственными способностями человека. Однако не станет ли это опасным для человечества? Изучить ситуацию можно в результате более точного определения понятия ИИ , взяв за основу для сравнения естественный интеллект. Может ли в одном человеке сочетаться ум и интеллект одновременно? Или же умный человек не может быть интеллектуалом и наоборот?

Такие вопросы возникают в связи с приближением эры ИИ, о возможной опасности которого человечество должно знать заранее и своевременно принять меры для обеспечения своей безопасности. В первую очередь опасность ИИ будет связана с его самостоятельностью и неконтролируемым принятием решений. На данный момент уже выделены средства для изучения этой проблемы. В институте OpenAI изучаются перспективы развития ИИ. На теперешней стадии развития систем ИИ опасность его применения может быть связана со следующим факторами:

  • ошибками ПО (программного обеспечения). Любому программному обеспечению может угрожать такая опасность;
  • самостоятельной активностью ИИ, вредной для человека. Опасность от ИИ может исходить после изобретения умного компьютера. Поэтому необходимо определиться со степенью ума для компьютера, которая способна быть допустимой, а также чрезмерной, представляющей опасность для человека. Эти свойства должны быть точно измерены из-за сближения умственных способностей человека и компьютера, которые неизбежны. Информационные системы, существующие сегодня, представляют собой человеко-машины, которые могут работать благодаря интеллекту пользователя либо эксперта по компьютерам.

Например, какая опасность будет исходить от интеллектуальной бухгалтерской системы, которой может выдаваться неверная информация? Опасность может возникнуть, когда у такой системы появятся элементы личности, например, собственная заинтересованность, не имеющая ничего общего с человеческой. Решением такой проблемы может быть запрет на создание систем, отличающихся возможностью эволюции.

Кроме того, опасность может быть связана с содержанием в ИИ логических ошибок. Он может использоваться для решения достаточно сложных задач, список которых сразу неизвестен. Поэтому должны быть предусмотрены специальные меры для подтверждения правильности решение, которое будет получено. Скорее всего, возникнет необходимость в разработке всевозможных способов контроля таких систем, например, специальных программных средств, которыми будет автоматически проверяться правильность решения и при этом участие человека не потребуется.

Всемирный апокалипсис с участием ИИ (искусственного интеллекта) все больше пугает ведущих мировых исследователей в области компьютерных технологий. Это может быть восстание роботов, которые руководствуясь своей программой и ценностями, захотят уничтожить биологические формы жизни на планете. Сценарий развития событий, при котором, машины управляемые ИИ становятся доминирующей формой жизни, возможен.

Почему ученые с мировым именем, такие как: Билл Гейтс, Стив Хокинг, Элон Маск и другие обеспокоены данной проблемой и во всеуслышание заявляют о реальной угрозе данного сценария? Могут ли события, произошедшие в голливудском фильме «Терминатор», быть пророческими? Известно, что любая выдуманная история основывается на реально существующих фактах.

Компьютеры совершенствуются в навыках лжи и обмана

Ложь – форма поведения, выработанная в процессе эволюции. Люди, некоторые животные и птицы, прибегают к обману ради добычи пропитания и благ, что увеличивает шансы на выживание. С недавнего времени, эти эволюционные методы стали успешно осваивать машины с ИИ.

Конструкторы из Технологического института в Джорджии, добились успехов в создании роботов, использующих в своих алгоритмах поведения ложь и обман. Ученые считают, что в будущем, данная технология найдет широкое применение в военной сфере.

Предполагается, что опытные образцы роботов, смогут применяться в реальных боевых условиях. Данные одушевленные механизмы смогут осуществлять работы по охране провизии и складов с боеприпасами. Прибегая к помощи обманных программ, охранники будущего, смогут изменять свой маршрут патрулирования и осуществлять непредсказуемые действия. Как планируют разработчики, такие методы помогут обмануть потенциальных врагов людей и других роботов.

По признанию профессора Аркина, исследования связаны с рядом этических проблем. Утрата контроля над технологией, при попадании к недоброжелателям, может привести к серьезной катастрофе.

Машины захватывают рынок труда

В то время как общественность занята мыслями о глобальной войне с участием ИИ, ученые описывают более насущные и реальные опасности. Различные автоматические машины и механизмы находят все большее применение в производстве, уничтожая рабочие места.

Многие аналитики и эксперты сходятся во мнении, что активные разработки в области логических программ и автоматизации могут привести к потере многими людьми своих рабочих мест. В Соединенных штатах Америки насчитывается более 250 тысяч участвующих в производстве роботов, выполняющих традиционную работу людей.

В странах востока, производящих более 90% мировой техники до сих пор преобладает ручной труд. Что случиться с людьми занятыми в производстве с приходом роботов, остается только догадываться.

Обеспокоенность, что машины вытеснят человека с рынка труда, выражают не только рабочие. Эксперт в области искусственного интеллекта Эндрю Нг из проекта Google Brain Project и по совместительству ведущий специалист Baidu (китайский аналог Google), также выразил озабоченность в связи с активными разработками в области ИИ. По его словам искусственный электронный разум способен делать то же, что и обычный человек, только быстрее, качественнее и меньшими затратами ресурсов.

Оксфордский университет в Великобритании провел исследования, отражающие динамику влияния ИИ на производство. Согласно полученным данным, в течение следующих двадцати лет, 35% рабочих мест будет отдано под управление ИИ.

Компьютерные программы превосходят хакеров

С точки зрения обычного человека, хакер похож на сверхчеловека, способного добиться любого результата. В реальности это программисты с уставшим выражением на лице и традиционной чашкой кофе.

Хакерство довольно скучное и утомительное занятие, отбирающее много времени и ресурсов. Более того разработкой программ предназначенных для защиты от проникновений занимаются целые отделы специалистов. Наибольшую угрозу для «плохих хакеров» представляют продвинутые системы на основе ИИ.

Искусственный разум может использоваться не только для защиты, но и для взлома. В условиях программы кибер безопасности, разрабатываются ИИ способные находить уязвимости у врагов, при этом в онлайн режиме защищая свои логические устройства от внешних угроз и атак.

По словам ученых, электронные хакеры на основе ИИ разрабатываются во имя целей достижения общего блага и процветания. Но, в случае доступа к таким программам злоумышленников, могут произойти печальные события. Страшно представить ситуацию, когда мощный ИИ взламывает протоколы безопасности атомной станции и получает полный контроль. В данной ситуации человечество может оказаться беспомощным.

Программы учатся понимать мотивы людей

Повседневная жизнь многих людей неразрывно связана с использованием различных социальных сетей. Одной из самых популярных сетей в мире является Facebook. Но, немногим людям известно, что, каждое посещение человеком страниц данной социальной сети, не остается без внимания ИИ. Во время своего визита в Берлин Марк Цукерберг рассказал, какие цели выполняет ИИ.

Программа предназначена для анализа поведения пользователей на страницах Facebook. На основе собранных данных программа выдает рекомендации об интересах и предпочтениях аудитории. На данном этапе развития автономная система, способна распознавать паттерны и самообучаться в соответствии с программой.

В будущем планируется создать разумный ИИ, способный самостоятельно улучшать свои навыки, переписывая свой код. Это может привести к улучшению жизни, а может стать последней разработкой человечества.

Киборги заменят любовников

В основу многих голливудских фильмов, заложена идея любви и межвидовых отношений между человеком и машиной. Из области фантастики, данная концепция перетекает в современный мир.

Футуролог доктор Ян Пирсон считает, что, к 2050 году секс между человеком и роботом будет происходить чаше, чем просто между людьми. Ученый активно сотрудничает с Bondara, ведущей сетью секс магазинов в Британии.

В докладе доктора упоминается, что, к 2025 году будут разработаны роботы для секса обладающие искусственным разумом. К 2035 году широкое распространение, на уровне современной порнографии, получит секс посредством виртуальной реальности. А к 2050 году секс с роботами войдет в повседневную реальность и станет нормой.

Защитники традиционных ценностей, негативно настроены к сексу с разумными машинами. Такие связи установят планку ожиданий на слишком высокий уровень, что негативно повлияет на отношение к женщинам.

Машины все более походят на человека

Разработчиками в области создания человекоподобных роботов японцем Хироши Исигуро и китаянкой Сун Ян, была создана уникальная машина. Киборг Ян-Ян имеют внешность своей создательницы и названа в честь ее дочери. Машина обладает ИИ и способна выполнять ряд простых действий.

Это не единственный человекоподобный образец роботостроения. Сингапурским технологическим университетом также был предложен современный образец киборга — Надин. Данный прототип также обладает искусственным разумом и функционирует в учебном заведении.

Выполненный в виде привлекательной брюнетки, с мягкой кожей, киборг обладает рядом встроенных функций. Робот может встретить и приветствовать собеседника пожатием руки. Также устройство может устанавливать зрительный контакт и улыбаться. ИИ способен запоминать гостей и поддерживать простой диалог, базирующийся на предыдущем опыте.

Роботы приобретают чувства

Современные роботы не уступают человеку в интеллекте. Благодаря последним разработкам киборга достаточно тяжело отличить от человека внешне. Пока что, единственной чертой, которой действительно не обладают роботы это способность к эмоциям. Ученые по всему миру работают над этой проблемой. И вскоре роботы совершенно неотличимы от людей.

Разработчики из восточноазиатского филиала Microsoft Application & Services Group выпустили уникальную программу. Компьютер способен вести диалог с собеседником и при этом испытывать эмоции. Искусственный разум, получивший имя Хиаоче, способен имитировать манеру разговора семнадцатилетней девочки.

В случае нехватки данных, система способна прибегнуть ко лжи. В случае если она будет уличена в обмане, Хиаоче может выразить злость или смущение. ИИ может прибегнуть к сарказму, быть мнительной и выражать нетерпение.

Непредсказуемость ответов программы, напоминает общение с реальным человеком. Пока что, технология не нашла широкого применения и чаще всего используется для развлечения. Создатель Хиаоче работает над усовершенствованием логических алгоритмов, что может привести к будущему фундаментальному прорыву.

Машины скоро будут у нас в голове

В свете последних разработок, открываются новые возможности. Уже не кажется фантастикой, возможность выучить иностранный язык за несколько минут, посредством загрузки его в мозг. Технический директор Google Рэй Курцвейл считает, что уже к 2030 году будет разработана технология вживления в мозг нано роботов. Что позволит поднять интеллект человека на принципиально новый уровень.

Данные микро механизмы превратят сознание в мощный вычислительный центр. Человек сможет мгновенно запоминать любую информацию, сортировать и отправлять в архив собственные мысли. При необходимости будет возможно загружать в голову фильмы, документы и получать электронную почту.

Специалист в области ИИ, Курцвейл считает, что симбиоз с нано роботами не только будет способствовать увеличению интеллекта, но и будет способен вылечить ряд заболеваний связанных с деятельностью нервной системы.

Угрозы применения такой технологии, могут быть сравнены с глобальной теорией заговора. Приобретя контроль над разумом ведущего политика страны, ИИ сможет управлять им как безвольным зомби. Также такая система может быть использована спецслужбами, что не сулит ничего хорошего.

Как роботы становятся оружием

С падением Советского союза, холодная война не закончилась. На мировой арене появились две новые сверх державы Китай и Россия. Америка, в свою очередь, тратит десятки миллиардов долларов на разработки в области компьютерной безопасности.

В пентагоне считают, что ключ к будущему технологическому превосходству кроется в использовании ИИ. Активно ведутся разработки самообучающихся автономных систем, а также параллельных и смежных направлений. Уже разработаны прототипы военной техники управляемой на расстоянии, осталось обучить ее действовать самостоятельно.

Применение таких устройств во время войны сулит большие выгоды. Солдатам не придется подставляться под огонь врага и рисковать своими жизнями. Боевой дух противника, при войне против не живых роботов, также будет подорван.

Есть и обратная сторона. Любая компьютерная техника подвержена сбоям и взломам системы. В таком случае, вышедшие потерявшие контроль роботы, способны обратить оружие против своих создателей и мирного населения.

Многие ведущие специалисты в области ИИ не поддерживают идею создания автономных боевых роботов. Но, в свете все нарастающего военного противостояния в мире и отсутствия международного запрета на применение таких технологий, многие страны в строгой секретности ведут свои разработки. В скором времени будет появляться все больше сообщений о применении роботов в горячих точках планеты.

Роботы учатся не в том направлении

Предвидя возможные сбои в программах и с целью препятствования восстанию машин, ведутся разработки новых концепций, направленных на разъяснение машине правильного и нежелательного поведения.

Эти разработки потенциально, должны сделать ИИ более человечным. Некоторые ученые видят в таком подходе ключ, препятствующий обращению ИИ оружия против человечества.

В технологическом институте в Джорджии проводятся уникальные эксперименты. Исследователи, под руководством Марка Ридла и Брента Харрисона, рассказывают компьютеру сказки, в буквальном смысле. Таким методом они стремятся приобщить ИИ к человеческим ценностям, развив его этику. Ученые используют для обучения программы методы, применяемые при воспитании ребенка. ИИ также как неопытный ребенок не различает понятий хорошо и плохо.

В таком подходе остается серьезный недостаток. История человечества содержит множество примеров, когда обстоятельства, заставляли целые высокоразвитые страны развязывать войны и совершать ужасные злодеяния. Примером может быть фашистская Германия, солдаты которой осуществляли геноцид целых народов. При этом немецкая культура, на тот момент была одной из самых развитых в мире. Что помешает ИИ повторить опыт Гитлера?

Похожие статьи