Чем опасен искусственный интеллект? Почему искусственный интеллект пугает нас

Когда люди наблюдают за техникой, которая ведёт себя подобно человеку и компьютерами, которые обрабатывают титанические объёмы данных, возникает немало мыслей о будущем. Приличная их часть основана на теме порабощения человеческой расы.

Научно-фантастическая литература и кинематограф от «2001: Космическая одиссея» (1968) до «Мстители: Эра Альтрона» (2015) прогнозируют, что искусственный интеллект превзойдёт ожидания создателей и выйдет из-под контроля. Якобы его целью станет не просто конкуренция с человеком, а порабощение и истребление нашего вида.

Научная фантастика или страшное будущее?

Конфликт между людьми и искусственным интеллектом основная тема научно-фантастического сериала «Люди», третий сезон которого вышел в этом году. В новых эпизодах «синтетические» люди сталкиваются с враждебностью обычных людей, которые относятся к ним с подозрением, страхом и ненавистью. Насилие бушует. «Синты» воюют за свои основные права против тех, кто считает их нечеловечными.

Фантастика – крайность воображения. Но и в реальном мире не все желают встречать ИИ с распростёртыми объятиями. В последние годы границы воображаемых возможностей искусственного интеллекта активно раздвигаются. Люди все чаще говорят о его опасности. А предположения о том, что технологии способны обречь человечество, кажутся реальнее. Искусственный интеллект пугает нас.

Мнение об искусственном интеллекте

Илон Маск – один из самых заметных людей, которые призывают к осторожности, обсуждая ИИ. В июле прошлого года на встрече Национальной ассоциации губернаторов он сказал: «Я обладаю большим опытом работы с технологичными ИИ и думаю, что человечеству действительно необходимо об этом беспокоиться. Я продолжаю давать сигнал тревоги. Пока роботизированные машины не пойдут по улицам, уничтожая людей, мы не поймём, как на это реагировать, потому что такая перспектива воспринимается как нереальная».

В 2014 году, Маск называл искусственный интеллект «нашей самой большой экзистенциальной угрозой», а в августе 2017 заявил, что для человечества ИИ представляет больший риск, чем северокорейская идеология.

Величайший физик Стивен Хокинг также выражал беспокойство по поводу злоумышленного применения искусственного интеллекта. В 2014 году он сообщил BBC, что «развитие полноценного ИИ может стать предзнаменованием конца для человечества».

Ещё один удар нанесла команда программистов из MIT Media Lab в Кембридже, которая решила доказать, что ИИ опасен. Нейронная сеть Nightmare Machine («Машина кошмаров»), представленная в MIT в 2016 году, превратила обычные фотографии в ужасные демонические пейзажи. Искусственный интеллект под названием Shelly (так же разработан в MIT), сочинил 140 000 рассказов в жанре ужасов, которые пользователи Reddit публиковали на форуме r/nosleep.

«Нас интересует, как искусственный интеллект вызывает эмоции, конкретно в этой ситуации он спровоцировал страх» — прокомментировал эксперимент Мануэль Себриан, менеджер по исследованиям MIT Media Lab.

Почему мы боимся?

По мнению Килиана Вайнбергера, доцента кафедры информатики в Корнельском университете, негативные впечатления от искусственного интеллекта делятся на две категории:

Идея о том, что ИИ станет сознательно-независимым и попытается уничтожить нас.
Мнение, что злоумышленники будут использовать ИИ в своих целях.

«Искусственный интеллект пугает нас, потому что мы думаем, что супериндустриальный ИИ, став умнее человека, будет относиться к нему, как к низшему существу. Так же, как мы – к приматам. И это, конечно, крайне волнительно для человечества».

Однако Вайнбергер отмечает, что опасения по поводу превосходства и желания ИИ уничтожать расу базируются на неправильных представлениях об этой технологии. Искусственный интеллект впечатляет, когда мы видим его в действии. Но он имеет и массу ограничений. ИИ определяется алгоритмами. Они задают его поведение с помощью предписанных функций и не более того.

Нейронные сети выполняют сложные задачи с несколькими видами данных. Но большинство навыков, которыми человек обладает, даже не развивая их намеренно, для машинного интеллекта недоступны.

Искусственный разум может во много раз превзойти человека в выполнении специализированных работ. Например, игре в шахматы, идентификации объектов по изображению или большому анализу данных в бухгалтерии или банковском секторе.

У ИИ, который бы обладал самостоятельным сознанием, не будет такого прогресса, что он поработит человечество. И нет оснований считать, что подобный прогресс появится в скором будущем — добавляет Вайнбергер.

Но есть ещё одна тема о том, почему искусственный интеллект пугает нас – это использование возможностей ИИ людьми с плохими намерениями. Этот сценарий более реален и опасен.

Рационален ли наш страх?

В мире телесериала «Люди» человечество испытывает страх перед разумным ИИ и вступают в ожесточённую конфронтацию с ним. И, судя по популярности проекта, этот сюжет отвечает на актуальный запрос общества.

Боязнь технологий нельзя назвать необоснованной, поскольку определённый риск, безусловно, присутствует. Но опасность любого инструмента заключается в мыслях того, кто им управляет. Очевидно, именно этот вопрос необходимо решить человечеству, чтобы искусственный интеллект служил во благо.

Искусственный интеллект угроза человеку, предупреждает Стивен Хокинг. Созданный человеком искусственный интеллект может обернуться самым большим бедствием(!), составив конкуренцию человеческой цивилизации.

Искусственный интеллект, роботы будущего — опора человека

Электронный разум может создать собственную машинную цивилизацию тем самым став одной из самых серьезных угроз человечества.

Предвидение опасности исходит от известного физика Стивена Хокинга (открывшего мир вселенной). Для нашего времени это конечно потенциальная угроза, но в один «прекрасный день» будущего, искусственный разум может разработать «собственную волю». Теперь пришло время всерьёз подумать над этим вопросом.

Физик в очередной раз выступил с предупреждением: искусственный интеллект может развиться в совершенную мыслящую структуру. Настолько сложную и разумную, что она овладеет способностью расти и понимать мир согласуясь со своей собственной волей, которая может вступить в противоречие с планами человечества.

Это может привести к возникновению мощного оружия, спровоцировать потерю человечеством контролируемой территории. — Профессор Хокинг призывает исследователей к тщательному изучению проблемы поведения искусственного интеллекта, и его возможностей в будущем.

Надо сказать, что профессор Хокинг не отклоняет идею искусственного интеллекта в негативную область. Ученый указывает, что если мы сделаем нашу домашнюю работу и исследования достаточно хорошо, то сможем .

С таким помощником как ИИ, мы сможем прийти к лучшему образу жизни, говорит физик. Искусственный интеллект может помочь человечеству искоренить болезни и бедность.

Профессор Хокинг выступил на открытии центра «The Leverhulme», затрагивая как полезность машинного разума, так и негативные стороны. Центр создан для будущего интеллекта, предназначенный проводить исследование, и изучить последствия быстрого развития искусственного интеллекта.

Следует напомнить, что для Стивена Хокинга 100 лет — мгновение. В действительности, разумные ИскИны дело даже не ближайших сто лет, ну разве что кто-то принесет процессор из 2135 года.

Леверулм Центр для будущего ИИ объединит сотрудничество между несколькими университетами в Соединенном Королевстве и Соединенных Штатах. Идея заключается в создании междисциплинарного научно-исследовательского сообщества.

Команда учёных планирует работать в тесном сотрудничестве с деловыми кругами и правительством, пытаясь среди прочих задач определить риски и выгоды в краткосрочной и долгосрочной перспективе в ставке на искусственный разум. Директор Центра Huw Price уверил: создание интеллектуальных машин является важным этапом человечества, и центр будет пытаться сделать «будущее наилучшим».

Помимо обширности исследований, Центр будет анализировать последствия быстрого развития интеллектуальных машин, например роботов. Роботы, предлагая решения задач повседневной жизни, создают риски и этические дилеммы для человечества. Многие люди не доверяя электронике опасаются ИИ, к тому же цифровой разум может превзойти человеческий и контролировать жизнь человека.

Я считаю, что нет глубокой разницы между тем, что может быть достигнуто с помощью биологического мозга и что может быть достигнуто с помощью компьютера. Таким образом следует, что теоретически, компьютеры могут имитировать человеческий интеллект — превзойти его. С.Хокинг.

Профессор Хокинг считает, что потенциальные выгоды от участия ИИ в нашей жизни велики. Такая технологическая революция может помочь человечеству исправить некоторый ущерб, нанесенный планете. «Успех в создании ИИ может стать крупнейшим событием в истории цивилизации», отмечает профессор Хокинг.

Но также это может быть последним шагом в истории человечества, если мы конечно не узнаем, как избежать рисков, ведь наряду с преимуществами, ИИ может представлять опасности: мощные виды оружия, новые способы для немногих угнетать многих. В конце концов, это может завершиться доминированием железных тел над биологическими, вызвав большие катастрофы в будущем.

Что если ИИ, а мы говорим о разуме со способностью инициативы выбора вариантов поведения, вступит в конфликт с жизненными аспектами человека? Ведь тогда послушный железный помощник на кухне может переквалифицироваться в диктатора условий!

— Развитие мощного ИИ будет либо лучшее, либо самое худшее, что когда-либо случиться с человечеством. Мы не знаем, какой вариант событий ожидает в будущем, говорит профессор Хокинг. Именно поэтому, в 2014 году, я и многие другие призвали проводить больше исследований в этой области. Я очень рад, что кто-то услышал меня, заключил профессор Хокинг на открытии центра.

Машина против человека

О том, что роботы заменяют человека повсеместно, мы слышим едва ли не каждый день. По самым оптимистичным прогнозам, в ближайшие десятилетия машины оставят без работы миллионы людей. Но в большинстве случаев речь идет об узкоспециализированных программах, которые, хотя и могут заменить отдельно взятого специалиста, но уж никак не станут «альтернативой» Homo sapiens.

Не секрет, что искусственный интеллект уже может конкурировать с человеком. Самый яркий тому пример – созданная специалистами Google программа AlphaGo. Ранее различные программы уже одерживали верх над человеком в шашках, шахматах и нардах. Но вот древнекитайскую логическую игру го считали «слишком сложной для ИИ». В ней действительно присутствует глубокое стратегическое содержание. Дело в том, что в го почти невозможно перебрать все комбинации, и в силу этого ИИ сложно просчитать варианты развития событий. Тем не менее, созданная Google программа AlphaGo в 2016 году смогла обыграть чемпиона Европы по игре го Фаня Хуэя. Причем сделала она это с разгромным счетом 5:0.

Но как удалось добиться такого результата? Ведь, как мы уже говорили, здесь нельзя было применить обычные алгоритмы. Создатели AlphaGo разработали две нейронные сети: особые алгоритмы, которые имитировали работу цепочек нейронов в человеческом мозге. Одна сеть несла ответственность за определение текущей позиции на доске, а вторая применяла результаты анализа, которые были подготовлены первой сетью, чтобы выбрать следующее действие.

«Нобелевский лауреат»

Этот удивительный пример не единственное доказательство усиления позиций ИИ. Недавно группе австралийских физиков удалось создать программу, которая может сама проводить исследования. Более того, у нее уже получилось воспроизвести эксперимент, за который в 2001 году присудили Нобелевскую премию по физике. Речь идет о награде, которая в 2001 досталась Эрику Корнеллу, Вольфгангу Кеттерле и Карлу Виману за «экспериментальное наблюдение бозе-эйнштейновской конденсации в разреженных газах атомов щелочных металлов и за первые фундаментальные исследования свойств таких конденсатов». В рамках эксперимента исследователи охладили газ до температуры около одного микрокельвина, а после этого отдали контроль над несколькими лазерными лучами искусственному интеллекту для охлаждения захваченного газа до нанокельвина. Машина научилась проводить эксперимент менее чем за час. Больше того, она смогла подойти к процессу «творчески». ИИ, например, менял мощность одного лазера, компенсируя это другим лазером. Сами авторы нового исследования говорят, что «человек не смог бы додуматься до такого».

Кто есть кто

Как мы видим, прогресс в деле создания ИИ очевиден и описанные выше случаи – лишь одни из многих. Другой вопрос: что именно считать искусственным интеллектом и, более того, что можно вложить в содержание понятия «полноценный ИИ»? Этот вопрос волнует великие умы на протяжении десятилетий, но даже сейчас, в наш продвинутый информационный век, ответить на него очень трудно. В 1980 году американский философ Джон Роджерс Сёрл ввел термин «сильный искусственный интеллект». Речь идет о программе, которая будет представлять собой не просто модель разума, а станет разумом в буквальном смысле этого слова. В противовес этому сторонники «слабого искусственного интеллекта» оценивают ИИ лишь в контексте решения узкоспециализированных задач. Проще говоря, они не могут себе представить, чтобы машина действовала наравне с человеком.

Не менее важен и морально-этический аспект. Предположим, ученые создадут продвинутый ИИ, который заменит собой человека буквально во всех сферах. Но будет ли такая программа иметь привычную для человеческого общества мораль? Или же ее в принципе невозможно будет наделить такими качествами… Интересно, что ранее был введен специальный термин «чистый искусственный разум»: в этом случае машина понимает и решает вопросы, как настоящий человек, но лишена характерных для людей эмоций. Последнее, кстати, может стать конкурентным преимуществом машины перед человеком, но об этом позже.

Угроза для выживания?

«Слабый ИИ», конечно, может лишить человека работы, но вряд ли станет угрозой для выживания всего вида Homo sapiens. В качестве основной угрозы эксперты называют именно продвинутый полноценный искусственный интеллект, которому человек станет попросту не нужен. Довольно пугающий прогноз в 2015 году сделал известный британский физик-теоретик Стивен Хокинг, заявивший, что машины в течение ста лет возьмут над человеком верх. «Уже в ближайшие 100 лет искусственный интеллект превзойдет человеческий. И до того, как это случится, мы должны сделать все, чтобы цели машин совпадали с нашими», – заявил Хокинг. Исследователь обеспокоен недальновидностью разработчиков ИИ. Еще раньше ученый назвал причину превосходства ИИ над Homo sapiens: по его мнению, человек эволюционирует очень медленно, в то время как машины смогут самосовершенствоваться невероятно быстро.

Опасения Хокинга разделяет основатель Microsoft Билл Гейтс. «Я в том лагере, который обеспокоен перспективой развития суперинтеллекта. Сначала машины будут выполнять большую часть работы за нас, однако не будут обладать суперинтеллектом. Это хорошо, если мы правильно будем этим управлять. Через несколько десятилетий искусственный интеллект станет достаточно развитым, чтобы стать причиной для беспокойства», – заявил он в 2015 году.

Интересно, что об угрозе ИИ говорит даже главный инноватор нашего времени Илон Маск, который, казалось бы, должен видеть плюсы во всех новых технологиях. Он заявил о возможности появления полноценного искусственного интеллекта уже в ближайшие годы. «Искусственный интеллект прогрессирует очень стремительно. Вы понятия не имеете, насколько. Это происходит по экспоненте», – сказал он в 2015 году.

Фантазии и реальность

Свою лепту в распространение тезиса об угрозе ИИ, конечно, внесли фантасты. Пожалуй, самый пугающий прогноз конца света – это «серая слизь». В этом случае неуправляемые самореплицирующиеся нанороботы, выполняя программу саморазмножения, поглотят все доступное им вещество на нашей планете.

Сейчас это звучит как бред, но многим этот сценарий не кажется таким уж невероятным. Шотландский ученый Данкан Форган даже предложил в 2015 году искать погибшие инопланетные цивилизации по «серой слизи». В случае такого развития сценария конца света, по его мнению, чужая планета будет покрыта «песком» из миниатюрных машин. Они будут отражать свет и резко повышать яркость планеты при ее прохождении по диску светила.

Но не все фантасты склонны видеть в роботах угрозу. Наиболее системно к вопросу развития ИИ подошел знаменитый Айзек Азимов, сформулировавший три закона робототехники:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2.Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

В любом случае пока что от ИИ пользы намного больше, чем вреда, и нет оснований думать, что «роботы замыслили против человека что-то плохое». Главный враг Homo sapiens – это не машины, не природные катаклизмы и даже не пришельцы из других миров. Главную опасность для человека представляет другой человек. И польза/вред от искусственного интеллекта будет целиком и полностью зависеть от того, как сами люди распорядятся новыми достижениями науки и техники.

1 756

В настоящее время команда из 26 международных экспертов подтвердила, что развитие искусственного интеллекта (ИИ) является явной и настоящей угрозой, и правительства и крупные корпорации должны опасаться многочисленных угроз этой технологии. Доклад экспертов был опубликован Университетом изучения экзистенциальных рисков в Оксфордском университете и рядом других известных организаций. В отчете предупреждается о ряде злонамеренных видов использования ИИ, которые могут стать одной из самых больших угроз для человечества. Это цифровая безопасность, физическая безопасность и политическая безопасность.

Во времена, когда люди общаются через Интернет, и программы, которые могут разумно реагировать и притворяться человеком. Платформы, такие как Twitter и Facebook, сегодня забиты ботами. Многие люди, которые являются друзьями в социальных сетях, могут быть ботами! Twitter оценивает количество профилей ботов между 25-50 миллионами! В 2015 году в Facebook уже было около 200 миллионов пользователей ботов! Тем временем ученые даже создают «социальные ботнеты», которые представляют собой частную армию автоматических «друзей». Часто тысячи этих ботов обслуживает ботмастер. Эти боты имитируют поведение обычных пользователей. В профилях этих ботов появляются сообщения и сообщения от других ботов, и кажется, что все это происходит от реальных людей. Это неверно, на самом деле продукты рекламируют и распространяют разные взгляды и политические взгляды. Боты также получают много личной информации, которая затем оценивается, сохраняется и продается. Если вы используете эти бот-сети с плохими намерениями, Вы можете буквально вызвать хаос и украсть много информации. Сложные алгоритмы могут использоваться для имитации любого поведения пользователя и для охвата и проникновения определенных профилей.

Тем временем, чатботы разработаны так, что они могут имитировать стиль написания дружественных пользователей. Этот метод создает доверие, и программа пытается получить доступ к как можно большему количеству компьютеров. В ближайшие несколько лет будет легко подделать даже видео и телефонные звонки с поддельными изображениями и имитированными голосами. С помощью этой процедуры любое учреждение может быть обмануто.

Следующую угрозу мы видим в современных роботах, которые в скором времени будет использоваться повсеместно. Компьютерные хакеры и ИИ (искусственный интеллект), вероятно, могут легко взломать эти устройства и злоупотреблять ими в своих целях даже в качестве оружия. Еще более опасным было бы, если ИИ будет включен в автоматизированных системах вооружения, например, в удаленных снайперских винтовках и автоматических системах ПВО.

Другая серьезная угроза исходит от программ анализа, которые ищут в Интернете «поддельные новости» на невероятной скорости и могут быстро найти любого нежелательного автора. Если это правительственный противник, вы можете немедленно найдены и наказаны. Тогда у правительственных новостных порталов и газет возникнет проблема, потому что вы сможете сразу обнаружить любую мистификацию. Уже возможная манипуляция видео с помощью AI уже бросает тёмные тени в ближайшее время, все становится манипулируемым, и никто не может доверять никому и никому больше — особенно, если AI находится в игре. Используемая правильно, эта технология превращается в невероятно мощное оружие и одну из самых больших угроз для всего человечества. Когда искусственные интеллекты достаточно мощны, они могут буквально контролировать и манипулировать всем. Манипуляция была бы быть безграничной. Она могла легко и свободно менять любую электронную книгу, газетную статью и исторический фильм, и никто не заметил бы этого. Вся история и все важные факты могут быть ненавязчиво манипулированы и изменены навсегда. Это не создает проблемы для ИИ, чтобы имитировать лица и голоса политиков, что может вызвать бесконечные споры. Если ИИ становится достаточно умным, человек больше не может противостоять ему. По мнению разработчиков искусственного интеллекта, они, вероятно, станут в миллиарды раз более умными, чем люди!

В докладе экспертов обсуждается ряд предложений по предотвращению подобных сценариев. Первым вариантом будет использование супервизоров для управления разработчиками KI, чтобы они не могли использовать эту технологию для вредоносных целей. Немедленные действия предпринимаются, когда предполагаются вредные намерения и события. Таким образом, для обеспечения безопасности должны быть созданы стандартизированные методы. Со временем в этих контролях и обсуждениях по безопасности будут задействованы все больше экспертов. Только совместная ответственность и прозрачность должны гарантировать, что ИИ не наносит большого ущерба.

Как обеспечить такую ​​вещь? Конкурирующие компании, разработчики систем вооружений и конкурирующие государства всегда будут стараться оставаться на шаг впереди своих конкурентов в развитии ИИ. Поэтому эти предлагаемые меры не будут эффективными. Вы должны подготовиться к худшему уже сейчас.

Генераторы изображений, которые работают с алгоритмами, которые поддерживаются искусственным интеллектом, уже создают фотореалистичные грани. Компания NVIDIA использует метод GAN, который производит очень реалистичные фотографии людей, которых не существует. Даже человеческие голоса теперь могут быть полностью скопированы с использованием новых технологий. Вот что делает WaveNet, например, в Google DeepMind контролируется. Даже алгоритм Lyrebird теперь может копировать и подражать человеческому голосу, если у вас есть только одна минута записанного звука, как в телефонных разговорах. Следующий шаг, который уже предпринят, — это то, что компьютеры могут распознавать и реагировать на реальные человеческие эмоции. Граница между человеком и машиной исчезает.

Конечно, вся эта технология уже используется для вредоносных целей, таких как Facebook , для перепрограммирования и управления пользователями. Шон Паркер, один из основателей Facebook, нашел четкие слова в интервью. Паркер считал, что Цукерберг заблокировал свой профиль, показав, что Facebook может повредить мозгу своих пользователей! Паркер отметил, что социальные платформы, подобные Facebook, буквально меняют поведение людей и общество. Все это за счет производительности, и Бог знает, что он делает с мозгами наших детей. Facebook поставил перед собой задачу увлечь внимание пользователей, чтобы они проводили большую часть своего времени на платформе, делая их неотъемлемой частью своей жизни. Все это порождает зависимость от распределения дофамина с «симпатичными» и комментариями! Это игра с человеческой психологией.

Конечно, эти разработчики получают свои спецификации, и все идет по вредоносной программе. Хотя такие люди, как Цукерберг и Паркер, миллиардеры, они просто играют свою небольшую роль в большой игре. Google, Facebook, Youtube и т. Д. контролируются из других источников. Бывший офицер ЦРУ Роберт Дэвид Стил смог определить и назвать нескольких таких вдохновителей :

  • «Глубокое государство» со своими семьями-банкирами, включая Ватикан, Лондон и Уолл-стрит
  • Сионистское правительство Израиля и Моссад в связи с американскими сионистскими организациями AIPAC и Антидиффамационной лигой (ADL)
  • Руководители крупных медиакомпаний и киностудий, а также их финансист Джордж Сорос
  • Платные субподрядчики, которые изобретают диффамацию и лгут по заказам
  • Платные интернет-тролли, которые часто состоят или набираются у израильтян или членов ADL
  • Добровольные тролли, которые слишком глупы, чтобы понять, кто и что они действительно слушают («Саяним»)
  • Наконец, эти тролли создают алгоритмы, которые действуют полностью за пределами человеческой этики, контроля
  • «Блокировка теней» этих программ и нейтрализация целевых лиц в сети посредством автоматизированной службы троллей и алгоритмов
  • Отсутствие законопроектов и стандартов в Интернете
  • Принятие всех этих мер ИИ

Человек из ЦРУ Роберт Дэвид Стил говорит о #GoogleGestapo . Эти ложные отчеты могут привести к блокировке учетной записи пользователя или профиля на Youtube. Другие виды использования включают отрицательные спады или отзывы клиентов для продвижения или уничтожения продукта. Стил говорит, что все тролльские армии используются и оплачиваются за «преследование толпы» (групповое преследование). Таким образом, например, вы можете уничтожить канал Youtube с глупыми комментариями или лгать, чтобы заблокировать его. Между тем, большинство операторов взрывных каналов или альтернативных носителей вынуждены отключать комментарии. Своими открытиями Стил должен был испытать, что большинство его информации были затронуты преследованием толпы, хотя он был номинирован на Нобелевскую премию мира в январе 2017 года!

Роберт Дэвид Стил уверен, что все эти пути приведут к борьбе с диффамацией (ADL). Этот объект, похоже, является специальным сервисом для шпионажа в социальных сетях. Стил уверен, что ADL вместе с сионистскими организациями в Израиле усовершенствовали искусство «цифрового убийства» в первые годы существования социальных сетей. С малейшей критикой насилия в отношении палестинцев или бойкотом призывает к израильским товарам в социальных сетях, сразу поступают сообщения о троллях для «высказываний ненависти» и т. П. Критики сразу же блокируются, запрещаются или блокируются, или в случае компаний получают наихудшие возможные оценки.

Но все это служит только еще одной, еще более злой цели — появлению нового бога, искусственного интеллекта. Согласно идеям этих силовых одержимых кругов, ИИ должен не только контролировать, но и управлять и поклоняться! В Силиконовой долине, где живут все крупные технологические компании, уже создана новая религия — Церковь Искусственного интеллекта (Путь Церкви будущего). Эта церковь поддерживается различными гуманитарными организациями, работающими на трансгуманизм. Многие христиане видят в этих событиях появление Антихриста. Энтони Левандовски, основатель Церкви, говорит, что настало время для ИИ, который гораздо умнее любого человека, иметь управление на Земле. В принципе, это ничего нового. Элиты планируют восстановление своего ложного бога, который уже существовал в «великом случае» человечества перед потопом. Поэтому трансгуманисты также говорят о воссоздании суперинтеллекта. Большой случай имел отношение к «падшим ангелам», которые доверяли людям тайное и запретное знание перед потопом. Это знание испортило все человечество и принесло войну и разрушения.

Другая организация, которая пропагандирует трансгуманизм, называется Человечество + . Там преследуют цель превратить нормальных людей с помощью интерфейсов AI, нанотехнологий и человеко-компьютерных интерфейсов, чтобы в итоге из него вышли совершенно разные существа, так называемые «постчеловеческие существа». Некоторые каббалисты, такие как раввин Йосеф Бергер, уверены, что, согласно древним пророчествам, «конец исправления» неизбежен, это высшая точка духовной целостности. С появлением Антихриста или «Армила», как его называют в Торе, вскоре придет к появлению еврейского Мессии. Однако это не может быть о Иисусе Христе. Многие эксперты считают, что темные элиты нарочно создают хаос на Земле, чтобы всеми силами выполнить это пророчество. В древних пророчествах написано, что Армил появился на свет через своеобразную девственную концепцию, которой раньше никогда не было. Поэтому вполне возможно, что Армил мог быть первым трансгуманистом, обладающим «богоподобными» полномочиями. Он описан в Священных Писаниях как чудовище, которое лысое и имеет большой и маленький глаза. Он должен быть глухим на правое ухо, а его правая рука повреждена. Левая рука должна быть намного длиннее, чем обычно.

Этому ложному богу должны поклоняться во всем мире в течение некоторого времени. Управляемые СМИ уничтожат последние истины, и все логическое будет казаться абсурдным. Искусственные интеллектуалы Alexa of Amazon или Google Home отвечают почти по каждому вопросу. Вы можете ответить, кто был Буддой или Мухаммедом, но не тот, кто есть Иисус Христос! Разве это не странно? Вы думаете, что стоит упомянуть? Здесь вы можете увидеть, какая антихристианская, антилиберальная и античеловеческая программа стоит за Google.

Чрезмерное использование и слепое доверие к сервису Google уже стало очевидным для многих людей. Для людей больше не важно чему-то научиться через постоянную возможность получения любой желаемой информации в любое время и в любом месте. Исследование, проведенное в Гарвардском университете с 2011 года показало, что люди не помнят информацию в долгосрочной перспективе, если они знают, что вы можете найти их в Google в любое время. Это явление было окрещено «эффектом Google». Когда задавали вопросы испытуемым, они рефлексивно сначала думали об Интернете и компьютере, а затем искали знания в своих воспоминаниях. Это означает, что способ, которым мы помним вещи, изменился. Многие теперь называют это «цифровой амнезией». Сегодня многие люди буквально зависят от своих смартфонов и поэтому больше ничего не помнят. В отличие от прошлого, сегодня нас постоянно бомбардируют информацией, и нашему мозгу нужно научиться справляться со всей этой информацией. Конечно, все эти данные не могут быть сохранены в сознании.

Имеются также новые результаты исследований по психологическим, умственным и социальным последствиям новых цифровых технологий и социальных сетей. Особенно для подростков эти технологии имеют фатальные последствия. Постоянная доступность информации лишает детей способности мыслить независимо, когда приходит время, чтобы научиться этому развивать эту способность. Эта проблема хорошо известна. Многие люди в Силиконовой долине защищают своих детей от этих технологий и отправляют их в школы, где им запрещено пользование интернетом и смартфонами.

Исследования показали, что дети, подверженные этому постоянному потоку информации, находятся с более плохим состоянием здоровья и более подвержены стрессу. Чем больше времени дети проводят в Интернете, тем меньше времени остается для реального социального взаимодействия. Это отражается в умах и благополучии. Отсутствует прямая связь, что означает, что выражение лица и язык тела больше не могут быть правильно истолкованы. Устранение длинных разговоров теряется. В результате стресс и беспокойство в ситуациях, которые эмоционально неуместны. Найдя какой-либо ответ в Интернете, дети больше не могут самостоятельно мыслить и сами найти ответ на вопрос и сосредоточиться на вещах, требующих длительного периода концентрации и усилий.

В университетах уже есть большие проблемы, потому что смартфоны всегда и везде используются. В результате студенты могут концентрироваться все меньше и меньше, а успехи в обучении уменьшаются. Можно сказать, что такие устройства не делают умных, но глупых. Все больше и больше школ теперь запрещают использование этих устройств для восстановления мышления учащихся. Частое использование Google явно снижает способность самостоятельно решать проблемы. Поэтому цифровые службы должны быть тщательно дозированы.

Существует также прямая корреляция между чувствами онлайн-времени и несчастья. Подростки, которые используют свой смартфон очень часто, обычно недовольны. Студенты, которые проводят больше времени на занятиях спортом, чтением и прямым общением, обычно счастливее. Кроме того, постоянное использование социальных сетей делает их несчастными. В результате многие дети сегодня менее мятежны, более терпимы и недовольны и совершенно неподготовлены к взрослой жизни! Полное воздержание от цифровых медиа также не радует. Исследования Дети счастливы, когда они не в сети не более одного часа в день. Исследования продолжаются с 1990-х годов, и с 2012 года наблюдается резкое снижение счастья среди населения.

Другие исследования теперь показывают, что все устройства, использующие Wi-Fi и другие беспроводные источники излучения, могут не быть канцерогенными! Особенно опасны мобильные телефоны, мобильные башни, смарт-счетчики, WiFi-маршрутизаторы и т. Д. В течение многих лет существует спор об опасностях этих устройств и проводились всевозможные исследования.

Многие ученые теперь утверждают, что все эти устройства определенно раковые. Сигналы, исходящие от этих устройств, как сообщается, являются канцерогенными. Исследования также показали, что одна треть населения уязвима для беспроводной радиации. Даже если рак не развивается во всех случаях, он вызывает болезнь из-за микроволн. Воздействуют даже на растения и животных. Беспроводное излучение и электромоз могут даже быть причиной изменения климата. Излучение вызывает все эти негативные чувства. Производителям все равно, потому что с этой технологией зарабатывают миллиарды.

Несмотря на то, что люди становятся все более недовольными новыми технологиями, они теперь пытаются преподавать этику AI, интернализируя индийские санскритские тексты. Эти тексты являются ведическими и старше, чем индуистская религия. Ученые теперь анализируют древние тексты и ищут математические методы для разработки стандарта, который позволит ИИ преподавать этику. Эта процедура в настоящее время находится в Техническом университете Вены. Они пытаются выяснить, распознают ли машины определенные типы поведения людей и поэтому могут решить, правильны они или нет. Цель состоит в том, чтобы создать логику для машин, чтобы они их понимали. Математическая логика должна позволить ИИ решать философские проблемы.

Все это не может быть совпадением. В этом году будет введен новый стандарт мобильной радиосвязи 5G, который приведет к значительному радиационному облучению. Плохо то, что планируется постоянно выставлять всю поверхность земли на это опасное излучение. Это эквивалентно целенаправленному уничтожению всех биологических форм жизни! Никто, кто умственно здоров, действительно этого не хочет. Кажется, за этим стоит план. Должна ли Земля и человеческое сознание трансформироваться и быть ИИ за ней, или это действительно разрушает всю планету только ради прибыли? Постоянное искусственное облучение неестественными электромагнитными полями создает гигантское волнение на планете и все больше выводит его из гармонии и равновесия. Должна ли планета действительно трансформироваться в нечеловеческое сознание и должна ли быть уничтожена вся биологическая природа и управляться миром, полностью доминирующим в технологии в смысле трансгуманизма?

5G — идеальный инструмент для массового изменения человеческих мозговых волн

Естественные электромагнитные поля постоянно достигают нас от Солнца, которое связано с галактическим центром. Солнце регулирует магнитное поле Земли, и это влияет на организм человека и его ДНК. Наука обнаружила, что наша солнечная система недавно переместилась в область интенсивного излучения. В течение нескольких лет вы можете наблюдать, что вся солнечная система меняется. Эта высокая энергия приводит к сильным изменениям, также в сознании людей. Согласно древним традициям и пророчествам, эта сильная энергия вызывает изменение сознания и приводит к «золотому веку». Многие инсайдеры говорят, что определенные силы на Земле не хотят нашего роста сознания. Человек хочет удержать человечество еще дольше в своей психиатрической тюрьме. Некоторые организации питаются нашей энергией. В ходе увеличения сознания некоторые люди могут сделать интеллектуальное восхождение на более высокие уровни. Темные силы хотят предотвратить это любой ценой. Вот почему они пытаются оградить нас от природных энергий и заставить нас болеть и контролировать их своим вредным излучением. В конечном счете, эти попытки будут безуспешными, высокие энергии и сама планета будут делать то, что необходимо.

Но до этого изменения почти наверняка придет к массовому вымиранию. В настоящее время оно создало новое генетическое оружие массового уничтожения, которое может уничтожить целые расы и виды. Это так называемый «Джин-Диск». С помощью Gene Drive вы можете перепрограммировать последовательности генов и заставлять организм копировать эти последовательности. Таким образом, вы можете перепрограммировать все человеческое существо и его генетику, так сказать. Тот факт, что эти измененные гены также передаются потомству, теоретически можно перепрограммировать всю земную популяцию сегодня. Одним из способов распространения этих последовательностей генов являются комары и москиты, которые специально разводятся и высвобождаются в дикой природе. Вероятно, они планируют распространять ген изобретательности, чтобы бороться с перенаселением или распространять опасные болезни.

Вся программа финансируется американским органом обороны DARPA. Были также опубликованы документы, в которых Фонд Билла и Мелинды Гейтс распределял много денег лоббистам, чтобы предотвратить запрет на такие исследования. Другим методом применения является CRISPR. Это позволяет вырезать определенные последовательности ДНК и манипулировать генами, которые должны быть включены. Таким образом, теоретически можно изменить собственное тело по своему желанию. В 2029 году они планируют освободить мутантных комаров, чтобы избавиться от всех этих раздражающих комаров. Предполагается, что они заражают всю популяцию комаров и, таким образом, гасят сами себя. Это должно помочь уменьшить распространение малярии. Если эта попытка преуспеет, то в Австралии уже были нацелены другие язвы, мыши или агути-жаба. Поскольку DARPA выполняет исследовательскую работу, можно предположить, что военные цели находятся на переднем плане. Если что-то пойдет не так, эти измененные последовательности генов могут распространиться на множество разных живых существ. Готово ли человечество вмешиваться так глубоко в план творения?

Футуристический Клуб проектирования будущего, созданный под эгидой делового издания «Инвест-Форсайт», открыт. Клуб объединил экспертов в различных областях знаний для анализа сценариев будущего. Первая встреча состоялась в Институте философии РАН и прошла совместно с новым семинаром «Философия цифровой эпохи» самого института. Под прицел футурологов и философов попал искусственный интеллект (ИИ) и его влияние на общество и человека.

Чего ожидать от ИИ, какие ограничения и опасности есть у инновационных информационных систем, рассказал биофизик, ведущий эксперт Института биологии старения Игорь Артюхов .

Ученый отметил, что в области царит терминологический хаос. Чаще всего используется формулировка 70-летней давности, данная американским инженером, автором термина «искусственный интеллект» Джоном Маккарти . Он определил ИИ как некую систему, устройство или их сеть, которые способны решать интеллектуальные задачи. Игорь Артюхов подчеркнул, что интеллект не является синонимом ума, а характеризует способность работать со знаниями, с данными.

Классификаций алгоритмов тоже множество. До недавнего времени, по словам Игоря Артюхова, господствовали экспертные разработки (сверху вниз), но они не оправдали надежд ни создателей, ни пользователей, и началась зима ИИ. Возрождение было вызвано развитием нейронных сетей, которое вошло в активную фазу в 2015-2016 гг. Эти разработки были вдохновлены исследованиями головного мозга человека. Нейросети во многом повторяют общие принципы функционирования мозга, хотя искусственные нейроны могут отличаться от естественных. На сегодняшний день существует «зоопарк» нейронных сетей, и большинство из них в последнее время получены с помощью технологии глубокого обучения.

«Интеллектуальная» революция 17-го года

Тема ИИ стала мегапопулярной в 2016 году, когда программа AlphaGo победила чемпиона мира в игре го, которая считается намного более сложной, чем шахматы. Это произошло на 10 лет раньше, чем прогнозировалось. Достижения программы от Google DeepMind перевели дискуссию из плоскости «возможен ли ИИ?» в плоскость «на что он способен?».

Сегодня ИИ может автоматизировать любую функцию человека с таким же качеством или выше, – уверен член клуба, доктор физико-математических наук Юрий Визильтер .

«В 2017 году все принципиальные “дыры” на пути создания полноценного ИИ были закрыты. Прежние прогнозы говорили, что этот порог будет перейден в 2025-2030 году. Но произошло это уже в апреле прошлого года , – подчеркнул Юрий Визильтер. – Есть два вида ИИ – один пытается имитировать человеческие рассуждения и представляет собой прозрачный ящик, в котором есть логика, есть познание, есть работа со структурированными моделями и с языками. Второй тип – глубокие сети, которые способны к обучению, или Черный ящик. Прежде невозможно было соединить удобным способом эти две части ИИ. В прошлом году появились глубокие нейронные сети, которые способны писать программы на логических языках, способны работать с базами логического вывода и со структурами ».

Страх перед искусственным

Сферы, в которых возможно применение искусственного интеллекта, множатся. Программы разрабатывают новые формулы лекарств, проводят сложные генетические анализы, «управляют» беспилотными автомобилями и кораблями… В обозримом будущем мы увидим искусственные личности, прообразом которых сегодня являются Siri и подобные ей программы. Уже сейчас идут эксперименты по созданию глобального ИИ на блокчейне, то есть для решения суперсложных задач будут использоваться распределенные вычисления, в том числе на частных компьютерах и устройствах. Не за горами и появление квантового искусственного интеллекта. В теории, квантовые вычислители преодолели предел досягаемости обычных компьютеров: им под силу формирование квантовых нейросетей. Если идеи разработчиков будут воплощены, это приведет к появлению ИИ нового качества.

Возможен ли выход ИИ из-под контроля? На этот вопрос Игорь Артюхов отвечает так:

«Да, уже сейчас ИИ иногда работает непонятно для разработчиков. Но и люди не всегда действуют по общепринятой логике ».

По мнению биофизика, многие опасности ИИ надуманные и являются всего лишь проекцией на машинный интеллект человеческих инстинктов, сформированных дарвиновской эволюцией. Игорь Артюхов считает, что ИИ чужд инстинкт самосохранения. К появлению «плохого» ИИ могут привести программные ошибки (а они есть в любом коде и в течение жизни алгоритма исправляются), ошибки обучения и злой умысел, т.е. опасность представляет не ИИ, а человеческая глупость.

Участники заседания пришли к выводу, что первостепенной становится задача разработки этики для ИИ и подготовки учителей для роботов.


Цифровая трансформация человека

Один из самых распространенных страхов – боязнь того, что ИИ приведет ко всеобщей безработице. Шеф-редактор журнала «Инвест-Форсайт», кандидат культурологических наук Константин Фрумкин попытался ответить на вопрос «Какую нишу на рынке труда оставит человеку ИИ?». По его мнению, бенефициар технологической революции XX века – городской интеллектуал – летит в ту же бездну, в которую попал ремесленник или крестьянин с началом индустриализации.

«В ближайшее время мы будем наблюдать вытеснение искусственным интеллектом человека из сферы умственного труда, – уверен Константин Фрумкин. – Мы уже видим трансформацию человеческих способностей, когнитивного стиля и мышления: так происходит адаптация к эпохе цифровых технологий. Символом этой адаптации стало понятие “клипового мышления “».

Однако нет доказательств, что эта адаптация позволит человеку нащупать именно те ниши, которые будут оставлены ему искусственным интеллектом. Важнейшая область, которую, как считает Константин Фрумкин, нельзя отдавать роботам – поле постановки целей. Поскольку государственная власть дигитализируется, установление приоритетов и ценностей для ИИ становится неотделимо от политики и права. Это занятие, по мнению Константина Фрумкина, способно обеспечить массовую занятость в будущем.

Интеллект искусственный, тело – человеческое

Будущее больше невозможно прогнозировать, так как скорость изменения очень высока, считает Юрий Визильтер. Однако профессор НИИ ВШЭ и специалист по data science Леонид Жуков предложил участникам встречи обсудить несколько сценариев развития.

«Я вижу два сценария развития ИИ в относительно близком будущем: трансгуманистический (технологизация естественного человека) и чисто технический (создание автономного искусственного интеллекта, АИИ), изначально искусственного , – отметил Леонид Жуков. – Второй путь – то, чем пугают человечество фантасты, живописуя образы машинной цивилизации, вытесняющей человеческую. Впрочем, поскольку загадка человеческого сознания до сих пор не разгадана, остаются сомнения, возможно ли создание такого интеллекта в принципе. Независимо от того, будет создан АИИ или нет, не трудно представить себе сегодня развитие технологии, как машинной, так и био, до такой степени совершенства, что человек, сохранив свой мозг, получит полностью искусственное тело ».

Как полагает Леонид Жуков, один из фантастических способов создания АИИ основывается на идее перезаписи человеческого сознания на искусственный носитель.

«Если такого рода технология станет возможной, нетрудно вообразить себе полностью виртуальный мир, куда, надо полагать, пожелает переселиться часть человечества (либо путешествовать по этой виртуальности, как, в сущности, уже сегодня путешествуют по игровым мирам компьютерные игроки) », – размышляет ученый.

Участники первого заседания клуба «Проектирование будущего» обозначили контуры будущих дискуссий. Впрочем, клуб будет существовать в виртуальной среде, и со всеми выступлениями можно познакомиться на сайте «Инвест-Форсайта».