Войти  \/ 
Регистрация  \/ 

Искусственный интеллект: как бездушные машины могут лишить души человека?

Оцените материал
(0 голосов)

Восстание роботов – голливудская сказка, способная стать явью
В последние годы мировое научное сообщество всё чаще говорит о рисках, связанных с развитием технологий искусственного интеллекта. Сама тема для людей давно не нова – идеи восстания машин или войны роботов против человечества не раз поднимались в фантастических произведениях и фильмах. Но сейчас её всерьёз обсуждают видные научные деятели, представители серьёзных корпораций, причастных к разработкам искусственного интеллекта, и даже главы мировых держав. Сегодня мы попытаемся разобраться – что в действительности стоит за страхом людей перед собственной технологией и какие угрозы может таить в себе внедрение искусственного интеллекта в нашу жизнь.

В сентябре президент России Владимир Путин, выступая в рамках ярославского форума «Проектория», недвусмысленно заявил, что всякая страна, добившая лидерства в сфере создания искусственного интеллекта (далее по тексту – ИИ, – прим. «КР») станет в буквальном смысле «властелином мира», а сама технология лежит в основе будущего всего человечества. При этом президент подчеркнул и опасность, которая подстерегает человечество на этой стезе. Он охарактеризовал её как «трудно прогнозируемые сегодня угрозы».
Надо сказать, что это фраза, озвученная национальным лидером, как нельзя лучше передаёт характер проблемы. Действительно, учитывая современные темпы научно-технического прогресса, сегодня вообще очень трудно прогнозировать будущее в сфере технологий, а в той её части, которая связана с разработкой и применением искусственного интеллекта, – вдвойне. Это наиболее ёмкая и сложная для понимания сфера, целиком опирающаяся на самые передовые разработки в области IT, автоматизации и программирования. Чтобы понять алгоритмы работы самой простой системы, наделённой ИИ, понадобится знание этих предметов, которые без практического опыта в современном мире уже не получить. Тем не менее, учитывая общую специфику и цели технологии, можно предположить, как она повлияет на нашу цивилизацию и какие породит проблемы.
За прошедшие три года опасения по поводу стремительного развития искусственного интеллекта выразили все видные деятели, стоящие у истоков технологии. Илон Маск, основатель первой частной космической компании SpaceX, применяющей в своих проектах ИИ, считает, что угроза станет актуальной уже в ближайшие годы.
«Риск серьёзных инцидентов, которые произойдут по вине искусственного интеллекта, очень велик. Это случится в течение пяти, максимум – десяти лет. Обратите внимание на то, что я специалист в технологиях. Об этой проблеме я не говорил до последних месяцев. Так что это не тот случай, когда кто-то кричит о волке или говорит о том, в чём совершенно не разбирается», – предостерегал глава SpaceX ещё в 2014 году.
Илон Маск подчеркнул, что искусственный интеллект сегодня развивается очень стремительными темпами, о которых не подозревает большинство людей. Принимая во внимание возможные последствия столь резкого технологического скачка, корпорации, занимающиеся разработкой ИИ, вкладывают огромные средства и силы в обеспечение надлежащего контроля и безопасности. Однако далеко не факт, что этого окажется достаточно, учитывая непредсказуемость технологических последствий и очень сложную прогнозируемость – научную, экономическую и политическую.
Здесь необходимо напомнить, что у искусственного интеллекта существует конкретная миссия, ради которой он разрабатывается и совершенствуется. Это миссия заключается в максимальной автоматизации компьютерной и человеческой деятельности. То есть на ИИ в конечном счёте будут возложены все те функции, за которые сегодня отвечают живые и вполне реальные люди – от уборки улиц до написания программного кода. А это значит, что проблемы, с которыми столкнётся человечество при применении искусственного интеллекта, будут абсолютно аналогичны тем же проблемам, с которыми они сталкивались на протяжении всей своей истории – это вопросы морально-этического выбора, преступность, социально-экономические факторы, особенности законодательства. Аналогичны и столь же необъятны.
Другими словами, главная опасность ИИ, с которой мы столкнёмся сегодня-завтра, кроется не в самой технологии, а в методах её применения. Например, автоматизация любой привычной человеческой сферы деятельности – уборка улиц, допустим, – неминуемо приведёт к резкому росту безработицы, что в свою очередь негативно скажется на социально-экономическом благополучии людей и приведёт к росту преступности. Здесь же возникнут и очень острые нравственные вопросы. Что лучше – увольнять несчастных дворников, оставляя их без средств к существованию, или отказаться от услуг машин, теряя в эффективности и экономии? С другой стороны – гуманно ли вынуждать человека, пусть и за деньги, вручную мести улицы, когда это можно доверить автоматизированной системе?
В Англии во время промышленной революции тысячи уволенных рабочих вышли на улицы протестовать против внедрения в экономику фабричных станков, благодаря которым производительность труда вышла на новый уровень. Вместе с высокой производительностью существенно сократился и штат местных мануфактур и фабрик, что привело к первому в истории «машинному бунту» или «бунту против машин». Внедрение в нашу жизнь искусственного интеллекта рассматривается учёными, как следующая технологическая революция, однако её последствия будут куда более глобальными, чем изобретение заводских станков.
Ведь новая технология позволит автоматизировать не только процесс производства, но и процесс принятия ключевых решений, в том числе и управленческих. За всё время существования нашей цивилизации эта работа была возложена исключительно на людей, которые при прихоти природы или Бога, обладают разумом и собственной волей. По большому счёту и те решения, которые будет принимать искусственный интеллект, тоже будут человеческими, основанными на алгоритме и приоритетах, заложенных в него создателями. И вот здесь технология ИИ опять-таки столкнётся с теми же проблемами, с которыми мы часто сталкиваемся в жизни. Причём уже в самом ближайшем будущем.
Например, прямо сегодня это касается инженеров компании Google, разрабатывающих беспилотные автомобили. Предположим, они довели до совершенства технологию искусственного интеллекта, управляющего машиной вместо водителя, и запустили такие автомобили в массовое производство. Как поведёт себя ИИ, если двигаясь по автомагистрали, не нарушая правил, ему под колёса вдруг бросится женщина с ребёнком, по невнимательности не заметившая приближающееся транспортное средство? Предугадать поведение женщины, до последнего момента шедшей по обочине, а потом вдруг решившей перейти дорогу в неположенном месте, искусственный интеллект не может, как не может этого сделать и живой водитель. Экстренное торможение приведёт к ДТП, в котором женщина и ребёнок неминуемо погибнут. А если ИИ, повинуясь вложенной в него разработчиками морали, резко вывернет руль и выбросит автомобиль в канаву или на встречную полосу, то, скорее всего, погибнут его владелец и пассажиры. И в том и в другом случае, искусственной интеллект станет убийцей, пусть и невольным. Однако при втором варианте, он фактически целенаправленно убьёт своего хозяина, который на его месте, возможно бы не стал собой жертвовать. То есть во втором случае произойдёт самое классическое восстание машины из любимой тематики фантастов и голливудских сценаристов. Вот только случиться всё это может в реальности и уже в самом ближайшем обозримом будущем.
***

О грозящей человечеству опасности со стороны искусственного интеллекта предупреждает и известный разработчик информационных систем, и основатель компании Microsoft Билл Гейтс. Американский миллиардер полагает, что с самыми серьёзными угрозами люди столкнутся, когда технология ИИ станет настолько многоуровневой и сложной, что сами её создатели не смогут контролировать все процессы внутри системы. По характеристике Билла Гейтса это будет «искусственный суперинтеллект».
Надо полагать, что речь идёт как раз о принятии ИИ сложных решений. Множественные алгоритмы, выражающие одновременно прагматичный расчет, морально-нравственные соображения и особенности законодательства, которые изначально вложат в систему разработчики, могут вступить в противоречие друг с другом, как это постоянно происходит у людей. Если приоритеты будут расставлены неверно или собьются в результате многочисленных противоречий, то поведение ИИ станет непредсказуемым и может повлечь любые последствия – от снижения работоспособности системы до открытого и целенаправленного убийства ею людей.
В данном случае наибольшую опасность представляют технологии искусственного интеллекта, применяемые в оборонной промышленности. Обусловленная геополитикой гонка вооружения неминуемо приведёт к тому, что в будущем управляемым ИИ боевым единицам – от танков до боевых роботов – будет предоставлена возможность принимать самостоятельные решения в ходе военных операций – на поле боя или в условиях вооружённых конфликтов. Здесь можно отыскать целое поле вероятных угроз – начиная со сбоя системы и заканчивая ее взломом хакерами-злоумышленниками.
Например, автоматизированная или даже частично автоматизированная с применением ИИ система управления того или иного военного объекта может удалённо использоваться преступниками или террористами, сумевшими захватить над ней управление. А ведь в будущем такие автоматизированные системы могут быть использованы для любых частей военной инфраструктуры – от средств ПВО до шахт с термоядерными ракетами. И если сегодня любым злоумышленникам, для того чтобы захватить их, придётся сразиться с целой армией, то в будущем это можно будет осуществить, лишь победив в виртуальной битве с кодированной электронной системой защиты. Уже в наши дни ведущие военные державы имеют на вооружении беспилотные летательные аппараты, которые могут использоваться не только в разведывательных целях, но в целях нанесения ракетно-бомбовых ударов. Сейчас они управляются людьми-операторами, находящимися в безопасности на земле, но вряд ли военные ведомства откажутся снабдить их системой искусственного интеллекта, способного, в отличие от человека, принимать правильные решения в доли секунды, мгновенно обрабатывая информацию в любых обстоятельствах.
В мире уже признают опасность, которую может нести в себе использование ИИ в военных целях. В частности, Илон Маск месяц назад потребовал от Организации Объединённых Наций законодательно запретить мировым державам применение боевых единиц, снабжённых искусственным интеллектом.
И всё это – лишь мельчайшие частности, выуженные автором из миллионов вероятных угроз, связанных с технологией ИИ. Таящаяся за ней опасность фактически неисчерпаема, как неисчерпаемы проблемы человечества. Её хватит на бесчисленное множество сценариев для фантастических книг и фильмов. И каждый из них продемонстрирует то, что, вполне вероятно, будет грозить нам в будущем.
***

Человечество идёт по пути прогресса и бесконечно совершенствует свои технологии с одной единственной целью – улучшить свою жизнь. Увеличить её комфорт, безопасность, качество, а также утолить стремление к созиданию и знаниям. Однако, по мнению, знаменитого британского учёного Стивена Хокинга, уже не раз предупреждавшего об угрозах ИИ, искусственный интеллект станет нашим самым опасным помощником и новым испытанием людей на прочность. При этом он существенно преобразит все аспекты нашей жизни, став крупнейшей за всю историю, технологической революцией. Но это революция может оказаться последней, если человечество не научиться контролировать риски, полагает Хокинг.
Одним из таких рисков, которому почему-то не уделяют должного внимания специалисты, является риск потери людьми инициативы. Вероятно, это обусловлено исключительно научным подходом к проблеме, в то время как технология ИИ, как полагает Хокинг, затронет абсолютно все аспекты и вопросы нашей жизни, в том числе нравственные и философские.
С наступлением эпохи технологической сингулярности – так учёные именуют гипотетический момент нашей истории, когда научный прогресс станет настолько быстрым и сложным, что окажется недоступным для понимания, – совершенствование мира целиком и полностью перейдёт в ведомство искусственного интеллекта. Иными словами, человечество автоматизирует даже сам процесс научно-технического прогресса. Но что тогда останется самому человеку?
Все сферы жизни, вся работа, включая научные открытия и исследования, будут осуществляться в автоматическом режиме, а люди окажутся в тотальной зависимости от созданной ими же искусственной деятельности. Зависимость, как известно, это в некоем роде проявление человеческого бессилия, безволия или слабости духа. А в эпоху технологической сингулярности она ляжет в основу всей цивилизации, так как машины будут выполнять любую работу быстрее и качественней, чем люди. Более того, люди вообще перестанут понимать многое из того, чем будут заниматься наиболее продвинутые представители ИИ, как сегодня простой работяга или водитель такси не может прочитать программный код, написанный на языке C++.
И что же останется людям, когда их востребованность отпадёт за ненадобностью? Развлекаться и предаваться удовольствиям? Гедонизм? Пожалуй, больше ничего. Со временем они окончательно разучатся делать то, что умели раньше, – учиться, строить, совершенствовать окружающий мир, принимать самостоятельные решения. От бездеятельности большинство людей быстро отупеет и деградирует. Качество человечества значительно снизиться во всех отношениях – от его интеллектуального потенциала до физического здоровья.
Но самое главное и страшное – человек потеряет инициативу. Потеряет возможность действовать самостоятельно, без оглядки на кого бы то ни было, импровизировать, проявлять смекалку. Если сказать точнее, он потеряет саму мотивировку той деятельности, которая во все века двигала нашей жизнью.
Перестав пользоваться своим интеллектом, мы рискуем превратиться в животных, управляемых доведённой до совершенства автоматизированной системой, которые, добровольно отбросив разум, предпочли ему первобытные инстинкты и немного социальных правил, за соблюдением которых неукоснительно будет следить та же управляющая система искусственного интеллекта.
А ведь мотивация и инициативность – главные составляющие того, что мы называем свободой воли, или, говоря религиозным языком, душой. Это её фундамент, на котором зиждется человеческое сознание и, собственно, само осознание себя человеком, лежит в основе всякого творчества и созидания. Свобода воли, или душа, если угодно, – исключительно человеческая черта, которой не обладает ни одна система искусственного интеллекта и, скорее всего, не будет обладать ей никогда. Вся её деятельность, в том числе и пресловутая способность обучаться, – это самосовершенствующийся программный код, следующий чётко прописанным алгоритмам и законам, установленным разработчиком. Сколь бы совершенным ни был ИИ, он навсегда обречён оставаться бездушной машиной. Но не рискует ли человек и сам превратиться в такую машину, если откажется от своего единственного божественного дара – свободы воли-души? Ведь природа или Бог дали нам возможность самостоятельно управлять собственной жизнью. Во что же мы превратимся, отказавшись от этого дара?..
Что ж, эпоха технологической сингулярности покажет.


Добавить комментарий

ВНИМАНИЕ! По требованию российского законодательства, запрещены комментарии, содержащие не цензурную и сниженную лексику, оскорбления, а также призывающие к межнациональной и социальной розни.

Авторизация через социальные сети

               

Защитный код Обновить

Сегодня в кино

Все события

Календарь новостей

« Декабрь 2015 »
Пн Вт Ср Чт Пт Сб Вс
  1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31      

Большая политика

Другой взгляд

Наши за границей

Познавательно

Познавательно

 22.12  Телепатия экспериментально подтверждена Считается, что передача или «считывание» мыслей на расстоянии - это уникальная способность, которой ...
 21.12  Какую работу запрещено выполнять женщинам в России Сегодня никого не удивляет женщина за рулем автобуса, женщина-крановщик или женщина-дворник. Кажется...
 20.12  Почему чукчи враждуют с эскимосами На протяжении XVII-XIX веков суровое Заполярье сотрясали чукотско-эскимосские войны. Вооруженный кон...
 19.12  Какие наказания за преступления существовали на Руси Одним из самых первых и известных юридических документов древней Руси является Русская Правда. Этот ...
 18.12  Зеркало души: как мы «читаем» друг друга по глазам Психолог Тобиас Гроссманн из Университета Вирджинии рассказывает об уникальной познавательной особен...
 15.12  Какие вещи запретил Павел I русским Правление «русского Гамлета» было коротким, но богатым на реформы, в том числе весьма специфические....
 14.12  Какой народ придумал водку на самом деле Многие считают, что водка – исконно русский напиток. Однако это – всего лишь миф. Так кто же на само...
 13.12  Кто дольше жил - Адам или Ева На вопрос, кто прожил больше, Адам или Ева, ответить крайне сложно, так как мы даже не знаем какая м...
 12.12  «Проект Генезис»: идея искусственной панспермии нашей галактики За последние десять лет человечество существенно ускорило темпы поиска планет, находящихся за предел...
 11.12  Зачем Горбачев решил начать Перестройку Мнения экспертов о причинах Перестройки во многом разнятся, однако специалисты сходятся в одном - не...
 08.12  Крысы готовы пренебречь шоколадом ради спасения тонущего товарища Для человека состояние эмпатии или осознанного сопереживания другому, а также последующее оказание п...
 07.12  Категоричность мышления Шеф сказал: бурундук птичка - ищи крылья.© Свод трудовых правил и понятийС категоричностью мышления ...
 06.12  Почему русские не празднуют сороковой день рождения Русские – единственный народ на Свете, который не отмечает сороковой день рождения. Почему? Негатив...
 05.12  Вовка, Серёга, Лёха: секрет русских уменьшительных имен У греческих имен непростая судьба на Руси. Да и у латинских тоже. И у еврейских... Благородные имена...
 04.12  Мозг человека – сверхвозможности и запреты Крамольные идеи, изложенные в этойстатье, - они и есть крамольные,но других пока нет и,может быть, н...
 01.12  Какие мужчины на Руси носили женскую одежду Православие запрещает верующим носить одежду другого пола. «На женщине не должно быть мужской одежды...
 30.11  Чего не стыдились женщины на Руси, а теперь стыдятся Принято считать, что в старину нравы были более строгими, чем в наши дни. Однако есть много вещей, к...
 29.11  Учёные: носители русского языка жестикулируют уникальным образом Ученые из Московского государственного лингвистического университета раскрыли одну необычную особенн...

Главные новости города

 16.02  Футбольный мир готовься: «Могучие медвежата» наступают 16 февраля 2018 года, Челябинск. Сотни километров пути, метель и снегопад – не помеха для начинающих...
 07.02  Магнитогорск во второй раз подряд попал в топ-10 городов мира по авто пробкам Магнитогорск как ни странно, вот уже второй год подряд входит в ТОП-10 мира по автомобильным пробкам...
 06.02  Детский технопарк "Кванториум" начнет работу уже осенью В опорном университете МГТУ им. Г.И. Носова обсудили текущий статус проекта «Кванториум». В обсужден...
 05.02  Связисты прокачали связью и интернетом 700 улиц Магнитогорска 5 февраля 2018 года. Магнитогорск попал в эпицентр телеком-стройки. За прошлый год «МегаФон» установ...
 05.02  Магнитогорский городской пляж планируют реконструировать Городской пляж в парке у Вечного огня ждут перемены. В 2018 году состоится реконструкция набережной ...
 01.02  86 лет ММК Сегодня Магнитогорскому металлургическому комбинату исполнилось 86 лет. 1 февраля 1932 года на перво...
 01.02  Чтобы бизнес пошёл в гору: уральским предпринимателям раздадут бонусы В России снижается доля тех, кто хотел бы открыть свое дело. По последним данным ВЦИОМ, только кажды...
 31.01  Ситуация на дорогах города по итогам 2017 года 30 января 2018 года в ГИБДД УМВД России по г. Магнитогорску состоялась пресс-конференция начальника ...
 30.01  «МегаФон» сообщает о кадровых изменениях на Южном Урале 30 января 2018 года. Директором Челябинского отделения компании «МегаФон» назначена Анна Козлова, ра...
 30.01  Ситуация по рынку труда в городе На заседании Собрания депутаты обсудили ситуацию с трудовой занятостью магнитогорцев. Основные цифры...
 29.01  Социально-экономические итоги 2017 года На расширенном аппаратном совещании об итогах социально-экономического развития Магнитогорска за 201...
 26.01  На Банном официально запретили рыбачить В соответствии с Правилами рыболовства для Волжско-Каспийского рыбохозяйственного бассейна вылов рыб...
 26.01  «МегаФон» продемонстрировал самый быстрый мобильный интернет в России по результатам 7,5 млн замеров… Разработчики самого популярного приложения для измерения скорости доступа в интернет – Speedtest от ...
 25.01  МегаФон улучшает качество связи в Магнитке Для поддержания активной мобильной жизни магнитогорцев связисты улучшили качество покрытия ПАО «Магн...
 24.01  Комментарий общественной палаты Магнитогорска по поводу высказывания московского телеведущего В прямом эфире программы «Международная пилорама» Магнитогорск — был неприятно охарактеризован. В эт...
 19.01  Горячая линия Роспотребнадзора по вопросам новых купюр и проблем банковских карт В Магнитогорске в период с 18 по 25 января в будние дни действует телефон горячей линии Роспотребнад...
 18.01  В ближайшие дни будет холоднее обычного По данным Челябинского ЦГМС, с 17 по 22 января в южных районах региона ожидается аномально холодная ...
                   
 

Новости Города

   

Ситуация

Официально

Анонсы

События

ЧП

Бизнес

Люди

Интересное

 

Все Новости

   

Политика

Экономика

Общество

Происшествия

Культура

Технологии

Спорт

Образ Жизни

 

Глянец

   

Мода

Светская Хроника

Успех

Стиль Жизни

Путешествия

Кино

Музыка

Книги

Леди

   

Семья

Красота

Домоводство

Еда

Здоровье

Секс

Карьера

Психология

 

Авто

   

Новинки

Автоправо

Безопасноть

Автобизнес

Тест-Драйв

Автоспорт

Тюнинг

Автоледи

 

Мы в социальных сетях

                             
             
                             

Перепечатка авторских материалов допускается только с обязательной прямой гиперссылкой на страницу, с которой материал заимствован.

Гиперссылка должна размещаться непосредственно в тексте, воспроизводящем оригинальный материал.

 

Ответственность за достоверность информации в рекламных материалах несёт рекламодатель.

 

Мнение авторов публикаций может не совпадать с позицией редакции и создателей сайта.

 

 

Адрес редакции: 455037, Челябинская обл.
г. Магнитогорск, ул. Советской Армии д. 47,
т.: (3519) 49-65-35, e-mail: info@1mgn.ru

  
Главная  |  Реклама на сайте  |  Карта сайта  
Яндекс.Метрика   Рейтинг@Mail.ru  
 

Почитать

   

Другой Взгляд

Познавательно

Наши за Границей

Искусство в Деталях

Оружейная Палата

Большая Политика

Путевые Заметки

Hi-Tech

Спецпроекты

   

Конкурсы

Половодье

Театральная Магнитка

Любимое Место

Что нового

Наши на Олимпиаде

Люди дела

Просто Бизнес

 

Юмор

   

Всяко Разно

Истории

"Улетное" Видео

Бредовости

Аткрытки

Народное творчество

Демотиваторы

Усы, Лапы, Хвост

 
 
 
 
    Материалы сайта для читателей старше 18 лет.   18+
    Copyright © 2012 www.1mgn.ru Все права защищены ©
    Создание сайта: Магнитогорское Интернет Агентство

Авторизация или Регистрация

Авторизация

Регистрация

User Registration
или Отмена