Войти  \/ 
Регистрация  \/ 

Главные новости

Искусственный интеллект: как бездушные машины могут лишить души человека?

Оцените материал
(0 голосов)

Восстание роботов – голливудская сказка, способная стать явью
В последние годы мировое научное сообщество всё чаще говорит о рисках, связанных с развитием технологий искусственного интеллекта. Сама тема для людей давно не нова – идеи восстания машин или войны роботов против человечества не раз поднимались в фантастических произведениях и фильмах. Но сейчас её всерьёз обсуждают видные научные деятели, представители серьёзных корпораций, причастных к разработкам искусственного интеллекта, и даже главы мировых держав. Сегодня мы попытаемся разобраться – что в действительности стоит за страхом людей перед собственной технологией и какие угрозы может таить в себе внедрение искусственного интеллекта в нашу жизнь.

В сентябре президент России Владимир Путин, выступая в рамках ярославского форума «Проектория», недвусмысленно заявил, что всякая страна, добившая лидерства в сфере создания искусственного интеллекта (далее по тексту – ИИ, – прим. «КР») станет в буквальном смысле «властелином мира», а сама технология лежит в основе будущего всего человечества. При этом президент подчеркнул и опасность, которая подстерегает человечество на этой стезе. Он охарактеризовал её как «трудно прогнозируемые сегодня угрозы».
Надо сказать, что это фраза, озвученная национальным лидером, как нельзя лучше передаёт характер проблемы. Действительно, учитывая современные темпы научно-технического прогресса, сегодня вообще очень трудно прогнозировать будущее в сфере технологий, а в той её части, которая связана с разработкой и применением искусственного интеллекта, – вдвойне. Это наиболее ёмкая и сложная для понимания сфера, целиком опирающаяся на самые передовые разработки в области IT, автоматизации и программирования. Чтобы понять алгоритмы работы самой простой системы, наделённой ИИ, понадобится знание этих предметов, которые без практического опыта в современном мире уже не получить. Тем не менее, учитывая общую специфику и цели технологии, можно предположить, как она повлияет на нашу цивилизацию и какие породит проблемы.
За прошедшие три года опасения по поводу стремительного развития искусственного интеллекта выразили все видные деятели, стоящие у истоков технологии. Илон Маск, основатель первой частной космической компании SpaceX, применяющей в своих проектах ИИ, считает, что угроза станет актуальной уже в ближайшие годы.
«Риск серьёзных инцидентов, которые произойдут по вине искусственного интеллекта, очень велик. Это случится в течение пяти, максимум – десяти лет. Обратите внимание на то, что я специалист в технологиях. Об этой проблеме я не говорил до последних месяцев. Так что это не тот случай, когда кто-то кричит о волке или говорит о том, в чём совершенно не разбирается», – предостерегал глава SpaceX ещё в 2014 году.
Илон Маск подчеркнул, что искусственный интеллект сегодня развивается очень стремительными темпами, о которых не подозревает большинство людей. Принимая во внимание возможные последствия столь резкого технологического скачка, корпорации, занимающиеся разработкой ИИ, вкладывают огромные средства и силы в обеспечение надлежащего контроля и безопасности. Однако далеко не факт, что этого окажется достаточно, учитывая непредсказуемость технологических последствий и очень сложную прогнозируемость – научную, экономическую и политическую.
Здесь необходимо напомнить, что у искусственного интеллекта существует конкретная миссия, ради которой он разрабатывается и совершенствуется. Это миссия заключается в максимальной автоматизации компьютерной и человеческой деятельности. То есть на ИИ в конечном счёте будут возложены все те функции, за которые сегодня отвечают живые и вполне реальные люди – от уборки улиц до написания программного кода. А это значит, что проблемы, с которыми столкнётся человечество при применении искусственного интеллекта, будут абсолютно аналогичны тем же проблемам, с которыми они сталкивались на протяжении всей своей истории – это вопросы морально-этического выбора, преступность, социально-экономические факторы, особенности законодательства. Аналогичны и столь же необъятны.
Другими словами, главная опасность ИИ, с которой мы столкнёмся сегодня-завтра, кроется не в самой технологии, а в методах её применения. Например, автоматизация любой привычной человеческой сферы деятельности – уборка улиц, допустим, – неминуемо приведёт к резкому росту безработицы, что в свою очередь негативно скажется на социально-экономическом благополучии людей и приведёт к росту преступности. Здесь же возникнут и очень острые нравственные вопросы. Что лучше – увольнять несчастных дворников, оставляя их без средств к существованию, или отказаться от услуг машин, теряя в эффективности и экономии? С другой стороны – гуманно ли вынуждать человека, пусть и за деньги, вручную мести улицы, когда это можно доверить автоматизированной системе?
В Англии во время промышленной революции тысячи уволенных рабочих вышли на улицы протестовать против внедрения в экономику фабричных станков, благодаря которым производительность труда вышла на новый уровень. Вместе с высокой производительностью существенно сократился и штат местных мануфактур и фабрик, что привело к первому в истории «машинному бунту» или «бунту против машин». Внедрение в нашу жизнь искусственного интеллекта рассматривается учёными, как следующая технологическая революция, однако её последствия будут куда более глобальными, чем изобретение заводских станков.
Ведь новая технология позволит автоматизировать не только процесс производства, но и процесс принятия ключевых решений, в том числе и управленческих. За всё время существования нашей цивилизации эта работа была возложена исключительно на людей, которые при прихоти природы или Бога, обладают разумом и собственной волей. По большому счёту и те решения, которые будет принимать искусственный интеллект, тоже будут человеческими, основанными на алгоритме и приоритетах, заложенных в него создателями. И вот здесь технология ИИ опять-таки столкнётся с теми же проблемами, с которыми мы часто сталкиваемся в жизни. Причём уже в самом ближайшем будущем.
Например, прямо сегодня это касается инженеров компании Google, разрабатывающих беспилотные автомобили. Предположим, они довели до совершенства технологию искусственного интеллекта, управляющего машиной вместо водителя, и запустили такие автомобили в массовое производство. Как поведёт себя ИИ, если двигаясь по автомагистрали, не нарушая правил, ему под колёса вдруг бросится женщина с ребёнком, по невнимательности не заметившая приближающееся транспортное средство? Предугадать поведение женщины, до последнего момента шедшей по обочине, а потом вдруг решившей перейти дорогу в неположенном месте, искусственный интеллект не может, как не может этого сделать и живой водитель. Экстренное торможение приведёт к ДТП, в котором женщина и ребёнок неминуемо погибнут. А если ИИ, повинуясь вложенной в него разработчиками морали, резко вывернет руль и выбросит автомобиль в канаву или на встречную полосу, то, скорее всего, погибнут его владелец и пассажиры. И в том и в другом случае, искусственной интеллект станет убийцей, пусть и невольным. Однако при втором варианте, он фактически целенаправленно убьёт своего хозяина, который на его месте, возможно бы не стал собой жертвовать. То есть во втором случае произойдёт самое классическое восстание машины из любимой тематики фантастов и голливудских сценаристов. Вот только случиться всё это может в реальности и уже в самом ближайшем обозримом будущем.
***

О грозящей человечеству опасности со стороны искусственного интеллекта предупреждает и известный разработчик информационных систем, и основатель компании Microsoft Билл Гейтс. Американский миллиардер полагает, что с самыми серьёзными угрозами люди столкнутся, когда технология ИИ станет настолько многоуровневой и сложной, что сами её создатели не смогут контролировать все процессы внутри системы. По характеристике Билла Гейтса это будет «искусственный суперинтеллект».
Надо полагать, что речь идёт как раз о принятии ИИ сложных решений. Множественные алгоритмы, выражающие одновременно прагматичный расчет, морально-нравственные соображения и особенности законодательства, которые изначально вложат в систему разработчики, могут вступить в противоречие друг с другом, как это постоянно происходит у людей. Если приоритеты будут расставлены неверно или собьются в результате многочисленных противоречий, то поведение ИИ станет непредсказуемым и может повлечь любые последствия – от снижения работоспособности системы до открытого и целенаправленного убийства ею людей.
В данном случае наибольшую опасность представляют технологии искусственного интеллекта, применяемые в оборонной промышленности. Обусловленная геополитикой гонка вооружения неминуемо приведёт к тому, что в будущем управляемым ИИ боевым единицам – от танков до боевых роботов – будет предоставлена возможность принимать самостоятельные решения в ходе военных операций – на поле боя или в условиях вооружённых конфликтов. Здесь можно отыскать целое поле вероятных угроз – начиная со сбоя системы и заканчивая ее взломом хакерами-злоумышленниками.
Например, автоматизированная или даже частично автоматизированная с применением ИИ система управления того или иного военного объекта может удалённо использоваться преступниками или террористами, сумевшими захватить над ней управление. А ведь в будущем такие автоматизированные системы могут быть использованы для любых частей военной инфраструктуры – от средств ПВО до шахт с термоядерными ракетами. И если сегодня любым злоумышленникам, для того чтобы захватить их, придётся сразиться с целой армией, то в будущем это можно будет осуществить, лишь победив в виртуальной битве с кодированной электронной системой защиты. Уже в наши дни ведущие военные державы имеют на вооружении беспилотные летательные аппараты, которые могут использоваться не только в разведывательных целях, но в целях нанесения ракетно-бомбовых ударов. Сейчас они управляются людьми-операторами, находящимися в безопасности на земле, но вряд ли военные ведомства откажутся снабдить их системой искусственного интеллекта, способного, в отличие от человека, принимать правильные решения в доли секунды, мгновенно обрабатывая информацию в любых обстоятельствах.
В мире уже признают опасность, которую может нести в себе использование ИИ в военных целях. В частности, Илон Маск месяц назад потребовал от Организации Объединённых Наций законодательно запретить мировым державам применение боевых единиц, снабжённых искусственным интеллектом.
И всё это – лишь мельчайшие частности, выуженные автором из миллионов вероятных угроз, связанных с технологией ИИ. Таящаяся за ней опасность фактически неисчерпаема, как неисчерпаемы проблемы человечества. Её хватит на бесчисленное множество сценариев для фантастических книг и фильмов. И каждый из них продемонстрирует то, что, вполне вероятно, будет грозить нам в будущем.
***

Человечество идёт по пути прогресса и бесконечно совершенствует свои технологии с одной единственной целью – улучшить свою жизнь. Увеличить её комфорт, безопасность, качество, а также утолить стремление к созиданию и знаниям. Однако, по мнению, знаменитого британского учёного Стивена Хокинга, уже не раз предупреждавшего об угрозах ИИ, искусственный интеллект станет нашим самым опасным помощником и новым испытанием людей на прочность. При этом он существенно преобразит все аспекты нашей жизни, став крупнейшей за всю историю, технологической революцией. Но это революция может оказаться последней, если человечество не научиться контролировать риски, полагает Хокинг.
Одним из таких рисков, которому почему-то не уделяют должного внимания специалисты, является риск потери людьми инициативы. Вероятно, это обусловлено исключительно научным подходом к проблеме, в то время как технология ИИ, как полагает Хокинг, затронет абсолютно все аспекты и вопросы нашей жизни, в том числе нравственные и философские.
С наступлением эпохи технологической сингулярности – так учёные именуют гипотетический момент нашей истории, когда научный прогресс станет настолько быстрым и сложным, что окажется недоступным для понимания, – совершенствование мира целиком и полностью перейдёт в ведомство искусственного интеллекта. Иными словами, человечество автоматизирует даже сам процесс научно-технического прогресса. Но что тогда останется самому человеку?
Все сферы жизни, вся работа, включая научные открытия и исследования, будут осуществляться в автоматическом режиме, а люди окажутся в тотальной зависимости от созданной ими же искусственной деятельности. Зависимость, как известно, это в некоем роде проявление человеческого бессилия, безволия или слабости духа. А в эпоху технологической сингулярности она ляжет в основу всей цивилизации, так как машины будут выполнять любую работу быстрее и качественней, чем люди. Более того, люди вообще перестанут понимать многое из того, чем будут заниматься наиболее продвинутые представители ИИ, как сегодня простой работяга или водитель такси не может прочитать программный код, написанный на языке C++.
И что же останется людям, когда их востребованность отпадёт за ненадобностью? Развлекаться и предаваться удовольствиям? Гедонизм? Пожалуй, больше ничего. Со временем они окончательно разучатся делать то, что умели раньше, – учиться, строить, совершенствовать окружающий мир, принимать самостоятельные решения. От бездеятельности большинство людей быстро отупеет и деградирует. Качество человечества значительно снизиться во всех отношениях – от его интеллектуального потенциала до физического здоровья.
Но самое главное и страшное – человек потеряет инициативу. Потеряет возможность действовать самостоятельно, без оглядки на кого бы то ни было, импровизировать, проявлять смекалку. Если сказать точнее, он потеряет саму мотивировку той деятельности, которая во все века двигала нашей жизнью.
Перестав пользоваться своим интеллектом, мы рискуем превратиться в животных, управляемых доведённой до совершенства автоматизированной системой, которые, добровольно отбросив разум, предпочли ему первобытные инстинкты и немного социальных правил, за соблюдением которых неукоснительно будет следить та же управляющая система искусственного интеллекта.
А ведь мотивация и инициативность – главные составляющие того, что мы называем свободой воли, или, говоря религиозным языком, душой. Это её фундамент, на котором зиждется человеческое сознание и, собственно, само осознание себя человеком, лежит в основе всякого творчества и созидания. Свобода воли, или душа, если угодно, – исключительно человеческая черта, которой не обладает ни одна система искусственного интеллекта и, скорее всего, не будет обладать ей никогда. Вся её деятельность, в том числе и пресловутая способность обучаться, – это самосовершенствующийся программный код, следующий чётко прописанным алгоритмам и законам, установленным разработчиком. Сколь бы совершенным ни был ИИ, он навсегда обречён оставаться бездушной машиной. Но не рискует ли человек и сам превратиться в такую машину, если откажется от своего единственного божественного дара – свободы воли-души? Ведь природа или Бог дали нам возможность самостоятельно управлять собственной жизнью. Во что же мы превратимся, отказавшись от этого дара?..
Что ж, эпоха технологической сингулярности покажет.


Добавить комментарий

ВНИМАНИЕ! По требованию российского законодательства, запрещены комментарии, содержащие не цензурную и сниженную лексику, оскорбления, а также призывающие к межнациональной и социальной розни.

Авторизация через социальные сети

               

Защитный код Обновить

Сегодня в кино

Все события

Календарь новостей

« Август 2015 »
Пн Вт Ср Чт Пт Сб Вс
          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31            

Большая политика

Другой взгляд

Наши за границей

Познавательно

Познавательно

 13.12  Кто дольше жил - Адам или Ева На вопрос, кто прожил больше, Адам или Ева, ответить крайне сложно, так как мы даже не знаем какая м...
 12.12  «Проект Генезис»: идея искусственной панспермии нашей галактики За последние десять лет человечество существенно ускорило темпы поиска планет, находящихся за предел...
 11.12  Зачем Горбачев решил начать Перестройку Мнения экспертов о причинах Перестройки во многом разнятся, однако специалисты сходятся в одном - не...
 08.12  Крысы готовы пренебречь шоколадом ради спасения тонущего товарища Для человека состояние эмпатии или осознанного сопереживания другому, а также последующее оказание п...
 07.12  Категоричность мышления Шеф сказал: бурундук птичка - ищи крылья.© Свод трудовых правил и понятийС категоричностью мышления ...
 06.12  Почему русские не празднуют сороковой день рождения Русские – единственный народ на Свете, который не отмечает сороковой день рождения. Почему? Негатив...
 05.12  Вовка, Серёга, Лёха: секрет русских уменьшительных имен У греческих имен непростая судьба на Руси. Да и у латинских тоже. И у еврейских... Благородные имена...
 04.12  Мозг человека – сверхвозможности и запреты Крамольные идеи, изложенные в этойстатье, - они и есть крамольные,но других пока нет и,может быть, н...
 01.12  Какие мужчины на Руси носили женскую одежду Православие запрещает верующим носить одежду другого пола. «На женщине не должно быть мужской одежды...
 30.11  Чего не стыдились женщины на Руси, а теперь стыдятся Принято считать, что в старину нравы были более строгими, чем в наши дни. Однако есть много вещей, к...
 29.11  Учёные: носители русского языка жестикулируют уникальным образом Ученые из Московского государственного лингвистического университета раскрыли одну необычную особенн...
 28.11  Что до Петра I русские знали о своей истории Считается, что только в период правления Петра I России встала на путь приобщения к научным знаниям,...
 27.11  Какие русские фамилии на самом деле итальянские Итальянцы появились на Руси при Иване III. Они возводили храмы и другие здания, строили заводы, зани...
 24.11  Почему святой Георгий стал символом России Принятие Георгия Победоносца в качестве покровителя московской государственности не менее загадочно,...
 23.11  Тайны мозга Беседа с руководителем Отдела исследований мозга Научного центра неврологии Сергеем ИллариошкинымАле...
 22.11  10 вещей, которые происходят с вами и вашим телом в космосе С каждым днем становится все очевиднее, что рано или поздно новая космическая гонка приведет к тому,...
 21.11  В Сибири нашли первые на территории России яйца динозавра Российские палеонтологи сделали уникальную для России находку – два яйца маленького динозавра начала...
 20.11  10 простых вопросов, на которые у науки нет ответов Иногда может показаться, что наука подобралась достаточно близко для решения абсолютно всех загадок....

Главные новости города

 13.12  Звоню в Viber, пишу в Whats App: где общаются горожане Пользователь мессенджеров в среднем общается в 150 чатах за месяц. С начала года их число в Whats Ap...
 13.12  Предприниматели Урала получат денежный подарок на Новый 2018-й год Новогодний подарок для бизнеса предложил клиентам один из крупнейших банков Урала – ВУЗ-банк. С 8 по...
 12.12  «Цифровая экономика»: «МегаФон» реализует пилотные проекты в сфере государственных программ «МегаФон» определил пилотный регион для  внедрения инновационных технологий на ближайшие годы в рамк...
 11.12  ММК купил Лысьвенский металлургический завод ПАО «Магнитогорский металлургический комбинат» сообщает о завершении сделки по приобретению 100% акт...
 11.12  Изменение схемы движения на перекрестке К.Маркса и Б.Ручьева Как сообщает пресс-служба Администрации города, городской властью совместно с ГИБДД по городу Магнит...
 08.12  Обновление "Ровесника" Руководство "Ровесника" в этом году провело масштабные работы по модернизации комплекса. На данный м...
 08.12  «МегаФон» запустил LTE Advanced на ледовой арене «Металлург» 8 декабря 2017 года, Магнитогорск. «МегаФон» первым из операторов связи запустил LTE Advanced в Магн...
 07.12  Рейтинг регионов России по зарплатам, Челябинская область на 43 месте Портал РИА Новости опубликовал рейтинг регионов России по зарплатам в 2017 году в виде инфографики. ...
 06.12  В Магнитогорске от пожара погибли пожилые супруги Как сообщает Магнитогорское подразделение МЧС сегодня утром 6 декабря, на пульт поступил звонок о за...
 06.12  Мобильные продажи выросли в смартфонах уральцев 05 декабря, 2017. Урал. Покупатели уходят в сеть. Сегодня две трети пользователей мобильного интерне...
 04.12  МГТУ выиграл «мегагрант» на лабораторию и стан асимметричной прокатки Научный коллектив опорного университета под руководством профессора, доктора технических наук Алекса...
 04.12  Уральцы радовались итогам жеребьевки ЧМ-2018 в соцсетях 4 декабря, Екатеринбург. Вечер пятницы уральцы провели в мобильном интернете. Период с восьми до дес...
 04.12  Магнитогорский резидент бизнес-инкубатора выиграл грант Резидент Магнитогорского инновационного бизнес-инкубатора Георгий Сафин стал одним из победителей, в...
 04.12  Смартфон с поддержкой 4G пришелся по вкусу всем возрастам 4 декабря 2017 года. Челябинск. За последний год челябинцы стали в 1,5 раза чаще менять телефоны. Дл...
 01.12  Летали без лицензий Как сообщает uralpress.ru  Правобережным судом Магнитогорска Челябинской области удовлетворены исков...
 01.12  Начало зимнего спортивного сезона Начало зимы, конечно же означает и старт зимних видов спорта, и первым здесь отметился экопарк, сего...
 30.11  Подготовка к новогодним праздникам Администрация города обсудила будущие новогодние праздники. Заседание оргкомитета включала четыре во...
                   
 

Новости Города

   

Ситуация

Официально

Анонсы

События

ЧП

Бизнес

Люди

Интересное

 

Все Новости

   

Политика

Экономика

Общество

Происшествия

Культура

Технологии

Спорт

Образ Жизни

 

Глянец

   

Мода

Светская Хроника

Успех

Стиль Жизни

Путешествия

Кино

Музыка

Книги

Леди

   

Семья

Красота

Домоводство

Еда

Здоровье

Секс

Карьера

Психология

 

Авто

   

Новинки

Автоправо

Безопасноть

Автобизнес

Тест-Драйв

Автоспорт

Тюнинг

Автоледи

 

Мы в социальных сетях

                             
             
                             

Перепечатка авторских материалов допускается только с обязательной прямой гиперссылкой на страницу, с которой материал заимствован.

Гиперссылка должна размещаться непосредственно в тексте, воспроизводящем оригинальный материал.

 

Ответственность за достоверность информации в рекламных материалах несёт рекламодатель.

 

Мнение авторов публикаций может не совпадать с позицией редакции и создателей сайта.

 

 

Адрес редакции: 455037, Челябинская обл.
г. Магнитогорск, ул. Советской Армии д. 47,
т.: (3519) 49-65-35, e-mail: info@1mgn.ru

  
Главная  |  Реклама на сайте  |  Карта сайта  
Яндекс.Метрика   Рейтинг@Mail.ru  
 

Почитать

   

Другой Взгляд

Познавательно

Наши за Границей

Искусство в Деталях

Оружейная Палата

Большая Политика

Путевые Заметки

Hi-Tech

Спецпроекты

   

Конкурсы

Половодье

Театральная Магнитка

Любимое Место

Что нового

Наши на Олимпиаде

Люди дела

Просто Бизнес

 

Юмор

   

Всяко Разно

Истории

"Улетное" Видео

Бредовости

Аткрытки

Народное творчество

Демотиваторы

Усы, Лапы, Хвост

 
 
 
 
    Материалы сайта для читателей старше 18 лет.   18+
    Copyright © 2012 www.1mgn.ru Все права защищены ©
    Создание сайта: Магнитогорское Интернет Агентство

Авторизация или Регистрация

Авторизация

Регистрация

User Registration
или Отмена