Нерациональный рационализм.
Сегодня, дорогие мои, мы поговорим о роботах. А если быть точнее, то о тех возможных их моделях, которые будут претендовать на разумность.
Все нижеизложенное является не более чем ИМХО
Итак, рассмотрим ситуацию — некая раса вплотную подошла к созданию таких механизмов. Что-же дальше?
Для начала, давайте посмотрим что мы имеем в плюсе.
— безошибочность, точность, отсутствие так называемого «человеческого фактора»
— способность работать круглые сутки
— способность функционировать в условиях, где живому организму будет работать очень сложно.
— беспрекословность выполнения команд (мнимая, как мы позднее убедимся)
— практически полное освобождение рабочих мест людьми, на смену которых приходят роботы.
Но что-же получится на самом деле.
Для начала необходимо установить критерии интеллекта. На эту тему можно много фантазировать, но пока ни ученые, ни философы в точности не могут дать ответ по каким принципам работает человеческий интеллект. Мозг обрабатывает информацию совсем не в той последовательности, в какой это делает программа и совершенно на иных критериях (об этом очень неплохо написано у Джеффа Хокинза в «On Intelligence»), а значит любая попытка создать ИИ на основе стандартных машинных вычислений чревата вероятностью запуска одного из сценариев вымирания расы (доминант машин над живыми существами посредством контролирования их технологического окружения). Следовательно, до тех пор, пока ученые, занимающиеся программами ИИ не способны понять принципы функционирования интеллекта и сознания как такового, попытка его скопировать приведет к глобальному риску для цивилизации в целом. Феномены человеческого поведения, его способность к обучению и адаптации, есть следствие именно биологической структуры и особенностей ее функционирования, которую практически нельзя описать математической моделью, а следовательно безошибочно перенести в программу. Ошибки же в программе, как уже очевидно, могут дорого обойтись.
«Проблема состоит в том, что пока мы не можем в целом определить, какие вычислительные процедуры мы хотим называть интеллектуальными. Мы понимаем некоторые механизмы интеллекта и не понимаем остальные. Поэтому под интеллектом в пределах этой науки понимается только вычислительная составляющая способности достигать целей в мире» Дж. Маккарти
Основная проблематика состоит в том, что создание искусственного интеллекта прежде всего способно привести к ряду рисков.
— дегуманизация общества, евгенические войны между ИИ и живыми, как следствие — угроза существованию органической разумной жизни. (центральная опасность радикального трансгуманизма — фактически делящего общество на Высших и Низших, а также представляющего угрозу основным ценностям разумного сообщества)
— неспособность ИИ решать задачи касающиеся альтернативных вариантов решения (пример: фильм «Я-робот», когда машина старается спасти не ребенка, а взрослого человека базируясь на его степени выживаемости).
— невозможность гипотетически безошибочного составления алгоритмов программы и неконтролируемое самозаполнение недостающих информационных кластеров самообучающимся интеллектом.
— невозможность удерживать ИИ в рамках программ-блокираторов (закон «не убий» не мешает людям совершать убийства).
— резкое падение уровня жизни всех слоев общества ввиду отсутствия рабочих мест.
— риски связанные с выходом из строя компонентов систем или же связанные с обнаружением в программе неточностей и логических тупиков, которые приведут к глобальному сбою системы.
— Наличие ИИ имитирующего своими функциями сознание живого существа, неизменно повлечет за собой совершение ИИ таких же ошибок, какие может совершить и человек («человеческий» фактор никуда не уходит, равно как робот обретает чувство самосохранения, что делает невозможным его использование в военной сфере. Отсутствие же заложенного в программе понятия «жизнь» сделает спорным целесообразность возложения на робота заботы о собственном здоровье).
— Излишне рациональные решения, принимаемые ИИ ставят под угрозу жизнедеятельность расы. (рационализм не всегда значит хорошо. Спасение, например, ценного оборудования, ценой жизни сотрудников, скажем, атомной электрстанции рационально, но лишено смысла с точки зрения тех задач, которые должен выполнять ИИ — то есть ставит под вопрос целесообразность самого его существования, как структуры, по идее, долженствующей облегчать, упрощать и оберегать жизнь своих создателей)
— вероятностные сбои в работе программы при попытке среагировать на неадекватные или выходящие за рамки прогнозируемых действий события.
— фактическая невозможность использовать ИИ для военных нужд ввиду малой степени прогнозируемости его работы и вероятности принятия неадекватных решений (принцип Терминатора). А при наличии чувства самосохранения, практическое отсутствие ценности.
Минусов и неопределенностей намного больше. И если достигнуть желаемых результатов можно и при частичном воссоздании ИИ, то исправить ошибки и глобальные риски вероятно будет невозможно.
Поэтому стоит признать, что разумная форма жизни никогда не создаст полноценный ИИ по ряду факторов.
— фактор страха. (свойственное биологическим видам чувство самосохранения. Самое важное: ЧТО можно доверить интеллектуальному роботу? Свою жизнь? И многие из вас согласны будут сделать это?)
— конкуренция в собственной биологической нише. (ни одна цивилизация, ни один биологический вид не допустит конкуренции с собой на собственной территории. Это эволюционный закон, это базовый принцип сознания).
— вероятность смены общественной доминанты. (скорее всего при появлении ИИ произойдут необратимые социальные события, когда теряющие работу — т.е. средства к существованию, слои общества просто уничтожат правящий режим вместе с проектами ИИ)
— полноценная замена ИИ составными узконаправленными программами. (зачем мне копирующий человека робот-уборщик, если я вполне обойдусь цилиндром на колесиках, который будет подбирать за мной бумажки и вытирать пыль, но зато не будет задавать лишних вопросов и будт 100% подконтрольным.)
— вытекающее из предыдущего пункта отсутствие практической необходимости в его создании. (куда проще составить безошибочную программу для автоматизированного добытчика ресурсов на Меркурии, чем посылать на планету экипаж из разумных дронов, андроидов и т.п. без возможности контролировать происходящие в их разуме процессы)
Итак, краеугольный камень проблемы и основной критерий к ИИ: Он должен полностью и беспрекословно подчиняться создателю, дабы не создавать для него угроз. И пока эта проблема не будет решена — создание такого устройства невозможно с рациональной и логической точки зрения.
Подытоживая скажу, что как мне кажется, раса, которая претендует на существование в космическую эру, не станет создавать масштабный ИИ или создав, доверять ему жизненно важные для расы процессы и институты (поддержание энергетической безопасности, оборонные ведомства и структуры), каким бы экономным и рациональным внешне ИИ не казался. Говоря об альтернативных вариантах, можно указать на генетику, которая вполне сможет заменить ИИ органическими существами с примитивным набором мозговых функций и с куда более просто реализуемым «выключателем». Логичным будет, как мне кажется, использование локальных комплексных сетей с ИИ, не соединенных друг с другом и обладающих зачатками самообучающихся программ лишь в узкой области, например, паяния микросхем.
В общем, господа, наша прелесть в нашем несовершенстве :) (хотя как сказать — что считать несовершенством... Жизнь возникает сама при благоприятном стечении планетарных факторов, а «совершенные» машины сами возникнуть не в состоянии, какие факторы не создавай)
P.S. вы тут разбирайтесь сами, а я комментить наверное не буду :) А то понабежит защитников тех-прогресса слабо понимающих, что именно они защищают :)
Но для них я добавлю следующее. Человечество должно задуматься не о возможности техногенной катастрофы или наоборот о торможении научного прогресса, а о целевом и грамотном использовании как имеющихся, так и гипотетических научных и технологических резервов и о продумывании связанных с прогрессом рисков для нации. Лишь в подобном случае, прогресс станет одновременно стабильно развивающимся и по-настоящему полезным.