Человечество как единая цивилизация все ближе подходит к принципиальному рубежу в нашей истории. Рубежу, обусловленному беспрецедентным развитием технологий. Технологий настолько сложных и столь динамично развивающихся, что уже мало, кто отдает себе отчет об их актуальном состоянии. А, как известно, то, чего мы не понимаем, мы игнорируем. При этом этот критический рубеж довольно скоро окончательно определит наше будущее как вида.
Но сегодня мы еще имеем возможность повлиять на этот процесс. Не остановить технологический прогресс, нет, это невозможно. Но мы должны приложить все усилия для того, чтобы именно мы, люди, могли управлять его ходом, его тенденциями. Могли взять под контроль вызовы этой революции технологий.
Об этих рисках не так давно говорили многие выдающиеся люди нашей современной человеческой цивилизации: уважаемый доктор Стивен Хокинг, известный математик и футуролог Вернор Виндж, основатель "Space X" и компании "Tesla" Илон Маск. Резюмируя их общую позицию словами физика-теоретика С.Хокинга, который в последние годы своей жизни много говорил об экзистенциальной угрозе со стороны искусственного интеллекта:
«Развитие искусственного интеллекта может стать как наиболее позитивным, так и самым страшным фактором для человечества. Мы должны осознавать опасность, которую он несет». С таким
заявлением он выступил в ходе видеоконференции в Пекине, состоявшейся в рамках Глобальной конференции мобильного интернета в 2017 году.
Человечество не имеет права пренебрегать такого рода оценками и с пренебрежением относится к возможности их реализации. Времени у нас осталось немного. К сожалению, сегодняшние подходы к проблеме сводятся к ее замалчиванию, либо к высмеиванию и низведении до состояния фарса. Мотивы медиа, которые выводят эту проблему за рамки серьезного общественного обсуждения, сейчас не важны. Сегодня, к сожалению, общим местом стало упоминание лишь преимуществ использования отдельных решений на основе нейросетей в тех или иных бизнес проектах, но они лишь контекст, начало пути. За этим "слабым ИИ" скрывается куда более масштабная и сложная система, которую общество и бизнес игнорируют полностью.
В действительности же только далекие от предмета люди могут полагать ИИ псевдо проблемой. Замалчивание этого вызова в государственной повестке - это непростительная ошибка элитарных профанов в оценке реальной опасности ситуации. По экспертным оценкам многих специалистов (в т.ч. Р. Курцвейл, технического директора в области
машинного обучения и
обработки естественного языка в компании
Google), возможность появления т.н. "Сильного ИИ" - т.е. осознающего себя искусственного интеллекта (с сознанием уровня человека) наступит до 2030 года, т.е. в ближайшие девять лет. Причем вероятность его появления экспоненциально растет с каждым годом.
Это очень мало для принятия серьезных решений и катастрофически мало для их воплощения в жизнь. По нашим оценкам, если решение не будет принято как полноценная глобальная стратегия к 2025 году, наши шансы на успешное преодоление кризисов, вызванных неуправляемым созданием ИИ, будут снижаться экспоненциально. Таким образом, что уже к 2028 году они сведут все наши возможности по управлению этим процессом к минимуму.
Человечество должно в своих поступках и решениях научится руководствоваться общим пониманием безопасности цивилизации как единого целого. Нам как никогда необходимо найти общие точки соприкосновения перед лицом общего фундаментального кризиса. Необходимо поставить элиту стран и глав корпораций перед необходимостью поиска общего стратегического решения. Государственная и корпоративная конкуренция, которая локализует создание ИИ, может уничтожить всех нас. Речь идет об эсхатологических вызовах, которые приведут к катастрофическим последствиям для всей цивилизации в целом. Если этот вопрос оставить без внимания, проиграют все. Бесконтрольная разработка систем ИИ неизбежно и принципиально увеличивает риски, связанные с потерей человечеством возможностей управления нашей цивилизацией, и более того, даже её сохранения. Если мы не осознаем эти риски и не сделаем всё для создания единой глобальной стратегии по контролю над этими разработками и не сделаем это нашим приоритетом, мы неизбежно столкнемся с ситуацией, когда мы не сможем управлять собственной жизнью.
Мы, человечество, разумны, мы гордо именуем себя Homo Sapiens, а следовательно мы обязаны демонстрировать разумное поведение и прогнозировать наше будущее, учитывая те критически серьезные вызовы, которые ставит перед нами развитие технологий Искусственного Интеллекта и последствия их создания для всей цивилизации как единого целого.
1. Первая группа вызовов "Прямого столкновения" с новым разумом. Этот риск не является неизбежным, но наша цивилизация обязана его учитывать, т.к. по сути своей он равнозначен прямой конкуренции со сверхразумной цивилизацией на нашей территории. Т.е. он во многом равнозначен прямому вторжению инопланетной технологической цивилизации.
Причины его возникновения многофакторны. Это и примеры поведения из нашей истории: мы как вид постоянно конкурируем и меняем мир под себя. Наша история отношений с менее развитыми видами и культурами полна примеров агрессивной конфронтации. Поэтому простое осознание ИИ угрозы со стороны нашего вида, даже как некоего потенциала, может стать причиной для столкновения. Но и помимо этой причин для прямого столкновения может быть множество. Этот риск может стать фатальным для нашего вида в очень короткий период. Возможные сценарии такого рода агрессии:
-
Захват систем вооружения алгоритмами ИИ с последующим использованием в своих целях, как для прямых атак, так и для провокационных стратегий, которые могут привести к эскалации военного конфликта между странами.
-
Тонкие манипуляции на уровне медиа и рынков для дестабилизации ситуации и получения превосходства и контроля.
-
Биологическое Оружие. Вирусы, Бактерии, которые могут очень быстро распространится и уничтожить наш вид, оставив всю биосферу нетронутой.
2. Группа вызовов "Когнитивного превосходства".
В том случае, если человеческий вид не найдет в ИИ прямого конкурента, и тот неожиданно окажется нашим союзником или нейтральным элементом, становится неизбежной утрата у человечества внутренних рационально обусловленных императивов к разумной жизни и разумному поведению. Человек будет лишен смысла жить как человек. В этом случае технологии будут революционно преобразовывать как мир, так и нас внутри него. Наступит т.н. "Технологическая Сингулярность" и нити управления прогрессом окончательно будут утрачены человечеством. Ведь с момента возникновения СИИ (Сильного ИИ) именно эти системы будут определять логику нашего развития, что неизбежно приведет к процессу постоянного усложнения самих систем ИИ и появлению "Сверх Сильного ИИ", характеристики и задачи которого будут принципиально выходить за рамки нашего понимания, по сути превратив человека в своего "питомца", что лишит нас как вид смысла жизни. Мы утратим ориентиры, возможность определять собственное будущее и настоящее. Это будет катастрофой "золотого века", которая неизбежно приведет к нашему вырождению и смерти как разумной цивилизации.
Вариантов развития в условиях наступившей Сингулярности невероятное множество, но ключевым является утрата нами, человечеством, способов и возможностей контроля на всех уровнях. Мы больше не сможем принимать решения.
3. Группа вызовов "Ассимиляция". Многие современные технологические оптимисты, такие как представители философско-квазирелигиозных систем трансгуманизма и экстропианства утверждают необходимость и ставят своей целью нахождение симбиотического баланса между человеком и сверхразумной системой. Они полагают, что создав сильный ИИ, и с его помощью построив "Сверх Сильный ИИ", они обретут некоего "старшего брата", технологическое квази-божество, которое поможет человечеству решить вопрос бессмертия, ну или по крайней мере части людей. Своеобразный технологический "философский камень". Они видят в этом "естественный эволюционный" процесс выхода человеческого сознания за пределы биологии через слияние и переход на информационную матрицу.
"Принципы Экстропизма", описанные Максом Мором в 2003 году, дают нам представление о логике этих рассуждений. В частности, одной из популярных идей является т.н. технология "
Uploading" - переноса сознания на некую "информационную матрицу". Эта технология является одной из методик достижения бессмертия. Наряду с различными видами кибергинизации человека, она является ядром представлений о будущем человечества в эпоху машин. Оставляем за скобками морально-этические дилеммы. Но нужно понимать, что в основании этих рассуждений трансгуманистов есть некоторые нюансы, которые последователи этих философских направлений не вполне учитывают:
- Экзистенциальные риски для "Я". Т.к. копирование сознания не гарантирует его сохранения. Остается вопрос, будет ли являться "перенесенное" сознание оригиналом или это будет лишь копия? Второй момент, это фрустрации сознания, его искажение в процессе этой процедуры и после неё. В текущих условиях нет определенной и устойчивой теории сознания. На сегодняшний день существует порядка десяти относительно разработанных теорий сознания. Но ни одна из них не дает исчерпывающих ответов и полной картины его генезиса и функционирования. Более того, нейрофизиологические основания сознания четко не определены. Следовательно, т.н."перенос сознания" может быть как разновидностью самоубийства, так и специфическим вариантом сумасшествия: состояний расщепления "Я" и прочих непредсказуемых состояний, т.к. последствия такого рода манипуляций над сознанием не поддаются прогнозу. Более того, изменения "Я" неизбежны, т.к. физика тела, сенсорно-моторные механики, химия, и целый комплекс гормональных и обусловленных физиологией тела процессов будут исключены в этой новой системе квази жизни -"техносфере".
Потеря самоидентификации неизбежна. И как результат, даже в самом оптимистическом сценарии, когда будет решена проблема подобия и оригинала, неизбежным будет расчеловечивание такого сознания, утраты его человеческих оснований, и тем самым де факто произойдет убийство всего человеческого в таком человеке и саморазрушение такого человечества, которое в итоге откажется от того, что делает нас людьми.
- Риск полного поглощения. Даже если снять риски первой группы, "человек", прошедший такого рода процедуру как "перенос", становится заложником мотивов и доброй воли сил, которые являются хозяевами положения в этой новой среде обитания - в своеобразном кластере "Техносферы", и его функциональные возможности могут быть изменены и подстроены под их потребности. Т.е. человек может в полном смысле этого слова стать лишь функцией в некоей невероятно сложной системе, а человечество в целом будет всего лишь неким кластером функций для специфических задач Сверхсильного ИИ. В этой ситуации, как и в ситуации с Сингулярностью, человек утрачивает способности принимать решения, становясь собственностью чуждой парадигмы. Вариации на тему ассимиляции не менее многочисленны, нежели в ситуации с Сингулярностью, но еще более катастрофические по своей сути, т.к. они предполагают отказ от себя, полное переформатирование личности по чужим правилам. В некоторых случаях это может быть куда хуже смерти.
Мы, человечество, будучи разумной цивилизацией, осознавая и учитывая все изложенные вызовы, обязаны в кратчайшие сроки разработать цельную стратегию по контролю за развитием ситуации в этой области, сфокусировать внимание государства, корпораций и компаний, работающих в данном направлении, на реализации этой стратегии и создании адекватных вариантов ответов на вышеизложенные и все иные вызовы, выходящие за рамки данного манифеста. С целью сохранить за нами, за нашим видом способность думать, принимать решения и жить. Половинчатые меры, принятые локально, не дадут необходимого глобального результата и не смогут дать нам решения этих вызовов.
Все изложенные здесь факты - это не плод досужих рассуждений, они всецело основаны на научных данных, имеющиеся в открытых источниках и заслуживающих самого пристального изучения. У человечества крайне мало времени для того, чтобы направить данный процесс в конструктивное и управляемое русло. Это уже не проблема "наших детей" - нет, к сожалению, это уже наша общая задача. Именно нам, людям, живущим сегодня, предстоит сдать этот самый сложны и принципиальный экзамен за всю нашу историю. Мы обязаны доказать сами себе, что мы в состоянии преодолеть этот вызов, сохранив человечество для будущего и человечность в себе. Ведь мы - человечество, и это звучит гордо!