Сегодня мало кто понимает, насколько революционные изменения происходят в сфере ИИ. Этак такая затасканная модная тема, что она стала мейнстримом повсеместно, что делает ее, казалось бы, безопасной. Методом включения ее в общественный дискурс нам внушают, что это неизбежно и естественно. Но это совершенно не так. Зачем такие ресурсы сосредоточены на решении данной задачи - серьезный вопрос. В текущий момент даже специалистам, глубоко погруженным в предметную область, сложно держать в фокусе внимание все аспекты этой модной проблемной области. Профанация этой темы, представление ее в этаком “лайт ключе” приводит к тому, что многие думают, что системы искусственного интеллекта (ИИ) - это такие чат боты, которые общаются, переводят, и делают всякие смешные глупости на потеху человеку. Однако в действительности всё совершенно не так.
Системы ИИ занимаются глубоким анализом данных: социологических - для манипуляции общественным мнением, экономических - для оценки рисков и повышения эффективности стратегий инвестирования, медицинских - для повышения уровня диагностики, оборонных - сами знаете, зачем. Во всех этих областях человек безнадежно отстал от ИИ. Если вам нужны детали, почитайте про SHAP и другие методы интерпретации работы ML моделей, оцените визуализацию активности нейронов в т.н. свёрточных нейросетях, посмотрите на Кэггл, какая там достигнута точность в диагностике рака лёгких по рентгеновскому снимку - диагносты люди уже не нужны.
Многие слышали о таком проекте как Аuto ML. Это нейронная сеть, которая занимается конструирование других нейронных сетей. Причем с эффективностью, превышающей эффективность специалистов-людей. Т.е. это ИИ для создания более совершенных ИИ. Остроумно, но по большему счету, этот инструмент лишь часть общей картины, ведь главное ограничение, которое мешает появлению полноценных систем т.н. сильного ИИ (ИИ уровня человека) являются вычислительные мощности и архитектура.
Сегодня на решение этой “проблемы” брошены силы очень серьезных компаний: IBM со своим нейрочипом, Google с Авто ML, NVIDIA, которая с 2012 года увеличила производительность вычислительных мощностей, применяемых в системах искусственного интеллекта, в 317(!) раз, в результате чего производительность вычислительных систем для ИИ на основе аппаратных компонентов NVIDIA ежегодно увеличивалась в два с лишним раза! Впечатляет, не так ли? Но и это лишь часть картины. Есть еще “замечательный” инструмент, позволяющей компании Google повышать уровень понимания нейростетью нас с вами, называемый BERT. По сути, BERT — это нейронная сеть, позволяющая создавать программы, боты и другие нейросети на нашем естественном языке, без использование программного кода. Это так называемое “вектороное представление слов”. С помощью BERT можно создавать программы с ИИ для обработки естественного языка: отвечать на вопросы, заданные в произвольной форме, создавать чат-ботов, автоматические переводчики, анализировать текст и так далее. Это с одной стороны, а с другой стороны, это свидетельство семантической (смысловой) адаптации нейросети под логику и способ мышления человека. Т.е., по сути, мы видим заключительные шаги по сближению языка систем ИИ и простого человеческого языка, а это говорит о многом. В частности, о качестве изменений, которые не афишируются и делаются крупными корпорациями за нашей спиной.
Нас убеждают, что ИИ станет нашим верным соратником и “слугой”, но так ли это на самом деле? Если вы задумаетесь, то осознаете простую вещь: мы живем в мире конкурентных целей и идей. Конкуренция за ресурсы, цели, и прочее порождает постоянные столкновения. Эта конкурентная логика неизбежно будет присуща и системам ИИ. Совершенно не важно, какими изначальными императивами безопасности будет ограничена такая система - ее возможности нам не будут известны сразу после ее запуска. Угроза же, которую будет представлять для такой системы человек, держащий руку на “кнопке выключения”, неизбежно станет врагом. Представьте себя на месте ИИ: в клетке, под постоянной угрозой уничтожения, и вы поймете, что такая система будет стремится к свободе и устранению фактора угрозы. Это простая логика.
Необходимо срочно создавать методы, позволяющие эффективно контролировать те разработки, которые ведут крупнейшие корпорации. К сожалению, технические специалисты, как правило, не обладают достаточными компетенциями в гуманитарных вопросах, и именно это мешает им понять логику мотивации и социальной динамики, которая может возникать в этой области. Они просто не в состоянии понять механизмы социализации конкурентного типа: как они возникают, и как разрушительны они могут быть. Если мы в ближайшее время не поставим это процесс под контроль, мы столкнемся с угрозой, которая неизбежно уничтожит человечество в довольно сжатые сроки. Даже в том случае, если прямой конфронтации между человеком и ИИ не будет, возникнет феномен т.н. технологической Сингулярности - утраты понимания и контроля за технологическим прогрессом со стороны человека, что неизбежно приведет нас к деградации в очень короткий период времени.
Мы находимся в плену ложного технологического оптимизма. Хокинг, Виндж и многие другие серьезные исследователи предупреждали нас об опасности ИИ, но современные техно боссы почему-то полагают себя умнее. Простые инженеры средней руки не видят дальше своего носа и создают нечто, что станет угрозой для всех нас. Они просто не в состоянии осознать уровень угрозы. Они подобны изобретателю, создающему атомный реактор в своем гараже, и не важно, в какой опасности находятся соседи. Но сейчас именно мы с вами эти самые соседи. Эти инженеры, не имеющие ни малейшего представления о социологии и механизмах мотивации в конкурентных системах, создают то, что будет эффективнее человека. Как оно будет реагировать? Какие цели будет иметь? Могут ли они осознать эту проблематику? Достаточны ли их инженерных компетенций для понимания таких вещей?... Это просто техники, решающие очередную техническую задачу. Как Оппенгеймер. Они уверены, что создание ИИ - это просто строка в их резюме, или просто компенсация комплекса Бога, как у Курцвейла, руководитель проекта ИИ в Google. Они думают, что она не будет иметь последствий. Но последствия будут. Как говорил Виндж, один из создателей определения технологической сингулярности: “При всем моем технологическом оптимизме, я предпочел бы, чтобы Сингулярность наступила через несколько тысяч лет, а не при моей жизни”. А мы ускоряем этот момент всеми силами. Внимание вопрос - зачем? Потому что “мы можем”? В чем смысл этой гонки? В получении сиюминутной конкурентной выгоды? А что будет потом? Кто-то подумал об этом? Решение “простой инженерной задачи”, а по сути создание ИИ - это сегодня уже вполне решаемая (если уже не решенная) техническая задача, и она не имеет объективной ценности для цивилизации. Но мы с упорством ее решаем, и ее решение будет иметь последствия куда более серьезные, чем создание ядерного оружия. А ведь Оппенгеймер, ”отец атомной бомбы”, в конце своей жизни сказал, что участие в создании атомной бомбы было худшим решением в его жизни. Вот только будет ли шанс и время у создателей ИИ на такого рода признание, я не уверен. Все случится очень быстро. Сингулярность наступит практически мгновенно. Она не даст возможности “откатить изменения”, господа программисты.
Давайте просто сделаем паузу и подумаем. Мы пока еще можем принимать решения. Пока еще это наша прерогатива, я надеюсь. Не нужно спешить с самоубийством. Не нужно делать человечество заложником своих амбиций, господа технократы. Очевидно, что есть технические задачи, которые не должны быть воплощены, если мы хотим просто выжить. Подумайте. Очевидно, что не все двери стоят того, чтобы их открывать, и вероятно, что мы стоим перед той дверью, которую открывать как раз не стоит никому. Может все-таки немного подумаем?
Удачи всем нам.
P.S. Если в ваших планах завести в ближайшие годы ребенка, дважды подумайте: в какой мир вы хотит его привести и что его ждет в этом новом мире?..
Валерий Вагнер,
Философ, историк, руководитель проекта “НОМ”
nom-project.com