С соответствующим письмом-предостережением Элиезер Юдковский выступил на страницах журнала Time. «Мы не готовы. И мы не будем готовы в обозримом будущем. Если мы продолжим это, все умрут» — считает исследователь.

Письмо Юдковского появилось как ответ на обращение инженеров, учёных и исследователей с предложением, как минимум, на полгода приостановить обучение нейросетей мощнее GPT-4. Инициативу поддержали Илон Маск, сооснователь Apple Стив Возняк, соучредитель Pinterest Эван Шарп и другие. На сегодняшний день подписи под письмом поставили 2 489 человек.

Элиезер Юдковский решил пойти еще дальше и предложил не приостановить, а запретить вовсе разработку нейросетей. Самый известный исследователь считает, что человечество еще не готово к такому вызову, и если продолжить создание ИИ более мощного, нежели GPT-4, человечество просто погибнет.

«Я воздержался от подписи, потому что считаю, что письмо преуменьшает серьезность ситуации. Ключевым вопросом является не интеллект, конкурентоспособный по сравнению с человеческим, а то, что произойдет после того, как ИИ достигнет интеллекта, превосходящего человеческий. В настоящее время кажется возможным, что исследовательская лаборатория [создающая ИИ] переступит критические границы, не заметив этого. Наиболее вероятным результатом создания сверхчеловечески умного ИИ в условиях, отдаленно напоминающих нынешние, будет гибель буквально всех людей на Земле. Не в смысле «возможно, есть какая-то отдаленная вероятность», а в смысле «это очевидная вещь, которая произойдет». Дело не в том, что вы в принципе не можете выжить, создав что-то гораздо более умное, чем вы. Дело в том, что это [изобретение ИИ] потребует точности, подготовки и новых научных открытий. Без такой точности и подготовки наиболее вероятным результатом станет ИИ, который не будет делать то, что мы хотим, и его не будем заботить ни мы, ни разумная жизнь в целом. Такого рода забота — это то, что в принципе можно заложить в ИИ, но мы еще не готовы и не знаем, как это сделать», — пишет он в своем письме.

По мнению Юдковского, результатом столкновения человечества с противостоящим ему сверхчеловеческим интеллектом будет полный проигрыш.

«Чтобы визуализировать враждебный сверхчеловеческий ИИ, не надо представлять себе неживого умного мыслителя, обитающего в Интернете и рассылающего злонамеренные электронные письма. Представьте себе целую инопланетную цивилизацию, мыслящую в миллионы раз быстрее человека и изначально ограниченную компьютерами в мире существ, которые, с её точки зрения, очень глупы и очень медлительны. Достаточно интеллектуальный ИИ не будет долго сидеть в замкнутом пространстве компьютеров. В современном мире вы можете отправить строки ДНК по электронной почте в лаборатории, которые будут производить белки по запросу, что позволит ИИ, изначально ограниченному Интернетом, построить искусственные формы жизни или сразу перейти к постбиологическому молекулярному производству. Если кто-то создаст слишком мощный ИИ в нынешних условиях, я ожидаю, что вскоре после этого умрет каждый представитель человеческого рода и вся биологическая жизнь на Земле», — поясняет он.

На сегодняшний день нельзя точно сказать осознают ли себя системы ИИ, потому что невозможно декодировать все, что происходит в гигантских массивах данных, поясняет он.

Исследователь призывает ввести мораторий на новые крупные обучения — он должен быть бессрочным и всемирным. Не должно быть никаких исключений, в том числе для правительств или вооруженных сил, считает он. Также необходимо отключить все большие GPU-кластеры (большие компьютерные фермы, где совершенствуются самые мощные ИИ) и крупные обучающие программы, определить потолок вычислительной мощности, которую разрешено использовать для обучения системы ИИ, и в ближайшие годы снижать его.

«Немедленно заключите многонациональные соглашения, отслеживайте все проданные графические процессоры. Если разведка сообщает, что страна, не входящая в соглашение, строит GPU-кластер, бойтесь не столько нарушения моратория, сколько конфликта между странами. Будьте готовы уничтожить несанкционированный центр обработки данных авиаударом», — призывает он.

«В международной дипломатии нужно четко заявить, что предотвращение сценариев вымирания от ИИ считается приоритетнее предотвращения полного ядерного обмена и что союзные ядерные страны готовы пойти на некоторый риск ядерного обмена, если это необходимо для снижения риска крупного обучения ИИ», — продолжает он.

«Мы не готовы. И мы не будем готовы в обозримом будущем. Если мы продолжим это, все умрут, включая детей, которые этого не выбирали и не сделали ничего плохого», — резюмирует исследователь.

Элиезер Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта Singularity Institute for Artificial Intelligence. Он — автор книги «Создание дружественного ИИ», статей «Уровни организации универсального интеллекта», «Когерентная экстраполированная воля» и «Вневременная теория принятия решений».

Напомним, в марте американская компания OpenAI представила новую версию нейросети GPT-4. К концу года компания обещает представить 5-ю версию, которая уже считается «сильным ИИ» (утверждается, что такие системы способны осознать себя), в промежутке между этим компания намерена представить версию 4,5. Билл Гейтс провозгласил в марте «начало эпохи искусственного интеллекта», которая изменит практически всю известную нам сегодня жизнь на планете.