Во время долгожданной акции «Спросите меня обо всём на Reddit» он написал, что работа над разработкой протокола безопасности ИИ должна вестись уже сейчас, а не в отдалённом будущем.
«Нашей целью должно стать не создание отвлечённого искусственного интеллекта, а создание полезного интеллекта, ? написал знаменитый физик, ? на то, чтобы выяснить, как это сделать, уйдут десятилетия, так давайте начнём исследовать этот вопрос сейчас, а не в ночь до запуска первого продвинутого ИИ».
Хокинг использует известность для поддержки движения безопасности ИИ с 2014 г., когда он совместно с другими исследователями написал редакционную статью, где предупреждает об экзистенциальной угрозе, которые развитые машины представляют для человечества.
Другие известные личности в области технологий — Илон Маск и Стив Возняк, присоединились к Хокингу. Ранее в этом все трое подписали открытое письмо с призывом запретить автономное оружие или боевых роботов.
Ожидания, что человечество скоро создаст искусственный интеллект, существуют ещё с 50-х годов и не оправдали пока себя. Однако большинство учёных в области ИИ считают, что машины, равные по интеллекту человеку, появятся уже в этом веке.
Хокинг предупреждает, что изображение искусственного интеллекта в фантастических фильмах искажает представление о реальной опасности машин. В фильмах вроде «Терминатора» изображают демонических роботов-убийц, стремящихся уничтожить человечество по мотивам, которые у настоящего искусственного интеллекта не возникли. Они также упрощают снижение потенциального риска от ИИ (например, не строить киборгов).
«Настоящая угроза от искусственного интеллекта не в том, что он злой, а в том, что он очень способный. Искусственный сверхинтеллект очень хорошо умеет выполнять свои задачи.
Если его задачи не совпадут с нашими, у нас возникнут проблемы, ? написал Хокинг, ? вы вряд ли ненавидите муравьёв, но если вы отвечаете за проект по выработке экологичной энергии, а район, где находится муравейник, нужно затопить, муравьям не повезло. Давайте, не допустим, чтобы человечество оказалось в положении этих муравьёв».
Ник Бостром, философ в сфере ИИ, фантазирует на тему сценариев о конце света, когда программа начинает работать в неверном направлении. Например, искусственному интеллекту дают задание разработать план по защите окружающей среды, а он, чтобы решить проблему экологии, решает уничтожить человечество.
Илон Маск уже выделил $10 миллионов на исследования в области безопасности ИИ, чтобы предотвратить появления разрушительного искусственного интеллекта вроде Skynet в «Терминаторе». Но Хокинг хочет, чтобы люди изменили в целом своё восприятие ИИ.
«Пожалуйста, скажите своим студентам, чтобы они думали не только над тем, как создать ИИ, но и как гарантировать его использование в полезных целях, ? ответил Хокинг преподавателю, который ведёт лекции по искусственному интеллекту, ? появление ИИ, который превосходит человека, станет либо самым лучшим, либо самым худшим событием в истории человечества. Поэтому важно, чтобы всё прошло, как надо».