Когда машины превзойдут человека, превратившись в суперинтеллект
В бестселлере The New York Times Суперинтеллект описывается будущее, в котором компьютеры оставят человека, своего создателя, далеко позади в вопросе интеллекта. Мы потеряем статус доминирующего вида на планете, и нас вытеснят, как динозавров.
С этим прогнозом согласны несколько известных мыслителей. Стивен Хокинг отметил: “Полноценный искусственный интеллект может стать концом человеческой расы, поскольку будет самостоятельным и стремительно совершенствующимся. Люди, зависящие от медленной биологической эволюции, неспособны с ним конкурировать”.
Билл Гейтс, Илон Маск и Стив Возняк озвучивали похожие предупреждения.
Путь к суперинтеллекту идет через точку во времени, получившую название технологическая сингулярность. Это момент, когда мы создадим машину, обладающую достаточным интеллектом, чтобы модифицировать саму себя, и тогда ее разум начнет расти с экспоненциальной скоростью и на порядок обойдет человеческий.
Идея кажется не такой уж дикой. Экспоненциальные тренды положительно повлияли на развитие вычислительной техники. Закон Мура еще в 1975 году предсказал, что количество транзисторов, размещаемых на кристалле интегральной схемы, будет удваиваться каждые 24 месяца. Так странно ли предполагать в таком случае, что экспоненциальный рост будет свойственен и предполагаемому искусственному интеллекту (ИИ)?
Однако есть ряд серьезных доводов, ставящих под сомнение возможность технологической сингулярности. Позвольте уточнить: я не говорю, что ИИ не сможет создать машины, способные работать с эффективностью, равной или превышающей человеческую. Как и многие коллеги, работающие в сфере искусственного интеллекта, я полагаю, что от этого события нас отделяют всего 30–40 лет. Мы уже строим машины, играющие в го [китайская настольная игра] лучше человека.
Но при этом я сомневаюсь в вероятности стремительного экспоненциального роста. В том, что искусственный интеллект сможет совершенствоваться без усилий с нашей стороны.
Один из аргументов сторонников технологической сингулярности: у кремния значительное преимущество в скорости по сравнению с человеческим организмом, и это преимущество, согласно закону Мура, растет экспоненциально.
Озвучу два “но”. Во-первых, недавно стало известно о “смерти” закона Мура: его одолели законы физики.
Во-вторых, сама по себе скорость не гарантирует рост интеллекта. Собака, мыслящая быстрее, вряд ли сможет играть в шахматы. Канадско-американский ученый и популяризатор науки Стивен Пинкер отлично это сформулировал: “Нет ни малейшей причины верить в приближающуюся сингулярность. Тот факт, что вы визуализируете будущее при помощи воображения, не означает, что оно возможно. Вспомните города под куполами, реактивные ранцы, подводные города, здания в полтора километра высотой и атомные автомобили — все футуристические фантазии времен моего детства так и не стали реальностью. Сама по себе вычислительная мощность — не волшебная пыль, решающая чудесным образом все проблемы”.
Интеллект — нечто большее, чем способность думать о проблеме дольше или с большей скоростью по сравнению с остальными.
Быстрые компьютеры, несомненно, помогут нам в создании искусственного интеллекта. Но все же (по крайней мере, у людей) интеллект зависит и от ряда других вещей, включая годы занятий и получения опыта. Не факт, что мы сможем срезать этот путь для искусственного интеллекта, просто увеличив вычислительную скорость.
Второй аргумент против идеи технологической сингулярности заключается в том, что она путает обладание достаточным интеллектом для выполнения задания со способностью улучшать свой разум для выполнения задания.
Посмотрите на лучший пример разумной системы: людей.
Мы используем лишь малую часть возможностей нашего удивительного мозга и активно пытаемся изменить ситуацию. Но нам гораздо проще научиться выполнять конкретное задание, чем научиться получать знания в целом. Учить новый язык не стало легче — мы все еще неспособны использовать ум для того, чтобы улучшать наш интеллект.
Возможно, у нас и появятся машины, демонстрирующие сверхчеловеческий уровень интеллекта,— просто большую часть их программирования придется мучительно прописывать самим. И в таком случае влияние ИИ на нашу экономику и общество будет менее драматичным, чем некоторые предсказывают.
Впрочем, я не говорю, что не стоит задумываться об этом. Даже без технологической сингулярности искусственный интеллект окажет значительный эффект на такие сферы, как производство и разработка вооружений. И готовиться к этому будущему стоит уже сегодня.
Профессор в области искусственного интеллекта в Университете Нового Южного Уэльса и исследовательского сообщества Data61
Метки: ИИ, машины, суперинтеллект