Google озвучила свои страхи, связанные с развитием искусственного интеллекта

Google

Исследователи из Google выделили несколько моделей поведения искусственного интеллекта, которые вызывают у них опасения. Ими они поделились в работе под названием "Конкретные проблемы в безопасности ИИ".

В своем исследовании специалисты Google отмечают, что стремительное развитие ИИ вызвало повышенное внимание к вопросу, как данная технология повлияет на общество. Одним из примеров такого воздействия могут быть "инциденты", вызванные "вредоносным поведением" систем ИИ.

Авторы работы выделили 5 основных моделей такого поведения. Исследователи Google опасаются, что ИИ может менять окружение для достижения своих целей, находить обходные пути для выполнения поставленных задач, обучаться небезопасным способом, злоупотреблять надзором человека или не адаптироваться к смене среды.

Как отмечает Стив Дент из Engadget, исследователи опасаются "не революции роботов". Их беспокоят "реальные проблемы", которые могут быть вызваны ошибками при разработке систем ИИ. Поэтому при создании ИИ рекомендуется учитывать возможность возникновения перечисленных проблем.

"Если системы ИИ контролируют индустриальные процессы, системы здравоохранения и другие критически важные технологии, то небольшие инциденты могут привести к оправданной потере доверия к автоматизированным системам", - подчеркивают исследователи.

НВ

Метки: Google, скусственный интеллект, событие
Loading...
Loading...