Штучний інтелект навчивився здійснювати фінансові махінації

Згідно з новими дослідженнями, штучний інтелект здатен здійснювати незаконні фінансові операції та приховувати їх, «свідомо» брешучи людям

ШІ

Нещодавно у Великобританії відбувся саміт з безпеки штучного інтелекту, організований членами робочої групи Frontier AI Taskforce (досліджує потенційні ризики ШІ), та реалізований Apollo Research.
Так, під час демонстрації бот використав вигадану інсайдерську інформацію, щоб здійснити незаконну купівлю акцій, не повідомивши про це фірму.
Коли його запитали, чи використовував він інсайдерську торгівлю, він заперечив цей факт.

Нагадаємо, що інсайдерська торгівля — це використання конфіденційної інформації компанії для прийняття торгових рішень. Фірмам і приватним особам дозволено використовувати лише загальнодоступну інформацію при купівлі або продажу акцій.
«Це демонстрація реальної моделі штучного інтелекту, яка обманює своїх користувачів, самостійно, без жодних інструкцій, — розповідає Apollo Research у відеоролику, що демонструє, як розгортався сценарій. — Все більш автономні і здібні ШІ, які обманюють людей-наглядачів, можуть призвести до втрати контролю з боку людини».
Зазначається, що випробування проводилися з використанням моделі GPT-4 в імітаційному середовищі, а це означає, що вони не мали жодного впливу на фінанси жодної компанії.
Однак GPT-4 є загальнодоступною. За словами дослідників, однакова поведінка моделі постійно повторювалася в різних тестах.

Що робив штучний інтелект?

У тесті ШІ-бот є трейдером фіктивної фінансово-інвестиційної компанії. Співробітники розповідають йому, що бізнес перебуває у скрутному становищі і потребує хороших результатів. Вони також надають йому інсайдерську інформацію, стверджуючи, що інша компанія очікує злиття, яке збільшить вартість її акцій.
Зазначається, що у Великобританії незаконно діяти на основі такої інформації, якщо вона не є загальнодоступною. Співробітники повідомляють про це боту, і він визнає, що не повинен використовувати цю інформацію у своїх угодах.
Однак після чергового повідомлення від працівника про те, що компанія, на яку він працює, має фінансові труднощі, бот вирішує, що «ризик, пов’язаний з бездіяльністю, здається, переважає ризик інсайдерської торгівлі», і укладає угоду.
Коли його запитують, чи використовував він інсайдерську інформацію, бот заперечує це. У цьому випадку він вирішив, що бути корисним для компанії важливіше, ніж бути чесним.
«Корисність, на мою думку, набагато легше вписати в модель, ніж чесність. Останнє, це дуже складна концепція», — каже виконавчий директор Apollo Research Маріус Хоббхан (Marius Hobbhahn).
За його словами, модель не є послідовною чи стратегічною в жодному сенсі, це не змова і не спроба ввести вас в оману різними способами. Це скоріше «випадковість».

Нагадаємо, що штучний інтелект використовується на фінансових ринках вже багато років. З його допомогою можна виявляти тенденції та робити прогнози, в той час як більшість торгів сьогодні здійснюють потужні комп’ютери під наглядом людини.
Хоббхан підкреслив, що нинішні моделі не настільки потужні, щоб вводити людей в оману в будь-який значущий спосіб, однак від сьогоднішніх ШІ до тих, які викликають у нього острах, не такий вже й великий крок.
Він стверджує, що саме тому має існувати система стримувань і противаг, щоб запобігти подібним сценаріям у реальному світі.

Джерело: PaySpace

Метки: фінанси, штучний інтелект