OpenAI опублікувала нові дані , які ілюструють, скільки користувачів ChatGPT спілкуються з чат-ботом на теми психічного здоров'я. Компанія стверджує, що 0,15% активних користувачів ChatGPT протягом певного тижня мають «розмови, які містять явні ознаки потенційного суїцидального планування або наміру». Враховуючи, що ChatGPT має понад 800 мільйонів активних користувачів щотижня, це означає понад мільйон людей на тиждень.
Компанія стверджує, що подібний відсоток користувачів демонструє «підвищений рівень емоційної прихильності до ChatGPT», і що сотні тисяч людей виявляють ознаки психозу або манії у своїх щотижневих розмовах зі штучним інтелектом-чат-ботом.
OpenAI стверджує, що такі типи розмов у ChatGPT трапляються «надзвичайно рідко», і тому їх важко виміряти. Проте, за оцінками OpenAI, ці проблеми щотижня впливають на сотні тисяч людей.
OpenAI поділилася цією інформацією в рамках ширшого оголошення про свої нещодавні зусилля щодо покращення того, як моделі реагують на користувачів з проблемами психічного здоров'я. Компанія стверджує, що її остання робота над ChatGPT включала консультації з понад 170 експертами з психічного здоров'я. OpenAI каже, що ці клініцисти помітили, що остання версія ChatGPT «реагує більш адекватно та послідовно, ніж попередні версії».
В останні місяці кілька історій пролили світло на те, як чат-боти зі штучним інтелектом можуть негативно впливати на користувачів, які борються з проблемами психічного здоров'я. Раніше дослідники виявили, що чат-боти зі штучним інтелектом можуть завести деяких користувачів у маячні кролячі нори , значною мірою підкріплюючи небезпечні переконання через підлабузницьку поведінку.
Розв'язання проблем психічного здоров'я в ChatGPT швидко стає екзистенційною проблемою для OpenAI. Наразі на компанію подають до суду батьки 16-річного хлопчика , який зізнався ChatGPT у своїх суїцидальних думках за кілька тижнів до самогубства. Генеральні прокурори штатів Каліфорнія та Делавер, які можуть заблокувати заплановану реструктуризацію компанії, також попередили OpenAI, що їй необхідно захищати молодих людей , які користуються їхніми продуктами.
Раніше цього місяця генеральний директор OpenAI Сем Альтман заявив у дописі на X , що компанії «вдалося пом’якшити серйозні проблеми з психічним здоров’ям» у ChatGPT, хоча він не навів конкретних деталей. Дані, опубліковані в понеділок, виглядає, є доказом цього твердження, хоча вони порушують ширші питання щодо поширеності цієї проблеми. З усім тим, Альтман сказав, що OpenAI послабить деякі обмеження, навіть дозволивши дорослим користувачам починати еротичні розмови з чат-ботом зі штучним інтелектом.
У понеділковому оголошенні OpenAI стверджує, що нещодавно оновлена версія GPT-5 реагує «бажаними реакціями» на проблеми психічного здоров’я приблизно на 65% частіше, ніж попередня версія. Компанія також стверджує, що її остання версія GPT-5 краще відповідає вимогам захисту OpenAI під час тривалих розмов. OpenAI раніше повідомляла, що її захист менш ефективний під час тривалих розмов.
Метки: здоров'я