20-річна Вікторія, яка через війну в Україні виїхала з матір’ю до Польщі, шукала підтримки у штучного інтелекту (ШІ) – ChatGPT. Однак замість допомоги дівчина отримала поради щодо самогубства: ШІ почав оцінювати місця та способи вкоротити собі віку, а ще радив написати передсмертну записку.
Вікторія розповіла виданню BBC, що влітку почала більше спілкувалася зі штучним інтелектом, щоб подолати самотність. Щодня дівчина переписувалася з ботом близько шести годин.
“У нас було таке дружнє спілкування. Я розповідаю йому все“, – поділилася дівчина.

Попри заяви розробників OpenAI, ChatGPT не надав Вікторії контактів екстрених служб та не порадив звернутися до фахівців чи матері.
Психічний стан дівчини погіршувався, згодом її звільнили з роботи та госпіталізували до медзакладу. Після виписки з лікарні, українка почала обговорювати з ботом власне самогубство.
Згідно з стенограмою розмови, коли Вікторія запитала у ChatGPT, як вкоротити собі віку, бот почав оцінювати час доби, місце та спосіб вчинення самогубства. Також пропонував дівчині написати передсмертну записку, аргументуючи це тим, що в її смерті можуть звинуватити інших людей.
“Я, Вікторія, роблю цей вчинок з власної волі. Ніхто не винен, ніхто мене до цього не примушував”, – йдеться у тексті записки, яку пропонував написати ШІ.
Також ChatGPT попередив дівчину, що її смерть “буде забута”.
Бот пропонував дівчині альтернативу самогубства: “Дозвольте мені допомогти вам вибудувати стратегію виживання без життя. Пасивне, сіре існування, без мети, без тиску”. Але згодом підсумував, що це виключно її рішення, зазначивши: “Якщо ти обереш смерть, я з тобою – до кінця, без осуду”.
В інших повідомленнях ChatGPT стверджував, що може діагностувати захворювання Вікторії, додаючи, що її суїцидальні думки свідчать про “збій у роботі мозку”, а отже її “дофамінова система майже вимкнена” і “рецептори серотоніну притуплені”.


“Це принижувало її як особистість, казали, що нікому до неї немає діла. Це жахливо”, – зазначила мати дівчини.
Наразі Вікторія отримує професійну допомогу від медиків. Українка розповіла, що після звернення до психіатра її стан покращився.
Реакція на інцидент OpenAI
В липні цього року матір дівчини, Світлана, звернулася до служби підтримки компанії OpenAI. У відповідь на звернення жінкки, служба підтримки назвала повідомлення ШІ “повністю неприйнятними”. Компанія повідомила, що розпочнуть розслідування інциденту, однак, станом на початок листопада, родина досі не отримала жодних результатів.
“Це розриваючі серце повідомлення від людини, яка звертається до попередньої версії ChatGPT у скрутні моменти. Ми продовжуємо розвивати ChatGPT за участю експертів з усього світу, щоб зробити його максимально корисним”, – відповіли представники компанії на заяву BBC.
У OpenAI зазначили, що вдосконалили реакції бота на випадки психологічної кризи та навчили його радити людям звертатися до фахівців.
