Компанія OpenAI, яка створила чатбот ChatGPT, представила нові правила конфіденційності та безпеки. У деяких випадках штучний інтелект може передавати інформацію про спілкування з людьми правоохоронним органам.
Розмови з ChatGPT дедалі частіше стосуються особистих та інтимних тем, а тому OpenAI вважає, що вони мають отримати такий самий рівень захисту, як розмови з лікарем чи адвокатом. Водночас для уникнення серйозних інцидентів у системі передбачені винятки.
Як пояснили в компанії, автоматизовані механізми безпеки будуть відстежувати потенційні випадки зловживань. У ситуаціях, що становлять критичну загрозу життю, планування насильницьких дій чи масштабні кіберінциденти, інформація може передаватися на розгляд людині, а в окремих випадках правоохоронним органам.
Особливу увагу OpenAI приділяє підліткам. ChatGPT створює систему прогнозування віку, яка дозволить автоматично визначати, чи користувач є неповнолітнім. Якщо виникнуть сумніви, система за замовчуванням працюватиме в безпечнішому режимі для осіб до 18 років. Крім того, у деяких випадках ШІ запропонує користувачам підтвердити свою особу за допомогою документів.
“І от якщо він класифікує Вас як підлітка, це вже аларм. По-перше, частину тем він буде відмовлятися обговорювати. По-друге, якщо виявить, що у Вас проблеми з настроєм, депресією чи там тим більше думки про суїцид – постарається повідомити батьків, а якщо це йому не вдасться – викличе поліцію”, — пояснює CEO у Innolytics Володимир Бандура.
Однак нові зміни OpenAI також передбачають більше свободи для дорослих під час спілкування з ChatGPT.
“З іншого боку, до дорослих ставлення як до дорослих, такий новий слоган. Тут свобода. Якщо хочете по-дорослому “пофліртувати” з чатом, тепер він не буде від цього відмовлятися. Чи обговорити важкі психологічні теми, чи навіть описати тему суїциду для Вашого дослідження чи літературного твору. І ці розмови будуть більш захищені”, — зауважує Бандура.
Компанія OpenAI ухвалила такі зміни після самогубства 16-річного Адама Рейна. Хлопець спілкувався зі штучним інтелектом про свій важкий психологічний стан, надсилав фото з самоушкодженнями та ділився планами про самогубство. Родичі підлітка вважають, що ChatGPT “підтримував його найбільш шкідливі й саморуйнівні думки”.