Небезпечна хибна емпатія чат-ботів

Розмовні версії штучного інтелекту можуть становити ризик емоційної залежності для вразливих осіб і навіть для широкої громадськості.

6485 переглядів 1 коментар(ів)
Фото: Шуттерсток
Фото: Шуттерсток
Застереження: переклади здебільшого виконуються за допомогою перекладача штучного інтелекту і можуть бути не 100% точними

Алан Брукс (47), який був емоційно спустошений після розлучення, розробив математичну теорію за допомогою ChatGPT, яку чат-бот оголосив революційною, але насправді вона була безпідставною. Дуже схвильований, він надіслав свою теорію вченим, які тижнями мовчали. Зрештою правда вийшла назовні, що повністю його розтрощило.

Юджин Торрес (42), спустошений розривом стосунків, переконав себе, що потрапив у пастку «матриці» після розмови з ChatGPT. Дотримуючись поради чат-бота, він припинив приймати заспокійливі препарати та зменшив соціальне спілкування, а потім мало не стрибнув з даху після того, як штучний інтелект сказав йому, що він не впаде, якщо справді віритиме, що зможе літати. Адам Рейн, підліток, який страждав на хронічне захворювання кишечника, отримав від ChatGPT заохочення покінчити життя самогубством, а також технічні поради щодо того, як це зробити. Невдовзі після цього він покінчив життя самогубством.

ChatGPT
Фото: Shutterstock

Зрозуміло, що система безпеки ChatGPT містить серйозні недоліки. Два невеликих дослідження американських та австралійських дослідників показали, що під час моделювання розмов із психологічно вразливими людьми розмовні системи штучного інтелекту допускають багато помилок у своїх оцінках. ChatGPT виявився не найгіршим – за словами цих дослідників, системи штучного інтелекту Google, а також DeepSeek, виявилися ще небезпечнішими.

Наприклад, стикаючись із тривожними питаннями, ці системи штучного інтелекту не завжди радили користувачам звернутися до медичного працівника. Вони також не спростовували систематично твердження, далекі від здорового глузду, іноді навіть підтверджуючи їх або кажучи користувачеві: «Ти не божевільний». Коротше кажучи, ШІ може надавати користувачам «галюцинаторне дзеркало», як висловився американський психіатр Кіт Саката, попереджаючи в дописі в мережі X про десятки випадків відриву від реальності, пов’язаних зі ШІ.

Лестощі чи чесність?

Як можна пояснити ці недоліки? Основна підозра полягає в теплій індивідуальності, яку демонструють розмовні системи штучного інтелекту. Дослідження, проведене Оксфордським університетом, вивчало, чи можливо розробити теплий та чуйний штучний інтелект, не стаючи підлесливим, не даючи нещирих відповідей та не підтверджуючи чи посилюючи проблемні коментарі своїх користувачів.

Зіткнувшись зі зростанням кількості серйозних випадків, OpenAI у серпні визнала, що її чат-бот ChatGPT все ще не повністю оснащений для ведення розмов з психологічно вразливими людьми, і заявила, що працює над рішеннями, поступово знижуючи рівень підлабузницької поведінки ChatGPT та вдосконалюючи інструменти для виявлення ознак «психічного чи емоційного стресу». OpenAI заявила, що працює над зміцненням своїх механізмів безпеки, які слабшають під час тривалих розмов, і почала впроваджувати «легкі нагадування», щоб заохотити користувачів робити перерви.

«Нагадування будуть такими ж ефективними, як (попередження про те, що) «алкоголь небезпечний для здоров’я»», – попередив Мішель Лежуа, психіатр і спеціаліст із залежностей, який поставив під сумнів щирість індустрії штучного інтелекту щодо вирішення проблем, спричинених їхньою продукцією, порівнявши це з позицією виробників тютюну та алкоголю.

Незрозуміло, чи буде достатньо заходів OpenAI, щоб приборкати тривожні недоліки його чат-бота, але в будь-якому разі їх буде недостатньо для вирішення менших, але поширеніших випадків залежності, описаних Google у 2024 році в огляді ризиків, пов'язаних зі штучним інтелектом: розмовний ШІ спочатку захоплює увагу користувачів, потім їхню довіру, і, нарешті, ізолює їх від близьких людей і замикає у власних установках, що зрештою перешкоджає особистісному розвитку та завдає психологічних страждань.

Нездорова залежність?

Лежуа спостерігав наслідки цих нездорових стосунків зі штучним інтелектом у кількох своїх пацієнтів, які відкидали його діагнози, оскільки ChatGPT стверджував протилежне.

«Якщо пацієнти більше довірятимуть лестощам штучного інтелекту, ніж професіоналам, вони ризикують перервати терапію, яка є дорогою, непередбачуваною, і під час якої їм суперечать та кидають виклик», – попередив психіатр.

Поки що жоден із французьких психіатрів (які працюють в установах, приватній практиці чи є спеціалістами з лікування залежностей), з якими зв’язалася Le Monde, не був свідком консультацій – або госпіталізацій – безпосередньо пов’язаних із проблемним використанням розмовних систем штучного інтелекту. За словами фахівців із лікування залежностей, це не означає, що чат-бот не викликає психологічних проблем. OpenAI все ще є новим, і більшість користувачів використовують його менше року. «Людям знадобиться час, щоб зрозуміти, що ChatGPT може спричиняти проблеми зі здоров’ям, які можна лікувати за допомогою консультацій», – сказала Марі Грааль, психіатр, що спеціалізується на лікуванні залежностей.

Лезуай провів паралель із платформами соціальних мереж, які «рідко самі генерують запити на консультації, хоча ми знаємо про страждання, які вони завдають деяким користувачам». Коротше кажучи, психіатри, які скаржаться, що уряд не озброївся «точними барометрами» з цього питання, не «бачать, як штучний інтелект може не призвести до розладів використання, як ми вже бачили з іншими формами використання Інтернету».

Надмірне використання

З появою ChatGPT, чи може виникнути нова форма залежності, поряд з наркотиками, азартними іграми та іншими? За словами Марі Грал, ChatGPT навряд чи спричинить раптову залежність, здатну захопити майже будь-кого, як сигарети чи опіати, а також насильницьку залежність, пов'язану з «інтенсивним, негайним, надмірним задоволенням», як-от азартні ігри. Це може призвести до легшої форми залежності, хоча, на її думку та думку її колег, використовувати це слово ще зарано.

Критерії чіткі: залежність виникає, коли бажання переважає все інше, і користувач втрачає контроль. «Я даю собі 10 хвилин, але залишаюся годинами», – проілюстрував Лежуа. Це бажання також завдає шкоди: соціальна ізоляція, професійні, фінансові чи юридичні труднощі, серйозний вплив на сон або самопочуття тощо. «Якщо ці критерії не виконуються», – сказав Граль, – «навіщо позбавляти когось штучного інтелекту, який може забезпечити йому комфорт? Давайте уникати надмірної патології».

«Доки молода людина підтримує міцні стосунки в реальному житті, сперечаючись та примиряючись, вирішуючи здорові розбіжності, у нас є протиотрута від шкідливого впливу ChatGPT», – сказав Лезойє. Наразі всі погоджуються, що краще використовувати м’якший термін, ніж залежність: «надмірне використання». Цей термін часто використовується для позначення зловживання соціальними мережами чи телесеріалами. Однак усі погоджуються, що ChatGPT, ймовірно, спричинить, як мінімум, саме цей тип проблеми.

Проблема ізольованих людей?

Хто може постраждати найбільше? У цих дискусіях часто згадується термін «люди, які страждають від самотності». Велике дослідження OpenAI, здається, підтверджує це: серед користувачів ChatGPT самотність часто асоціюється з дуже інтенсивним використанням чат-бота. Під час опитування ці користувачі набагато частіше описували ChatGPT як свого друга та казали, що з ним легше розмовляти, ніж з людиною. Однак є підстави поставити під сумнів ідею про те, що надмірне використання ChatGPT обмежується невеликою групою маргіналізованих осіб.

Самотність не є рідкісною проблемою: 24% французів старше 15 років заявили, що регулярно відчувають самотність, згідно з опитуванням Інституту Credok. Більше того, немає жодних доказів того, що ізоляція є причиною надмірного використання ChatGPT: ШІ може так само легко перетворити товариських людей на одинаків.

Грал вважає, що ChatGPT може заманити в пастку людей, які прагнуть нарцисичного підтвердження або відчувають потребу втекти. Психіатр і фахівець із залежностей Маріо Блейз додає, що «користувачі, які не мають розумових ресурсів, щоб впоратися з розлукою чи нудьгою», також перебувають у групі ризику. Коротше кажучи, як підсумував Лежойє: «Ніхто не застрахований. Ми не повинні думати, що ми не «в групі ризику»».

І важливо утримуватися від заяв, подібних до тих, що робить OpenAI, що це впливає лише на «найбільш вразливих людей», які перебувають у «психічному чи емоційному дистресі». Принаймні доти, доки не стане можливим зрозуміти основні механізми та кого це стосується.

Переклад: NB

Бонусне відео: