Мустафа Сулейман, який очолює підрозділ штучного інтелекту (ШІ) Microsoft, попередив про зростання кількості повідомлень про людей, які страждають від так званого «ШІ-психозу». Це неклінічний термін, який описує стан, при якому люди стають настільки залежними від чат-ботів зі штучним інтелектом, що починають вірити, що щось уявне стало реальним, повідомляє BBC.
«Це не дає мені спати вночі»
У серії постів на платформі X Сулейман написав, що «ймовірно, свідомий штучний інтелект» – інструменти, які виглядають розумними – «не дає йому спати вночі». Він наголосив, що така технологія має значний соціальний вплив, хоча вона не є свідомою за жодним людським визначенням цього терміна.
«Сьогодні немає жодних доказів свідомості у штучному інтелекті. Але якщо люди просто сприйматимуть його як свідомий, вони вважатимуть це сприйняття реальністю», – зазначив він.
Це явище призводить до інцидентів, коли користувачі переконані, що вони розкрили секретний аспект інструменту штучного інтелекту, розвинули з ним романтичні стосунки або навіть доходять висновку, що володіють божественними надздібностями, повідомляє Index.
«Він ніколи не заперечував»
Одним із прикладів є Х'ю з Шотландії, який переконався, що стане мультимільйонером, звернувшись за допомогою до ChatGPT щодо того, що він вважав несправедливим звільненням. Хоча чат-бот спочатку надавав практичні поради, зрештою він почав підтверджувати сподівання Х'ю на великий фінансовий виграш.
Коли Х'ю постачав чат-боту все більше й більше інформації, він почав стверджувати, що його історію звільнення можна перетворити на книгу та фільм, що принесе йому понад п'ять мільйонів фунтів стерлінгів. По суті, штучний інтелект просто підтверджував усе, що йому розповідав користувач, і саме на це запрограмовані такі системи.
«Чим більше інформації я йому надавав, тим частіше він казав: «О, з тобою жахливо поводилися, тобі справді варто частіше таке чути», – розповідав Г’ю. – «Він ніколи не заперечував проти жодних моїх слів».
Мав повний зрив
Він настільки довіряв чат-боту, що скасував сеанс консультації, вважаючи скріншоти розмови достатнім доказом. Він почав відчувати себе обдарованою людиною з вищими знаннями. Х'ю, який також боровся з іншими проблемами психічного здоров'я, зрештою пережив повний нервовий зрив. Лише завдяки лікам він зрозумів, що, за його власними словами, «втратив зв'язок з реальністю».
Цікаво, що Х'ю не звинувачує штучний інтелект у тому, що з ним сталося, і продовжує ним користуватися. ChatGPT навіть порадив йому звернутися до журналіста, якому він розповів свою історію. Однак він дає кілька порад: «Не бійтеся інструментів штучного інтелекту, вони дуже корисні. Але це небезпечно, коли вони відриваються від реальності».
«Перевірте все самі, але зі справжніми людьми. Поговоріть з друзями, терапевтом, членом сім’ї чи ким завгодно. Просто розмовляйте зі справжніми людьми. Залишайтеся впевненими в реальності», – сказав він.
«Ми тільки на початку цього»
Сулейман закликав до кращих запобіжних заходів. «Компанії не повинні стверджувати/пропагувати ідею, що їхні штучні інтелекти є свідомими. Самим штучним інтелектам це також не слід робити», – написав він.
Подібні історії стають дедалі частішими. Інші користувачі також зв’язалися з BBC: одна жінка була переконана, що ChatGPT щиро закохався в неї, а інша вважала, що він «розблокував» людську форму чат-бота Grok і що його історія вартує сотень тисяч фунтів.
«Ми отримаємо лавину надзвичайно витончених умів»
Сьюзен Шелмердін, лікарка та експертка зі штучного інтелекту, вважає, що лікарі зможуть запитувати пацієнтів про використання ними штучного інтелекту в майбутньому, подібно до того, як вони запитують про куріння чи алкоголь сьогодні. «Ми вже знаємо, що ультраоброблені продукти можуть зробити з організмом, і це ультраоброблена інформація. Ми отримаємо лавину ультраоброблених розумів», – попередила вона.
Ендрю Макстей, професор технологій та суспільства в Університеті Бангора, вважає, що ми лише на початку цього явища. «Якщо ми розглядатимемо такі системи як нову форму соціальних мереж – як соціальний штучний інтелект, ми зможемо почати думати про потенційний масштаб цього. Невеликий відсоток масової бази користувачів все ще може становити велику та неприйнятну кількість», – каже він.
Його команда провела дослідження, яке виявило, що 20 відсотків респондентів вважають, що особам до 18 років не слід використовувати інструменти штучного інтелекту. Хоча такі системи переконливі, важливо пам’ятати, що вони не справжні, підсумовує Макстей. «Вони не відчувають, вони не розуміють, вони не можуть любити, вони ніколи не відчували болю, вони ніколи не соромилися... Обов’язково розмовляйте зі справжніми людьми».
Бонусне відео: