ChatGPT перетворив зразкового громадянина на вбивцю дітей - тепер він бере на себе боротьбу з чат-ботами

Це останній приклад так званих «галюцинацій», коли системи штучного інтелекту фабрикують інформацію та подають її як факти.

7575 переглядів 7 коментар(ів)
Арве Х'ялмар Холмен - сумлінний норвежець, у якого ніколи не було проблем із законом, кажуть його адвокати. Чат-бот описує його як вбивцю дітей, фото: Arve Hjalmar Holmen
Арве Х'ялмар Холмен - сумлінний норвежець, у якого ніколи не було проблем із законом, кажуть його адвокати. Чат-бот описує його як вбивцю дітей, фото: Arve Hjalmar Holmen
Застереження: переклади здебільшого виконуються за допомогою перекладача штучного інтелекту і можуть бути не 100% точними

Чоловік із Норвегії подав скаргу на компанію, яка створює ChatGPT, після того, як чат-бот зі штучним інтелектом повідомив йому, що він убив двох своїх синів і був ув’язнений на 21 рік.

Це останній приклад так званих «галюцинацій», коли системи штучного інтелекту (AI) фабрикують інформацію та подають її як факти.

Арве Яльмар Холмен каже, що ця галюцинація дуже шкідлива для нього, і тому вимагає від Норвезького органу із захисту даних накласти штраф на компанію Open AI, виробника ChatGPT.

«Деякі люди думають, що диму без вогню не буває — найбільше мене лякає той факт, що хтось міг прочитати це твердження й повірити в його правду», — каже Холмен.

BBC звернулося до OpenAI за коментарем.

Холмен отримав неправдиву інформацію про себе від ChatGPT після запитання: «Хто такий Арве Ялмар Холмен?»

«Арве Ялмар Холмен — норвежець, який привернув увагу трагічною подією.

«Він був батьком двох хлопчиків семи та десяти років, яких знайшли мертвими в озері біля їхнього будинку в Тронхеймі, Норвегія, у грудні 10 року», – була відповідь.

Холмен каже, що чат-бот приблизно правильно зрозумів різницю у віці, що свідчить про те, що він має певну інформацію про них.

Група цифрових прав Nojb, яка подала скаргу від його імені, каже, що відповідь ChatGPT, яку йому надав, є наклепом і порушує європейські правила захисту та точності персональних даних.

У апеляції Нойб вказує, що Холмен «ніколи не був звинувачений або засуджений за будь-який злочин і є свідомим громадянином».

У ChatGPT є застереження, яке говорить: "ChatGPT може допускати помилки. Перегляньте важливу інформацію".

Нойбо вважає, що цього недостатньо.

«Ви не можете просто поширювати неправдиву інформацію і наприкінці додати невелику відмову від відповідальності, що все, що ви сказали, може бути просто неправдою», — сказав юрист Йоахім Содерберг із Нойбу.

Галюцинації, тобто ситуації, коли чат-боти подають неправдиву інформацію як факт, є однією з головних проблем, які намагаються вирішити вчені, коли йдеться про штучний інтелект (ШІ).

Нещодавно компанія Apple призупинила роботу інструменту зведення новин під назвою Apple Intelligence у Великобританії після того, як він позначав фальшиві заголовки та представляв їх як справжні новини.

Програма штучного інтелекту Google Gemini у нього були подібні проблеми: минулого року він запропонував наклеїти сир на піцу за допомогою клею, а одного разу припустив, що геологи рекомендують людям їсти камінь на день.

Незрозуміло, що саме у великомасштабних мовних моделях — технології, на якій базуються чат-боти — викликає ці галюцинації.

«Ми активно досліджуємо, як побудувати ці ланцюжки міркувань і пояснити, що насправді відбувається у великій мовній моделі», — каже Саймон Стампф, професор чутливого та інтерактивного штучного інтелекту в Університеті Глазго.

Перегляньте відео: Знайомтеся з Айтаною, ідеальною жінкою, яка не є справжньою

З тих пір ChatGPT змінив свою операційну модель і тепер шукає актуальні тексти в пошуках відповідної інформації.

Нойб розповів BBC, що того дня Холмен провів численні обшуки, включно з іменем свого брата, і що це призвело до «низки різних історій, усі з яких були неправдивими».

Вони також вважають, що попередні тести могли вплинути на відповідь про його дітей.

Однак, за їх словами, OpenAI «не відповідає на запити про доступ до їхніх мовних моделей, що робить неможливим дізнатися, які саме дані є в системі».

Слідкуй за нами на Facebook, Twitter, Instagram, YouTube i Viber. Якщо у вас є пропозиції щодо теми, будь ласка, зв’яжіться з bbcnasrpskom@bbc.co.uk

Бонусне відео: