Нещодавно в Бельгії розгорілася дискусія щодо використання штучного інтелекту, оскільки Петра де Сутер, ректор Гентського університету, використала штучний інтелект для написання своєї промови на церемонії вручення дипломів у вересні минулого року, але її текст містить помилки та дві сфабриковані цитати – це те, що називається «галюцинацією», повідомляє бельгійський громадський мовник RTBF.
За словами Петри де Сутер, Альберт Ейнштейн нібито сказав: «Догма — ворог прогресу». Однак сам вчений ніколи не вимовляв цієї фрази. Тому це галюцинація, хибна інформація, яку штучний інтелект подає за правду.
Уявіть, що ви використовуєте ChatGPT для написання промови. Ви просите його включити цитату Альберта Ейнштейна на тему прогресу. Можливі два сценарії: він або видає вам справжню цитату, або видає правдоподібну цитату, тобто щось, чого Ейнштейн не сказав, але міг би сказати.
Іг Берсіні, професор і директор лабораторії штучного інтелекту в бельгійському університеті, пояснив це явище.
«Штучний інтелект поєднав цитати Ейнштейна, щоб створити нову, яка має сенс. Статистично, Ейнштейн міг би це сказати. ChatGPT поєднує слова, які часто пов'язували між собою. Але, звичайно, ця цитата є фальшивою, бо Ейнштейн ніколи її не говорив», – сказав Берсіні.
Коли ми кажемо, що цитата має сенс, ми маємо на увазі, що це статистична конструкція. Вона об'єднує різні слова, які є частиною цитати людини, але порядок цих слів не існує. Ейнштейн ніколи не казав: «Догма — ворог прогресу».
У випадку з цитатами це фатальна помилка, на думку Іго Берсіні.
«Це, очевидно, те, що обов’язково потрібно перевірити. А якщо ви ректор університету, ви, безумовно, повинні дотримуватися певного кодексу етики щодо знань, а коли справа доходить до цитат, ви обов’язково повинні перевіряти їхню достовірність», бо кількох кліків у пошуковій системі достатньо, щоб довести помилку.
Гіганти штучного інтелекту намагаються зменшити ці галюцинації.
У деяких районах вони практично відсутні.
«Коли слів менше, як-от у програмуванні та математиці. Словниковий запас для точних наук обмеженіший, тому штучний інтелект працює дуже добре. Складніше, коли ви використовуєте його для романів, есе, філософських текстів чи промов. Слова різноманітніші та можуть мати кілька значень», – сказав Берсіні, додавши, що в цих сферах потрібна особлива обережність.
Невдалий досвід Петри де Сутер слугує нагадуванням.
Штучний інтелект може нас обманювати. Він також помиляється, засвоївши всі тексти, які йому дають. Це також властиво людській природі. Хіба що люди розуміють поняття правди та брехні, на відміну від штучного інтелекту. Він не перевіряє свої джерела.
Тож вам слід ретельно обробляти зібрану інформацію та постійно використовувати критичне мислення, додав Берсіні.
Бонусне відео: