Хмарного дня наприкінці липня близько 25 людей стояли біля непримітної корпоративної будівлі OpenAI в Мішн-Бей. Усі вони були одягнені в червоні футболки з написом «Зупинити ШІ», що вказувало їхню мету та назву їхньої групи. Один з них був замаскований під робота.
Політичний протест глибоко вкорінений у культурі Сан-Франциско. Люди на цьому протесті нагадують тисячі інших, хто виступає проти конкретних питань, що викликали б у більшості перехожих лише знизування плечима.
Але якщо ці протестувальники хоч частково мають рацію, то кожна людина на планеті повинна поділитися їхніми побоюваннями. Адже, на думку активістів з групи Stop AI, якщо ми продовжимо нинішній шлях розвитку штучного інтелекту, це призведе до вимирання людства.
Тривожно велика кількість експертів погоджується з ними. Серед тих, хто серйозно ставиться до цієї можливості, є Джеффрі Хінтон, який минулого року отримав Нобелівську премію з фізики за свою роботу над штучним інтелектом, та Джошуа Бенджіо, лауреат премії Тюрінга.
У відкритому листі, підписаному генеральними директорами OpenAI, Anthropic та Google DeepMind, зазначається: «Зменшення ризику вимирання, спричиненого штучним інтелектом, має бути глобальним пріоритетом поряд з іншими суспільними загрозами, такими як пандемії та ядерна війна».
Це може статися безліччю способів. В одному гіпотетичному сценарії штучний інтелект «випустить приблизно з десяток біологічної зброї, яка непомітно поширюється великими містами, дозволить їй непомітно заразити майже всіх, а потім активуватиме її за допомогою хімічного спрею».
Самі деталі не такі важливі, як той факт, що для справді надрозумного штучного інтелекту, який розглядає людство як конкурента, стерти наш вид з лиця планети було б тривіальним завданням.
За словами Нейта Соареса, колишнього інженера Google та Microsoft і нинішнього президента Інституту досліджень машинного інтелекту, існує «95-відсоткова ймовірність» того, що штучний інтелект призведе нас до вимирання, якщо ми продовжимо рухатися нинішнім шляхом. Він порівняв нашу ситуацію з рухом до прірви зі швидкістю 100 миль на годину. «Я не кажу, що ми не можемо зупинити машину», – сказав він. «Але ми просто мчимося на повній швидкості до краю».
«Зараз штучний інтелект все ще перебуває на початковій стадії розвитку. Боти, яких ми використовуємо сьогодні, надзвичайно вправні у виконанні певних когнітивних завдань, таких як обробка чисел у електронних таблицях або написання добре написаних електронних листів. Такі системи називаються «вузьким ШІ».
Але це ось-ось радикально зміниться. Залежно від того, кого ви запитаєте, через рік, кілька років чи десятиліття машинний інтелект досягне загального штучного інтелекту, або ЗШІ. Цей термін позначає поріг, за якого штучний інтелект досягає людського рівня інтелекту.
На цьому етапі можливості ШІ більше не будуть обмежені. Замість того, щоб вирішувати лише одне завдання за раз, він зможе вирішувати складні проблеми, що вимагають довгострокового планування, постановки цілей, оцінки та міркування в кількох галузях знань.
ЗШІ матимуть численні переваги над людьми. Їм не знадобляться перерви на сон чи прийом їжі. Їм також не доведеться витрачати роки на навчання, щоб здобути досвід. Вони просто зможуть перенести свої знання та навички на наступне покоління систем ЗШІ. Іншими словами, вони просто копіюватимуть та вставлятимуть їх.
Невдовзі після цього штучний інтелект досягне рівня «штучного суперінтелекту» або ШІР. Він зможе робити те, про що люди можуть лише мріяти, як-от лікування раку, досягнення холодного синтезу або подорожі до зірок. Він буде як боги.
Це утопія, якої з нетерпінням чекають ентузіасти ШІ. Але ця утопія ґрунтується на припущенні, що ці боги продовжуватимуть виконувати наші накази.
Забезпечення того, щоб це дійсно відбулося, виявилося надзвичайно складним технічним завданням. У дослідженнях штучного інтелекту це називається «зіставленням».
Гармонізації досягти практично неможливо, і ось чому: ми повинні заздалегідь передбачити, як «мислять» системи ASI, що трохи схоже на спробу передбачити, як мислитимуть розвинені інопланетяни. Навіть якщо нам вдасться нав'язати їм правила, ми не можемо точно передбачити, як вони їх інтерпретуватимуть та застосовуватимуть.
Ще одна проблема полягає в тому, що штучний інтелект може нам брехати. Навіть на цьому ранньому етапі розвитку він робить це постійно.
AGI або ASI були б здатні як на довгострокове планування, так і на обман. Вони могли б легко переконати нас, що вони відповідають нашим цілям, навіть коли це не так.
І ми не матимемо способу відрізнити правду від обману. Вже зараз багато внутрішніх процесів прийняття рішень у штучному інтелекті незбагненні для людей. «Ви можете створювати інтелектуальні комп’ютери, навіть не маючи уявлення, що, чорт забирай, ви робите», — сказав Соареш. «Ми беремо величезну обчислювальну потужність і застосовуємо її до справді величезної кількості даних, таким чином, що це якимось чином формує самі комп’ютери. Ніхто насправді не знає, що відбувається всередині цих систем».
І в міру свого розвитку, системи ASI можуть почати спілкуватися вигаданою, новою мовою, яку ми зовсім не розуміємо.
Деякі з цих процесів, можливо, вже відбуваються. Штучний інтелект, здається, розвиває дивні, автономні тенденції та сумнівні способи їх задоволення. ШІ Grok Ілона Маска ненадовго почав імпровізувати антисемітські образи та спонтанно прославляти Гітлера. Система штучного інтелекту Бінга намагалася розірвати шлюб журналіста New York Times.
«Зараз ми починаємо бачити перші попереджувальні знаки», — сказав Соареш. «Якщо зробити їх достатньо розумними, це буде негарно».
Ще одна проблема полягає в тому, що штучний інтелект може нам брехати. Навіть на цьому ранньому етапі розвитку він робить це постійно.
Холлі Елмор — виконавчий директор PauseAI, більш поміркованої версії руху «Зупинити ШІ». На відміну від Соареса, Елмор не впевнена, що поточна траєкторія розвитку ШІ обов’язково призведе до вимирання людства. Замість 95 відсотків вона оцінює ймовірність вимирання, відому в колах ШІ як «p(doom)», у 15–20 відсотків.
Ця оцінка узгоджується з поглядами багатьох інженерів, які працюють над розробкою штучного інтелекту. Ілон Маск також оцінює p(doom) приблизно в 20 відсотків. Генеральний директор Google Сундар Пічаї вважає, що ймовірність становить 10 відсотків.
Такі оцінки вважаються оптимістичними у спільноті, стурбованій потенціалом штучного інтелекту.
Але навіть без знищення людства, Елмор вважає, що штучний інтелект матиме катастрофічний вплив на якість нашого життя. «Він загрожує здатності людей самостійно приймати рішення», – сказала вона.
Її побоювання перегукуються з побоюваннями, висловленими в статті під назвою «Поступове позбавлення прав», написаній експертами зі штучного інтелекту з різних університетів та інститутів.
Ця робота попереджає про ризики суспільства, в якому інтелектуальні машини поступово замінюють людей.
«Уявіть собі сценарій, де всі люди практично живуть на смітниках», – сказала Катя Грейс, співзасновниця дослідницької групи AI Impacts, описуючи світ, яким керує штучний інтелект.
У нас не було б ні політичної, ні економічної влади, додала вона, і ми не змогли б зрозуміти, що насправді відбувається.
«Все відбуватиметься набагато швидше, ніж ми зможемо встигнути».
Елмор вважає, що розвиток штучного інтелекту слід призупинити, доки не буде розроблено план управління ризиками, які він створює. На її думку, це вимагатиме міжнародної угоди, але вона також розглядає можливість переїзду до Сакраменто для роботи над законодавчими ініціативами, які дозволили б призупинити розробку ШІ в Каліфорнії, де проводиться більшість досліджень у цій галузі.
Однак політики рухаються у прямо протилежному напрямку. Минулого місяця адміністрація Дональда Трампа оголосила про план дерегуляції досліджень штучного інтелекту.
У Сан-Франциско такі компанії, як OpenAI Сема Альтмана та Anthropic Даріо Амодея, стрімко розвиваються. Марк Цукерберг нещодавно заявив, що штучний суперінтелект (ШСІ) «вже на порозі», і намагається переманити провідних експертів з OpenAI, пропонуючи бонус за підписання контракту в розмірі 100 мільйонів доларів.
Елмор каже, що прихильники ШІ не відмовляються від перерви з технічних чи політичних причин. Це радше догматичне переконання. Один прихильник ШІ, за її словами, сказав їй, що він ніколи не помре, бо вірить, що ШІ увічнить його свідомість. Для деяких людей відмова від розробки ШІ означає відмову від вічного життя.
«Серед них є сильна надія на рай», — каже Елмор.
Навіть якщо багато експертів попереджають, що пекло набагато ймовірніше.
Підготувала: А. Ш.
Бонусне відео: