Компанії повинні знати, як пояснити та задокументувати, як їхні системи ШІ приймають рішення

«Vijesti» опублікували на своєму порталі в середині червня анкету, мета якої полягала в тому, щоб отримати враження громадськості про регулювання штучного інтелекту, їхню думку про те, як цю технологію можна регулювати, а також про роль великих компанії, які керують цими системами.

6417 переглядів 41 реакцій 0 коментар(ів)
Ілюстрація, фото: Shutterstock
Ілюстрація, фото: Shutterstock
Застереження: переклади здебільшого виконуються за допомогою перекладача штучного інтелекту і можуть бути не 100% точними

Системи штучного інтелекту схожі на «чорні ящики» — ми знаємо, що входить і що виходить, але те, що відбувається всередині, часто залишається загадкою навіть для їхніх творців. Як регулювати те, що ми не до кінця розуміємо?

Так, питання регулювання штучного інтелекту проблематизує докторант у галузі економічних ефектів ШІ та член Чорногорської асоціації штучного інтелекту Міодраг Вуйкович.

Вуйкович
ВуйковичФото: приватний архів

«Vijesti» опублікували на своєму порталі в середині червня анкету, мета якої полягала в тому, щоб отримати враження громадськості про регулювання штучного інтелекту, їхню думку про те, як цю технологію можна регулювати, а також про роль великих компанії, які керують цими системами.

Хоча це не репрезентативна вибірка, найбільша кількість відповідей передає те саме повідомлення: штучний інтелект має бути суворо регламентованим, щоб «працювати» на благо громадян, оскільки наслідки потенційних зловживань будуть великими.

Показово, що анкета, яку переглянули майже 40 тисяч разів, згенерувала менше 50 відповідей, що свідчить про те, що це питання не є пріоритетним для громадян, які цікавляться штучним інтелектом.

«Які сьогодні найважливіші виклики в регулюванні технологій штучного інтелекту і як політики можуть вирішити ці виклики, щоб забезпечити як інновації, так і громадську безпеку?»

У сучасному світі штучний інтелект (ШІ) стає все більш поширеною темою не лише в технічних колах, а й у повсякденному житті. Сундар Пічаї, генеральний директор Google, сказав те, що ідеально підсумовує поточну ситуацію: «Штучний інтелект надто важливий, щоб його не регулювати, і надто важливий, щоб його не регулювати належним чином».

Але як регулювати те, що розвивається настільки швидко, що наші закони ледве встигають? Це як спроба зловити блискавку голими руками – м’яко кажучи складно.

Системи штучного інтелекту схожі на «чорні ящики» — ми знаємо, що входить і що виходить, але те, що відбувається всередині, часто залишається загадкою навіть для їхніх творців. Як регулювати те, що ми не до кінця розуміємо?

Додайте до цього той факт, що ШІ не знає кордонів. Алгоритм, розроблений у Кремнієвій долині, може бути реалізований у Берліні чи Токіо миттєво. Це означає, що нам потрібен глобальний підхід до регулювання, що є непростим завданням, враховуючи різні культурні, економічні та політичні контексти в усьому світі.

Збалансування інновацій і безпеки — ще одна проблема. Чи можна керувати автомобілем, натиснувши одну ногу на газ, а іншу на гальмо? Занадто сильне регулювання може уповільнити прогрес, а занадто мало регулювання може призвести до серйозних ризиків.

ШІ також відкриває складні етичні питання, які важко регулювати. Кеті О’Ніл, автор книги Weapons of Math Destruction, попереджає: «Алгоритми вбудовують існуючі упередження в код із потенційно руйнівними результатами. Кожен повинен сумніватися в їх справедливості, а не лише комп’ютерники та програмісти».

Зіткнувшись із цими проблемами, політики повинні мислити нестандартно. Один із підходів полягає у створенні «пісочниці» — контрольованих просторів, де можна тестувати нові технології ШІ та коригувати правила на основі фактичних результатів.

Прозорість є ще одним ключовим фактором. Компанії повинні знати, як пояснити та задокументувати, як їхні системи ШІ приймають рішення та на основі яких даних.

Необхідна міжнародна співпраця. Такі ініціативи, як Принципи ОЕСР щодо ШІ або Принципи ООН щодо етичного використання ШІ, є кроком у правильному напрямку, забезпечуючи глобальну основу для відповідального розвитку ШІ.

Також важливо залучати до процесу розробки нормативно-правових актів широке коло експертів. Це не просто робота для розробників – нам потрібні етики, юристи, економісти, соціологи та представники різних спільнот, на які ШІ може впливати.

Замість того, щоб встановлювати конкретні технічні вимоги, регулятори повинні визначати бажані результати з точки зору безпеки, справедливості та прозорості. Це забезпечить гнучкість, необхідну для просування інновацій.

Освіта дуже важлива. Чим більше ми розуміємо про ШІ, тим краще ми будемо готові приймати обґрунтовані рішення щодо його використання та регулювання.

Нарешті, заохочення саморегулювання в індустрії ШІ може бути корисним підходом, оскільки він добре зарекомендував себе в деяких інших сферах. Багато провідних технологічних компаній уже прийняли етичні принципи розвитку ШІ, але важливо, щоб ці ініціативи супроводжувалися надійними механізмами соціальної відповідальності.

Як сказав Бред Сміт, президент Microsoft, «нам потрібно переконатися, що штучний інтелект залишається під контролем людини. Незалежно від того, чи це уряд, військові чи будь-яка інша організація, яка розглядає можливість використання штучного інтелекту, надзвичайно важливо, щоб люди залишалися під контролем, щоб ми могли сповільнити за потреби вимкніть або вимкніть технологію».

Регулювання технологій ШІ – складне, але необхідне завдання. Збалансовуючи інновації та безпеку, прозорість і гнучкість, міжнародну співпрацю та місцеві потреби, ми можемо створити структуру, яка забезпечить відповідальний розвиток ШІ. Зрештою, мета полягає не лише у створенні розумніших машин, а й у мудрішому суспільстві.

«Як ви бачите роль міжнародного співробітництва в регулюванні штучного інтелекту та які кроки необхідно зробити для створення єдиних глобальних стандартів?»

ШІ не знає кордонів. Ось чому міжнародна співпраця в регулюванні штучного інтелекту є не тільки бажаною, але й необхідною.

Без глобальної співпраці ми могли б опинитися в ситуації, подібній до податкових гаваней, тільки цього разу з «раями ШІ». Уявіть собі, що країни пропонують м’яке регулювання штучного інтелекту, щоб залучити компанії, створюючи небезпечну «гонку на дно» у стандартах. Це не буде добре для користувачів і, зрештою, не буде добре для інновацій.

Як може виглядати міжнародна співпраця? Хорошим прикладом є CERN, де вчені з усього світу працюють разом над вирішенням складних фізичних проблем. Так само ми могли б мати глобальну команду експертів, які б працювали над проблемами ШІ.

Стандартизація – ще один важливий аспект. Уявіть собі, якби кожна країна мала різні стандарти для систем штучного інтелекту – це було б так само, як мати різні розетки для кожного електроприладу в кожній країні. Глобальні стандарти необхідні для того, щоб системи штучного інтелекту «розмовляли» одна з одною та існувала чесна ринкова конкуренція.

Деякі ризики, пов’язані зі штучним інтелектом, такі як автономна зброя, потребують глобальної координації. Подібно до того, як світ вирішив проблему ядерної зброї, він міг би зробити все можливе, щоб вирішити проблему регулювання потенційно небезпечних технологій ШІ.

Як ми починаємо? Першим кроком має стати створення міжнародного органу з координації політики щодо ШІ. Подумайте про це як про «Організацію Об’єднаних Націй за ШІ». Цей орган міг би діяти під егідою справжньої ООН, подібно до Міжурядової групи експертів зі зміни клімату (IPCC).

Наступним кроком буде визначення спільних принципів. Це будуть основні етичні принципи, якими керуватимуться розробка та застосування ШІ. Організація економічного співробітництва та розвитку (ОЕСР) вже зробила хороший старт зі своїх Принципів ШІ, які прийняли 42 країни.

Гармонізація нормативних актів між різними країнами є амбітною, але необхідною метою. Закон ЄС про штучний інтелект може слугувати моделлю для інших регіонів. Знаєте, як кажуть, що відбувається у Вегасі, залишається у Вегасі? Коли мова йде про правила ЄС, часто трапляється навпаки, те, що відбувається в Брюсселі, поширюється на решту світу. Це відоме як «брюссельський ефект».

Розробка глобальних технічних стандартів безпеки, конфіденційності та надійності систем ШІ є важливою частиною цієї головоломки. Це було б схоже на світові стандарти безпеки автомобілів – незалежно від того, де ви його купуєте, ви знаєте, що він відповідає певним критеріям безпеки.

Крім того, важливо налагодити механізми обміну інформацією. Платформа, схожа на систему звітування про авіаційну безпеку, може бути використана для обміну інформацією про інциденти штучного інтелекту та найкращі практики.

Не можна забувати і про країни, що розвиваються. Розвиток їхньої спроможності регулювати ШІ є надзвичайно важливим для справді глобального підходу.

Нормативна база повинна мати можливість швидко адаптуватися до технологічних змін. Це схоже на встановлення правил для гри, яка постійно змінюється — ви повинні бути готові коригувати правила на льоту.

Для деяких критичних аспектів штучного інтелекту, таких як повністю автономні системи зброї, нам знадобляться юридично обов’язкові міжнародні угоди. Кампанія «Зупиніть роботів-вбивць» є прикладом глобального руху, який працює на досягнення цієї мети.

Нарешті, нам потрібен спосіб відстежувати розробку та застосування штучного інтелекту в усьому світі. Нам потрібна глобальна «інформаційна панель» для штучного інтелекту, яка б показувала нам, де ми знаходимося і куди ми йдемо.

Антоніу Гутерріш, Генеральний секретар ООН, резюмував цю потребу в глобальній співпраці, сказавши: «Я вітаю заклики до створення нового органу ООН для підтримки колективних зусиль з управління цією надзвичайною технологією... Новий орган ООН об’єднає міжнародному співтовариству доступні експертиза та позиція».

Отже, як бачимо, регулювання ШІ не є завданням однієї країни чи однієї групи експертів. Це глобальний виклик, який вимагає глобальної співпраці. Так само, як ми об’єдналися, щоб боротися зі зміною клімату або досліджувати космос, ми повинні об’єднатися, щоб керувати розробкою ШІ. Зрештою, ШІ має потенціал змінити наш світ у спосіб, який ми тільки починаємо розуміти. Наша відповідальність полягає в тому, щоб ця трансформація була на благо всього людства.

«Якими способами можна інтегрувати прозорість і підзвітність у системи штучного інтелекту, щоб зміцнити суспільну довіру, і які регулятивні заходи необхідні для дотримання цих принципів?»

Уявіть собі світ, де комп’ютери приймають рішення, які впливають на ваше здоров’я, фінанси та навіть вашу свободу. Ласкаво просимо в сьогодення! Штучний інтелект стає все більш важливою частиною нашого життя, і разом з цим виникає потреба забезпечити його надійність, справедливість і етичність. Але як цього досягти?

По-перше, подумайте про ШІ як про чорну скриньку, яка приймає рішення без пояснень. Вам не подобається ця ідея? Ну, ось тут і вступає в гру «Explanable AI» або XAI. Це як додати вікно до чорного ящика, через яке ми можемо бачити, як він думає. Існує інструмент під назвою LIME (Local Interpretable Model-agnostic Explanations), який може пояснити, чому система штучного інтелекту прийняла певне рішення, у спосіб, зрозумілий нам, простим смертним.

Системи ШІ повинні мати інструкцію з експлуатації. Як і будь-яка інша технологія. Google запустив проект «Картки моделей», який є ніби особистою карткою для кожної моделі ШІ. Він розповідає вам, для чого потрібна модель, наскільки вона добре виконує свою роботу та які її слабкі сторони. Це ніби у вас є детальна біографія кожної системи ШІ.

Компанії, що розробляють ШІ, повинні регулярно публікувати, як працюють їхні системи, включно з усіма помилками, які вони допускають. OpenAI, наприклад, робить це регулярно. Хоча, треба визнати, деякі «секретні рецепти» своїх останніх моделей вони все ще приховують.

Тепер було б добре, якби кожна система штучного інтелекту мала свій власний «чорний ящик», як у літаках. Це те, що ми називаємо аудиторським слідом. доктор. Тімніт Гебру, відомий експерт з етики штучного інтелекту, каже, що без нього ми не можемо знати, хто винен, коли штучний інтелект робить помилку.

Незалежно від того, наскільки «розумними» є системи штучного інтелекту, люди повинні контролювати їх. Навіть якщо у вас є дуже розумний помічник, ви все одно хочете, щоб бос (у цьому випадку людина) мав останнє слово, особливо коли йдеться про важливі рішення. . Європейський Союз серйозно ставиться до цього й у своєму Законі про штучний інтелект наполягає на людському нагляді за системами ШІ високого ризику.

І як ми можемо регулювати ШІ? Ось кілька ідей:

По-перше, перш ніж ми випустимо систему штучного інтелекту «в дику природу», необхідно провести оцінку впливу. Це як дослідження впливу на навколишнє середовище, але для ШІ. Канада вже запровадила таке законодавство для своїх державних установ, які використовують ШІ.

Далі ми могли б встановити мінімальні стандарти для пояснюваності рішень ШІ. ЄС уже зробив крок у цьому напрямку зі своїм «правом на пояснення» щодо автоматизованих рішень, які суттєво впливають на людей.

Можливо, ми також могли б запровадити систему сертифікації систем штучного інтелекту, щось на кшталт позначки «Енергоефективне» на побутовій техніці. IEEE вже має «Етичну сертифікацію AI» як знак якості для систем AI.

І останнє, але не менш важливе: ми маємо захистити викривачів — людей, які повідомляють про неетичні чи небезпечні методи розробки ШІ. Це запобіжний клапан, який допомагає нам підтримувати підзвітність системи.

Регулювання штучного інтелекту все ще перебуває в зародковому стані, але ми не починаємо з нуля. Ми маємо багатий досвід у регулюванні інших технологій і видів діяльності, які ми можемо використовувати. Це як будувати новий будинок – можливо, ми ніколи раніше не будували, але знаємо основні принципи будівництва.

По суті, мета всіх цих механізмів полягає в тому, щоб ШІ, незважаючи на його потужність, залишався інструментом, який служить людям, а не навпаки. Зрештою, ми хочемо, щоб штучний інтелект був не тільки розумним, але й надійним, чесним і етичним партнером у нашому все більш технологічному світі.

«Якою має бути роль етики штучного інтелекту в процесі регулювання та як етичні міркування можна систематично інтегрувати в розробку та впровадження штучного інтелекту?»

Етика в штучному інтелекті — це не просто прикраса, яку ми додаємо в кінці, це основа, на якій ми будуємо всю структуру. Як арматура в бетоні - непомітна, але важлива для міцності та стабільності. Коли ми говоримо про регулювання штучного інтелекту, саме етика гарантує, що права людини, гідність і добробут будуть у центрі уваги.

Як етика впливає на ШІ на практиці? По-перше, це допомагає нам встановити межі. Так само, як у нас є правила щодо того, де ми можемо будувати, етика говорить нам, де і як ми можемо використовувати ШІ. Наприклад, у сфері охорони здоров’я етичні питання щодо конфіденційності пацієнтів і справедливого доступу до медичної допомоги визначають, як системи ШІ використовуються для діагностики та лікування.

Етика також керує інноваціями. Етика заохочує нас розробляти системи штучного інтелекту, які б не просто виконували те, що ми їм наказуємо робити, а те, що було б дійсно корисним і корисним для суспільства.

А як щодо оцінки ризику?. Етичний аналіз допомагає нам визначити потенційні проблеми, перш ніж ми випустимо систему штучного інтелекту в «дикий» реальний світ.

Як переконатися, що етика дійсно вбудована в системи ШІ? Ось кілька ідей:

По-перше, нам потрібні етичні кодекси. Глобальна ініціатива IEEE вже поклала хороший початок, забезпечивши комплексну етичну основу для розробки ШІ.

Мультидисциплінарні команди також є ключовою частиною історії. Команди штучного інтелекту мають включати етиків, соціологів, юристів, економістів та інших експертів на додаток до технічного персоналу.

«Етичний дизайн» є ще одним важливим поняттям. Це як будувати міст, маючи на увазі не лише його функцію, але й те, як він впишеться в навколишнє середовище та служитиме суспільству. У світі ШІ це означає думати про етичні наслідки на кожному етапі розробки.

І останнє, але не менш важливе, нам потрібна прозорість алгоритму. Людям потрібно знати, як ШІ приймає рішення, особливо коли ці рішення впливають на їх життя.

Інтеграція етики в регулювання та розвиток штучного інтелекту є не лише моральним обов’язком, це практична необхідність. Це вимагає постійної співпраці між усіма залученими особами – регуляторними органами, промисловістю, науковими колами та громадянським суспільством.

«Чи можемо ми обговорити потенційний вплив правил штучного інтелекту на малі та середні підприємства (МСП) і стартапи? Як можна розробити правила, щоб підтримувати інновації, забезпечуючи відповідність?»

Давид і Голіаф. Це приблизно те, де малі та середні підприємства (МСП) і стартапи опиняються проти великих компаній у світі штучного інтелекту (ШІ), особливо коли мова йде про регулювання. Як зробити так, щоб ця «рибка» не тільки вижила, але й росла і розвивалася в морі інновацій ШІ?

Суворі правила вимагають значних інвестицій у відповідність ресурсам, що особливо важко для невеликих компаній. Наприклад, коли GDPR набув чинності в ЄС, багато малих підприємств зіткнулися зі значними витратами на впровадження.

Регулювання конфіденційності та використання даних може обмежити доступ малого бізнесу та стартапів до великих наборів даних, необхідних для розробки ШІ. Це особливо складно в таких секторах, як охорона здоров’я, де великі високоякісні набори даних є критично важливими для розробки точних моделей ШІ.

А щодо конкуренції, то це як невеликий місцевий рітейлер конкурує з великими мережевими магазинами. Більшим компаніям легше покривати витрати на відповідність, що дає їм перевагу на ринку.

Але не все так чорно. Добре розроблені правила можуть бути знаком якості, що підвищує довіру споживачів. Це особливо важливо в чутливих сферах, таких як фінансові послуги чи охорона здоров’я. Сертифікат безпеки їжі в ресторані може дати вам перевагу над конкурентами.

Як тоді розробити регулювання, яке підтримує інновації? Ось кілька ідей:

  1. Пропорційний підхід: нам потрібні менш суворі вимоги для менш ризикованих програм ШІ та невеликих компаній. Закон ЄС про штучний інтелект є хорошим прикладом цього, класифікуючи системи штучного інтелекту відповідно до рівня ризику.
  2. Регуляторна пісочниця: у світі штучного інтелекту це означає створення безпечного простору, де стартапи зможуть тестувати свої інноваційні ідеї з меншою кількістю нормативних обмежень. Управління з питань фінансової поведінки Великобританії є піонером у цьому підході, коли йдеться про фінансові послуги.
  3. Підтримка відповідності: надайте ресурси, вказівки та інструменти, щоб допомогти невеликим компаніям дотримуватися правил. Наприклад, Європейська комісія створила платформу штучного інтелекту на вимогу, яка надає ресурси та досвід для малих і середніх підприємств і стартапів, які розробляють рішення ШІ.
  4. Зосередженість на результатах: регулювання дизайну, яке зосереджується на бажаних результатах, а не на конкретних технологіях, що забезпечує гнучкість підходу.
  5. Процес участі: залучайте представників малого та середнього бізнесу та спільноти стартапів до процесу створення державної політики, щоб гарантувати, що їхні потреби та проблеми враховуються. Хорошим прикладом такого підходу є Фінляндія, де її стратегія штучного інтелекту розроблена в тісній співпраці з представниками галузі, зокрема стартапів.

Збалансувати інновації та регулювання в секторі штучного інтелекту – це як ходити по канату. Мета — створити екосистему, яка заохочує інновації, захищає суспільні інтереси та забезпечує чесну ринкову конкуренцію. Це вимагає постійної співпраці між усіма залученими особами – регуляторними органами, промисловістю, науковими колами та громадянським суспільством.

Зрештою, ми хочемо світ, де могли б функціонувати і Давид, і Голіаф. Світ, у якому невеликі інноваційні компанії можуть рости та розвиватися, пропонуючи нам нові захоплюючі технології штучного інтелекту, одночасно захищаючи суспільні інтереси та забезпечуючи чесну гру для всіх. Це непросте завдання, але воно необхідне, якщо ми хочемо використовувати весь потенціал революції ШІ.

Бонусне відео: