Регіональна служба зайнятості в Галісії, Іспанія, використовує платформу на основі штучного інтелекту (ШІ), яка автоматично класифікує оголошення про роботу та оцінює працевлаштування кандидатів.
Використання штучного інтелекту в державних службах зайнятості не є чимось новим, і Організація економічного співробітництва та розвитку (ОЕСР) опублікувала минулого року звіт з цього питання, наводячи аналогічні приклади з Бельгії, Канади, Фінляндії, Німеччини, Люксембургу тощо.
Такі системи, пояснюють вони, дозволяють подальше покращення діяльності та послуг для шукачів роботи, людей, які ризикують втратити роботу, та роботодавців.
У процесі розвитку штучний інтелект пропонує численні можливості для державних служб зайнятості, але вони також попереджають про певні ризики, такі як ризик упередженості та необхідність більшої прозорості алгоритмів.
У Чорногорії штучний інтелект вже використовується в державному секторі, тоді як у сфері зайнятості подібних прикладів немає. Незалежно від сфери, експерти попереджають про одне й те саме: якщо державний орган використовує штучний інтелект, громадяни повинні знати про це постійно, як і в якій мірі.
Без правової бази штучний інтелект у державному управлінні залишається в «сірій зоні», використовується, але без чіткої підзвітності. Це відкриває простір для помилок, зловживань та нерівного ставлення до громадян. Якщо алгоритм рекомендує відхилити запит на субсидію або видати дозвіл, громадянин повинен мати право знати, на основі яких даних та критеріїв було прийнято рішення.
«Це має стати частиною гарантованої законом прозорості», – каже він. Мухамед Гьокай, колишній президент Ради Агентства із захисту персональних даних та вільного доступу до інформації та експерт у цих галузях.
«Вільний доступ до інформації більше не може обмежуватися документами, протоколами та офіційними актами. У 21 столітті інформація суспільного значення також включає алгоритми цифрових процедур, які впливають на рішення щодо працевлаштування, соціальних виплат, пріоритетів охорони здоров’я чи міських планів... Громадяни мають право знати, чи використовував певний орган державної влади алгоритмічну систему, яка саме система була використана (наприклад, інструмент аналізу ризиків, автоматичний відбір кандидатів, прогнозування поведінки користувачів...), і якою мірою ця система вплинула на остаточне рішення», – сказав Гьокай «Вісті».
Зміцнення довіри
Запровадження юридичного зобов'язання публікувати такі дані, за словами Гьокая, означатиме зміцнення довіри між громадянами та інституціями.
«Прозорість не слід розглядати як загрозу, а як фундаментальну передумову демократичної легітимності в цифрову епоху. Але підзвітність у цифрових рішеннях має бути чітко визначена».
Наразі, за його словами, жодна країна світу не інтегрувала повністю систему штучного інтелекту в рамки закону про вільний доступ до інформації. Однак, додав він, це не означає, що нам слід чекати на рішення ззовні.
«Навпаки, є історична можливість стати піонерами у стандартизації взаємозв’язку між штучним інтелектом та прозорістю державних органів», – каже Гьокай.
Що означає нормативне регулювання?
Нормативне регулювання використання ШІ в державних установах, пояснює співрозмовник "Вістей", має визначити обов'язок державних органів звітувати про використання алгоритмів, обов'язок оприлюднювати основну інформацію про призначення, спосіб функціонування та ризики системи, обмеження, коли йдеться про дані, які можуть загрожувати безпеці, конфіденційності чи комерційній таємниці, а також механізми моніторингу використання ШІ та відповідальність державних органів.
Це, за його словами, встановило б баланс між прозорістю та захистом конфіденційної інформації. За його словами, саме в цьому полягає суть сучасного права на інформацію.
«Без правової бази штучний інтелект у державному управлінні залишається в «сірій зоні», використовується, але без чіткої підзвітності. Це відкриває простір для помилок, зловживань та нерівного ставлення до громадян. Якщо алгоритм рекомендує відхилити запит на субсидію або видати дозвіл, громадянин повинен мати право знати, на основі яких даних та критеріїв було прийнято рішення».
Стандартизуючи цю сферу, держава, за його словами, чітко покаже, що технології служать людям, а не навпаки.
«Прозорість цифрових процесів має стати основою управління державним сектором. Сьогодні людство використовує цілий спектр передових систем штучного інтелекту, і вони вже впливають на прийняття рішень в освіті, журналістиці, управлінні та бізнесі, а це означає, що їх використання в державних органах має підлягати громадському контролю».
Впровадження штучного інтелекту в систему державного управління, каже співрозмовник «Вістей», — це не просто технічне питання, а «глибока етична, правова та соціальна проблема».
«Якщо ми хочемо зберегти довіру громадян, ми повинні забезпечити, щоб кожне рішення, прийняте за допомогою алгоритму, було поясненим, перевіреним та прозорим».
Окрім даних, вільний доступ до алгоритмів
Гьокай вважає, що Чорногорія не повинна чекати на рішення з-за кордону, а повинна створити власну нормативну базу, яка захищатиме права громадян і зробить державні органи відповідальними в цифрову епоху.
Вільний доступ до інформації, як він сказав, означає, що доступ до алгоритмів також має бути вільним.
«Прозоре та відповідальне використання штучного інтелекту в державному управлінні реалізується, коли алгоритмічні системи, що використовуються для прийняття рішень, що мають юридичні наслідки для особи, створюються за допомогою системи штучного інтелекту, таким чином, що громадяни інформуються про те, що в процедурі було використано штучний інтелект, або що вказано орган, відповідальний за його використання, який саме є фізичною особою, яка контролювала або підтверджувала рішення. Таким чином, запобігається можливості прийняття рішень виключно на основі алгоритмів, без людського контролю».
Автоматизоване рішення, зміст якого є результатом алгоритмічної обробки даних, додає він, завжди має підлягати нагляду, аудиту та праву громадян на інформацію про технічну специфікацію чи пояснення.
«В іншому випадку відбувається автоматизована обробка персональних даних без належного захисту, що ставить під загрозу право на недоторканність приватного життя та захист персональних даних, гарантоване статтею 8 Європейської конвенції з прав людини. Лише завдяки чітко визначеним межам між автоматизованими процесами та людським наглядом можна зберегти довіру громадян та забезпечити, щоб цифрова трансформація державного управління служила суспільству, а не навпаки».
«ТЕСТ НА ПОШКОДЖЕННЯ»
Новий проект Закону про вільний доступ до інформації, підготовлений Міністерством державного управління, передбачає запровадження так званого «тесту на шкідливість» під час вирішення питання про доступ до інформації, що містить персональні дані.
Хоча зазначається, що таке рішення відповідає практиці деяких держав-членів Європейського Союзу, Гьокай ставить під сумнів його відповідність основним принципам захисту персональних даних.
«Відповідно до європейських стандартів Загального регламенту про захист даних (GDPR) та практики Європейського суду з прав людини, обробка персональних даних може здійснюватися лише на основі чіткої правової основи, тобто закону або явної згоди особи. Запровадивши тест на шкоду як дискреційну оцінку посадової особи, створюється потенційна правова основа для ширшого тлумачення та зловживання правом на доступ до інформації на шкоду конфіденційності осіб», – каже він, додаючи, що якщо штучний інтелект буде включено до того ж процесу, або як інструмент аналізу, або як механізм, що надає рекомендації чи автоматизовані рішення, потенційно може виникнути додаткова складність.
«За таких обставин існує реальна небезпека того, що рішення щодо прав громадян приймаються без людського нагляду, персональні дані обробляються без належної правової основи, а оцінка шкоди стає інструментом для обґрунтування автоматизованих рішень», – сказав він, додавши, що такий розвиток подій буде прямим порушенням статті 8 Європейської конвенції з прав людини та суперечитиме основоположним принципам конфіденційності та захисту персональних даних.
Тому, як він сказав, необхідно зобов’язати органи державної влади чітко інформувати громадян, коли рішення частково або повністю ґрунтується на використанні системи штучного інтелекту.
«Необхідно встановити обов’язковий людський нагляд за будь-яким автоматизованим рішенням, яке може вплинути на права та обов’язки громадян, та заборонити виключно автоматизоване прийняття рішень в адміністративних процедурах щодо основоположних прав».
Коли йдеться про застосування інституту «тесту на шкідливість», додає він, обмежте його випадками, чітко визначеними законом, і забезпечте, щоб він не використовувався як правова підстава для обробки персональних даних.
«Нарешті, як додатковий механізм, необхідно створити публічний реєстр використання штучного інтелекту в державному секторі, що підвищило б прозорість та довіру громадян», – каже він.
Відкриті дані на підтримку економічного розвитку
Окрім проблеми використання штучного інтелекту, за словами Гьокая, Чорногорія стикається з майже повною відсутністю системи відкритих даних.
«Хоча відкриті дані роками були основою цифрової економіки в ЄС, ця сфера не набула розвитку в нашій країні, головним чином тому, що новий проект Закону про відкриті дані не пропонує конкретних механізмів впровадження, а також не вирішує питання впровадження. Велика кількість документів державних органів досі знаходиться в паперових архівах і не оцифровано. Ті, що зберігаються, здебільшого не перетворені на машинозчитувані формати, що перешкоджає їх використанню для аналітичних, дослідницьких та розробницьких цілей».
За оцінками Європейської комісії, за словами Гьокая, країни ЄС щорічно отримують економічний внесок понад 200 мільярдів євро завдяки системі відкритих даних, новим цифровим послугам, інноваціям стартапів, науковим дослідженням та вдосконаленню державної політики.
«Однак Чорногорія не зробила жодних суттєвих кроків у цьому напрямку і таким чином втрачає значні ресурси, які могли б стати потужною підтримкою для бюджету країни та її цифрового розвитку».
Щоб ця сфера ожила, каже він, необхідно, щоб Закон про відкриті дані передбачав формування комісії з відкритих даних, завданням якої було б не лише моніторинг політики відкритих даних та правового застосування цієї справи, а й розробка економічної моделі її реалізації.
Він каже, що в такому разі потрібно буде розділити компетенції, які зараз об'єднані в AZLP.
Бонусне відео: