Нові правила прозорості для моделей штучного інтелекту в ЄС від сьогодні

Згідно з новими правилами, розробники повинні розкривати, як працюють їхні моделі та які дані використовувалися для їх навчання.

4078 переглядів 1 коментар(ів)
Ілюстрація, фото: Shutterstock
Ілюстрація, фото: Shutterstock
Застереження: переклади здебільшого виконуються за допомогою перекладача штучного інтелекту і можуть бути не 100% точними

Нові правила прозорості для моделей штучного інтелекту (ШІ) загального призначення, таких як ChatGPT та Gemini, набули чинності сьогодні по всьому Європейському Союзу в рамках знакового закону про штучний інтелект, прийнятого минулого року.

Згідно з новими правилами, розробники повинні розкривати, як працюють їхні моделі та які дані використовувалися для їх навчання, повідомляє Hina.

Для особливо просунутих моделей, які вважаються потенційними ризиками для населення, заходи безпеки також повинні бути задокументовані.

Штучний інтелект загального призначення стосується систем, які можна використовувати для широкого кола цілей, таких як генерація тексту, аналіз мови або написання коду.

Закон частково спрямований на кращий захист авторських прав.

Розробники тепер повинні повідомляти про джерела своїх навчальних даних та про те, чи використовували вони автоматизований збір даних з веб-сайтів, а також окреслити кроки, вжиті для захисту інтелектуальної власності.

Бонусне відео: