Ось як ЄС регулюватиме просунуті моделі ШІ, такі як ChatGPT
2 хв.

Ось як ЄС регулюватиме просунуті моделі ШІ, такі як ChatGPT

author avatar ProIT NEWS

Європейський Союз досяг попередньої згоди щодо обмежень, які мають впровадити щодо вдосконаленої моделі ChatGPT. Цей пакт вважається ключовою частиною першого у світі комплексного регулювання штучного інтелекту, повідомляє Bloomberg.

Згідно з документом ЄС, із яким ознайомилися журналісти видання, усі розробники систем штучного інтелекту загального призначення (потужних моделей, які мають широкий спектр можливого використання) повинні відповідати основним вимогам прозорості, якщо вони не надаються безкоштовно та з відкритим кодом.

До цих вимог належать такі:

  • Наявність політики допустимого використання.
  • Підтримка актуальної інформації про те, як вони тренували свої моделі.
  • Повідомляти докладний підсумок даних, використаних для навчання їхніх моделей.
  • Наявність політики поваги до закону про авторське право.

Згідно з документом, моделі, які становлять «системний ризик», підпадають під дію додаткових правил. ЄС визначить цей ризик на основі обсягу обчислювальної потужності, яка використовується для навчання моделі. Поріг встановлено для тих моделей, які використовують понад 10 трильйонів трильйонів (або септильйонів) операцій в секунду.

На думку експертів, наразі єдиною моделлю, яка автоматично відповідає цьому порогу, є GPT-4 від OpenAI. Виконавчий орган ЄС може визначити й інші показники залежно від розміру набору даних, чи є у них принаймні 10 тисяч зареєстрованих бізнес-користувачів у ЄС, чи яка кількість зареєстрованих кінцевих користувачів.

Ці надзвичайно здібні моделі повинні підписати кодекс поведінки, поки Європейська комісія розробляє більш узгоджені та довготривалі засоби контролю. Тим, хто не підпише, доведеться довести комісії, що вони дотримуються Закону про штучний інтелект.

Ці моделі також повинні:

  • Повідомляти про споживання енергії.
  • Виконувати змагальні тести (внутрішні або зовнішні).
  • Оцінювати й зменшувати можливі системні ризики та повідомляти про будь-які інциденти.
  • Переконатися, що вони використовують адекватні засоби контролю кібербезпеки.
  • Повідомити інформацію, яка використовується для точного налаштування моделі та її системної архітектури.
  • Дотримуватися більш енергоефективних стандартів, якщо вони розроблені.

Попередню угоду ще має схвалити Європейський парламент і 27 держав-членів ЄС. Франція та Німеччина раніше висловлювали занепокоєння щодо застосування занадто великого регулювання до моделей штучного інтелекту загального призначення та ризику знищення європейських конкурентів, таких як французький Mistral AI або німецький Aleph Alpha.

Наразі Mistral, швидше за все, не потребуватиме контролю загального призначення штучного інтелекту, оскільки компанія все ще перебуває на стадії досліджень і розробок, заявила державний секретар Іспанії Карме Артігас.

Раніше ProIT повідомляв, що Meta й IBM засновують Альянс штучного інтелекту.

Як генеративний штучний інтелект прямо зараз змінює ритейл, читайте у нашому матеріалі.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодну публікацію!‌‌‌‌

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.