Техгіганти домовились вбудувати у свої ШІ «вимикач» у разі критичних ризиків

  • 22 мая, 14:00
  • 3834
  • 0

Великі технологічні компанії з усього світу, як-от: Amazon, Google, Meta, Microsoft, OpenAI та Samsung, та уряди країн домовилися про нові правила безпеки штучного інтелекту під час міжнародного саміту зі штучного інтелекту в Сеулі. Про це йдеться в заяві учасників саміту та повідомленні CNBC.

Деталі

  1. Кожен розробник моделей штучного інтелекту оприлюднить рамки безпеки, в яких буде описано, як вони оцінюватимуть потенційні ризики своїх передових моделей.
  2. Ці рамки безпеки встановлюватимуть «червоні лінії» — неприпустимі ризики. Це можуть бути, зокрема, автоматизовані кібератаки або розробка біологічної зброї.
  3. Для реагування на такі екстремальні обставини компанії також погодилися вбудувати у свої ШІ «вимикач», фактично дозволяючи зупинити розробку в разі катастрофи.
  4. Компанії домовилися взяти до уваги думку «довірених осіб», включаючи їхні уряди, перед тим як оприлюднити ці обмеження. Це відбудеться до наступного саміту зі штучного інтелекту, запланованого на початок 2025 року у Франції.
  5. Ці зобов’язання стосуються лише найпотужніших систем штучного інтелекту, які можуть генерувати текст і зображення, схожі на людські. Саме через такі передові моделі уряди, регулятори та лідери технологічних компаній усе більше турбуються про ризики.

Угода розширює попередні зобов’язання, взяті на себе урядами та компаніями, що займаються розробкою генеративного програмного забезпечення ШІ, у листопаді минулого року.

Контроль технології

У той самий час Європейський Союз затвердив правила щодо регулювання штучного інтелекту, які європарламентарі підтримали два місяці тому. Європейський закон набуде чинності вже наступного місяця.

На відміну від підходу США, який ґрунтується на добровільному дотриманні, закон ЄС більш комплексний. Китай же, навпаки, зосереджується на тому, щоб штучний інтелект допомагав підтримувати стабільність у суспільстві та державний контроль.

Закон про ШІ встановлює суворіші вимоги щодо прозорості для систем штучного інтелекту з високим ступенем ризику, тоді як вимоги до загальнодоступних моделей ШІ будуть менш жорсткими.

Також документ обмежує використання урядами технологій біометричного спостереження реального часу в громадських місцях. Застосовувати такі системи дозволено лише у випадках окремих злочинів, запобігання терористичним атакам і розшуку підозрюваних в особливо тяжких злочинах.

Повністю нове законодавство набуде чинності у 2026 році, проте певні обмеження діятимуть уже за пів року після офіційного набуття. Зокрема йдеться про заборону використання ШІ для соціальної оцінки громадян, прогнозування злочинності та масового збору даних облич з інтернету чи відеокамер. Обов’язки щодо загальнодоступних моделей ШІ запрацюють через 12 місяців, а правила для ШІ-систем, вбудованих у регульовану продукцію – через 36 місяців.

Штрафи за порушення законодавства можуть становити від €7,5 млн або 1,5% обігу до €35 млн або 7% світового обігу залежно від виду порушення.


0 комментариев
Сортировка:
Добавить комментарий