Італійський регулятор Garante, який займається контролем захисту персональних даних, оприлюднив перелік вимог до компанії OpenAI — вона має виконати їх для того, щоб створений чат-бот ChatGPT зміг знову запрацювати в країні. Більшість вимог необхідно виконати вже до 30 квітня.
Раніше італійський регулятор Garante тимчасово обмежив роботу OpenAI через питання, пов’язані з обробкою персональних даних, і почав розслідувати діяльність компанії через можливе порушення прав користувачів. У відповідь OpenAI зупинила роботу ChatGPT в Італії. У свою чергу Garante висунув конкретні вимоги до авторів робота, більшість з яких потрібно виконати до кінця місяця – тільки після цього регулятор може зняти обмеження, і робот знову буде доступний. Сьогодні в OpenAI вітали новину. У компанії заявили, що раді, що відомство переглянуло свою заборону і мають намір співпрацювати для забезпечення доступу італійців до ChatGPT.
Як повідомляє Reuters, Італія стала першою західноєвропейською країною, яка взялася запроваджувати обмеження щодо ChatGPT, але швидкий розвиток технології привернув до неї увагу інших регуляторів та законодавців. За словами експертів, нові норми необхідні для управління ІІ через можливий його вплив на освіту, робочі місця і навіть національну безпеку.
У Garante зажадали, щоб OpenAI інформувала користувачів з Італії про «методи та логіку» обробки даних, необхідних для роботи ChatGPT. Також регулятор запросив у OpenAI надання інструментів, що дозволяють людям, чиїх даних торкається робота бота, запитувати виправлення неточних персональних даних, згенерованих сервісом, або їх видалення, якщо виправлення неможливе. Крім того, мешканці, які не є користувачами ChatGPT, повинні мати можливість опротестувати «у простій та доступній манері» обробку їхніх персональних даних.
До кінця вересня компанія має представити посилену систему верифікації віку користувачів, оскільки жителям до 13 років ботом користуватися заборонено, а з 13 до 18 років дозволено лише з дозволу батьків. У Garante заявили, що й надалі розслідуватимуть потенційні вразливості ChatGPT, які ставлять під загрозу дані жителів країни, зберігаючи право вживати необхідних заходів після закінчення розслідування.
Італійські обмеження пробудили інтерес до ChatGPT регуляторів Євросоюзу, які оцінюють, чи варто вводити жорсткіші заходи контролю щодо чат-ботів і чи слід координувати їх дії. Відомо, що іспанський регулятор, який займається захистом даних, запросив у чиновників оцінку ризиків для персональних даних, пов’язаних з ChatGPT. У лютому в Італії заборонили компанії Replika, яка займається розробкою ІІ-ботів, використовувати дані італійських користувачів, посилаючись на ризики для неповнолітніх та емоційно нестійких людей.
0 комментариев
Добавить комментарий