Некерований ШІ. Екс-співробітники OpenAI закликають уряди приборкати Альтмана

  • 30 мая, 08:57
  • 3827
  • 0

Колишні члени правління OpenAI Хелен Тонер та Таша Макколі закликають до посилення державного регулювання компанії через невдале керівництво генерального директора Сема Альтмана.

OpenAI за останні тижні зіткнулася із двома гучними звільненнями. Зокрема, пішов співзасновник та голова команди з безпеки компанії Ілля Суцкевер. Також з компанії звільнився Ян Лейке, дослідник, який очолював підрозділ управління та контролю ШІ-інструментів. OpenAI розпустила свою внутрішню безпекову команду.

Тонер та Макколі, які були причетні до спроби усунути Альтмана з посади в листопаді минулого року, у статті, опублікованій у The Economist, стверджують, що модель поведінки гендиректора у поєднанні з опорою на самоврядування є рецептом для катастрофічного сценарію у сфері загального штучного інтелекту (AGI ).

«Кілька вищих керівників приватно поділилися з правлінням серйозним занепокоєнням, заявивши, що вони вірять, що Альтман культивував „токсичну культуру брехні“ та брав участь у „поведінці, яку можна охарактеризувати як психологічне насильство“. Події, що відбулися після його повернення до компанії, включаючи його відновлення на посаді ради директорів та відхід старших фахівців, які займаються безпекою, не віщували нічого хорошого для експерименту OpenAI у самоврядуванні. Навіть за найкращих намірів, без зовнішнього нагляду, такий вид саморегулювання зрештою буде неможливим, особливо під тиском величезних стимулів прибутку. Уряди мають відігравати активну роль», — пишуть Тонер та Макколі.

Колишні члени правління виступають проти нинішнього поштовху до самозвітності та мінімального зовнішнього регулювання компаній у сфері ШІ.

«Дуже важливо, щоб державний сектор був тісно залучений до розробки технології. Наразі настав час для урядових органів у всьому світі заявити про себе. Тільки завдяки здоровому балансу ринкових сил та розумному регулюванню ми можемо надійно гарантувати, що еволюція ШІ справді принесе користь усьому людству», — додають вони.

У ЄС теж знаходять недоліки в тому, щоб покладатися на технічних гігантів у зусиллях безпеки ШІ. Зокрема, минулого тижня європейські регулятори видали корпорації Microsoft попередження через нерозкриття потенційних ризиків її інструментів Copilot та Image Creator на основі штучного інтелекту.


0 комментариев
Сортировка:
Добавить комментарий