Нинішні та колишні співробітники OpenAI попереджають про загрози ШІ

  • 7 июня, 08:52
  • 3965
  • 0

Група нинішніх і колишніх співробітників компаній, що займаються штучним інтелектом, зокрема OpenAI, яку підтримує Microsoft, а також кілька з Google DeepMind від Alphabet, опублікувала відкритого листа. У ньому вони висловили стурбованість стрімким розвитком галузі за відсутності належного контролю.

  1. Автори листа занепокоєні такими ризиками, як поглиблення нерівності, маніпуляції та навіть потенційна втрата контролю над автономними системами штучного інтелекту, що може становити загрозу людству.
  2. Вони вважають, що залучення науковців, політиків і широкої громадськості дозволить мінімізувати потенційні загрози.
  3. Водночас деякі компанії можуть чинити опір цьому, адже ефективний контроль може обмежити їхні можливості.
  4. Тому, на думку авторів листа, запровадження певних внутрішніх правил самостійно не вирішить цієї проблеми.
  5. Вони вважають, що для пом’якшення цих ризиків потрібен контроль з боку науки, політики та громадськості.
  6. Нинішній урядовий контроль за компаніями-розробниками ШІ недостатньо ефективний. Ці компанії володіють інформацією про ризики штучного інтелекту, але не зобов’язані ділитися нею з громадськістю.
  7. Працівники, які можуть розповісти про ці проблеми, часто підписують угоди про конфіденційність, що обмежує їхні можливості.
  8. Окрім того, вони побоюються «різних форм помсти, враховуючи історію таких випадків у цій галузі».

Листа підписали чотири анонімних працівники OpenAI та семеро колишніх, зокрема Джейкоб Хілтон, Деніел Кокотаджло, Вільям Сондерс, Керролл Уейнрайт, Деніел Зіглер і ще двоє анонімно. Підписантами також стали Рамана Кумар, який раніше працював у Google DeepMind, і Ніл Нанда, який зараз працює в Google DeepMind, а раніше працював в Anthropic. Троє відомих комп’ютерних науковців, відомі своїм внеском у розвиток сфери штучного інтелекту, також підтримали листа: Йошуа Бенджіо, Джеффрі Хінтон і Стюарт Рассел.

Останнім часом OpenAI перебуває у центрі скандалів

Компанія змушувала колишніх співробітників вибирати між підписанням угоди про нерозголошення конфіденційної інформації чи зберегти свою частку в акціях компанії. Пізніше від цієї вимоги відмовилися.

Відкритий лист також йде за рішенням OpenAI розформувати, команду, яка займалася довгостроковими ризиками штучного інтелекту. Деякі співробітники вважають, що безпека відійшла на другий план у гонитві за новими продуктами.

Команда була розпущена після того, як її лідери, співзасновник OpenAI Ілля Суцкевер і керівник команди безпеки Ян Лейк покинули компанію через розбіжності щодо пріоритетів. Лейк вважає, що безпеці штучного інтелекту потрібно приділяти більше уваги.

У листопаді 2023 року Сема Альтмана тимчасово відсторонили від посади гендиректора OpenAI. Саме Суцкевер повідомив Альтману, що той має покинути компанію, бо він «не завжди був відвертим у спілкуванні з радою директорів». Пізніше Альтмана поновили на посаді, а деякі члени правління пішли у відставку.

OpenAI випустила нову модель штучного інтелекту, яка могла імітувати голос акторки Скарлетт Йоганссон. Вона звинуватила OpenAI у використанні її голосу без дозволу. Компанія вилучила цей голос після звинувачень.

OpenAI почала підготовку своєї наступної флагманської моделі штучного інтелекту, а також сформувала Комітет з безпеки та захисту. Очікується, що отримані результати від навчання нової моделі виведуть компанію «на наступний рівень можливостей» на шляху до AGI — загального штучного інтелекту.


0 комментариев
Сортировка:
Добавить комментарий