OpenAI почала навчання наступної ШІ-моделі та планує вийти на новий рівень на шляху до AGI

  • 29 мая, 09:00
  • 3761
  • 0

OpenAI почала підготовку своєї наступної флагманської моделі штучного інтелекту, а також сформувала Комітет з безпеки та захисту, йдеться у блозі компанії. Це сталося після того, як OpenAI розпустила свою команду, яка займалася довгостроковими ризиками ШІ.

Очікується, що отримані результати від навчання нової моделі виведуть компанію «на наступний рівень можливостей» на шляху до AGI — загального штучного інтелекту. Але більше деталей про це не дали.

  1. Новий комітет із безпеки та захисту надаватиме рекомендації Правлінню компанії «про важливі рішення з безпеки та захисту проєктів OpenAI». 
  2. Перше завдання комітету — оцінка та подальший розвиток процесів і засобів захисту OpenAI протягом наступних 90 днів. Після закінчення цього терміну вони мають поділитися рекомендаціями з Правлінням компанії. Коли їх розглянуть, OpenAI публічно поділиться оновленою інформацією про прийняті рекомендації.
  3. Очолюватимуть комітет директори Брет Тейлор, Адам Д’Анджело, Ніколь Селігман та гендиректор і співзасновник Сем Альтман. До складу також увійдуть технічні та політичні експерти компанії. Зокрема Якуб Пахоцкі, який після виходу Іллі Суцкевера зайняв його місце та став головним науковим співробітником. Крім того, будуть консультуватися з іншими експертами з безпеки.

Нагадаємо, в кінці травня OpenAI розпустила свою команду, яка займалася довгостроковими ризиками штучного інтелекту, менш ніж через рік після її створення. Це рішення ухвалили після того, як керівники групи Ілля Суцкевер і Ян Лейке повідомили про свій відхід з компанії.

Команду, відому як Superalignment, створили у 2023 році з метою розробки «наукових і технічних проривів для керування системами штучного інтелекту, значно розумнішими за нас».

Що цьому передувало

Ці гучні відставки відбулися на тлі минулорічних проблем із керівництвом OpenAI.

У листопаді 2023 року Сема Альтмана тимчасово відсторонили від посади гендиректора OpenAI. Саме Суцкевер повідомив Альтману, що той має покинути компанію, бо він «не завжди був відвертим у спілкуванні з радою директорів».

Проте західні ЗМІ почали тоді писати, що проблема складніша. The Wall Street Journal та інші медіа повідомляли, що Суцкевер зосередив свою увагу на безпеці, щоб штучний інтелект не зашкодив людям. Тоді як Альтман прагнув просунути вперед нову технологію.

Після тиску з боку співробітників та інвесторів, включаючи Microsoft, Альтмана поновили на посаді. Тоді він сказав, що не відчуває до Суцкевера «жодної неприязні». Проте, як писали The Information, після повернення Альтмана Суцкевер покинув раду директорів і фактично не з’являвся в компанії.


0 комментариев
Сортировка:
Добавить комментарий