ОpenAI оголосила, що нещодавно розпочала навчання своєї наступної передової моделі штучного інтелекту. Контролюватиме безпеку цієї та інших розробок компанії новий профільний комітет.
Правління OpenAI сформувало новий комітет з безпеки, який відповідатиме за надання рекомендацій щодо всіх проектів OpenAI. Протягом наступних 90 днів Комітет повинен надати свої рекомендації правлінню. Після перевірки правління має опублікувати оновлення, в якому пояснить, які з рекомендацій було прийнято і як вони будуть дотримані.
До складу комітету входять директори компанії Брет Тейлор (очолює комітет), Адам Д'Анджело, Ніколь Селігман та генеральний директор компанії Сем Альтман. Також до складу комітету входитимуть експерти компанії (зокрема керівники відділів безпеки, наукові співробітники тощо).
«OpenAI нещодавно розпочала навчання своєї наступної передової моделі, і ми очікуємо, що отримані системи виведуть нас на наступний рівень можливостей на нашому шляху до AGI (штучний інтелект, який успішно виконує будь-яке інтелектуальне завдання, яке може виконати людина — NV). Хоча ми пишаємося тим, що створюємо та випускаємо моделі, які є провідними в галузі як за можливостями, так і безпекою, ми вітаємо активну дискусію в цей важливий момент», — каже компанія у своєму блозі.
Нагадаємо, OpenAI за останні тижні зіткнулася із двома гучними звільненнями. Зокрема, пішов співзасновник та голова команди з безпеки компанії Ілля Суцкевер. Також з компанії звільнився Ян Лейке, дослідник, який очолював підрозділ управління та контролю ШІ-інструментів. OpenAI розпустила свою внутрішню безпекову команду. Колишні члени правління OpenAI Хелен Тонер та Таша Макколі публічно закликали до посилення державного регулювання компанії, зазначивши, що модель поведінки гендиректора Альтмана у поєднанні з тим, що компанія спирається на самоврядування у питаннях безпеки, може призвести до катастрофічного сценарію у сфері загального штучного інтелекту (AGI ).
0 комментариев
Добавить комментарий