13 нинішніх та колишніх співробітників, пов'язаних з Google, OpenAI та Anthropic, підписали відкритий лист, у якому вимагають захистити тих, хто відкрито говорить про потенційні занепокоєння щодо штучного інтелекту, від помсти.
Деякі з підписантів відкритого листа стверджують, що звільнилися через те, що втратили впевненість у тому, що компанії відповідально розроблятимуть загальний штучний інтелект (ШІ, можливості якого перевершують можливості людини). Інші висловлюють серйозне занепокоєння щодо відсутності ефективного державного нагляду за ШІ та фінансовими стимулами, які спонукають технічних гігантів інвестувати в це.
Підписанти також зазначали, що безконтрольна погоня за потужними системами штучного інтелекту може призвести до поширення дезінформації, загострення нерівності і навіть втрати людини контролю над автономними системами, що потенційно призведе до вимирання людства.
«Поки що немає ефективного державного нагляду за цими корпораціями, нинішні та колишні співробітники є одними з небагатьох людей, які можуть притягнути їх до відповідальності перед громадськістю. Однак широкі угоди про конфіденційність не дозволяють нам висловлювати свої занепокоєння», — йдеться у листі.
Підписанти закликають компанії у сфері штучного інтелекту утримуватися від помсти співробітникам, які висловлюють занепокоєння з безпеки; підтримувати анонімні системи для оповіщення громадськості та регуляторів щодо ризиків для інформаторів; дозволити культуру відкритої критики; уникати угод про невниження або нерозголошення, які обмежують співробітників у тому, що вони можуть говорити відкрито.
Нагадаємо, недавнє розслідування Vox показало, що OpenAI намагалася змусити мовчати співробітників, що недавно звільнилися, змушуючи їх підписувати агресивну угоду, яка б унеможливлювала критику компанії. Крім цього, напередодні компанія втратила важливих співробітників - співзасновника Іллю Суцкевера та одного з керівників Яна Лейке. Також було розпущено команду з безпеки та створено нову, на чолі якої — генеральний директор Сем Альтман.
0 комментариев
Добавить комментарий