Ілон Маск та тисяча експертів закликають призупинити розвиток АІ-систем через ризики для суспільства

  • 29 марта, 12:58
  • 3778
  • 0

Як повідомляє Reuters, Ілон Маск і група експертів зі штучного інтелекту та керівників галузі закликають до шестимісячної паузи в розробці систем, потужніших за нещодавно запущений OpenAI GPT-4, у відкритому листі, посилаючись на потенційні ризики для суспільства та людства.

У листі, опублікованому некомерційною організацією Future of Life Institute і підписаному понад 1000 людей, включаючи Маска, мова йде про необхідність призупинити розробку передового АІ, доки спільні протоколи безпеки для таких проектів не будуть розроблені, реалізовані та перевірені незалежними експертами.

«Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики - керованими», - йдеться в листі.

У листі детально описуються потенційні ризики для суспільства та цивілізації з боку конкуруючих між людьми систем штучного інтелекту у вигляді економічних і політичних збоїв. Розробників таких систем закликають співпрацювати з політиками та регуляторними органами.

Співпідписантами з Маском були генеральний директор Stability AI Емад Мостаке (Emad Mostaque), дослідники DeepMind, що належить Alphabet, а також відомі фахівці сегмента - Йошуа Бенгіо (Yoshua Bengio) та Стюарт Рассел (Stuart Russell).

Відповідно до реєстру прозорості Європейського Союзу, Future of Life Institute в основному фінансується Фондом Маска, а також лондонською групою ефективного альтруїзму Founders Pledge і Фондом громади Кремнієвої долини.

Ці занепокоєння виникли після того, як у понеділок поліцейські сили ЄС Європол приєдналися до хору етичних і правових стурбованостей щодо передового штучного інтелекту, такого як ChatGPT, попереджаючи про потенційне зловживання системою для спроб фішингу, дезінформації та кіберзлочинності.

Тим часом уряд Великої Британії оприлюднив пропозиції щодо «адаптивної» нормативної бази щодо АІ.

Підхід уряду, викладений в програмному документі, опублікованому в середу, передбачає розподіл відповідальності за управління штучним інтелектом між регуляторами прав людини, охорони здоров’я та безпеки та конкуренції, а не створення нового органу, присвяченого цій технології.

Випуск минулого року ChatGPT компанією OpenAI (яка підтримується Microsoft), спонукав конкурентів прискорити розробку подібних великих мовних моделей, а компанії – інтегрувати генеративні моделі АІ у свої продукти.

Сем Альтман (Sam Altman), виконавчий директор OpenAI, не підписав листа, повідомив Reuters представник Future of Life.

«Лист не ідеальний, але його дух правильний: нам потрібно уповільнити темп, поки ми краще не зрозуміємо наслідки, - заявив Гарі Маркус (Gary Marcus), професор Нью-Йоркського університету, який підписав листа. - Вони можуть завдати серйозної шкоди... великі гравці стають все більш таємничими щодо того, що вони роблять і це ускладнює суспільству захист від будь-якої шкоди, яка може матеріалізуватись».


0 комментариев
Сортировка:
Добавить комментарий

Последние статьи

Смотреть все