Експерти підписали лист про ризик вимирання людства від штучного інтелекту

  • 31 мая, 04:49
  • 3749
  • 0

Провідні керівники в галузі штучного інтелекту, включаючи генерального директора OpenAI Сема Альтмана, приєдналися до експертів і професорів, щоб порушити питання про "ризик вимирання від ШІ", і закликали політиків прирівняти штучний інтелект до ризиків, пов'язаних з пандеміями і ядерною війною. Про це повідомляє Reuters.

"Зниження ризику вимирання через ШІ має стати глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна", - написали понад 350 підписантів у листі, опублікованому некомерційним Центром безпеки ШІ (CAIS).

Окрім Альтмана, серед них були керівники компаній DeepMind і Anthropic, а також керівники Microsoft і Google. Також серед них були Джеффрі Хінтон і Йошуа Бенгіо - двоє з трьох так званих "хрещених батьків ШІ", які отримали Премію Тьюринга 2018 року за свою роботу в галузі глибокого вивчення, і професори з різних установ - від Гарварду до китайського Університету Цінхуа.

Подання листа збіглось у часі із засіданням Ради з торгівлі та технологій США-ЄС у Швеції, де політики, як очікується, обговорюватимуть питання регулювання ШІ.

Корпорація Nvidia заявила, що будує найпотужніший в Ізраїлі суперкомп'ютер зі штучним інтелектом (ШІ), щоб задовольнити зростаючий попит на додатки, де використовуються такі новітні технології.


Теги: ші
0 комментариев
Сортировка:
Добавить комментарий

Последние статьи

Смотреть все