Тоталітарні країни можуть розвивати ШІ для поширення пропаганди: як цьому завадити

  • 21 февраля, 09:34
  • 3876
  • 0

 Група дослідників із OpenAI, Стенфордського та Джорджтаунського університетів вважають, що великі мовні моделі, як ChatGPT, можна використовувати для дезінформації в соцмережах і не тільки. Відповідно до звіту вчених, генеративні мовні моделі сьогодні доступні всім і кожному, а тому дослідники побоюються, що такі інструменти, якщо опиняться в руках пропагандистів, ризикують стати інструментом операцій упливу в майбутньому, пише vice.com.

На думку вчених, пропагандисти зможуть вдатися до дешевших і ефективніших тактик завдяки ШІ-інструментам. Більше не потрібно буде оплачувати роботу армії тролів, адже за допомогою нейромереж можна буде генерувати переконливі тексти у великих кількостях, розсилати їх у соцмережах, просувати через ЗМІ в інтернеті. Попри те, що мовні моделі контролюються через API, у таких держав, як Китай і Росія, вистачить грошей, щоб інвестувати у власні розробки. Окрім постів, пропагандисти зможуть задіяти й власних чат-ботів. У своєму звіті вони згадують про те, як чат-бот допоміг уплинути на людей, щоб вони вакцинувалися в розпал пандемії COVID-19.

Дослідники вважають, що урядам необхідно запровадити обмеження на збирання нейромережами навчальних даних і створити інструменти контролю доступу до обладнання ШІ, такого як напівпровідники. Як приклад наводять обмеження експортного контролю, введені США проти Китаю. Не маючи доступу до деякого обладнання й технологій, КНР не зможе створювати мікросхеми останнього покоління, що значно уповільнить цю країну в її спробах "прокачати" нейромережі.

Учені пропонують обмежити доступ до майбутніх ШІ-моделей, підвищити їхній рівень безпеки, щоб уникнути зломів і атак. Щодо контенту, дослідники пропонують, щоб платформи координували свої дії з постачальниками ШІ для виявлення контенту, написаного ШІ, і вимагали, щоб весь контент був написаний людьми.


Теги: ші
0 комментариев
Сортировка:
Добавить комментарий

Последние статьи

Смотреть все