OpenAI попередила про використання ШІ дезінформаторами

  • 16 января, 11:16
  • 3893
  • 0

Компанія OpenAI попередила про зростаючу загрозу використання технологій штучного інтелекту у поширенні дезінформації.

Стартап провів спільне дослідження з Центром безпеки та нових технологій Джорджтаунського університету (CSET) та Стенфордською інтернет-обсерваторією.

На думку вчених, широка доступність мовних моделей вплине на всі три аспекти операцій впливу:

  1. актори;
  2. поведінки;
  3. контент.

Дослідники вважають, що мовні моделі зменшать вартість проведення кампаній з дезінформації, зробивши їх доступними для ширшого кола учасників. Крім того, вони здатні винаходити нові тактики на зразок створення контенту в реальному часі в чат-ботах.

Інструменти на основі мовних моделей також допоможуть генерувати більш переконливі тексти, ніж традиційні методи.

«Це особливо стосується тих [агітаторів], які не мають потрібних лінгвістичних навичок або культурних знань про мету. Це може зробити операції впливу менш помітними, оскільки згенерований контент буде не так легко розпізнаваний», — йдеться у дослідженні.

На думку вчених, закритість мовних моделей не допоможе уберегтися від дезінформації. Агітатори, ймовірно, будуть тяжіти до систем з відкритим вихідним кодом або до розроблених альтернатив, додали вони.

У дослідженні наголошуються на критичних невідомих факторах, пов'язаних з використанням мовних моделей. На сьогодні незрозуміло, які можливості для дезінформації з'являться у майбутньому навіть з урахуванням поточних досліджень та фінансових вкладень у технології.

Крім того, невідомо кількість інвестицій у мовні моделі, а також коли стануть широко доступними прості у використанні інструменти для створення та розповсюдження такого контенту.

Для запобігання неправомірного використанню подібних технологій у майбутньому дослідники закликали розробити відповідні заходи.

«Дуже важливо проаналізувати загрозу операцій впливу за допомогою ШІ та намітити низку дій, перш ніж мовні моделі будуть використовуватися для масштабних операцій впливу», — заявила група.

Вчені запропонували розробникам штучного інтелекту створювати більш чутливі до фактів моделі або накладати більш суворі обмеження використання.

Платформам та постачальникам ШІ дослідники рекомендують координувати свої дії для виявлення автоматизованого контенту, а установам — брати участь у кампаніях з підвищення медіаграмотності.

Також вони припускають, що уряди можуть накладати обмеження на збір даних та контролювати доступ до обладнання для навчання алгоритмів.

Дослідники рекомендують широко застосовувати стандарти цифрового походження для відстеження джерела контенту ШІ. У цьому можуть допомогти блокчейн та цифрові ідентифікатори, підсумували вони.


0 комментариев
Сортировка:
Добавить комментарий