Компанія-розробник чат-бота зі штучним інтелектом ChatGPT OpenAI коливається щодо застосування до згенерованих текстів спеціального маркування. Один із аргументів проти – користувачів можуть зловити на використанні ШІ там, де це не бажано.
OpenAI має систему водяних знаків для тексту, створеного ChatGPT, та інструмент для виявлення водяних знаків, який готовий вже приблизно рік, проте всередині компанії немає єдності щодо того, чи варто його випускати, пише The Wall Street Journal.
З одного боку, запровадження водяних знаків видається відповідальною справою, з другого боку, це може зашкодити прибутку. Водяний знак OpenAI описується як налаштування того, як модель передбачає найімовірніші слова та фрази, які будуть слідувати за попередніми, створюючи шаблон, який можна виявити. Будь-який якісний інструмент для виявлення матеріалів, написаних ШІ є потенційною перевагою, наприклад, для вчителів, які хочуть, щоб студенти робили завдання самостійно.
Компанія виявила, що водяні знаки не впливають на якість виведення тексту чат-ботом. Під час опитування, яке замовила OpenAI, люди в усьому світі підтримали ідею запровадження такого інструменту з перевагою чотири до одного. У той же час, використання водяних знаків може відштовхнути користувачів ChatGPT. Майже 30% опитаних сказали, що вони б менше використовували програмне забезпечення, якби було реалізовано цей інструмент.
OpenAI підтвердила у блозі, що працювала над текстом із водяними знаками. Компанія каже, що її метод дуже точний та стійкий до підробок, таких як перефразування. Але OpenAI також стверджує, що перефразування за допомогою іншої моделі штучного інтелекту робить її метод вкрай простим для обходу. Компанія стверджує, що зараз знаходиться на ранніх стадіях вивчення методів вбудовування метаданих у текст, що згенерував.
0 комментариев
Добавить комментарий