Google, Meta, OpenAI, Microsoft та Amazon зобов'язалися переглянути свої навчальні дані для штучного інтелекту та видалити будь-які матеріали, які можуть стосуватися сексуального насильства над дітьми (CSAM).
CSAM вже знаходили у навчальних матеріалах моделей штучного інтелекту. Широке коло компаній нарешті домовилося боротися із цим явищем. Google, Meta, OpenAI, Microsoft, Amazon, Anthropic, Stability AI та інші підписали новий набір принципів, спрямований на обмеження поширення CSAM. Вони обіцяють переконатися, що їх навчальні набори даних не містять CSAM, уникати наборів даних із високим ризиком включення CSAM, а також видаляти зображення CSAM або посилання на CSAM із джерел даних. Компанії також зобов'язуються проводити «стрес-тестування» моделей штучного інтелекту, щоб переконатися, що вони не створюють жодних зображень із зображенням сексуального насильства, і випускати моделі тільки якщо вони були оцінені щодо безпеки щодо дітей.
У замітці в блозі Google повідомляє, що окрім дотримання принципів, компанія також збільшила гранти на рекламу для американського Національного центру зниклих безвісти та діючих дітей (NCMEC) для просування його ініціатив.
CSAM виявляли, зокрема, у наборі даних LAION-5B, на якому Stability AI тренувала свою модель ШІ Stable Diffusion.
0 комментариев
Добавить комментарий