Проблемы безопасности. Microsoft по ошибке запретила ChatGPT для работников

  • 14 ноября, 12:00
  • 3848
  • 0

Проблемы безопасности. Microsoft по ошибке запретила ChatGPT для работников


Microsoft запретила работникам использовать ChatGPT 

Microsoft, которая инвестировала миллиарды долларов в OpenAI, временно запретила своим сотрудникам использовать популярный продукт компании — чат-бот с искусственным интеллектом ChatGPT.

«Хотя корпорация Microsoft инвестировала в OpenAI и у ChatGPT есть встроенные средства защиты для предотвращения ненадлежащего использования, веб-сайт, тем не менее, является внешней службой третьей стороны. Это означает, что вы должны быть осторожны при его использовании из-за рисков конфиденциальности и безопасности. Это также касается любых других внешних служб ИИ, таких как Midjourney или Replika», — говорилось в обновлении на внутреннем сайте Microsoft, которое цитирует CNBC.

После того, как информация о запрете попала в СМИ, компания возобновила доступ к ChatGPT. В Microsoft заявили, что временная блокировка ChatGPT была ошибкой.

«Мы тестировали системы управления для больших языковых моделей и непреднамеренно включили это для всех сотрудников. Мы возобновили обслуживание вскоре после того, как обнаружили нашу ошибку. Как мы отмечали ранее, мы поощряем использование сотрудниками и клиентами таких сервисов, как Bing Chat Enterprise и ChatGPT Enterprise, которые обеспечивают более высокий уровень защиты конфиденциальности и безопасности», — заявил представитель компании.

Инцидент с блокировкой произошел на фоне сбоев в работе ChatGPT. Как писал NV Техно, чат-бот сталкивается с атаками, негативно влияющими на его работу. Ответственность за них взяли хакерская группа Anonymous Sudan.


Теги: ші
0 комментариев
Сортировка:
Добавить комментарий