Проблемы безопасности. Microsoft по ошибке запретила ChatGPT для работников
Microsoft запретила работникам использовать ChatGPT
Microsoft, которая инвестировала миллиарды долларов в OpenAI, временно запретила своим сотрудникам использовать популярный продукт компании — чат-бот с искусственным интеллектом ChatGPT.
«Хотя корпорация Microsoft инвестировала в OpenAI и у ChatGPT есть встроенные средства защиты для предотвращения ненадлежащего использования, веб-сайт, тем не менее, является внешней службой третьей стороны. Это означает, что вы должны быть осторожны при его использовании из-за рисков конфиденциальности и безопасности. Это также касается любых других внешних служб ИИ, таких как Midjourney или Replika», — говорилось в обновлении на внутреннем сайте Microsoft, которое цитирует CNBC.
После того, как информация о запрете попала в СМИ, компания возобновила доступ к ChatGPT. В Microsoft заявили, что временная блокировка ChatGPT была ошибкой.
«Мы тестировали системы управления для больших языковых моделей и непреднамеренно включили это для всех сотрудников. Мы возобновили обслуживание вскоре после того, как обнаружили нашу ошибку. Как мы отмечали ранее, мы поощряем использование сотрудниками и клиентами таких сервисов, как Bing Chat Enterprise и ChatGPT Enterprise, которые обеспечивают более высокий уровень защиты конфиденциальности и безопасности», — заявил представитель компании.
Инцидент с блокировкой произошел на фоне сбоев в работе ChatGPT. Как писал NV Техно, чат-бот сталкивается с атаками, негативно влияющими на его работу. Ответственность за них взяли хакерская группа Anonymous Sudan.
0 комментариев
Добавить комментарий