OpenAI усилила защиту после появления признаков технологического шпионажа

Компания OpenAI ужесточила внутренние меры безопасности на фоне возможных рисков корпоративного шпионажа. Об этом сообщает Financial Times со ссылкой на источники, знакомые с ситуацией. Сообщает сайт Мes.kg со ссылкой на TechCrunch.

Поводом для пересмотра политики конфиденциальности послужил запуск китайским стартапом DeepSeek конкурентной языковой модели в январе 2025 года. По данным источников, в OpenAI подозревают использование стороной метода «дистилляции» — техники, позволяющей воссоздавать поведение крупных ИИ-моделей без доступа к их исходному коду.

В рамках новых мер введена так называемая «политика информационного шатра», ограничивающая доступ к чувствительным данным. Доступ к материалам по проекту o1, например, предоставлялся только сотрудникам, официально задействованным в разработке. Внутри офиса обсуждения были разрешены исключительно в замкнутом кругу.

Технологии OpenAI также изолируются на устройствах, не подключённых к интернету. Применены биометрические методы идентификации, включая сканирование отпечатков пальцев. Кроме того, теперь любое внешнее подключение к сети требует предварительного разрешения.

В дополнение компания усилила физическую защиту дата-центров и расширила команду специалистов по информационной безопасности.

Хотя в официальных комментариях представители OpenAI не раскрывают детали новой политики, собранные меры направлены как на предотвращение утечки интеллектуальной собственности, так и на минимизацию внутренних рисков.

Ранее стало известно о соглашении OpenAI с Google, в рамках которого компания получила доступ к вычислительным мощностям конкурирующего облачного сервиса.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *