09:29
PANews em 6 de junho, de acordo com o blog oficial da OpenAI, a OpenAI detalhou hoje a arquitetura de sua infraestrutura de pesquisa para treinar modelos de IA avançada com segurança. A OpenAI opera o maior supercomputador de treinamento de IA do mundo, com o objetivo de avançar na vanguarda do campo da IA e garantir a segurança. As principais tarefas dessa infraestrutura incluem a proteção de ativos sensíveis, como pesos de modelos e algoritmos. Para atingir esse objetivo, a arquitetura da OpenAI inclui vários componentes de segurança-chave:
Identidade Básica: Utilize o Azure Entra ID para autenticação de identidade e gestão de autorizações, garantindo a verificação de risco e deteção de login anómalo durante a criação da sessão.
Arquitetura do Kubernetes: gerenciar e orquestrar cargas de trabalho com o Kubernetes, protegendo o ambiente de pesquisa através de políticas de RBAC (controle de acesso baseado em função) e Admission Controller.
Armazenamento de dados sensíveis: protege credenciais e outras informações sensíveis por meio do serviço de gerenciamento de chaves, permitindo acesso apenas a cargas de trabalho e usuários autorizados a esses dados.
Gestão de identidade e acesso (IAM): adote uma política de acesso de 'privilégio mínimo' para gerenciar as permissões de acesso de pesquisadores e desenvolvedores através do serviço AccessManager interno e introduza um mecanismo de aprovação mais longo para controlar o acesso a recursos sensíveis.
Segurança CI/CD: controle rigoroso do acesso ao pipeline CI/CD para garantir a consistência e segurança da configuração do código de infraestrutura.
A OpenAI implementou vários controles de segurança em camadas para evitar a divulgação do peso do modelo e utiliza equipes vermelhas internas e externas para testar a segurança. Além disso, a OpenAI está explorando padrões de segurança e conformidade exclusivos de sistemas de IA para enfrentar os desafios exclusivos de proteger a tecnologia de IA.
- 1








