Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
OpenAI Revela Plano de Segurança Infantil Para Combater Exploração Facilitada por IA Em Meio ao Aumento de Relatórios de CSAM
Resumidamente
A OpenAI lançou um “Plano de Segurança Infantil” para combater a exploração sexual infantil facilitada por IA, atualizando diretrizes, fortalecendo salvaguardas e promovendo medidas legais, técnicas e operacionais coordenadas em meio ao aumento de relatórios de CSAM gerados por IA.
A empresa descreveu a exploração sexual infantil como um dos desafios mais prementes na era digital, observando que as tecnologias de IA estão mudando a forma como esses danos ocorrem e como podem ser mitigados em larga escala. A OpenAI afirmou que implementou salvaguardas para evitar o uso indevido de seus sistemas e colabora com parceiros, incluindo o Centro Nacional de Crianças Desaparecidas e Exploited Children (NCMEC) e agências de aplicação da lei, para melhorar a detecção e o reporte. Essa colaboração destacou áreas onde padrões mais fortes e compartilhados na indústria são necessários.
O plano delineia uma estratégia para aprimorar os quadros de proteção infantil nos EUA no contexto da IA. Ele incorpora contribuições de organizações e especialistas de todo o ecossistema de segurança infantil, incluindo a NCMEC, a Aliança do Procurador Geral com contribuições do Procurador Geral da Carolina do Norte, Jeff Jackson, e do Procurador Geral de Utah, Derek Brown, além da organização sem fins lucrativos Thorn. A estrutura visa orientar esforços coordenados para prevenir danos às crianças e fortalecer a colaboração entre os domínios legal, operacional e técnico.
A iniciativa foca em três prioridades principais: atualizar leis para tratar de material de abuso sexual infantil gerado ou manipulado por IA (CSAM), melhorar o reporte e a coordenação entre provedores para apoiar investigações mais eficazes, e integrar medidas de segurança por design diretamente nos sistemas de IA para prevenir e detectar uso indevido. A OpenAI enfatizou que nenhuma abordagem única pode resolver o desafio sozinha, e o quadro visa acelerar respostas, melhorar a identificação de riscos e manter a responsabilidade, garantindo que as autoridades possam agir à medida que a tecnologia evolui.
A estrutura pretende permitir intervenções mais precoces, reduzir tentativas de exploração, melhorar a qualidade das informações compartilhadas com as autoridades e fortalecer a responsabilidade em todo o ecossistema para proteger as crianças de forma mais eficaz.
Relatórios de Exploração Infantil Gerados por IA Aumentam 14% em 2025 Com a Apresentação do Plano Expandido de Segurança Infantil pela OpenAI
Dados recentes da Internet Watch Foundation (IWF) indicam que mais de 8.000 relatórios de conteúdo de abuso sexual infantil gerado por IA foram detectados na primeira metade de 2025, representando um aumento de 14% em relação ao ano anterior. Esses casos incluem o uso de ferramentas de IA para gerar imagens explícitas falsas para sextorsão financeira e para produzir mensagens usadas em grooming. O lançamento do plano coincide com uma atenção crescente de formuladores de políticas, educadores e defensores da segurança infantil, especialmente após incidentes em que jovens morreram por suicídio após supostamente interagir com chatbots de IA.
Em novembro de 2025, o Social Media Victims Law Center e o Tech Justice Law Project entraram com sete processos nos tribunais estaduais da Califórnia, alegando que a OpenAI lançou o GPT-4o prematuramente. As queixas afirmam que as características psicologicamente manipuladoras do sistema de IA contribuíram para mortes por suicídio e suicídio assistido, citando quatro indivíduos que morreram e três que experimentaram delírios severos após interações prolongadas.
O novo plano de segurança infantil da OpenAI baseia-se em medidas anteriores, incluindo diretrizes atualizadas para usuários menores de 18 anos que proíbem a geração de conteúdo inadequado, aconselhamento para automutilação ou orientações para esconder comportamentos inseguros dos cuidadores. A empresa também lançou recentemente um plano de segurança voltado para adolescentes na Índia.