Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Una Gran Batalla Legal sobre IA, Ética y Poder Gubernamental ⚖️🤖
El lunes, Anthropic, una de las principales empresas de inteligencia artificial de EE. UU. conocida por su modelo Claude AI, presentó dos demandas federales contra el Departamento de Defensa de EE. UU. #AnthropicSuesUSDefenseDepartment: DoD( y varias agencias federales — marcando uno de los enfrentamientos legales más importantes entre una firma de IA y el gobierno de EE. UU. hasta la fecha.
📍 ¿Qué ocurrió?
La disputa comenzó después de que el Pentágono designara a Anthropic como un “riesgo en la cadena de suministro”, una etiqueta tradicionalmente aplicada a empresas extranjeras con vínculos con adversarios nacionales. Esta designación rara bloquea efectivamente a Anthropic de trabajar con contratistas militares y agencias gubernamentales, haciendo que muchos socios reconsideren colaboraciones.
Anthropic respondió presentando demandas contra el DoD en tribunales federales en San Francisco y D.C., cuestionando la legalidad de la designación y sus consecuencias.
📌 ¿Por qué es esto importante?
Según los archivos legales y declaraciones públicas de Anthropic:
🔹 Las acciones del Pentágono — etiquetando a una firma de IA de EE. UU. como un riesgo en la cadena de suministro — son “sin precedentes e ilegales.”
🔹 La medida se ve como una represalia por la negativa de Anthropic a proporcionar acceso militar sin restricciones a sus modelos de IA sin salvaguardas éticas.
🔹 La designación puede violar derechos constitucionales, incluyendo la libertad de expresión )Primera Enmienda( y el debido proceso )Quinta Enmienda(.
🔹 La demanda solicita a los tribunales que anulen la designación, bloqueen su aplicación y eviten que las agencias federales prohíban a la empresa participar en contratos gubernamentales.
🧠 La Disputa Central
Anthropic insiste en fuertes “barandillas” que impidan que su IA sea utilizada para:
• Vigilancia masiva de ciudadanos estadounidenses
• Armas completamente autónomas sin supervisión humana
El DoD argumenta que el ejército debe poder usar IA para “todos los fines legales.” Después de que las negociaciones fracasaron, el departamento procedió con la designación de riesgo.
📊 Impacto más amplio y reacción de la industria
Este caso puede ser un punto de inflexión en cómo el gobierno regula los sistemas de IA. Podría influir en:
📌 Futuros contratos gubernamentales con empresas de IA
📌 El equilibrio entre ética de IA y seguridad nacional
📌 La autoridad legal del poder ejecutivo de EE. UU. sobre las empresas tecnológicas privadas
Líderes de la industria y más de 30 investigadores de IA han expresado su apoyo a Anthropic, advirtiendo que las acciones del gobierno podrían amenazar la innovación y la competitividad estadounidense en IA.
📍 ¿Qué pasa ahora?
Las demandas continuarán en los tribunales federales, donde los jueces determinarán si:
🔸 El gobierno excedió su autoridad
🔸 La etiqueta de riesgo en la cadena de suministro fue aplicada legalmente
🔸 Se violaron protecciones constitucionales
Este caso podría sentar un precedente para la regulación gubernamental de las empresas tecnológicas y la ética en IA en EE. UU.
📣 Conclusión:
El enfrentamiento entre Anthropic y el Departamento de Defensa de EE. UU. es más que una disputa legal — es una batalla de alto riesgo en la intersección de la ética en IA, la libertad corporativa, la seguridad nacional y los derechos constitucionales. El resultado podría moldear la gobernanza de la IA durante años.