Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
#AnthropicSuesUSDefenseDepartment
Anthropic Acusa al Departamento de Defensa de EE. UU. por la Designación de “Riesgo en la Cadena de Suministro”
La empresa de investigación en inteligencia artificial Anthropic, conocida por desarrollar el avanzado modelo de IA Claude, ha presentado una importante demanda federal contra el Departamento de Defensa de EE. UU. y otras agencias gubernamentales por una decisión controvertida que podría transformar la forma en que las empresas de IA interactúan con clientes de seguridad nacional.
La demanda está relacionada con la reciente designación del Pentágono de Anthropic como un “riesgo en la cadena de suministro”, una etiqueta tradicionalmente utilizada para señalar empresas extranjeras que podrían representar amenazas a la seguridad. En el caso de Anthropic, esta designación ha impedido efectivamente que muchos contratistas gubernamentales y militares utilicen su tecnología de IA, poniendo en riesgo una significativa interrupción en los negocios y futuros contratos.
Por qué se Presentó la Demanda
La queja legal de Anthropic argumenta que la acción del Departamento de Defensa fue sin precedentes e ilegal, ya que la etiqueta de “riesgo en la cadena de suministro” se utilizó contra una empresa estadounidense sin una base legal clara. La compañía afirma que la designación es retaliatoria, alegando que fue castigada por negarse a permitir que su sistema de IA se utilice en ciertas aplicaciones que entran en conflicto con sus políticas de seguridad, específicamente vigilancia masiva doméstica y sistemas de armas totalmente autónomas.
Anthropic dice que la orden de las agencias gubernamentales de dejar de usar su modelo de IA Claude viola sus derechos constitucionales, incluyendo la libertad de expresión y el debido proceso, y podría socavar su valor económico y su capacidad de innovar. La demanda busca revertir la designación y bloquear la aplicación de la directiva del Pentágono.
La Designación de Riesgo en la Cadena de Suministro Por qué Importa
La designación de “riesgo en la cadena de suministro” aplicada por el Departamento de Defensa de EE. UU. suele reservarse para identificar amenazas potenciales a la seguridad nacional provenientes de proveedores, especialmente entidades extranjeras cuyos productos podrían ser manipulados o comprometidos. En el caso de Anthropic, esta marca se ha extendido a una importante empresa estadounidense de IA, atrayendo atención generalizada porque podría obstaculizar significativamente la capacidad de la firma para operar con contratistas federales y poner en peligro proyectos gubernamentales existentes o futuros.
Esta etiqueta llegó después de que las negociaciones prolongadas entre Anthropic y el Pentágono fracasaran. Los funcionarios de Defensa querían acceso sin restricciones a Claude para todas las aplicaciones militares legalmente permisibles. Anthropic, por su parte, resistió las demandas de eliminar cláusulas estrictas de seguridad que prohíben el uso de su IA en formas que la compañía considera podrían comprometer estándares éticos o protecciones civiles.
Argumentos Legales y Constitucionales
En su demanda, Anthropic argumenta que la designación y las directivas subsecuentes representan un abuso del poder ejecutivo y van más allá de lo que el Congreso ha autorizado en la ley de seguridad nacional. La compañía afirma que la acción la castiga por expresar sus opiniones políticas y negarse a renunciar a las protecciones de seguridad en las acciones de su modelo de IA, las cuales Anthropic dice que están protegidas por la Primera Enmienda.
El equipo legal de Anthropic también sostiene que el proceso utilizado para asignar la etiqueta de “riesgo en la cadena de suministro” viola el debido proceso porque fue impuesto sin salvaguardas procedimentales adecuadas ni justificación basada en la ley. La demanda pide a un tribunal federal que declare inválidas las acciones del Pentágono y que impida la aplicación futura de la designación.
Apoyo, Oposición y Reacciones Más Amplias
El caso ha atraído la atención de importantes actores tecnológicos y expertos de la industria. Decenas de investigadores y ingenieros de IA de empresas como Google y OpenAI presentaron informes de apoyo argumentando que la medida del Pentágono podría dañar la innovación en EE. UU. y establecer un precedente peligroso para la persecución de empresas que expresan preocupaciones sobre la seguridad.
Al mismo tiempo, funcionarios del Pentágono han defendido sus acciones, afirmando intereses de seguridad nacional y alegando que las empresas privadas no deberían dictar cómo se usa su tecnología en escenarios de defensa legales. Un alto funcionario del DoD declaró recientemente que hay poca expectativa de que las negociaciones con Anthropic se reanuden, subrayando aún más la tensión en el conflicto.
Impacto Económico y Estratégico
El desafío legal resalta las implicaciones más amplias para la política de IA, la seguridad nacional y la autonomía del sector privado. Anthropic alega que la designación ya ha comenzado a afectar sus relaciones comerciales, con algunos socios expresando preocupación por su asociación con una empresa en la lista negra. Esto ha generado temores de que la disputa pueda costarle a Anthropic miles de millones en contratos perdidos y futuros ingresos, poniendo presión sostenida sobre las operaciones y la estrategia de crecimiento de la compañía.
La controversia también subraya la creciente tensión entre la defensa de la seguridad en IA y las demandas gubernamentales para el despliegue de tecnología en aplicaciones de defensa, especialmente en temas como armas autónomas y vigilancia. A medida que los sistemas de IA se vuelven más poderosos e integrales en sistemas civiles y militares, el equilibrio entre ética, innovación y seguridad nacional continúa siendo un punto central de debate.
¿Qué Sucede a Continuación?
La demanda de Anthropic avanza en los tribunales federales, con casos presentados tanto en California como en tribunales de apelación federal, ya que la compañía busca no solo anular la designación del Pentágono sino establecer límites legales más claros sobre cómo las agencias federales pueden regular o restringir a las empresas tecnológicas.
El resultado de este caso podría influir en futuras interacciones entre los departamentos federales y las empresas tecnológicas estadounidenses, especialmente aquellas involucradas en campos de vanguardia como la inteligencia artificial. Podría definir cómo se aplican e interpretan términos como “riesgo en la cadena de suministro”, especialmente cuando la seguridad nacional se cruza con políticas y éticas corporativas.
Conclusión
Una Batalla Legal de Alto Riesgo Sobre IA, Ética y Poder Gubernamental
El #AnthropicSuesUSDefenseDepartment desarrollo representa un enfrentamiento legal de alto perfil entre una empresa líder en IA y el gobierno de EE. UU., con implicaciones que van más allá de simples disputas contractuales. El caso plantea preguntas fundamentales sobre la autonomía corporativa, la seguridad tecnológica, los derechos constitucionales y el alcance de la autoridad gubernamental en asuntos de seguridad nacional en un momento en que la inteligencia artificial juega un papel cada vez más crítico tanto en ámbitos civiles como militares.