Un juez federal de EE. UU. en San Francisco ha bloqueado temporalmente la designación del Pentágono de la firma de IA Anthropic como un riesgo en la cadena de suministro, deteniendo una directiva que ordenaba a las agencias federales dejar de usar su chatbot Claude. La jueza Rita Lin dictaminó que las acciones del gobierno parecían arbitrarias y potencialmente retaliatorias, y afirmó que no existía una base legal para etiquetar a una empresa estadounidense como una amenaza a la seguridad nacional por estar en desacuerdo con la política gubernamental.



La disputa comenzó después de que las negociaciones fracasaran por un contrato del Pentágono que permitiría el uso militar de la IA de Anthropic sin restricciones. Anthropic se opuso a desplegar su tecnología en armas autónomas letales y en la vigilancia masiva interna, lo que llevó a la administración a avanzar hacia una prohibición a nivel gubernamental. La orden judicial permite a Anthropic seguir operando con las agencias federales mientras continúa la demanda.
Ver originales
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Incluye contenido generado por IA
  • Recompensa
  • 1
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
DONMADOLLARvip
· hace13h
2026 GOGOGO 👊
Responder0
  • Anclado