La empresa de inteligencia artificial Anthropic, desarrolladora de sistemas de IA generativa similares a los chatbots conversacionales, presentó una demanda contra el Gobierno de Estados Unidos después de que autoridades federales la clasificaran como “riesgo para la cadena de suministro”, una etiqueta que podría limitar el uso de su tecnología en proyectos vinculados con seguridad nacional.
La decisión fue emitida por el Departamento de Defensa de Estados Unidos, que incluyó a la compañía en una lista de entidades consideradas potencialmente riesgosas para la infraestructura tecnológica utilizada por contratistas del gobierno. Esta designación implica que empresas que colaboran con dependencias federales podrían enfrentar restricciones para utilizar herramientas desarrolladas por Anthropic.
Ante esta situación, la compañía interpuso una demanda al considerar que la clasificación es injustificada y afecta directamente sus operaciones. Anthropic desarrolla modelos de inteligencia artificial capaces de generar texto, analizar información y responder preguntas, tecnología utilizada en ámbitos empresariales, educativos y tecnológicos, entre ellos su sistema conversacional llamado Claude.
El caso se produce en medio del debate internacional sobre el uso y regulación de la inteligencia artificial, especialmente en sectores relacionados con defensa y seguridad. La disputa refleja las tensiones entre empresas tecnológicas y gobiernos sobre hasta qué punto estas herramientas pueden emplearse en proyectos militares o estratégicos.
