Develan colisión ética: EE.UU. usó IA Claude en la operación militar para capturar a Maduro
Internacionales

Develan colisión ética: EE.UU. usó IA Claude en la operación militar para capturar a Maduro


La empresa Anthropic, conocida en Silicon Valley por su enfoque en la inteligencia artificial ética, enfrenta una fuerte controversia tras revelarse que su modelo Claude fue utilizado por el Pentágono en la planificación de la incursión militar en Venezuela. Aunque la compañía promociona a su IA como una herramienta diseñada bajo una “Constitución” que prohíbe explícitamente usos vinculados a la violencia, el armamento o la vigilancia masiva, reportes del Wall Street Journal indican que el sistema procesó inteligencia crítica para la captura de Nicolás Maduro a principios de enero.

La integración del modelo en la operación no se realizó de forma directa, sino a través de la infraestructura de Palantir Technologies, firma especializada en análisis de datos para el Departamento de Defensa de Estados Unidos. Mediante este ecosistema clasificado, el Pentágono aprovechó la capacidad de razonamiento de Claude para sintetizar volúmenes masivos de información en tiempo real. Si bien la IA no ejecutó acciones tácticas directas, su procesamiento de patrones fue fundamental para coordinar los bombardeos y la posterior extracción terrestre en Caracas.

Este escenario ha generado una profunda tensión entre la misión fundacional de Anthropic y sus compromisos contractuales, en un momento donde su valoración de mercado ha alcanzado los 380 mil millones de dólares. Mientras la empresa sostiene que cualquier uso de su tecnología debe respetar sus políticas de seguridad, la administración de Donald Trump ha condicionado la continuidad de contratos millonarios a la utilidad bélica de estas herramientas. El Secretario de Defensa, Pete Hegseth, fue enfático al declarar que el gobierno no empleará modelos que limiten la capacidad de ganar conflictos armados.

El caso de Venezuela ilustra una reorientación de la inteligencia artificial comercial hacia el ámbito militar, desafiando el concepto de neutralidad tecnológica. Expertos señalan que, una vez que estos modelos ingresan en redes de defensa clasificadas, las restricciones éticas originales de los desarrolladores suelen quedar subordinadas a los objetivos estratégicos del Estado. Esta situación plantea un dilema para las firmas de tecnología que buscan equilibrar sus principios de seguridad con la demanda de contratos gubernamentales de alta escala.

Finalmente, el episodio marca un precedente sobre cómo herramientas diseñadas para ser “inofensivas” y “honestas” terminan siendo piezas clave en operaciones de alto riesgo y letalidad. Para los analistas, la “Constitución” de la IA de Anthropic parece haber encontrado su límite frente a las necesidades operativas del Pentágono. La realidad del sector sugiere que, en la carrera por la supremacía tecnológica, la ética de Silicon Valley podría estar perdiendo terreno frente a las exigencias de la defensa nacional estadounidense. (NP-Gemini-Tercera-Agencias)

Leave a Reply

Your email address will not be published. Required fields are marked *