Según reportes basados en fuentes del The Wall Street Journal y otros medios globales, la inteligencia artificial Claude —creada por la firma Anthropic— fue empleada por el Pentágono durante el operativo llevado a cabo en Caracas el 3 de enero que culminó con la detención de Maduro y su esposa, quienes luego fueron trasladados a Estados Unidos para enfrentar cargos.
La IA habría sido utilizada a través de una asociación con la empresa Palantir Technologies, cuyas plataformas de datos son de uso común en el Departamento de Defensa de EE. UU., aunque no se han detallado las funciones específicas que desempeñó Claude en la operación, más allá de su integración en sistemas de apoyo.
La noticia ha generado cuestionamientos y debate sobre el papel de la inteligencia artificial en operaciones militares, ya que las políticas de uso de Anthropic explícitamente prohíben que Claude sea empleado para “facilitar la violencia, desarrollar armas o realizar tareas de vigilancia”. Tanto Anthropic como el Departamento de Defensa han evitado confirmar oficialmente el alcance de la utilización de la IA en el operativo.
El caso pone en el centro el creciente protagonismo de la IA en ámbitos de seguridad nacional y defensa, y plantea tensiones entre las empresas tecnológicas que buscan imponer límites éticos en el uso de sus modelos y las demandas de los gobiernos por aplicar estas herramientas en entornos clasificados y de alta seguridad.





