La IA empleada en el secuestro de Nicolás Maduro: «Claude» de Anthropic
Por Agencia LQS
El caso ha reavivado el debate sobre los límites éticos y legales del uso de inteligencia artificial en operaciones bélicas y de seguridad. Poco más de un mes después del secuestro del presidente de Venezuela y su esposa, diferentes funcionarios estadounidenses revelaron cómo se llevó a cabo la acción militar golpista del 3 de enero.
Autoridades del Pentágono ha confirmado haber usado una herramienta de inteligencia artificial para facilitar el operativo de esa jornada: la herramienta Claude, desarrollada por Anthropic, que permitió una comunicación instantánea y fluida en la coordinación de los comandos militares, como también con la Casa Blanca.
El operativo, que fue ordenado por el gobierno de Donald Trump y ejecutado por fuerzas especiales estadounidenses, incluyó además el traslado del presidente Nicolás Maduro y su esposa Cilia Flores a Estados Unidos, para ser encarcelados y acusados bajo un montaje de narcotráfico regional. De acuerdo a informes difundidos por medios internacionales, el republicano siguió el despliegue militar en tiempo real.

De acuerdo con reportes publicados por medios estadounidenses, la herramienta Claude fue utilizada como parte de los sistemas tecnológicos del Pentágono durante la misión en Venezuela. La implementación se habría realizado a través de plataformas de análisis militar vinculadas a la empresa Palantir Technologies, proveedor habitual de soluciones informáticas para el Departamento de Defensa y agencias federales.
Estas herramientas permiten sintetizar información estratégica y asistir en la toma de decisiones operativas en tiempo real, con un mecanismo de conversación similar a una conversación. Y puede ser utilizada para procesar comunicaciones, evaluar escenarios y mejorar la coordinación entre unidades militares.
Sin embargo, ni Anthropic ni el Pentágono confirmaron oficialmente el rol exacto de Claude en la captura de Maduro, argumentando razones de confidencialidad vinculadas a operaciones clasificadas. Un portavoz de la empresa señaló que no pueden comentar sobre el uso específico de sus sistemas en misiones militares.
La utilización de inteligencia artificial en el operativo generó tensiones entre el gobierno estadounidense y la propia Anthropic. La compañía mantiene políticas internas que prohíben el uso de sus sistemas para facilitar acciones violentas, desarrollar armamento o realizar tareas de vigilancia ofensiva.
En este contexto, ejecutivos de la empresa manifestaron preocupación por el posible uso de sus herramientas en operaciones militares, especialmente aquellas que puedan implicar decisiones letales o vigilancia masiva. Esta postura generó fricciones con sectores del gobierno que promueven una adopción más amplia de la inteligencia artificial en defensa.
Por otro lado, la revelación sobre el uso de Claude en la operación militar deja cuestionado un futuro contrato entre Anthropic y el Departamento de Defensa de Estados Unidos, que podría alcanzar los 200 millones de dólares, la acción militara a tensionado las relaciones entre Anthropic y la administración Trump, generando dudas acerca del futuro del contrato millonario con el Pentágono, según The Wall Street Journal y Fox News. El caso ha reavivado el debate sobre los límites éticos y legales del uso de inteligencia artificial en operaciones bélicas y de seguridad.
Funcionarios estadounidenses advirtieron que podrían revisar el contrato con Anthropic si la empresa mantiene esas restricciones que limiten el uso militar de sus sistemas. El acuerdo, firmado el año pasado, convirtió a la compañía en uno de los primeros desarrolladores de inteligencia artificial en trabajar oficialmente con el Pentágono en operaciones clasificadas.
⇒ Especial: Ataque terrorista de EEUU contra Venezuela. Secuestrado el presidente!!!
Comparte, tus amig@s lo agradecerán…
Mastodon: @LQSomos@nobigtech.es; Friendica: Loquesomos;
UpScrolled: @LQSomos; Telegram: LoQueSomosWeb;
Bluesky: LQSomos; Twitter: @LQSomos;
Facebook: LoQueSomos; Instagram: LoQueSomos;
WhatsApp: LoQueSomos;
