La inteligencia artificial se ha instalado en el corazón de la ciberseguridad, la agencias de inteligencia y la toma de decisiones en entornos de alto riesgo. Estableciéndose como una capa de análisis para operar con volúmenes de datos que ningún equipo humano podría procesar en tiempo real.
En febrero de 2026, una serie de noticias volvió a encender la discusión desde un ángulo difícil de ignorar: el presunto uso del modelo Claude (propiedad de Anthropic) en un operativo del Pentágono para la captura Nicolás Maduro, con Palantir como encargado de integrar la solución que gestiona y entrega insights basados en el análisis de miles de datos y variables.
Más allá del caso puntual, el trasfondo es el mismo: cuando IA y datos se conectan a objetivos de seguridad y vigilancia, el debate deja de ser tecnológico y se vuelve político, ético y operativo.
Claude en el Pentágono: lo que dicen los reportes
Según reportes atribuidos inicialmente al Wall Street Journal y replicados por medios como Reuters, Axios y prensa chilena, el Pentágono habría utilizado Claude durante un operativo en Venezuela que terminó con la captura de Nicolás Maduro y su traslado a EE.UU. para enfrentar cargos.
Los artículos destacan que Reuters no pudo verificar de manera independiente los detalles y que ni el Departamento de Defensa ni Anthropic confirmaron públicamente el uso específico del modelo en esa operación.
Sin embargo, en los reportes se repite un elemento clave: la IA habría sido integrada a través de una relación con Palantir, empresa que históricamente ha trabajado en plataformas de análisis de datos para gobiernos y agencias.
De “asistente” a infraestructura: por qué esto importa en ciberseguridad
La ciberseguridad tradicional se basaba en reglas, monitoreo y respuesta. La nueva ciberseguridad incorpora una correlación masiva: patrones, anomalías, relaciones entre eventos, predicción de escenarios.
En términos prácticos, la IA puede:
- ordenar grandes volúmenes de señales
- resumir contextos en lenguaje simple
- ayudar a decidir qué investigar primero en una crisis
- simular riesgos y con datos históricos
El riesgo aparece cuando esta capacidad se despliega fuera del perímetro empresarial, en entornos militares o de inteligencia: la línea entre análisis defensivo y vigilancia ofensiva se vuelve más difícil de auditar.
Palantir: el “Ojo de Sauron” y el negocio de los datos
Palantir es uno de los nombres más asociados a la idea de análisis de datos a escala para agencias estatales. Fue fundada en 2003 y tiene como figura clave a Alex Karp como CEO, junto con Peter Thiel entre sus fundadores.
En este marco, la integración de modelos como Claude a plataformas desarrolladas por Palantir no es un “detalle técnico”: es el encuentro entre IA conversacional/multimodal y arquitecturas de datos que ya están incrustadas en sistemas estatales y corporativos.
En este marco, el riesgo emerge cuando la integración de modelos como Claude en plataformas desarrolladas por Palantir trasciende el perímetro empresarial y se despliega en entornos militares, de inteligencia o gubernamentales.
La unión entre IA conversacional y arquitecturas de datos a gran escala en sistemas estatales amplifica las capacidades de análisis, pero también tensiona los mecanismos de control: la línea entre análisis defensivo y vigilancia constante se vuelve cada vez más difícil de distinguir.
Hackeo a Palantir y el factor “riesgo reputacional”
Este mes, comenzó a circular información sobre un presunto hackeo a Palantir. Parte del material difundido incluye afirmaciones difíciles de verificar de forma independiente y, como ocurre con filtraciones de alto perfil, el impacto no depende solo de lo que sea cierto, sino de lo que la opinión pública crea posible.
Esto introduce una ironía importante para la industria: cuanto más importante se vuelve una empresa en cadenas de seguridad y vigilancia, más fácil es que se convierte en objetivo. En ciberseguridad, la percepción y exposición pueden volverse una vulnerabilidad en sí misma.
El dilema de la industria: acelerar vs gobernar
La tensión entre despliegue rápido y gobernanza no es nueva, pero se intensifica cuando la IA se conecta a sistemas de seguridad. En este contexto, el error no es un “simple” bug: puede ser una decisión mal tomada, una falsa correlación, un sesgo transformado en insight o en el peor de los casos una acción con resultados fatales
Ese choque entre promesa y ejecución está ocurriendo en paralelo dentro de las principales empresas de IA, con renuncias y señales de fricción interna. Si quieres contexto sobre esa inestabilidad, revisa Renuncias en la industria de la IA: choque de realidad.
Y si lo que te interesa es un marco más amplio (poder, valor y concentración de datos) te recomendamos revisar La burbuja de la IA, tecnofeudalismo y datos.
¿Qué lugar ocupa LATAM en esta conversación?
Una de las preguntas que queda abierta es cómo se traducen estas tecnologías en regiones donde el debate suele llegar tarde: marcos regulatorios, soberanía de datos, capacidades locales y dependencia de plataformas externas.
En Chile ya se discuten modelos y desarrollos propios, con iniciativas que buscan construir soberanía lingüística, técnica y en el entrenamiento de los modelos. Si quieres profundizar en ese eje, revisa LatamGPT y el intento de construir modelos desde la región.
Ciberseguridad ya no es solo defensa, es gobernanza
El caso Claude–Pentágono y la conversación alrededor de Palantir no solo es sobre vigilancia. Hablan de una transición: la ciberseguridad se está convirtiendo en un sistema de decisiones asistidas por IA, donde los datos son el insumo principal y la interpretación puede automatizarse.
En ese escenario, la pregunta relevante no es si la IA se usará, sino bajo qué controles, con qué auditoría y con qué límites. La tecnología acelera, pero la normativas se construyen a un paso más lento.
Y esa tensión (entre aceleración y control) también se refleja en las disputas de narrativa y poder en la industria, como abordamos en la tensión Musk–Altman y el choque de modelos.
FAQ
¿Qué tiene que ver Claude con ciberseguridad?
Modelos como Claude pueden ayudar a procesar y resumir grandes volúmenes de información, priorizar alertas y detectar patrones. En entornos de seguridad, eso puede acelerar decisiones, pero también introduce riesgos si no hay gobernanza.
¿Palantir es una empresa de vigilancia?
Palantir desarrolla plataformas de análisis de datos utilizadas por distintos clientes, incluyendo gobiernos. Su reputación está asociada a usos de inteligencia y seguridad, lo que genera debate público sobre vigilancia y control.
¿Por qué esto importa para LATAM?
Porque estas tecnologías suelen adoptarse sin marcos claros de soberanía de datos, transparencia o rendición de cuentas. La región necesita capacidad técnica y regulatoria para no depender solo de decisiones externas.



