Geek / Marzo 9, 2026
Cancela ChatGPT: el boicot a OpenAI
Lo que comenzó como una alianza estratégica terminó convirtiéndose en una ola inesperada de críticas y cancelaciones. Tras confirmarse que OpenAI firmó un acuerdo de colaboración con el Departamento de Defensa de Estados Unidos (ahora conocido como Departamento de Guerra), miles de usuarios comenzaron a compartir un mensaje simple pero contundente: “cancela ChatGPT”.
En pocos días, se reportaron aumentos en desinstalaciones y cancelaciones de suscripciones premium, impulsadas por usuarios que cuestionaban el uso de inteligencia artificial en contextos militares.
Este episodio abrió una discusión más amplia que el propio acuerdo: ¿Hasta dónde deberían llegar las empresas de inteligencia artificial cuando entran en el terreno militar? ¿Cuáles son los criterios con los que debemos trabajar respecto a la inteligencia artificial?

Cómo comenzó el conflicto
El detonante fue la confirmación de que OpenAI participaría en proyectos vinculados al Departamento de Defensa estadounidense. Quienes aceptaron rapidamente la colaboración, luego de que sus cométencia directa, Anthropic. haya rechazao el acuerdo con el pentagono, en primera intancia, luego de no estar de acuerdo con el trato y el nivel de contro que tendria el gobierno sobre la IA.
El detonante fue la confirmación de que OpenAI participaría en proyectos vinculados al Departamento de Defensa de Estados Unidos. La compañía aceptó rápidamente la colaboración, después de que su competencia directa, Anthropic, decidiera rechazar una propuesta similar del Pentágono en una primera instancia. Según se desarrolló el trato, la empresa no estaba segura con las condiciones del acuerdo ni con el nivel de control que el gobierno podría tener sobre el uso de su inteligencia artificial en ese contexto.
Este tipo de colaboración no es nueva en Silicon Valley, pero el contexto actual amplificó la reacción.
Las herramientas de inteligencia artificial se han vuelto parte de la vida cotidiana de millones de personas. Cuando una plataforma de uso masivo como ChatGPT entra en el terreno militar, el debate deja de ser técnico y se vuelve público.
Distintos reportes indicaron que las desinstalaciones de la aplicación aumentaron después del anuncio, junto con campañas en redes sociales que promovían cancelar suscripciones o dejar de usar el servicio.
La reacción mostró algo importante: la relación entre plataformas de IA y sus usuarios ya no es solo tecnológica: es cultural, política y ética.
La relación histórica entre IA y defensa
La colaboración entre empresas tecnológicas y agencias gubernamentales en proyectos de defensa tiene décadas de historia. Compañías como Palantir, Oracle o Microsoft han trabajado con instituciones militares en análisis de datos, seguridad y sistemas de inteligencia.
En los últimos años, sin embargo, el crecimiento de los modelos de lenguaje (LLM’s) y las plataformas de IA generativa ha intensificado la discusión sobre los límites de estas alianzas.
El debate se volvió aún más visible cuando trascendió que herramientas de inteligencia artificial desarrolladas por distintas empresas habían sido utilizadas en contextos militares estratégicos e internacionales.
La discusión sobre vigilancia, seguridad y poder tecnológico ya venía creciendo, como analizamos en nuestro análisis sobre IA, vigilancia y ciberseguridad.
La reacción de los usuarios
En cuestión de días, el hashtag #CancelChatGPT comenzó a circular en redes sociales y comunidades tecnológicas. Usuarios compartían capturas de pantalla mostrando cancelaciones de suscripciones o la eliminación de la aplicación.
En muchos casos, las críticas no se centraban únicamente en el acuerdo con el Pentágono, sino en una preocupación más amplia sobre el rumbo de la industria de la inteligencia artificial.
La conversación ya no gira solo en torno a tecnología, sino a confianza: qué tipo de empresas construyen estas herramientas y qué decisiones están dispuestas a tomar.
Este clima de tensión ya venía reflejándose en la industria, como revisamos en el análisis sobre renuncias y conflictos dentro del sector de la IA.
La primera reacción dentro de OpenAI
El impacto del acuerdo no se limitó a los usuarios. También tuvo consecuencias dentro de la propia empresa.
Tras el anuncio, Caitlin Kalinowski, líder de iniciativas de robótica y hardware en OpenAI, presentó su renuncia pública. La ejecutiva cuestionó la falta de discusión interna y la ausencia de medidas de seguridad claras antes de firmar el acuerdo.
En su declaración señaló preocupaciones específicas relacionadas con dos escenarios: el uso de inteligencia artificial para vigilancia sin supervisión judicial y el riesgo de desarrollar sistemas con capacidad de autonomía letal.
Su salida se convirtió en una señal de que el debate no era únicamente externo. También existían tensiones internas dentro de la compañía sobre el rumbo de la tecnología.
OpenAI intenta corregir el rumbo
Tras la reacción pública, Sam Altman anunció que la empresa revisaría ciertos aspectos del acuerdo para aclarar principios de uso y limitaciones.
El problema es que, en términos de percepción pública, el daño ya estaba hecho. Cuando una plataforma que se presenta como herramienta universal entra en el ámbito militar, los usuarios no analizan solo el contrato: interpretan la señal política que envía, ya sea explícita o implícita.
Una industria bajo presión
Este episodio también refleja una tensión más amplia dentro del sector tecnológico.
El desarrollo de modelos de inteligencia artificial requiere inversiones masivas en infraestructura, energía y talento. Para sostener ese ritmo, las empresas exploran distintos modelos de financiamiento y alianzas estratégicas. En ese contexto, colaboraciones con gobiernos o instituciones de defensa aparecen como una fuente natural de recursos y aplicaciones.
Pero cada una de esas decisiones aumenta el debate público sobre el uso de la tecnología.
La discusión también se conecta con otros cambios recientes en el modelo de negocio de la IA, como revisamos en la discusión sobre publicidad dentro de ChatGPT.
El contexto global de la IA
Mientras estas tensiones se desarrollan, otros actores buscan alternativas regionales y locales para el desarrollo de modelos de lenguaje.
Un ejemplo es el proyecto latinoamericano que analizamos en nuestro artículo sobre Latam GPT, que busca reducir la dependencia tecnológica externa. En paralelo, también emergen experimentos sociales donde la interacción digital ocurre cada vez más entre sistemas automatizados, como exploramos en el caso de MoltBook y los agentes autónomos.
Todos estos fenómenos apuntan hacia una misma dirección: la inteligencia artificial ya no es solo una herramienta técnica. Es un actor dentro de la economía, la política y la cultura digital.
El boicot
El movimiento “cancela ChatGPT” probablemente no cambie por sí solo el rumbo de la industria. Pero deja algo claro: los usuarios ya no son solo consumidores de tecnología, también participan en la conversación sobre cómo se desarrolla.
En un escenario donde la inteligencia artificial influye cada vez más en la economía y la información, cada decisión empresarial se vuelve parte de un debate público más amplio. La pregunta que queda abierta no es solo qué hará OpenAI ahora, sino cómo responderán otras compañías cuando enfrenten dilemas similares.
FAQ
¿Por qué surgió el movimiento “cancela ChatGPT”?
Surgió tras el anuncio de un acuerdo entre OpenAI y el Departamento de Defensa de Estados Unidos, lo que generó críticas sobre el uso militar de herramientas de inteligencia artificial.
¿Hubo realmente desinstalaciones masivas?
Diversos reportes indicaron un aumento en desinstalaciones y cancelaciones de suscripciones después del anuncio del acuerdo.
¿OpenAI sigue colaborando con el Pentágono?
Sí, aunque la empresa anunció revisiones al acuerdo y aclaraciones sobre los límites del uso de su tecnología y privacidad.
¿Por qué este caso es relevante para la industria?
Porque evidencia las tensiones entre innovación tecnológica, intereses gubernamentales y expectativas éticas de los usuarios.
¿Podría repetirse un caso similar?
Es probable. A medida que la inteligencia artificial se vuelve más influyente, las decisiones estratégicas de las empresas tecnológicas tendrán cada vez más impacto político y social.



