Pagas 2,49 dólares al mes. Una mañana intentas acceder a tu cuenta y te encuentras con un mensaje de error genérico. No hay email previo. No hay advertencia. No hay explicación. Solo una pantalla que dice: servicio deshabilitado por violación de términos.

Llamas al soporte de Google. Te dicen que uses la herramienta de feedback dentro de la app. Pero no puedes entrar a la app. Pruebas con Google Cloud Support. "No es nuestro departamento." Google One Support. "Tampoco es nuestro departamento." Y tu tarjeta de crédito sigue siendo cargada cada mes.

Esto no es ficción. Esto ocurrió en febrero de 2026 a miles de usuarios de pago de Google. Y la historia que hay detrás revela mucho más que un conflicto entre una empresa y sus clientes.

Un prototipo en una hora que batió todos los récords

Peter Steinberger es un desarrollador austriaco. Fundó PSDF Kits, un motor PDF que Apple, Dropbox e IBM usan en más de mil millones de dispositivos. Insight Partners invirtió más de 100 millones de euros. Después de 13 años, Steinberger sufrió burnout y se alejó del sector.

A finales de 2025, los modelos de IA mejoraron lo suficiente. Steinberger construyó un prototipo en aproximadamente una hora: un agente de IA auto-alojado en tu propia máquina que se conectaba a WhatsApp, Telegram, Discord, iMessage, Signal y Slack. Siempre activo, con memoria persistente guardada en tu disco duro como archivos markdown. Tus datos, en tu máquina. Código abierto bajo licencia MIT.

Lo llamó Claudebot. El 26 de enero de 2026 lo anunció públicamente. Consiguió 25.000 estrellas en GitHub en un solo día, pulverizando todos los récords. En pocas semanas superó las 196.000 estrellas, situándose junto a proyectos como React o el kernel de Linux. Ningún proyecto de software había crecido tan rápido en la historia.

"Estás en la cena familiar. El móvil vibra. OpenClaw te avisa por WhatsApp: el servidor de staging de tu cliente está fallando. Respondes: comprueba los logs y reinícialo. Treinta segundos después: encontrado, proceso reiniciado, todo en orden. Disfruta la cena."

— Así describían sus usuarios el producto en enero de 2026

Entonces llegó la carta de Anthropic. El nombre "Claude" era demasiado parecido al suyo. Tras dos renombrados en cuatro días, el proyecto se convirtió en OpenClaw. Pero nadie prestaba atención a lo verdaderamente importante: OpenClaw estaba diseñado para conectarse a cualquier modelo de IA, incluyendo Gemini de Google.

El arbitraje que Google no quería ver

Google vende acceso a sus modelos Gemini por dos caminos distintos. El primero es la API oficial: pagas por token, por cada petición. El segundo es Anti-gravity, su IDE de consumo: 2,49 dólares al mes con acceso ilimitado plano a Gemini Pro, diseñado para uso humano interactivo.

Los usuarios de OpenClaw descubrieron que podían extraer el token de autenticación OAuth de Anti-gravity y conectarlo al agente. Sin hackear nada. Sin falsificar credenciales. El mismo token que Google emitió, llegando a los mismos endpoints, con la misma suscripción. Solo que en lugar de un humano escribiendo prompts en un IDE, había un agente autónomo ejecutando cientos de peticiones a las 3 de la madrugada.

La lógica económica era irresistible: acceso a una API de nivel profesional al precio de una suscripción de consumo. Piénsalo como comprar un abono de bufet libre y enviar un robot a servirse 24 horas al día mientras tú duermes. Mismo ticket, mismo precio, pero un uso radicalmente diferente.

Cronología del conflicto

FechaHecho
26 Ene 2026Steinberger anuncia OpenClaw. 25.000 estrellas en GitHub en un día.
12 Feb 2026Google comienza a banear cuentas silenciosamente. Sin comunicado, sin aviso previo.
15 Feb 2026Sam Altman anuncia que Steinberger se une a OpenAI. OpenClaw pasa a su órbita.
20 Feb 2026Anthropic actualiza su página de cumplimiento y prohíbe explícitamente el uso de tokens OAuth en herramientas externas.
23 Feb 2026El director de Anti-gravity publica en Twitter. Reconoce el problema pero mantiene los baneos. Promete "un camino de vuelta" sin fechas ni detalles.

Tres empresas, tres respuestas que revelan todo

Lo más significativo de este episodio no es el ban en sí. Es la diferencia abismal entre cómo respondieron las tres compañías implicadas.

OpenAI — Puerta abierta. Única empresa que explícitamente permite conectar herramientas externas a sus suscripciones. Además contrató a Steinberger y patrocinó el proyecto.

Anthropic — Diálogo y límites. Comunicó los cambios. Mantuvo contacto directo con Steinberger. Distingue entre uso personal experimental y uso comercial intensivo. Sin baneos masivos.

Google — Tolerancia cero. Sin aviso previo. Sin distinción entre usuarios ligeros y agentes 24h. Sin reembolsos. Sin canal de apelación. Silencio durante 3 semanas.

El ecosistema de desarrolladores registró la asimetría de inmediato. Usuarios con configuraciones multi-proveedor veían que Claude y OpenAI seguían funcionando mientras Google eliminaba sus cuentas sin una sola explicación.

Y aquí es donde la cronología se vuelve incómoda para Google: los baneos empezaron el 12 de febrero, una semana antes del anuncio público de Anthropic, tres días antes de que se supiera que Steinberger se unía a OpenAI. Google comenzó a actuar antes de que existiera ningún comunicado público. En silencio.

La palabra que enfureció a los desarrolladores

El 23 de febrero, el director de Anti-gravity publicó en Twitter reconociendo el problema. Usó la palabra malicious. Uso malicioso.

Esa palabra incendió el debate. Porque los afectados no habían hackeado nada. No habían falsificado credenciales. Habían usado el flujo OAuth que el propio Google diseñó y aprobó. Pagaban 250 dólares al mes —la tarifa más alta disponible. Y Google los llamó maliciosos.

"Eran vuestros usuarios reales. Literalmente os pagaban el precio más alto posible. Y los llamáis maliciosos."

— Desarrollador en el foro de Google, febrero de 2026

La respuesta oficial, cuando finalmente llegó tres semanas después del primer ban, fue: "nuestra investigación confirmó el uso de credenciales en la herramienta OpenClaw. Esto constituye una violación de los términos de servicio. No podemos revertir la suspensión." Sin apelación.

Lo que hace más revelador todo esto es que Google tenía los datos. Sabía exactamente qué cuentas generaban el 90% de su tráfico desde OpenClaw. Podría haber implementado throttling. Podría haber enviado un email de advertencia. Podría haber devuelto un error con una explicación. Eligió el ban inmediato y permanente.

Lo que Google debería haber hecho

  1. Throttling progresivo: limitar peticiones por encima de un umbral razonable.
  2. Email de aviso claro: "Detectamos uso automatizado. Tienes 72h para migrar al plan API o ajustar tu uso."
  3. Suspensión temporal con canal de apelación.
  4. Oferta de un plan de transición hacia la API de pago por uso.
  5. Convertir a los usuarios más activos en clientes premium, no en adversarios.

El modelo de negocio como radiografía

Detrás de este episodio hay algo más profundo que una discusión técnica sobre tokens OAuth. Hay un conflicto de modelos de negocio que se repite con pasmosa regularidad en el ecosistema tecnológico.

Reddit cambió su política de API en 2023 y mató a Apollo, el cliente más popular. Elon Musk introdujo precios en la API de Twitter ese mismo año y eliminó de la noche a la mañana cientos de aplicaciones de terceros. El patrón es siempre el mismo: las plataformas construyen ecosistemas, los desarrolladores construyen sobre ellos, y las plataformas cambian las reglas cuando ese ecosistema se vuelve inconveniente.

Pero hay algo diferente en el caso de OpenClaw. Lo que los usuarios estaban haciendo no era robar. Era arbitraje. Encontraron una asimetría de precio entre dos productos del mismo proveedor y la aprovecharon. Y en lugar de ver eso como una señal de mercado —hay usuarios dispuestos a pagar mucho más por acceso automatizado a Gemini— Google eligió eliminarlos.

El comportamiento que quería penalizar era, en realidad, la señal más clara de que había demanda real para un producto que no existía en su catálogo. Los usuarios de OpenClaw no eran un problema. Eran el focus group más honesto que Google podría haber tenido.

Lo que está en juego de verdad

El verdadero problema no es técnico. Es de confianza.

Los desarrolladores que construyen flujos de trabajo sobre plataformas de IA están apostando su tiempo, su reputación y su negocio en que esas plataformas no van a cambiar las reglas de golpe. Cada ban sin aviso, cada cambio de API con efectos retroactivos, cada cierre de ecosistema, erosiona esa confianza de forma permanente.

Y en el mercado de los agentes de IA —que está creciendo exponencialmente— la confianza del desarrollador es la ventaja competitiva más difícil de construir y la más fácil de destruir.

OpenAI lo entiende. Por eso no solo permite el uso de tokens en herramientas externas, sino que contrató al creador de la herramienta más popular del ecosistema. Anthropic lo entiende a medias: comunicó, dialogó, pero no dio claridad total. Google no lo entiende, o no le importa.

Steinberger lo resumió el mismo día en que salió la respuesta oficial: "Pretty draconian from Google. Be careful out there. Even Anthropic pings me and is nice about issues. Google just... bans."


Hay una lección operativa clara para cualquier empresa o profesional que construya flujos de trabajo sobre IA: tu suscripción de consumo no es tu clave de API. Las plataformas pueden revocarla en cualquier momento, sin previo aviso, sin reembolso. Si tu negocio depende de una única plataforma de IA en modo suscripción, estás a un flag automatizado de que todo se detenga.

Pero hay una lección más importante. El patrón que se repite en este episodio —usuarios que encuentran valor real, plataforma que elimina ese valor con contundencia en lugar de monetizarlo— no es un error de gestión. Es una hipótesis sobre cómo funciona el poder en plataformas digitales maduras.

Cuando una plataforma ya no necesita tu lealtad para crecer, puede permitirse castigarte por ser demasiado usuario.

Y eso, en el fondo, es la pregunta que deberías hacerte sobre cada herramienta de IA que usas hoy: ¿te tratan como cliente o como recurso?

Alejandro Guerrero es fundador del grupo Tinku y analista de la intersección entre tecnología, negocio y poder. Si quieres trabajar la transformación digital con criterio, no con hype, únete a la Comunidad Tinku.