El éxito ahoga a Anthropic: Claude Code empieza a cobrar un extra a los usuarios que usan la IA con agentes como OpenClaw
por Edgar OteroEl éxito arrollador de las herramientas de programación asistida por IA está chocando de frente con la dura realidad de la infraestructura tecnológica. Anthropic acaba de anunciar un cambio drástico en sus políticas de uso que penaliza directamente a los perfiles técnicos más avanzados, confirmando que mantener agentes de inteligencia artificial funcionando de forma continua es un desafío logístico enorme. Los suscriptores de Claude han comenzado a recibir correos electrónicos donde se les informa del fin de la tarifa plana para herramientas externas.
A partir de este 4 de abril, la integración con plataformas de terceros como OpenClaw dejará de estar cubierta por la suscripción estándar mensual. La compañía dirigida por Dario Amodei obligará a estos desarrolladores a pagar una tarifa adicional por uso, argumentando que este tipo de aplicaciones generan una tensión desproporcionada en sus sistemas. Es un movimiento que evidencia cómo los límites de la plataforma, ya bastante restrictivos para quienes pagan unos 23 euros al mes, son insuficientes ante las peticiones automatizadas.
Para suavizar este golpe a la comunidad de programadores, la comunicación oficial de la empresa detalla algunas alternativas temporales de compensación. Anthropic proporcionará un crédito único equivalente al precio de un mes de suscripción que podrá reclamarse hasta el próximo 17 de abril. Además, implementarán descuentos de hasta el 30 % para quienes adquieran paquetes de uso adicional por adelantado, al tiempo que habilitan la opción de pedir un reembolso completo para los clientes que decidan abandonar el servicio.
Un conflicto con el creador de la herramienta estrella
En vista de esta decisión, Peter Steinberger, creador de OpenClaw, ha denunciado que la compañía ha copiado primero funciones populares a su ecosistema cerrado para luego bloquear a los proyectos libres. Hay que recordar que Steinberger anunció hace poco su marcha a las filas de OpenAI. Él asegura que intentó dialogar con la directiva junto al miembro de la junta Dave Morin, logrando únicamente retrasar esta medida una semana.
Desde las oficinas de la empresa afectada intentan apagar el incendio, justificando la medida como una estricta necesidad operativa, alejándose de cualquier ataque deliberado a la comunidad. Boris Cherny, responsable del producto, ha insistido en que las suscripciones actuales no se diseñaron para los patrones de consumo ininterrumpido que exigen estas herramientas de terceros. Cherny defiende que se trata de puras limitaciones de ingeniería y subraya que su equipo sigue mejorando activamente la eficiencia técnica del sistema.
El movimiento de piezas en este complejo tablero demuestra que dominar el sector corporativo es ahora la máxima prioridad. Prueba de ello es que su principal competidor ha decidido cerrar su popular aplicación de generación de vídeo Sora para, entre otras cosas, liberar una enorme cantidad de recursos de computación. Este giro radical busca enfocar todo el esfuerzo y la potencia de cálculo en seducir a los ingenieros de software, un segmento mucho más lucrativo que las herramientas creativas para el consumidor final.
Facturaciones récord frente a infraestructuras insostenibles
Resulta llamativo que la plataforma tenga que aplicar estos severos recortes en un momento de evidente bonanza económica. Aunque a nivel empresarial la compañía sea capaz de facturar más de 2.500 millones de dólares anuales superando a sus rivales, la llegada de todo ese capital no logra compensar el astronómico coste de mantener los servidores operativos ante peticiones masivas. Queda demostrado que, por mucha liquidez que genere el software corporativo, la escalabilidad de servidores físicos sigue siendo el gran cuello de botella.
A todo esto, no hay que olvidar que, más allá del mercado corporativo, las big tech también buscan conquistar a los consumidores. Por ejemplo, Apple ha integrado recientemente asistentes conversacionales en Carplay, una flexibilidad que podría provocar una adopción aun más masiva. Si la IA se generaliza de verdad, como ha sucedido con Internet o el streaming de contenidos, pero no se reduce el coste de entrenarla e inferirla, nos vamos a topar con más limitaciones de este tipo. O, por el contrario, con aumentos de precio tan astronómicos que, paradójicamente, frenen su adopción entre la gente.
La única solución pasa por lograr el mismo nivel de "inteligencia" en el procesamiento de datos, pero con un coste operativo mucho menor. Hace tiempo que algunas empresas de IA se percataron de esto y, por eso, ya trabajan en mejorar la eficiencia de los modelos. Un ejemplo reciente es TurboQuant de Google, un planteamiento que reduce el uso de memoria en la inferencia. Su efecto ha sido tan marcado, que incluso ha sacudido a los principales fabricantes en bolsa.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!



