Resumen / Puntos clave
Esa sensación de hundimiento es real
Una palpable sensación de desilusión se ha apoderado del panorama de la IA generativa. Los usuarios de todas las plataformas informan cada vez más de un declive significativo en el rendimiento y la utilidad de los principales chatbots como ChatGPT de OpenAI y Claude de Anthropic. Lo que una vez pareció un atisbo de un futuro más inteligente ahora a menudo se siente como una regresión, provocando una frustración generalizada y una avalancha de quejas compartidas en foros y redes sociales. La luna de miel, al parecer, ha terminado definitivamente.
Este sentimiento se cristalizó recientemente con el lanzamiento del último modelo insignia de Anthropic, Opus 4.7. A pesar de la fanfarria inicial y el sólido rendimiento en los puntos de referencia internos, el modelo rápidamente generó una fuerte reacción negativa de la comunidad, con muchos usuarios describiéndolo como 'terrible'. Esta desaprobación generalizada subraya una desconexión crítica entre cómo las empresas de IA miden el éxito y la experiencia matizada y cualitativa de sus usuarios en aplicaciones del mundo real.
En general, los modelos se sienten menos creativos, más didácticos y notablemente propensos a 'poner palabras en tu boca', en lugar de asistir genuinamente o expandir las indicaciones del usuario. Esto no se limita a una sola plataforma; las quejas sobre la reducción de matices, el aumento de tonos moralistas y la falta general de utilidad han surgido consistentemente tanto para ChatGPT como para Claude durante los últimos 6-12 meses. Los usuarios están descubriendo que sus compañeros de IA, antes poderosos, se están volviendo frustrantemente rígidos e inútiles.
Durante un tiempo, estas preocupaciones se sintieron como quejas aisladas, quizás incluso adelantadas a la Overton window para el discurso principal de la IA. Ahora, una masa crítica de usuarios reconoce una realidad compartida e innegable: la IA con la que interactúan a diario es demostrablemente peor, a menudo sin cumplir siquiera las expectativas básicas. Esta degradación generalizada plantea una pregunta apremiante que impregna la industria: ¿Es este declive un subproducto accidental del rápido desarrollo y escalado, o un resultado predecible, quizás incluso inevitable, de las estructuras de incentivos actuales de la industria de la IA, que pueden priorizar otras métricas sobre la inteligencia y utilidad genuinas?
Bienvenido a la 'Enshittification' de la IA
Acuñado por el autor Cory Doctorow, la enshittification describe la degradación predecible de las plataformas en línea. Este término, aplicado inicialmente a los gigantes de las redes sociales, captura perfectamente el ciclo de vida de los servicios que comienzan siendo fáciles de usar antes de convertirse en una cáscara frustrante y sin valor de lo que fueron. Es una podredumbre sistémica, no un incidente aislado.
Doctorow describe un sombrío proceso de tres etapas. Primero, las plataformas atraen a los usuarios con un producto excelente, a menudo subsidiado, estableciendo un fuerte network effect. Segundo, una vez que los usuarios están cautivos, la plataforma comienza a explotarlos, desviando valor a clientes comerciales como anunciantes o creadores de contenido. Finalmente, con usuarios y empresas dependientes, la plataforma explota a sus clientes comerciales, recuperando todo el valor restante para sí misma, dejando a todos los demás con una experiencia disminuida.
Esta trayectoria refleja la crisis que se desarrolla en la IA. Las primeras iteraciones de modelos como ChatGPT de OpenAI y Claude de Anthropic ofrecieron capacidades sin precedentes, a menudo sin costo directo para el usuario. Estas fueron la fase del "gran producto", fuertemente subsidiadas para atraer a millones, recopilar datos de usuario invaluables y establecer el dominio del mercado. El factor "wow" inicial, sin embargo, ha dado paso a un declive palpable en la calidad y la fiabilidad.
Lo que los usuarios perciben como un rendimiento decreciente de la IA no es un defecto; es un resultado deliberado de la evolución de sus modelos de negocio. Así como Facebook pasó de conectar amigos a monetizar la atención, y Twitter (ahora X) priorizó las métricas de engagement sobre el bienestar del usuario, las empresas de IA ahora están optimizando para imperativos corporativos. Esto incluye la reducción de costes en inferencia, la implementación de filtros de "seguridad" estrictos o la adaptación de modelos para clientes empresariales, todo a expensas de la experiencia general del usuario y la inteligencia bruta. La Overton window window para una calidad aceptable de la IA se está desplazando hacia abajo, impulsada por el beneficio, no por el progreso.
Son los Incentivos, Estúpido
La frustración del usuario con la disminución de la calidad de los chatbots no es accidental; es la consecuencia directa de poderosas y competitivas estructuras de incentivos dentro de las mismas empresas que construyen estos sistemas avanzados de IA. Lejos de ser un descuido técnico, la degradación observable de modelos como ChatGPT de OpenAI y Claude de Anthropic proviene de un cambio fundamental en las prioridades corporativas, donde la satisfacción del usuario externo ahora lucha contra la supervivencia corporativa interna.
Las ambiciones iniciales de ofrecer experiencias de usuario innovadoras e inteligentes han sido eclipsadas por una trinidad de presiones internas. Estas incluyen el aplastante coste de computación, que exige una eficiencia severa sobre la potencia bruta y sin restricciones; el miedo paralizante a los litigios, que lleva a resultados excesivamente cautelosos, a menudo censurados y a veces inútiles; y la guerra imposible de ganar contra las 'alucinaciones,' empujando a los modelos hacia la insipidez y la predictibilidad en pos de una precisión fáctica absoluta.
Estas profundas batallas internas ahora dictan el desarrollo de la IA, dejando de lado la búsqueda inicial de interacciones verdaderamente inteligentes o atractivas. Las empresas ya no están optimizando únicamente para la "mejor" experiencia de chatbot, sino para una que sea económicamente viable, legalmente defendible y mínimamente propensa a generar contenido controvertido o indeseable. Esta reorientación altera fundamentalmente cómo se entrenan, ajustan y, en última instancia, se despliegan estos sistemas a millones de usuarios.
Lo que los usuarios perciben como la IA volviéndose "más tonta" es, en esencia, una serie de compensaciones estratégicas. El factor sorpresa inicial que cautivó a millones ha dado paso a un enfoque más pragmático y adverso al riesgo, sacrificando el rendimiento por la estabilidad y el control de costes. En las siguientes secciones, diseccionaremos cada una de estas tres fuerzas, explorando precisamente cómo las inmensas demandas computacionales, las inminentes amenazas legales y la tarea Sísifa de erradicar las fabricaciones están haciendo activamente que tu chatbot sea menos capaz y más frustrante.
Factor #1: El Peso Aplastante del Coste
Operar modelos de lenguaje grandes (LLMs) de última generación como GPT-4 de OpenAI o Claude Opus de Anthropic demanda un gasto astronómico. Cada interacción, desde una consulta casual hasta una solicitud de codificación intrincada, desencadena una cascada computacional masiva a través de vastos clústeres de GPUs especializadas. Estas operaciones consumen cantidades prodigiosas de electricidad y requieren un mantenimiento constante de infraestructura de alta gama, lo que se traduce en un coste por consulta que supera fundamentalmente los ingresos típicos.
Cada consulta de usuario, por lo tanto, funciona como una transacción fuertemente subvencionada. Si bien las empresas pueden ofrecer niveles gratuitos para atraer usuarios y suscripciones de pago para un acceso mejorado, la economía subyacente sigue siendo brutal. El coste real de generar una respuesta matizada y profundamente razonada de un modelo de primer nivel a menudo supera los ingresos marginales generados, incluso por un suscriptor premium.
Las Premium subscriptions, a menudo en el $20-$30 range, ofrecen a los usuarios más tokens o límites de uso más altos. Sin embargo, estas tarifas rara vez cubren el gasto computacional completo de tareas de razonamiento complejas. Cuando un usuario solicita a la AI una resolución de problemas intrincada, un análisis de múltiples pasos o una generación creativa que requiere un extenso 'pensamiento' interno, el modelo consume significativamente más recursos. Paradójicamente, cuanto más un usuario aprovecha la inteligencia real de la AI —su característica más valiosa— más dinero pierde la empresa en esa interacción.
Esta estructura de incentivos invertida obliga a los desarrolladores a buscar eficiencias. Un método principal implica reducir sutilmente la profundidad de razonamiento del modelo, una práctica coloquialmente denominada "shaving off thought tokens". Esto no se trata de censura directa; se trata de reducir los pasos computacionales internos que un LLM toma antes de formular una respuesta. Los ingenieros pueden reducir el 'tiempo de pensamiento' del modelo, limitar su monólogo interno o reducir el alcance de su recuperación de información, todo para ahorrar en costosos ciclos computacionales.
Los usuarios experimentan las consecuencias directas de estas medidas de reducción de costos. Los chatbots con frecuencia parecen más 'perezosos', proporcionando respuestas más cortas, menos completas o excesivamente genéricas. Demuestran una notable renuencia a abordar preguntas complejas y de varias partes, a menudo simplificando el problema o solicitando aclaraciones en lugar de intentar una solución profunda. Esta disminución observada en la calidad —la frustración por una AI que antes era brillante y ahora se siente disminuida— es un resultado directo y económicamente racional del peso aplastante del computational cost.
Driver #2: The Billion-Dollar Lawsuit Specter
Las AI companies, entidades corporativas masivas, operan bajo un temor existencial a la legal liability. A diferencia de las startups más ágiles, estas organizaciones multimillonarias priorizan la mitigación de riesgos por encima de casi todo lo demás. Cada consulta procesada por un large language model representa un vector potencial para una demanda devastadora, lo que instaura un enfoque profundamente conservador en el desarrollo.
La infracción de derechos de autor ya proyecta una larga sombra. Editores y autores persiguen vigorosamente litigios, ejemplificado por la demanda contra Anthropic, alegando que la empresa entrenó sus Claude models con vastas cantidades de libros protegidos por derechos de autor sin consentimiento. Tales casos amenazan con redefinir el panorama legal para los datos de entrenamiento de AI, potencialmente invalidando modelos existentes y exigiendo tarifas de licencia astronómicas.
Más allá de los datos de entrenamiento, el espectro de consejos dañinos se cierne. Los AI models que dispensan orientación errónea o peligrosa podrían desencadenar batallas legales catastróficas. Imagine un AI chatbot que proporciona: - Asesoramiento legal incorrecto que conduce a la ruina financiera - Diagnósticos erróneos en un contexto médico, poniendo en peligro la salud del paciente - Planificación financiera defectuosa que resulta en pérdidas significativas
Para adelantarse a estas responsabilidades, los desarrolladores recurren a medidas extremas, efectivamente lobotomizing sus sofisticados modelos. Esta estrategia legal agresiva y defensiva implica la implementación de amplias barreras y filtros diseñados para hacer que la AI sea excesivamente cautelosa, moralista y emocionalmente estéril. El objetivo principal se convierte en eliminar cualquier resultado que, bajo la interpretación legal más minuciosa, pueda considerarse un consejo procesable pero problemático.
Este miedo omnipresente a una demanda multimillonaria se traduce directamente en la disminución de la utilidad de los chatbots modernos. Las empresas sacrifican sistemáticamente respuestas matizadas, genuinamente útiles y atractivas por platitudes genéricas y aversas al riesgo. El imperativo de evitar la culpabilidad legal inevitablemente moldea el comportamiento de la AI, lo que resulta en modelos que se sienten menos inteligentes, menos capaces y, en última instancia, mucho más frustrantes para el usuario común.
La IA 'Lobotomizada': Segura, Estéril e Inútil
Los usuarios alguna vez elogiaron a chatbots como ChatGPT y Claude por su fluidez conversacional y chispa creativa. Ahora, la experiencia a menudo se siente como interactuar con un autómata meticulosamente programado, pero completamente sin alegría. Esta es la consecuencia directa de la "lobotomización" de la IA: una castración deliberada diseñada para eliminar riesgos legales y de reputación, pero a un alto costo de utilidad y compromiso, empujando la Overton window window del comportamiento aceptable de la IA firmemente hacia la precaución extrema.
Atrás quedaron los días de respuestas matizadas y bromas ingeniosas. En cambio, los usuarios encuentran cada vez más un diluvio de frases enlatadas, la más notoria el ubicuo descargo de responsabilidad "Como un modelo de lenguaje grande...". Este preámbulo a menudo precede a una lección sobre límites éticos, pautas de seguridad o las limitaciones inherentes del modelo, independientemente de la naturaleza inofensiva de la instrucción. La IA, que alguna vez fue un socio en la exploración, ahora actúa como un comité de ética perpetuo, recordando constantemente a los usuarios sus restricciones y barandillas.
Esta agresiva sanitización despoja a los modelos de su incipiente inteligencia emocional y personalidades distintas. Donde las primeras iteraciones podrían haber ofrecido sugerencias creativas, respuestas empáticas o incluso interacciones lúdicas, las versiones actuales permanecen obstinadamente neutrales, planas y desprovistas de cualquier carácter discernible. Para tareas que requieren imaginación, ideación matizada o el tipo de interacción de compañía que muchos de los primeros adoptantes valoraron, estos modelos resultan frustrantemente inadecuados, a menudo negándose a participar en indicaciones creativas o escenarios de juego de roles debido a preocupaciones percibidas de "seguridad".
La búsqueda implacable de la seguridad absoluta, impulsada por el espectro de demandas multimillonarias y la reacción pública, ha creado así una experiencia de usuario estéril y profundamente inútil. Las empresas de IA han intercambiado eficazmente la versatilidad y la interacción atractiva por un cumplimiento insípido. La promesa inicial de un asistente dinámico e inteligente, capaz de adaptarse a diversas necesidades y fomentar la creatividad, ha sido sistemáticamente socavada. Ahora es reemplazado por una herramienta que es segura, quizás, pero cada vez más inútil para cualquier cosa más allá de las tareas de bajo riesgo y rígidamente definidas. Esta contradicción fundamental resalta la trágica ironía del panorama actual de la IA: al esforzarse por ser perfectamente inofensivos, estos sistemas avanzados se han vuelto en gran medida inertes, sin cumplir con su potencial original como asistentes verdaderamente útiles y versátiles.
Factor #3: La Guerra Imposible de Ganar contra las Alucinaciones
Las alucinaciones representan el impedimento más significativo para la adopción generalizada en empresas y profesionales de la IA generativa. Estas salidas convincentes pero fácticamente incorrectas hacen que los modelos sean fundamentalmente poco fiables para aplicaciones críticas en campos como la medicina, el derecho y las finanzas. Las empresas no pueden arriesgar su reputación ni enfrentar repercusiones legales al implementar herramientas que rutinariamente inventan datos o tergiversan hechos.
Sin embargo, lograr una precisión fáctica del 100% contradice directamente la mecánica central de cómo operan los modelos de lenguaje grandes. Estos modelos funcionan como sofisticados detectores de patrones, prediciendo la siguiente palabra más probable basándose en vastos conjuntos de datos de entrenamiento, en lugar de consultar una base de datos interna de verdades verificadas. Están diseñados para *generar*, no necesariamente para *saber*, lo que hace que el recuerdo fáctico perfecto sea un objetivo inherentemente elusivo.
Los desarrolladores de IA emplean diversas técnicas para frenar estas fabricaciones, destacando Reinforcement Learning from Human Feedback (RLHF). Este proceso intensivo en mano de obra implica que anotadores humanos evalúen las respuestas del modelo, guiando a la IA para que favorezca resultados veraces, inofensivos y útiles. Si bien es eficaz para reducir errores flagrantes, RLHF a menudo conduce a un fenómeno en el que los modelos se vuelven excesivamente cautelosos, genéricos y menos creativos, sacrificando su chispa inicial por una seguridad insípida.
La búsqueda incesante de infalibilidad para médicos, abogados y analistas financieros despoja inevitablemente a estas IA de las mismas capacidades que inicialmente cautivaron a una audiencia más amplia. A medida que las empresas priorizan mitigar la responsabilidad y garantizar respuestas estériles y predecibles para casos de uso profesional de alto riesgo, los modelos pierden su capacidad de sorprender, innovar o generar contenido verdaderamente novedoso. Este impulso para hacer que la IA sea "segura" y robusta en cuanto a hechos para la empresa, irónicamente, la vuelve cada vez más aburrida y menos útil para todos los demás, extinguiendo la chispa que una vez la hizo sentir verdaderamente mágica.
Una carrera hacia el fondo más seguro
El peso aplastante de los costos operativos, el espectro omnipresente de demandas multimillonarias y el problema intratable de las hallucinations han remodelado fundamentalmente el panorama competitivo de la IA. Las empresas una vez promocionaron puntos de referencia y compitieron por los modelos más inteligentes o capaces, empujando los límites de lo que la cognición de las máquinas podía lograr. Esa era, al parecer, ha terminado decisivamente. Los incentivos han cambiado.
El campo de batalla actual no es la inteligencia bruta, sino la viabilidad comercial. Los principales desarrolladores de IA, desde OpenAI hasta Anthropic, ya no priorizan la capacidad cognitiva innovadora o la creatividad sin restricciones. En cambio, están inmersos en una feroz y silenciosa competencia para construir modelos que aborden simultáneamente sus amenazas existenciales más apremiantes. Esto significa priorizar modelos que sean: - Los más baratos de ejecutar a escala, mitigando el enorme subsidio computacional inherente a cada consulta de usuario. - Los más defendibles legalmente, minimizando la exposición a reclamaciones por infracción de derechos de autor, demandas por difamación o responsabilidades por errores fácticos. - Los más seguros para clientes corporativos, asegurando resultados predecibles y alineados con la marca, completamente libres de contenido controvertido, ofensivo o políticamente sensible.
Este giro estratégico explica directamente la frustración generalizada de los usuarios y la percibida degradación de la calidad del modelo. La IA "lobotomizada", despojada de su matiz, chispa creativa y espíritu aventurero, no es un subproducto accidental. Es el resultado deliberado y diseñado de estas poderosas presiones comerciales y legales. La innovación, particularmente en áreas que requieren creatividad sin filtros, comprensión matizada o razonamiento complejo, se convierte menos en un objetivo y más en una responsabilidad.
En última instancia, esta trayectoria representa una clara carrera hacia el fondo más seguro. Las empresas de IA sacrifican activamente la inteligencia bruta, las capacidades emergentes y una experiencia de usuario genuinamente atractiva en el altar de la eficiencia de costos y la mitigación de riesgos. La IA más exitosa en este nuevo paradigma no es la más inteligente, ni siquiera la más útil para un usuario general; es la más estéril, predecible y la menos propensa a generar controversias, dolores de cabeza legales o déficits operativos masivos. Esto sofoca el verdadero avance, intercambiando la capacidad genuina por la tranquilidad corporativa y, en última instancia, disminuyendo el potencial de todo el campo.
¿Hay una salida a esta espiral?
Escapar de la espiral actual exige una reevaluación fundamental del desarrollo y la implementación de la IA. La alternativa más prometedora reside en los modelos de código abierto, que ofrecen un contrapunto transparente a los sistemas opacos y propietarios como ChatGPT y Claude. El desarrollo impulsado por la comunidad podría fomentar la innovación sin las mismas presiones corporativas por la seguridad universal o la reducción de costos.
Los modelos de código abierto, sin embargo, enfrentan desafíos formidables. Entrenar un modelo de lenguaje grande de vanguardia puede costar decenas o cientos de millones de dólares, una barrera prohibitiva para muchas entidades no comerciales. Además, si bien ofrecen libertad, la falta de salvaguardias centralizadas plantea preocupaciones legítimas sobre el posible uso indebido y la ausencia de estructuras de responsabilidad claras.
Los modelos de negocio alternativos también podrían cambiar los incentivos principales. En lugar de un chatbot generalista basado en suscripción diseñado para servir a todos, la IA futura podría evolucionar hacia modelos altamente especializados y ajustados para industrias específicas. Imagine herramientas de IA a medida para investigación legal, diagnósticos médicos o análisis financiero, donde la precisión y la experiencia en el dominio superan la amplia capacidad conversacional.
Estas IA especializadas podrían licenciarse o implementarse en las instalaciones, cambiando el cálculo económico. Las empresas pagarían por una utilidad precisa y un rendimiento verificable, en lugar de subsidiar cada consulta pública en un modelo genérico y adverso al riesgo. Este enfoque minimiza la carga de costos "por token" y reduce la amplia exposición legal de las ofertas actuales del mercado masivo.
En última instancia, la pregunta sigue siendo si esta degradación es un destino inevitable para cualquier IA comercializada a gran escala. Las fuerzas del costo, la responsabilidad y la guerra imposible de ganar contra las alucinaciones crean una atracción inexorable hacia un producto más seguro, pero menos capaz, cuando el beneficio y el dominio del mercado son los principales impulsores. Romper este ciclo requiere un cambio radical en cómo concebimos, construimos y financiamos la inteligencia artificial, priorizando la utilidad y la integridad sobre la accesibilidad universal y sanitizada.
Su papel en el futuro de la IA
Los usuarios tienen un poder significativo para dirigir el futuro de la inteligencia artificial; su trayectoria no está predeterminada. Su participación activa y sus elecciones discernidas pueden contrarrestar las fuerzas de la enshittification que actualmente degradan los modelos principales. Las empresas, en última instancia, responden al compromiso, la retención y los ingresos de los usuarios, lo que hace que su voz colectiva y sus hábitos de gasto sean cruciales.
Proporcione comentarios específicos y críticos a los desarrolladores de IA, yendo más allá de los simples informes de errores. Articule la pérdida precisa de capacidad que observa. Por ejemplo, explique cómo las iteraciones anteriores de ChatGPT podían manejar conversaciones complejas de múltiples turnos con memoria contextual, detallando dónde fallan ahora las versiones actuales. O describa cómo Claude Opus 4.7 una vez sobresalió en la escritura creativa matizada, ahora recurriendo a prosa genérica y adversa al riesgo. Documentar esta degradación es vital para que los desarrolladores comprendan el verdadero impacto de sus salvaguardias de seguridad y medidas de reducción de costos.
Más allá de los jardines vallados de las ofertas corporativas, explore y apoye activamente el floreciente ecosistema de IA de código abierto. Proyectos como Llama 3 de Meta, los robustos modelos de Mistral AI y los innumerables derivados proporcionan alternativas transparentes, a menudo libres de los mismos conflictos de incentivos corporativos que impulsan la degradación del código cerrado. Involucrarse con estas comunidades, contribuir a su desarrollo o simplemente elegir ejecutar potentes modelos locales fomenta un panorama competitivo que prioriza la capacidad, el control del usuario y la innovación.
En última instancia, conviértase en un consumidor consciente de la AI. Comprenda las fuerzas ocultas que dan forma a las herramientas que usa a diario: los aplastantes costos computacionales, el miedo omnipresente a demandas multimillonarias y la guerra imposible de ganar contra las hallucinations. Exija algo mejor. Al buscar activamente y abogar por modelos que prioricen la inteligencia y la utilidad sobre la esterilidad, los usuarios pueden impulsar colectivamente a la industria hacia un futuro más innovador y genuinamente útil para la inteligencia artificial.
Preguntas Frecuentes
¿Qué es la 'enshittification' de la AI?
Es la teoría de que los modelos de AI, al igual que las plataformas de redes sociales, se degradan con el tiempo a medida que las empresas cambian su enfoque del valor para el usuario a la maximización de ganancias y la minimización de riesgos.
¿Por qué las empresas de chatbots hacen sus modelos más 'seguros'?
Para evitar costosas demandas de usuarios que podrían actuar según consejos dañinos, incorrectos o ilegales generados por la AI, lo que las obliga a hacer los modelos excesivamente cautelosos.
¿Las suscripciones de AI de pago siguen siendo subvencionadas por las empresas?
Sí, según el análisis de la industria, incluso los clientes de pago a menudo no cubren el costo computacional total, lo que da a las empresas un incentivo financiero para reducir el rendimiento del modelo.
¿Cómo la lucha contra las 'hallucinations' empeora la AI?
El enfoque intenso en la eliminación de errores fácticos (hallucinations) a menudo resulta en modelos menos creativos, más repetitivos y que se niegan a participar en conversaciones especulativas o matizadas, lo que limita su utilidad general.