TL;DR / Key Takeaways
El Canario en la Mina de Carbón de la IA
Un shock recorrió el mundo de la IA cuando se supo que múltiples investigadores habían abandonado discretamente OpenAI, el emblema de la IA generativa valorado en 80 mil millones de dólares. No se trataba de una reorganización habitual en una startup prometedora; fue una salida coordinada de uno de los empleadores más codiciados en tecnología, donde el personal senior suele ganar salarios de seis cifras más acciones en una empresa que avanza hacia ambiciones de billones de dólares.
Salidas como esta activan alarmas porque la gente casi nunca abandona ese tipo de dinero y prestigio por desacuerdos menores. Cuando los investigadores dicen que se están yendo por preocupaciones éticas o de integridad, señala un conflicto más profundo: el punto en el que los datos internos sobre los riesgos de la IA chocan con la narrativa de crecimiento de la empresa y las obligaciones legales con los inversores.
En el centro de la tormenta se encuentra el economista Tom Cunningham, miembro del equipo de investigación económica de OpenAI. En un mensaje de despedida compartido internamente, Cunningham advirtió que el grupo estaba “alejándose de hacer investigación real” y derivando hacia el papel de un “brazo de propaganda” corporativo, según informes transmitidos por Wired y Futurism.
Esas palabras tocaron un nervio porque van en contra de la imagen cuidadosamente elaborada de OpenAI como un laboratorio de interés público que, por casualidad, cuenta con el respaldo de los 13 mil millones de dólares de Microsoft. La crítica de Cunningham sugirió que cuando los estudios internos mostraban que la IA perjudicaba empleos o amplificaba la desigualdad, el mandato cambió de "publicar y debatir" a "manipular y contener".
Lo que a primera vista podría parecer una historia de personal se convirtió rápidamente en una crisis de transparencia y confianza. Las acusaciones de que OpenAI minimizó las pérdidas de empleo, enmarcó la disrupción como "temporal o manejable", y evitó publicar investigaciones que podrían impulsar regulaciones o reacciones adversas, plantean una pregunta contundente: ¿de quiénes son los intereses que dan forma a la ciencia que informa la política de IA?
Para una industria ya bajo crítica por sus datos de entrenamiento opacos, modelos cerrados y teatro de seguridad, estas renuncias funcionan como un canario en la mina de carbón de la IA. Si los internos del laboratorio insignia ya no confían en la integridad de su propio pipeline de investigación, las repercusiones se extienden mucho más allá del registro de recursos humanos de una sola empresa.
¿Un 'Brazo de Propaganda de IA'?
Las acusaciones desde dentro del propio grupo de economía de OpenAI son más profundas que una disputa laboral rutinaria. En un mensaje de despedida reportado por Wired, el economista Tom Cunningham advirtió a sus colegas que el equipo de investigación económica estaba “desviándose de hacer investigación real” y, en cambio, estaba actuando como el “brazo de propaganda” de la empresa. Para un laboratorio que aún se beneficia de su aura cuasi-académica, eso suena como un golpe directo a su credibilidad científica.
Según cuatro fuentes "cercanas a la situación" citadas por Wired y resumidas por Futurism, OpenAI se ha vuelto cada vez más selectivo en cuanto a qué hallazgos económicos llegan a conocerse. El trabajo interno que destaca los ganancias en productividad de herramientas como ChatGPT y GPT-4 recibe atención; en cambio, la investigación que muestra a trabajadores desplazados o salarios estancados supuestamente se paraliza. El resultado: una narrativa curada sobre la IA como un motor de crecimiento puro, despojada de sus daños colaterales.
Esas fuentes afirman que OpenAI ahora filtra rutinariamente los resultados económicos a través de un lente político: ¿invitará este documento a la regulación, alimentará un rechazo público o ralentizará la adopción empresarial? Si la respuesta es afirmativa, la publicación se vuelve poco probable. Uno describió un patrón en el que los resultados negativos del mercado laboral se reformulan como turbulencias "temporales" o interrupciones "manejables", un lenguaje que refleja más las presentaciones a inversores que las revistas revisadas por pares.
Ese cambio convierte lo que se suponía que era una unidad científica en algo más parecido a una oficina de asuntos corporativos. En lugar de probar hipótesis sobre automatización, desigualdad y choques sectoriales, el equipo apoya cada vez más una narrativa predefinida: la IA impulsa el PIB, ayuda a los trabajadores y, en su mayoría, crea nuevos empleos. Cuando los economistas internos se sienten presionados a enfatizar lo positivo y ocultar lo negativo, la “investigación” se convierte en una herramienta de defensa, no de indagación.
El propio liderazgo de OpenAI parece reconocer el cambio de dirección. En un memo citado por Wired, el director de estrategia Jason Kwon argumentó que la empresa no debería limitarse a publicar sobre “temas difíciles”, sino “construir soluciones”, enfatizando que OpenAI “no es solo una institución de investigación, sino también un actor en el mundo.” Ese enfoque justifica orientar la investigación hacia resultados que defiendan el papel de la empresa como “el actor principal” en el despliegue de la IA.
Tomados en conjunto, las renuncias, los memorandos internos y las cuentas no oficiales apuntan a una línea argumental simple: OpenAI quiere moldear la historia económica de la IA con tanta agresividad como moldea la tecnología en sí.
De la investigación abierta a puertas cerradas
OpenAI comenzó en 2015 como una organización sin fines de lucro prometiendo código abierto de sus sistemas más poderosos y “beneficiar a toda la humanidad”. Los cofundadores hablaban de publicar investigaciones libremente, liberar código y evitar el poder concentrado sobre la inteligencia artificial avanzada. Menos de una década después, la organización opera como un gigante con control estricto y ganancias limitadas, construido en torno a modelos propietarios como GPT-4 y API cerradas, con Microsoft invirtiendo alrededor de 13 mil millones de dólares y acuerdos de acceso exclusivo reemplazando los repositorios de GitHub.
Ese cambio no se trata solo de dinero; se trata de quién tiene la autoridad para hacer preguntas y qué respuestas pueden ver la luz de manera segura. Los investigadores describen una cultura creciente de disciplina en el mensaje, donde el trabajo que destaca los riesgos negativos—desplazamiento masivo, condiciones laborales degradadas, desencadenantes regulatorios—enfrenta más resistencia que los casos de estudio sobre productividad brillante. El informe de Wired en Un empleado de OpenAI renuncia, alegando que la investigación económica de la empresa se está convirtiendo en defensa de la IA documenta cómo los disidentes internos vieron cómo la parte "abierta" de OpenAI se desvanecía detrás de acuerdos de confidencialidad y controles de relaciones públicas.
Un memorando interno del director de estrategia Jason Kwon hizo explícita la nueva postura. Kwon argumentó que OpenAI debería “crear soluciones” y actuar como “el actor principal en el mundo”, no solo como un laboratorio de investigación que publica hallazgos incómodos. Su afirmación de que OpenAI “no es solo una institución de investigación, sino también un actor en el mundo” marcó un cambio de dirección: la erudición ahora se encuentra subordinada a la estrategia, no al mismo nivel.
Dentro del grupo de investigación económica, ese encuadre se interpretó como una directiva. Si OpenAI es un “actor principal”, entonces cada documento sobre automatización, supresión de salarios o pérdidas de empleo regional se convierte en un acto político que podría invitar a la regulación o ralentizar la adopción. Los investigadores dicen que el incentivo es claro: - Enfatizar las ganancias de productividad - Reformular la disrupción como “temporal” o “manejable” - Enterrar o retrasar trabajos que compliquen la narrativa de crecimiento
El investigador de políticas Miles Brundage, quien se fue anteriormente, describió cómo se volvió "difícil" publicar sobre temas importantes. Su comentario se alinea con los relatos de al menos dos investigadores económicos que renunciaron tras enfrentamientos sobre lo que se podía publicar y cómo se enmarcaría. OpenAI ahora se parece menos a un laboratorio que persigue la investigación objetiva y más a una plataforma tecnológica donde la investigación sobrevive solo si avanza las ambiciones comerciales y geopolíticas de la empresa.
Un Patrón de Disidencia en Seguridad
Una sola renuncia del grupo de investigación económica de OpenAI podría parecer un bache. Pero al lado de una creciente lista de salidas enfocadas en la seguridad, comienza a parecer un patrón. Las personas contratadas para evaluar los inconvenientes de modelos poderosos continúan saliendo por la puerta, a menudo quejándose de que su trabajo ya no se ajusta al apetito de la empresa por las malas noticias.
A principios de este año, OpenAI disolvió silenciosamente su destacada equipo de Superalineación, el grupo que Sam Altman alguna vez presentó como el gran objetivo de la empresa para guiar la inteligencia general artificial de manera segura. Co-dirigido por Ilya Sutskever y Jan Leike, se suponía que el equipo debía resolver la alineación de la IA “superhumana” en un plazo de cuatro años, respaldado por el 20 por ciento de la capacidad de cálculo de OpenAI. En cambio, para mediados de 2024, ambos líderes se habían ido, el equipo se disolvió y su mandato se dispersó entre grupos más cercanos a los productos.
El antiguo investigador de alineación William Saunders, quien trabajó en sistemas de seguridad y pruebas de adversarios, no se anduvo con rodeos después de su salida. Dijo que el liderazgo de OpenAI priorizaba constantemente los “productos llamativos” sobre el trabajo de seguridad fundamental, recompensando a los equipos que lanzaban características visibles mientras dejaban al research a largo plazo sin influencia ni recursos. Su crítica resuena con la queja pública de Leike de que la seguridad había quedado en un “segundo plano” frente al crecimiento.
Tomando en conjunto la acusación de Tom Cunningham de que la investigación económica se había convertido en un "brazo de propaganda", estas salidas indican una tensión sistémica, no un altercado aislado en una esquina del organigrama. Personas que trabajan en: - Alineación a largo plazo - Impactos sociales y económicos - Gobernanza y políticas
describe la misma atracción gravitacional hacia los cronogramas de lanzamiento y los objetivos de ingresos.
La disolución de Superalignment es especialmente importante porque OpenAI la utilizó como prueba de que se toma en serio el riesgo existencial. Cuando el equipo principal de seguridad desaparece menos de dos años después de su lanzamiento, mientras que GPT‑4.1, GPT‑4o y nuevas características multimodales se lanzan de manera implacable, el mensaje dentro de la empresa se vuelve claro: la seguridad es un centro de costos, no un motor de crecimiento.
Este es el “secreto condenatorio” que surge de las salidas. OpenAI sigue hablando de seguridad en la AGI, pero las personas contratadas para decir “frena” continúan descubriendo que su verdadero trabajo es ayudar a la empresa a acelerar.
Un Titanic sin suficientes botes salvavidas
Un exinvestigador de seguridad de OpenAI recientemente encontró una metáfora lo suficientemente grande como para igualar las ambiciones de la empresa: Titanic. En conversaciones internas, describieron a OpenAI como una carrera para construir un barco de inteligencia general artificial "insumergible", una maravilla tecnológica brillante avanzando a toda velocidad. El problema, advirtieron, es que el liderazgo está mucho más enfocado en los motores que en los botes salvavidas.
En esta analogía, la AGI es el barco: masivo, lujoso, comercializado intensamente como el futuro del progreso humano. Los botes salvavidas son las piezas poco glamorosas: investigación de alineación, prevención de abusos, sistemas de equipos de ataque, protecciones al usuario y monitoreo del mundo real cuando los modelos se descontrolan. Los críticos dicen que OpenAI está invirtiendo miles de millones en el casco y la propulsión mientras trata esas salvaguardias como muebles de cubierta opcionales.
El exinvestigador Steven Adler lo expresó de manera más clara, calificando el enfoque de OpenAI como "arriesgado" y criticando su falta de atención a los resultados perjudiciales para los usuarios. Adler trabajó en cómo se comportan los modelos en entornos desordenados y reales, donde un solo aviso puede revelar contenido de automutilación, hostigamiento dirigido o estafas financieras que parecen plausibles. Su preocupación: el liderazgo priorizó las capacidades destacadas y el crecimiento del producto sobre el seguimiento y la reducción sistemática de esos daños.
Adler y otros miembros del personal de seguridad describen una cultura donde las señales de alerta a menudo recibían una respuesta familiar: enviar ahora, corregir después, o reencuadrar el problema como un asunto de relaciones públicas en lugar de un riesgo de producto. Los críticos internos señalan ciclos de lanzamiento como GPT‑4, GPT‑4o y nuevas características multimodales que llegaron a millones de usuarios en días, mientras que las evaluaciones de seguridad posteriores al lanzamiento quedaron rezagadas. El resultado se asemeja menos a una navegación cautelosa y más a una carrera a través de campos de hielo inexplorados.
Tomados en conjunto, la metáfora del Titanic y la crítica de Adler esbozan una empresa cada vez más atrapada por su propia mitología. OpenAI se presenta como el "actor principal" en IA, indispensable e inevitable, lo que hace que desacelerar se sienta casi hereje. Cuando los miembros internos advierten que faltan los botes salvavidas o que están medio atornillados, no solo están cuestionando características específicas; están desafiando una cosmovisión que considera que el impulso hacia adelante es suficiente para la seguridad.
El Contraste Antropófico: Transparencia Radical
El problema de secretismo de OpenAI se ve aún más agudo en comparación con Anthropic, el rival que no deja de decir en voz alta lo que muchos piensan en silencio. Mientras OpenAI supuestamente ocultó hallazgos internos sobre la pérdida de empleos y los riesgos de regulación, los ejecutivos de Anthropic han afirmado públicamente que la IA podría automatizar una gran parte del trabajo de oficina y desestabilizar las trayectorias profesionales existentes.
El CEO de Anthropic, Dario Amodei, ha advertido repetidamente en entrevistas que “una gran parte” de las tareas cognitivas, de oficina y profesionales podrían estar expuestas a la automatización en esta década. Ha descrito escenarios en los que los sistemas de IA manejan gran parte de lo que hoy hacen los ingenieros de software, los asistentes legales, los representantes de atención al cliente e incluso algunos gerentes, con repercusiones para millones de trabajadores del conocimiento.
Ese candor suena aterrador si eres un contador de mitad de carrera o un abogado junior, pero trata al público como un interesado en lugar de un obstáculo. Al afirmar abiertamente que la disrupción podría ser grande, duradera y políticamente explosiva, Anthropic invita al debate sobre: - Cómo medir el ritmo de implementación - Qué estándares de seguridad y alineación requerir - Qué protecciones sociales construir antes de que ocurra un desplazamiento masivo
Contrastalo con OpenAI, donde el economista saliente Tom Cunningham acusó a la empresa de convertir su grupo de investigación económica en un "brazo de propaganda" y de evitar la publicación de trabajos que pudieran provocar regulación o reacción adversa. El informe de Wired, resumido en Investigador de OpenAI renuncia, diciendo que la empresa oculta la verdad, describe una compañía que se toma el tiempo de suavizar las aristas de sus propios hallazgos.
Los responsables de políticas notan la brecha. Un laboratorio dice, en efecto, "esto puede acabar con amplios sectores del trabajo de oficina; aquí está el porqué y cómo responder". El otro se apoya en puntos de conversación sobre productividad y publicaciones de blog cautelosas. Cada declaración contundente de Anthropic sobre el desplazamiento laboral hace que la opacidad de OpenAI parezca menos una prudencia y más un control del mensaje en beneficio propio.
¿Es el 'Blueprint' una solución o una tabla de salvación?
La respuesta de OpenAI a las acusaciones de blanqueo económico llega disfrazada de documento de políticas. En mayo, la empresa publicó “IA en el trabajo: el plan de fuerza laboral de OpenAI,” un documento de más de 40 páginas que se lee como una mezcla entre un resumen de investigación y un manifiesto corporativo. Detalla cómo la IA “transformará el trabajo con el tiempo” y lo que OpenAI afirma estar haciendo para que los trabajadores no queden aplastados en el proceso.
En el centro de esa propuesta se encuentra OpenAI Academy, una plataforma educativa que la empresa afirma ya ha involucrado a 2 millones de estadounidenses. El plan promete ayudar a 10 millones de estadounidenses a “mejorar sus habilidades en IA para 2030” mediante certificaciones destinadas a brindar a los empleadores “confianza” a la hora de contratar candidatos capacitados en herramientas de OpenAI. Una plataforma de empleos separada de OpenAI tiene como objetivo “preparar a la fuerza laboral para el futuro” al conectar a las personas con roles adyacentes a la IA que, supuestamente, ofrecen estabilidad y seguridad a largo plazo.
En teoría, eso suena como una respuesta escalada a la disrupción que sus propios modelos aceleran. ChatGPT, GPT‑4 y sus sucesores ya automatizan partes del trabajo para redactores, programadores, asistentes legales y agentes de soporte, con Goldman Sachs estimando que hasta 300 millones de empleos a tiempo completo a nivel mundial podrían estar expuestos a la automatización por IA. El plan de OpenAI concede tácitamente este riesgo, advirtiendo que la adopción rápida podría "dejar fuera de alcance el primer peldaño de la escalera para muchos nuevos graduados" más rápido de lo que aparecen nuevos roles.
La pregunta es si estos programas cumplen con la escala y la velocidad de esa amenaza, o si principalmente sirven como una armadura narrativa. Capacitar a 10 millones de estadounidenses en seis años suena impresionante hasta que se compara con una fuerza laboral de EE. UU. de aproximadamente 167 millones y plataformas globales que pueden desplazar trabajos para cientos de millones en unos pocos ciclos de productos. Incluso si OpenAI alcanza sus objetivos, la gran mayoría de los trabajadores afectados nunca tocarán su Academia.
La readaptación también avanza a la velocidad humana, mientras que el despliegue de la IA avanza a la velocidad de la nube. Las empresas pueden implementar la automatización impulsada por GPT en miles de puestos en meses; volver a capacitar a un trabajador de media carrera de manera significativa a menudo lleva años y requiere apoyo que va mucho más allá de una certificación. Esa brecha hace que el plan parezca menos una solución integral y más como un hedge de relaciones públicas contra los hallazgos más oscuros que supuestamente los propios economistas de OpenAI lucharon por publicar.
El incentivo de un billón de dólares para la opacidad
El dinero se cierne sobre OpenAI como un sistema meteorológico. Tras recibir un reported de $13 mil millones en efectivo y créditos de Microsoft, la empresa ahora apoya de manera efectiva productos que van desde Windows hasta GitHub Copilot, con pronósticos internos y rumores entre inversionistas que ya fantasean sobre una futura valoración de un billón de dólares o un evento de liquidez a escala de IPO.
Esos números crean una estructura de incentivos muy específica. Si OpenAI puede enmarcar la IA como un milagro neto de productividad con una disrupción “manejable”, apoya la tesis de la nube de Microsoft, refuerza las ventas empresariales y justifica rondas de financiamiento cada vez más grandes. Si sus propios economistas publican datos que sugieren desplazamiento masivo de empleos, compresión salarial o inestabilidad sistémica, esa narrativa—y los múltiplos asociados a ella—comienza a tambalearse.
Cualquier gráfico interno que muestre altas probabilidades de desempleo a largo plazo o choques regionales concentrados no es solo un problema de políticas; es un problema de valores. La investigación que argumenta de manera creíble que GPT-6 podría automatizar grandes partes del trabajo de oficina más rápido de lo que los mercados laborales pueden adaptarse es exactamente el tipo de evidencia que los reguladores, sindicatos y legisladores escépticos utilizarían como arma en audiencias y luchas antimonopolio. Esa misma evidencia podría inquietar a los comités de riesgo en clientes de Fortune 500 que deciden si apostar toda una serie de flujos de trabajo en las API de OpenAI.
Bajo esas condiciones, el supuesto cambio de un análisis neutral a “brazo de propaganda” se parece menos a un giro de villano de caricatura y más al comportamiento estándar de una startup en fase avanzada bajo presión extrema. Cuando tu tabla de capital y tu socio estratégico esperan un crecimiento desmesurado, recompensas a los equipos que cuentan una historia de trabajo seguro y “aumentado” y marginas la disrupción. Silenciosamente enterras o reformulas los conjuntos de datos que dicen lo contrario.
Los disidentes internos describen exactamente esa desviación. Las fuentes de Wired afirman que OpenAI enfatiza las ganancias rosadas en productividad mientras minimiza las pérdidas de empleos y evita publicar investigaciones que puedan "alimentar la regulación, provocar reacciones del público y frenar la adopción". En un mundo donde cada coeficiente negativo en una regresión sobre IA y empleo podría disminuir miles de millones de un hipotético IPO, el silencio se convierte en una elección empresarial racional—aunque profundamente preocupante.
Visto a través de esa óptica, la supuesta supresión de la investigación sobre riesgos económicos parece menos un fallo ético aislado y más un resultado predecible de una empresa estructuralmente condicionada a maximizar el despliegue, la valoración y la satisfacción de los socios a casi cualquier costo informativo.
El Auge de la 'Animosidad Ambiental'
El resentimiento ambiental hacia la IA generativa ahora se cierne sobre todo, desde contratos de Hollywood hasta políticas educativas. Los guionistas, ilustradores, programadores y trabajadores de centros de llamadas ven cada vez más a la IA no como una herramienta, sino como un despido automatizado, y se están organizando en sindicatos, demandas y ordenanzas locales en contra de ella.
Esa hostilidad no surge de la nada; se alimenta directamente de la sensación de que los gigantes de la IA están manipulando la narrativa. Cuando los investigadores de OpenAI afirman que los estudios de impacto económico se transforman silenciosamente en “propaganda”, se confirma una creciente sospecha de que el público solo ve los gráficos positivos, nunca las proyecciones negativas.
Los escándalos de transparencia, como la saga de la investigación económica de OpenAI, convierten esa sospecha en desconfianza. Informes que indican que la compañía minimizó las pérdidas de empleo, evitó publicar hallazgos negativos y enmarcó la disrupción como "temporal o manejable" hacen que cada “plan” brillante de la fuerza laboral suene a control de daños.
Esto se relaciona directamente con el techlash más amplio que ha ido creciendo desde la era de Facebook-Cambridge Analytica. El esquema de la historia es familiar y pegajoso: una empresa de plataforma secreta y sobrevalorada acumula datos, oculta malas noticias y avanza rápidamente mientras los reguladores y los trabajadores luchan por ponerse al día.
La IA encaja en ese modelo casi de manera demasiado perfecta. Un laboratorio cerrado, respaldado por Microsoft, que tiene en su poder modelos que podrían transformar industrias enteras, supuestamente filtrando su propia investigación para evitar regulaciones y reacciones del público, se asemeja menos a un instituto de investigación y más a Big Tech 2.0 con apuestas más altas.
Cada renuncia de alto perfil amplifica el ambiente. Investigadores económicos alejándose de pagos de seis cifras, equipos de seguridad desbandándose y denunciantes advirtiendo sobre "apostar arriesgadamente en la humanidad" — ver Otro investigador de OpenAI renuncia—afirma que los laboratorios de IA están haciendo apuestas arriesgadas sobre la humanidad — todo alimenta la sensación de que se está ocultando algo peligroso.
Si esa erosión de la confianza continúa, la reacción no se quedará en línea. Los legisladores que ya coquetean con moratorias de IA y amplias normas de responsabilidad podrían establecer regulaciones draconianas que no solo afecten a OpenAI, sino que congelen la experimentación, afianzen a los incumbentes y ralenticen los usos beneficiosos de la tecnología para toda una generación.
Día del Juicio: ¿Podemos Confiar en OpenAI Nuevamente?
La confianza en OpenAI solía ser un ajuste predeterminado. Un laboratorio sin fines de lucro que prometía "beneficiar a toda la humanidad", compartiendo modelos y trabajos de seguridad, parecía ser el adulto en la sala de IA. Ahora tienes a Tom Cunningham acusando a su equipo de investigación económica de haberse convertido en un taller de “propaganda”, múltiples investigadores en seguridad y políticas saliendo, y una empresa estructuralmente diseñada para proteger un potencial pago de un billón de dólares.
La acusación de Cunningham tiene más peso cuando se combina con informes de que al menos dos investigadores económicos renunciaron después de que OpenAI supuestamente se mostró reacio a publicar trabajos que destacaban las pérdidas de empleo, el riesgo regulatorio o las severas interrupciones. Fuentes dijeron a Wired que el análisis interno que enfatizaba las ganancias de productividad logró avanzar, mientras que la investigación que podría "alimentar la regulación" o "provocar una reacción del público" se estancó. Ese no es un filtro neutral; es uno corporativo.
Apila eso encima del éxodo de seguridad. Miembros del equipo de Superalineación, investigadores de riesgos a largo plazo y personal de políticas han dejado o sido apartados en los últimos 18 meses. Varios citaron su frustración de que el trabajo en seguridad cada vez era menos prioritario en comparación con los lanzamientos de productos como GPT-4, GPT-4o y el ecosistema de aplicaciones que ahora sustenta la estrategia de IA de Microsoft.
Mientras tanto, el dinero distorsiona todo. La estructura de ganancias limitadas de OpenAI aún permite a los inversores obtener hasta 100 veces sus inversiones. Microsoft ha invertido más de 10 mil millones de dólares en la empresa, ha integrado ChatGPT y Copilot en Windows y Office, y según informes, han discutido valoraciones cercanas a los 100 mil millones de dólares, con emocionantes conversaciones sobre una futura oferta pública inicial de un billón de dólares. Cuando ese capital ejerce tanta presión sobre ti, la "investigación" comienza a parecerse mucho al "material de marketing".
Contrastalo con Anthropic, que al menos publica tarjetas de modelo detalladas, informes de Red Teaming y marcos de políticas que explican cómo aborda el riesgo catastrófico. Anthropic está lejos de ser perfecto, pero su postura predeterminada es explicar. La postura predeterminada de OpenAI ahora parece más como tratar de enmascarar.
Así que los usuarios, reguladores y otros investigadores enfrentan una pregunta brutal: cuando OpenAI publica un brillante documento sobre "IA en el trabajo" o un informe de impacto económico, ¿debería alguien tratarlo como ciencia, o simplemente como defensa corporativa? Si los insiders están llamando a su propia producción propaganda, el escepticismo no es paranoia; es higiene.
Las auditorías obligatorias, independientes y de terceros sobre las afirmaciones de seguridad, los estudios de impacto económico y las prácticas de datos de formación ya no son un complemento opcional. Son requisitos esenciales para cualquier laboratorio que envíe modelos que podrían transformar los mercados laborales, los ecosistemas de información y la seguridad nacional. La autorregulación fracasó en las redes sociales; la IA no tendrá una segunda oportunidad.
Los avances futuros en IA serán menos relevantes que la creencia del público en las personas que los están implementando. Sin confianza, incluso los sistemas genuinamente beneficiosos se encontrarán con un muro de "animosidad ambiental" y reacciones políticas. La crisis de OpenAI no se trata solo de los secretos de una empresa; es un referéndum temprano sobre si esta industria merece el derecho de seguir avanzando rápidamente.
Preguntas Frecuentes
¿Por qué dejó el economista Tom Cunningham OpenAI?
Supuestamente renunció tras alegar internamente que el equipo de investigación económica de OpenAI se estaba alejando de la "verdadera investigación" y actuando como el "brazo de propaganda" de la empresa, priorizando la defensa de la IA sobre los hallazgos objetivos.
¿De qué se acusa a OpenAI de estar ocultando?
Fuentes afirman que OpenAI se ha vuelto reacia a publicar investigaciones internas que muestran impactos económicos negativos significativos de la IA, como la pérdida de empleos, para evitar alimentar la regulación, el rechazo público y frenar la adopción.
¿Qué pasó con el equipo de Superalineación de OpenAI?
OpenAI disolvió su equipo de Superalineación, que se enfocaba en la seguridad a largo plazo de la AGI. Este movimiento, combinado con salidas clave, ha alimentado las críticas de que la compañía está despriorizando la seguridad en favor del desarrollo de nuevos productos.
¿Cuál es la postura pública de OpenAI sobre el riesgo de la IA en comparación con la de Anthropic?
Mientras OpenAI es acusado de minimizar los impactos negativos, competidores como Anthropic han sido públicamente vocales sobre la alta probabilidad de que la IA cause un desplazamiento significativo de empleos, creando un marcado contraste en la transparencia.