O Terrível Segredo da OpenAI

Os principais pesquisadores estão fugindo da OpenAI, afirmando que a empresa está sufocando suas próprias pesquisas prejudiciais. Eles estão expondo uma máquina corporativa que prioriza o lucro em detrimento da verdade.

Stork.AI
Hero image for: O Terrível Segredo da OpenAI
💡

TL;DR / Key Takeaways

Os principais pesquisadores estão fugindo da OpenAI, afirmando que a empresa está sufocando suas próprias pesquisas prejudiciais. Eles estão expondo uma máquina corporativa que prioriza o lucro em detrimento da verdade.

O Canário na Mina de Carvão da IA

Um choque percorreu o mundo da IA quando a notícia se espalhou de que vários pesquisadores haviam silenciosamente deixado a OpenAI, o exemplo de $80 bilhões da IA generativa. Isso não foi uma reorganização rotineira em uma startup em alta; foi uma saída coordenada de um dos empregadores mais cobiçados no setor de tecnologia, onde profissionais seniores costumam ganhar salários elevados de seis dígitos, além de ações em uma empresa que corre em direção a ambições trilionárias.

Saídas como essa acionam alarmes porque as pessoas quase nunca abandonam esse tipo de dinheiro e prestígio por pequenas desavenças. Quando pesquisadores dizem que estão saindo por questões éticas ou de integridade, isso sinaliza um conflito mais profundo: o ponto em que dados internos sobre os riscos da IA colidem com a narrativa de crescimento de uma empresa e as obrigações legais com os investidores.

No centro da tempestade está o economista Tom Cunningham, membro da equipe de pesquisa econômica da OpenAI. Em uma mensagem de despedida compartilhada internamente, Cunningham alertou que o grupo estava “se afastando da pesquisa real” e se desviando para o papel de um “braço de propaganda” corporativo, de acordo com reportagens divulgadas pela Wired e Futurism.

Essas palavras tocaram em um ponto sensível porque vão contra a imagem cuidadosamente elaborada da OpenAI como um laboratório de interesse público que, por acaso, é apoiado pelos US$ 13 bilhões da Microsoft. A crítica de Cunningham sugeriu que, quando estudos internos mostraram que a IA prejudicava empregos ou ampliava a desigualdade, o mandato mudou de "publicar e debater" para "manipular e conter".

O que pode parecer uma história de pessoal à primeira vista rapidamente escalou para uma crise de transparência e confiança. Acusações de que a OpenAI minimizou as perdas de empregos, apresentou a disrupção como “temporária ou gerenciável” e evitou divulgar pesquisas que poderiam desencadear regulamentações ou reações levantam uma pergunta direta: de quem são os interesses que moldam a ciência que informa a política de IA?

Para uma indústria já sob ataque por dados de treinamento opacos, modelos fechados e teatro de segurança, essas demissões funcionam como um canário na mina de carvão da IA. Se os internos do laboratório principal já não confiam na integridade de seu próprio pipeline de pesquisa, as consequências se estendem muito além do log de recursos humanos de uma única empresa.

Um 'Braço de Propaganda de IA'?

Ilustração: Um 'Braço de Propaganda de IA'?
Ilustração: Um 'Braço de Propaganda de IA'?

Acusações vindas do próprio grupo de economia da OpenAI cortam mais fundo do que uma disputa rotineira de trabalho. Em uma mensagem de despedida reportada pela Wired, o economista Tom Cunningham alertou os colegas que a equipe de pesquisa econômica estava “se afastando de fazer pesquisa de verdade” e, em vez disso, agindo como o “braço de propaganda” da empresa. Para um laboratório que ainda se beneficia de sua aura quase acadêmica, isso soa como um ataque direto à sua credibilidade científica.

De acordo com quatro fontes "próximas da situação" citadas pela Wired e resumidas pela Futurism, a OpenAI tem se mostrado cada vez mais seletiva sobre quais descobertas econômicas chegam à luz do dia. Trabalhos internos que destacam ganhos de produtividade de ferramentas como o ChatGPT e o GPT-4 recebem atenção; pesquisas que mostram trabalhadores deslocados ou salários estagnados supostamente são relegadas. O resultado: uma narrativa selecionada sobre a IA como um motor de crescimento puro, despojada de seus danos colaterais.

Essas fontes afirmam que a OpenAI agora costuma filtrar os resultados econômicos através de uma lente política: este artigo irá convidar regulamentação, alimentar uma reação pública ou desacelerar a adoção por empresas? Se a resposta for sim, a publicação se torna improvável. Um deles descreveu um padrão onde os resultados negativos do mercado de trabalho são recontextualizados como turbulência “temporária” ou interrupção “administrável”, uma linguagem que reflete mais apresentações para investidores do que revistas revisadas por pares.

Essa mudança transforma o que deveria ser uma unidade científica em algo mais parecido com um escritório de assuntos corporativos. Em vez de testar hipóteses sobre automação, desigualdade e choques setoriais, a equipe apoia cada vez mais uma narrativa pré-determinada: a IA impulsiona o PIB, ajuda os trabalhadores e, na maioria das vezes, cria novos empregos. Quando os economistas internos se sentem pressionados a enfatizar os aspectos positivos e a soterrar os negativos, a "pesquisa" se torna uma ferramenta de advocacia, não de investigação.

A liderança da OpenAI parece reconhecer a mudança. Em um memorando citado pela Wired, o diretor de estratégia Jason Kwon argumentou que a empresa não deveria apenas publicar sobre "assuntos complexos", mas "construir soluções", enfatizando que a OpenAI "não é apenas uma instituição de pesquisa, mas também um ator no mundo." Essa abordagem justifica direcionar a pesquisa para resultados que defendam o papel da empresa como "o ator principal" na implementação da IA.

Tomados em conjunto, as demissões, os memorandos internos e os relatos não oficiais apontam para uma linha de raciocínio simples: a OpenAI deseja moldar a narrativa econômica da IA com a mesma agressividade com que molda a própria tecnologia.

De Pesquisa Aberta a Portas Fechadas

A OpenAI começou em 2015 como uma entidade sem fins lucrativos prometendo abrir seus sistemas mais poderosos e "beneficiar toda a humanidade." Os co-fundadores falaram sobre publicar pesquisas livremente, liberar código e evitar o poder concentrado sobre a IA avançada. Menos de uma década depois, a organização opera como um gigante de lucro controlado e limitado, construído em torno de modelos proprietários como o GPT-4 e APIs fechadas, com a Microsoft investindo aproximadamente 13 bilhões de dólares e acordos de acesso exclusivo substituindo repositórios do GitHub.

Essa mudança não se trata apenas de dinheiro; trata-se de quem tem o direito de fazer perguntas e quais respostas podem ver a luz do dia com segurança. Pesquisadores descrevem uma cultura crescente de disciplina na comunicação, onde trabalhos que destacam riscos negativos—deslocamento em massa, condições de trabalho degradadas, gatilhos regulatórios—encontram mais obstáculos do que estudos de caso sobre produtividade. A reportagem da Wired em Funcionário da OpenAI Pede Demissão, Alegando que Pesquisa Econômica da Companhia Está Desviando para Advocacia em IA documenta como dissidentes internos viram a parte “aberta” da OpenAI recuar atrás de NDAs e avaliação de relações públicas.

Um memorando interno do diretor de estratégia Jason Kwon deixou explícita a nova postura. Kwon argumentou que a OpenAI deveria “construir soluções” e agir como “o ator principal no mundo”, e não apenas como um centro de pesquisa que publica descobertas desconfortáveis. Sua afirmação de que a OpenAI “não é apenas uma instituição de pesquisa, mas também um ator no mundo” sinalizou uma mudança de direção: a pesquisa agora se coloca a jusante da estratégia, e não ao lado dela.

Dentro do grupo de pesquisa econômica, essa formulação aterrissou como uma diretiva. Se a OpenAI é um “ator principal”, então cada artigo sobre automação, supressão salarial ou perdas de empregos regionais se torna um ato político que pode convidar à regulação ou desacelerar a adoção. Os pesquisadores afirmam que o incentivo é claro: - Enfatizar ganhos de produtividade - Reinterpretar a interrupção como “temporária” ou “gerenciável” - Enterrar ou atrasar trabalhos que complicam a narrativa de crescimento

O pesquisador de políticas Miles Brundage, que saiu mais cedo, descreveu como se tornou "difícil" publicar sobre tópicos importantes. Seu comentário está alinhado com relatos de pelo menos dois pesquisadores econômicos que desistiram após conflitos sobre o que poderia ser divulgado e como isso seria enquadrado. A OpenAI agora se parece menos com um laboratório em busca de investigação objetiva e mais com uma plataforma de tecnologia onde a pesquisa sobrevive apenas se avançar as ambições comerciais e geopolíticas da empresa.

Um Padrão de Dissenso em Segurança

Uma única demissão do grupo de pesquisa econômica da OpenAI pode parecer um simples incidente. Colocada ao lado de uma lista crescente de saídas focadas em segurança, começa a parecer um padrão. As pessoas contratadas para testar os pontos negativos dos modelos poderosos continuam saindo, muitas vezes reclamando que seu trabalho não se alinha mais com o apetite da empresa por notícias ruins.

No início deste ano, a OpenAI dissolveu discretamente sua equipe de alto perfil Superalignment, o grupo que Sam Altman costumava apresentar como o grande objetivo da empresa para orientar a inteligência geral artificial de forma segura. Co-liderada por Ilya Sutskever e Jan Leike, a equipe tinha como objetivo resolver o alinhamento da IA “super-humana” em quatro anos, com o apoio de 20% da capacidade computacional da OpenAI. Em vez disso, até meados de 2024, ambos os líderes haviam saído, a equipe foi desmantelada e seu mandato foi disperso por grupos mais próximos ao desenvolvimento de produtos.

O ex-pesquisador de alinhamento William Saunders, que trabalhou em sistemas de segurança e red-teaming, não poupou palavras após sua saída. Ele afirmou que a liderança da OpenAI priorizou consistentemente “produtos chamativos” em detrimento do trabalho fundamental de segurança, recompensando equipes que lançavam recursos visíveis enquanto deixavam a pesquisa de longo prazo sem influência e recursos. Sua crítica ecoa a reclamação pública de Leike de que a segurança havia ficado em segundo plano em relação ao crescimento.

Juntas, as acusações de Tom Cunningham de que a pesquisa econômica havia se tornado um "braço de propaganda" apontam para uma tensão sistêmica, e não para um desentendimento isolado em um canto do organograma. Pessoas que trabalham em: - Alinhamento a longo prazo - Impactos sociais e econômicos - Governança e políticas

descreva a mesma atração gravitacional em relação aos prazos de lançamento e metas de receita.

A dissolução da superalinhamento é particularmente importante porque a OpenAI a utilizou como prova de que leva a risco existencial a sério. Quando a equipe de segurança principal desaparece menos de dois anos após o lançamento, enquanto o GPT‑4.1, GPT‑4o e novos recursos multimodais são lançados em um ritmo incessante, a mensagem dentro da empresa se torna clara: segurança é um centro de custos, não um motor de crescimento.

Este é o “segredo condenador” que emerge das saídas. A OpenAI ainda fala sobre segurança da AGI, mas as pessoas contratadas para dizer “pare” continuam descobrindo que seu verdadeiro trabalho é ajudar a empresa a acelerar.

Um Titanic sem Botes Salva-Vidas Suficientes

Ilustração: Um Titanic Sem Botes Salva-Vidas Suficientes
Ilustração: Um Titanic Sem Botes Salva-Vidas Suficientes

Um ex-pesquisador de segurança da OpenAI recentemente usou uma metáfora grande o suficiente para corresponder às ambições da empresa: Titanic. Em conversas internas, eles descreveram a OpenAI como correndo para construir um “navio insubmergível” de inteligência geral artificial, uma maravilha tecnológica brilhante avançando a toda velocidade. O problema, alertaram, é que a liderança está muito mais focada nos motores do que nos botes salva-vidas.

Nesta analogia, a AGI é o navio: maciço, luxuoso, amplamente anunciado como o futuro do progresso humano. Os botes salva-vidas são as peças pouco glamourosas—pesquisa de alinhamento, prevenção de abusos, sistemas de equipe adversária, proteções ao usuário e monitoramento no mundo real quando os modelos apresentam problemas. Críticos afirmam que a OpenAI está investindo bilhões no casco e na propulsão enquanto trata essas salvaguardas como mobília opcional no convés.

O ex-pesquisador Steven Adler enfatizou ainda mais, chamando a abordagem da OpenAI de “arriscada” e criticando sua falta de atenção aos resultados prejudiciais para os usuários. Adler trabalhou em como os modelos se comportam em contextos caóticos e reais—onde um único prompt pode revelar conteúdo de autoagressão, assédio direcionado ou golpes financeiros plausíveis. Sua preocupação: a liderança priorizou as capacidades de destaque e o crescimento do produto em detrimento do monitoramento sistemático e da redução desses danos.

Adler e outros funcionários de segurança descrevem uma cultura onde os sinais de alerta frequentemente recebiam uma resposta familiar: envie agora, conserte depois, ou reacomode a questão como um problema de PR em vez de um risco ao produto. Críticos internos apontam para ciclos de lançamento como o GPT-4, GPT-4o e novos recursos multimodais que atingiram milhões de usuários em dias, enquanto as avaliações de segurança pós-lançamento ficaram para trás. O resultado se assemelha menos a uma navegação cautelosa e mais a uma corrida acelerada por campos de gelo inexplorados.

Tomados em conjunto, a metáfora do Titanic e a crítica de Adler esboçam uma empresa cada vez mais capturada pela sua própria mitologia. A OpenAI se apresenta como o “ator principal” em IA, indispensável e inevitável, o que torna desacelerar quase herético. Quando os insiders alertam que os botes salva-vidas estão faltando ou mal presos, eles não estão apenas questionando características específicas—estão desafiando uma visão de mundo que considera o impulso para frente como segurança suficiente.

O Contraste Antropológico: Transparência Radical

O problema de sigilo da OpenAI parece ainda mais agudo ao lado da Anthropic, a rival que não hesita em dizer em voz alta o que muitos pensam. Enquanto a OpenAI supostamente ocultou descobertas internas sobre perdas de empregos e riscos de regulamentação, executivos da Anthropic deram declarações públicas prevendo que a IA poderia automatizar uma grande parte do trabalho de colarinho branco e desestabilizar as carreiras existentes.

O CEO da Anthropic, Dario Amodei, alertou repetidamente em entrevistas que “uma grande fração” das tarefas cognitivas, de escritório e profissionais pode ser exposta à automação nesta década. Ele descreveu cenários em que sistemas de IA lidam com grande parte do trabalho que engenheiros de software, assistentes jurídicos, representantes de suporte ao cliente e até mesmo alguns gerentes fazem hoje, com efeitos colaterais para milhões de trabalhadores do conhecimento.

Esse desabafo soa aterrador se você é um contador de meio de carreira ou um advogado júnior, mas trata o público como um interessado em vez de um obstáculo. Ao declarar abertamente que a disrupção pode ser grande, duradoura e politicamente explosiva, a Anthropic convida ao debate sobre: - Como manter o ritmo da implementação - Quais padrões de segurança e alinhamento exigir - Quais proteções sociais estabelecer antes que a deslocação em massa aconteça

Contrastando isso com a OpenAI, onde o economista que saiu, Tom Cunningham, acusou a empresa de transformar seu grupo de pesquisa econômica em um “braço de propaganda” e evitar a publicação de trabalhos que poderiam alimentar a regulação ou reações adversas. A reportagem da Wired, resumida em Pesquisador da OpenAI Pede Demissão, Dizendo que a Empresa Está Escondendo a Verdade, descreve uma empresa cuidadosamente lixando as arestas afiadas de suas próprias descobertas.

Os formuladores de políticas percebem a lacuna. Um laboratório diz, na prática, “isso pode eliminar vastas áreas de trabalho de escritório; aqui está o porquê e como responder”. O outro se apoia em pontos de conversa sobre produtividade e postagens de blog cautelosas. Cada citação direta da Anthropic sobre a substituição de empregos faz a opacidade da OpenAI parecer menos prudente e mais como um controle de mensagem interesseiro.

O 'Blueprint' é uma Solução ou uma Ilusão?

A resposta da OpenAI às acusações de "lavagem econômica" chega disfarçada de um documento de política. Em maio, a empresa publicou “IA no trabalho: o plano de força de trabalho da OpenAI,” um documento de mais de 40 páginas que se lê como uma mistura de resumo de pesquisa e manifesto corporativo. Nele, é detalhado como a IA irá “redefinir o trabalho ao longo do tempo” e o que a OpenAI afirma estar fazendo para que os trabalhadores não sejam esmagados no processo.

Central a essa proposta está a OpenAI Academy, uma plataforma educacional que a empresa afirma já ter engajado 2 milhões de americanos. O plano promete ajudar 10 milhões de americanos a “melhorar suas habilidades em IA até 2030” por meio de certificações destinadas a dar aos empregadores “confiança” na contratação de candidatos treinados nas ferramentas da OpenAI. Uma plataforma de empregos separada da OpenAI visa “preparar a força de trabalho para o futuro” conectando pessoas a funções relacionadas à IA que supostamente oferecem estabilidade e segurança a longo prazo.

No papel, isso soa como uma resposta ampliada à disrupção que seus próprios modelos aceleram. ChatGPT, GPT‑4 e sucessores já automatizam partes do trabalho de redatores, programadores, assistentes jurídicos e agentes de suporte, com o Goldman Sachs estimando que até 300 milhões de empregos em tempo integral em todo o mundo poderiam estar expostos à automação pela IA. O plano da OpenAI, de forma tácita, reconhece esse risco, alertando que a adoção rápida poderia “afastar o primeiro degrau da escada para muitos novos graduados” mais rapidamente do que novos papéis surgem.

A questão é se esses programas atendem à escala e à velocidade dessa ameaça, ou se servem principalmente como uma armadura narrativa. Treinar 10 milhões de americanos em seis anos parece impressionante até que você o compare com uma força de trabalho dos EUA de aproximadamente 167 milhões e plataformas globais que podem deslocar o trabalho de centenas de milhões em alguns ciclos de produto. Mesmo que a OpenAI atinja suas metas, a grande maioria dos trabalhadores afetados nunca terá acesso à sua Academia.

A requalificação também avança na velocidade humana, enquanto a implementação de IA avança na velocidade da nuvem. As empresas podem lançar automação impulsionada por GPT em milhares de cargos em meses; a requalificação de um trabalhador de meia carreira de forma significativa geralmente leva anos e requer apoio muito além de uma certificação. Essa lacuna faz com que o plano pareça menos uma solução abrangente e mais uma jogada de relações públicas contra as descobertas mais sombrias que os próprios economistas da OpenAI supostamente tiveram dificuldades para publicar.

O Incentivo de Trilhão de Dólares para Obscurecer

Ilustração: O Incentivo de Um Trilhão de Dólares para Obscurecer
Ilustração: O Incentivo de Um Trilhão de Dólares para Obscurecer

O dinheiro paira sobre a OpenAI como um sistema climático. Após receber um suposto montante de $13 bilhões em dinheiro e créditos da Microsoft, a empresa agora efetivamente sustenta produtos que vão do Windows ao GitHub Copilot, com previsões internas e conversas entre investidores já sonhando com uma futura avaliação de um trilhão de dólares ou um evento de liquidez em escala de IPO.

Esses números criam uma estrutura de incentivos muito específica. Se a OpenAI puder apresentar a IA como um milagre de produtividade líquida com uma interrupção "gerenciável", isso apoia a tese de nuvem da Microsoft, fortalece as vendas para empresas e justifica rodadas de financiamento cada vez maiores. Se seus próprios economistas publicarem dados sugerindo deslocamento em massa de empregos, compressão salarial ou instabilidade sistêmica, essa narrativa—e os múltiplos associados a ela—começa a vacilar.

Qualquer gráfico interno que mostre altas probabilidades de desemprego de longo prazo ou choques regionais concentrados não é apenas um problema de política; é um problema de valores mobiliários. Pesquisas que argumentam de forma credível que o GPT-6 poderia automatizar grandes partes do trabalho de colarinho branco mais rapidamente do que os mercados de trabalho podem se adaptar são exatamente o tipo de evidência que reguladores, sindicatos e legisladores céticos usariam como armas em audiências e disputas antitruste. Essa mesma evidência poderia assustar comitês de risco em clientes da Fortune 500 que estão decidindo se devem apostar fluxos de trabalho inteiros nas APIs da OpenAI.

Sob essas condições, a suposta mudança de uma análise neutra para “braço de propaganda” parece menos uma virada de vilão de cartoon e mais um comportamento padrão de startups em estágio avançado sob pressão extrema. Quando seu cap table e parceiro estratégico esperam hipercrescimento, você recompensa equipes que contam uma história de trabalho seguro e “aumentado” e deixa de lado a disrupção. Você enterra ou reformula silenciosamente os conjuntos de dados que dizem o contrário.

Dissidentes internos descrevem exatamente esse desvio. Fontes da Wired afirmam que a OpenAI enfatiza ganhos de produtividade otimistas enquanto minimiza as perdas de empregos e evita publicar pesquisas que poderiam “impulsionar a regulação, provocar uma reação pública e desacelerar a adoção.” Em um mundo onde cada coeficiente negativo em uma regressão sobre IA e emprego poderia reduzir bilhões de um IPO hipotético, o silêncio se torna uma escolha de negócios racional—se, por mais preocupante que seja.

Visto sob essa perspectiva, a alegada supressão de pesquisas sobre riscos econômicos parece menos uma falha ética isolada e mais um resultado previsível de uma empresa estruturalmente presa a maximizar a implantação, a valorização e a satisfação dos parceiros a qualquer custo informativo.

A Ascensão da 'Animusidade Ambiental'

O ressentimento ambiente em relação à IA generativa agora paira sobre tudo, desde contratos de Hollywood até políticas escolares. Roteiristas, ilustradores, programadores e trabalhadores de call centers veem a IA cada vez mais não como uma ferramenta, mas como uma demissão automatizada, e estão se organizando contra isso por meio de sindicatos, processos judiciais e ordenanças locais.

Essa hostilidade não surge do nada; ela se alimenta diretamente da sensação de que os gigantes da IA estão manipulando a narrativa. Quando pesquisadores da OpenAI alegam que estudos de impacto econômico silenciosamente se transformam em “propaganda”, isso confirma uma suspeita crescente de que o público vê apenas os gráficos positivos, nunca as previsões negativas.

Escândalos de transparência, como a saga de pesquisa econômica da OpenAI, solidificam essa suspeita em desconfiança. Relatórios de que a empresa minimizou perdas de empregos, evitou publicar resultados negativos e apresentou a interrupção como “temporária ou gerenciável” fazem com que cada “plano” brilhante para a força de trabalho pareça um controle de danos.

Isso se encaixa diretamente na reação contra a tecnologia que vem se intensificando desde a era do Facebook e Cambridge Analytica. O roteiro da história é familiar e marcante: uma empresa de plataforma secreta e supervalorizada acumula dados, esconde notícias negativas e avança rapidamente, enquanto os reguladores e trabalhadores se esforçam para acompanhar.

A IA se encaixa nesse modelo quase perfeitamente. Um laboratório fechado, apoiado pela Microsoft, detendo modelos que poderiam reconfigurar indústrias inteiras, alegadamente filtrando sua própria pesquisa para evitar regulamentações e reações públicas, parece menos um instituto de pesquisa e mais como o Big Tech 2.0, com apostas mais altas.

Cada renúncia de alto perfil amplifica o clima. Pesquisadores econômicos se afastando de pacotes de remuneração pesados, equipes de segurança se desmantelando e denunciantes alertando sobre "apostas arriscadas na humanidade" — veja Outro pesquisador da OpenAI pede demissão — afirma que laboratórios de IA estão fazendo apostas arriscadas na humanidade — tudo isso alimenta a sensação de que algo perigoso está sendo escondido.

Se essa erosão da confiança continuar, a reação não ficará apenas online. Os legisladores, que já estão flertando com moratórias de IA e regras de responsabilidade abrangentes, podem instaurar regulamentações draconianas que não apenas afetem a OpenAI, mas também impeçam a experimentação, mantenham os incumbentes e desacelerem usos benéficos da tecnologia para uma geração inteira.

Dia do Juízo: Podemos Confiar na OpenAI Novamente?

A confiança na OpenAI costumava ser uma configuração padrão. Um laboratório sem fins lucrativos prometendo “beneficiar toda a humanidade”, abrindo seus modelos e trabalho de segurança, parecia o adulto na sala de IA. Agora, você tem Tom Cunningham acusando sua equipe de pesquisa econômica de se transformar em uma loja de “propaganda”, vários pesquisadores de segurança e políticas saindo, e uma empresa estruturalmente programada para proteger um potencial pagamento de um trilhão de dólares.

A alegação de Cunningham ganha mais peso quando combinada com a reportagem de que pelo menos dois pesquisadores econômicos pediram demissão após a OpenAI, supostamente, se tornar relutante em publicar trabalhos que destacassem a perda de empregos, risco regulatório ou interrupções severas. Fontes disseram à Wired que análises internas que enfatizavam os ganhos de produtividade sobreviveram, enquanto pesquisas que poderiam “alimentar a regulamentação” ou “gerar uma reação do público” foram paralisadas. Esse não é um filtro neutro; é um filtro corporativo.

Acrescente a isso o êxodo de segurança. Membros da equipe de Superalinhamento, pesquisadores de risco de longo prazo e colaboradores de políticas foram embora ou foram deslocados nos últimos 18 meses. Vários citaram frustração por o trabalho de segurança estar cada vez mais em segundo plano em relação a lançamentos de produtos como GPT-4, GPT-4o e o ecossistema de aplicativos que agora sustentam a estratégia de IA da Microsoft.

Enquanto isso, o dinheiro distorce tudo. A estrutura de lucro limitado da OpenAI ainda permite que os investidores ganhem até 100 vezes o investimento. A Microsoft investiu mais de 10 bilhões de dólares na empresa, integrou ChatGPT e Copilot no Windows e no Office, e supostamente discutiu avaliações próximas a 100 bilhões de dólares, com conversas entusiasmadas sobre um futuro IPO de um trilhão de dólares. Quando tanto capital pesa sobre você, "pesquisa" começa a parecer muito com "material de marketing".

Contrastando isso com a Anthropic, que pelo menos publica cards de modelo detalhados, relatórios de red-teaming e frameworks de política explicando como pensa sobre riscos catastróficos. A Anthropic está longe de ser perfeita, mas sua postura padrão é explicar. A postura padrão da OpenAI agora parece mais voltada para criar narrativas.

Assim, usuários, reguladores e outros pesquisadores enfrentam uma questão brutal: quando a OpenAI lança um atraente esboço “IA no trabalho” ou um relatório sobre impacto econômico, alguém deve tratá-lo como ciência ou apenas como defesa corporativa? Se os próprios integrantes estão chamando seu próprio trabalho de propaganda, o ceticismo não é paranoia; é higiene.

Auditorias obrigatórias, independentes e de terceiros sobre alegações de segurança, estudos de impacto econômico e práticas de dados de treinamento não são mais um fator desejável. Elas se tornaram essenciais para qualquer laboratório que envie modelos capazes de transformar mercados de trabalho, ecossistemas de informação e segurança nacional. A autorregulação falhou nas redes sociais; a IA não terá uma segunda chance.

Os avanços futuros da IA terão menos importância do que a crença do público nas pessoas que os promovem. Sem confiança, mesmo sistemas genuinamente benéficos enfrentarão um muro de "animus ambiente" e repercussões políticas. A crise da OpenAI não diz respeito apenas aos segredos de uma única empresa; é um referendo antecipado sobre se esta indústria merece o direito de continuar avançando rapidamente.

Perguntas Frequentes

Por que o economista Tom Cunningham deixou a OpenAI?

Ele supostamente pediu demissão após alegar internamente que a equipe de pesquisa econômica da OpenAI estava se desviando da 'pesquisa real' e agindo como o 'braço de propaganda' da empresa, priorizando a defesa da IA em detrimento de descobertas objetivas.

Do que a OpenAI é acusada de esconder?

Fontes afirmam que a OpenAI se tornou hesitante em publicar pesquisas internas que mostram impactos econômicos negativos significativos da IA, como a perda de empregos, para evitar provocar regulamentação, retaliação pública e desaceleração na adoção.

O que aconteceu com a equipe de Superalinhamento da OpenAI?

A OpenAI dissolveu sua equipe de Superalinhamento, que se concentrava na segurança de AGI a longo prazo. Esse movimento, combinado com saídas importantes, alimentou críticas de que a empresa está priorizando menos a segurança em favor do desenvolvimento de novos produtos.

Qual é a comparação entre a postura pública da OpenAI sobre os riscos da IA e a da Anthropic?

Enquanto a OpenAI é acusada de minimizar os impactos negativos, concorrentes como a Anthropic têm se manifestado publicamente sobre a alta probabilidade de a IA causar deslocamento significativo de empregos, criando um contraste evidente em transparência.

Frequently Asked Questions

Um 'Braço de Propaganda de IA'?
See article for details.
O 'Blueprint' é uma Solução ou uma Ilusão?
A resposta da OpenAI às acusações de "lavagem econômica" chega disfarçada de um documento de política. Em maio, a empresa publicou “IA no trabalho: o plano de força de trabalho da OpenAI,” um documento de mais de 40 páginas que se lê como uma mistura de resumo de pesquisa e manifesto corporativo. Nele, é detalhado como a IA irá “redefinir o trabalho ao longo do tempo” e o que a OpenAI afirma estar fazendo para que os trabalhadores não sejam esmagados no processo.
Dia do Juízo: Podemos Confiar na OpenAI Novamente?
A confiança na OpenAI costumava ser uma configuração padrão. Um laboratório sem fins lucrativos prometendo “beneficiar toda a humanidade”, abrindo seus modelos e trabalho de segurança, parecia o adulto na sala de IA. Agora, você tem Tom Cunningham acusando sua equipe de pesquisa econômica de se transformar em uma loja de “propaganda”, vários pesquisadores de segurança e políticas saindo, e uma empresa estruturalmente programada para proteger um potencial pagamento de um trilhão de dólares.
Por que o economista Tom Cunningham deixou a OpenAI?
Ele supostamente pediu demissão após alegar internamente que a equipe de pesquisa econômica da OpenAI estava se desviando da 'pesquisa real' e agindo como o 'braço de propaganda' da empresa, priorizando a defesa da IA em detrimento de descobertas objetivas.
Do que a OpenAI é acusada de esconder?
Fontes afirmam que a OpenAI se tornou hesitante em publicar pesquisas internas que mostram impactos econômicos negativos significativos da IA, como a perda de empregos, para evitar provocar regulamentação, retaliação pública e desaceleração na adoção.
O que aconteceu com a equipe de Superalinhamento da OpenAI?
A OpenAI dissolveu sua equipe de Superalinhamento, que se concentrava na segurança de AGI a longo prazo. Esse movimento, combinado com saídas importantes, alimentou críticas de que a empresa está priorizando menos a segurança em favor do desenvolvimento de novos produtos.
Qual é a comparação entre a postura pública da OpenAI sobre os riscos da IA e a da Anthropic?
Enquanto a OpenAI é acusada de minimizar os impactos negativos, concorrentes como a Anthropic têm se manifestado publicamente sobre a alta probabilidade de a IA causar deslocamento significativo de empregos, criando um contraste evidente em transparência.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts