A Morte Lenta da IA Inteligente

Você não está imaginando: seu chatbot de IA favorito está piorando. Descubra as forças econômicas e legais ocultas que obrigam as empresas a lobotomizar seus próprios modelos.

Stork.AI
Hero image for: A Morte Lenta da IA Inteligente
💡

Resumo / Pontos-chave

Você não está imaginando: seu chatbot de IA favorito está piorando. Descubra as forças econômicas e legais ocultas que obrigam as empresas a lobotomizar seus próprios modelos.

Essa Sensação de Declínio É Real

Uma sensação palpável de desilusão paira sobre o cenário da IA generativa. Usuários em diversas plataformas relatam cada vez mais um declínio significativo no desempenho e na utilidade de grandes chatbots como o ChatGPT da OpenAI e o Claude da Anthropic. O que antes parecia um vislumbre de um futuro mais inteligente agora muitas vezes parece uma regressão, desencadeando frustração generalizada e uma enxurrada de reclamações compartilhadas em fóruns e mídias sociais. O período de lua de mel, ao que parece, acabou definitivamente.

Esse sentimento se cristalizou recentemente com o lançamento do mais recente modelo carro-chefe da Anthropic, o Opus 4.7. Apesar do entusiasmo inicial e do forte desempenho em benchmarks internos, o modelo rapidamente gerou uma forte reação negativa da comunidade, com muitos usuários o descrevendo como 'terrível'. Essa desaprovação generalizada destaca uma desconexão crítica entre como as empresas de IA medem o sucesso e a experiência qualitativa e matizada de seus usuários em aplicações do mundo real.

De modo geral, os modelos parecem menos criativos, mais didáticos e notavelmente propensos a 'colocar palavras na sua boca', em vez de realmente auxiliar ou expandir os prompts dos usuários. Isso não se limita a uma única plataforma; reclamações sobre nuance reduzida, tons mais moralistas e uma falta geral de utilidade têm surgido consistentemente para o ChatGPT e o Claude nos últimos 6-12 meses. Os usuários estão descobrindo que seus outrora poderosos companheiros de IA estão se tornando frustrantemente rígidos e inúteis.

Por um período, essas preocupações pareciam reclamações isoladas, talvez até à frente da janela de Overton para o discurso mainstream da IA. Agora, uma massa crítica de usuários reconhece uma realidade compartilhada e inegável: a IA com a qual interagem diariamente está comprovadamente pior, muitas vezes falhando em atender até mesmo às expectativas básicas. Essa degradação generalizada levanta uma questão premente que permeia a indústria: esse declínio é um subproduto acidental do rápido desenvolvimento e escalonamento, ou um resultado previsível, talvez até inevitável, das atuais estruturas de incentivo da indústria de IA, que podem priorizar outras métricas em detrimento da inteligência e utilidade genuínas?

Bem-vindo à 'Enshittification' da IA

Ilustração: Bem-vindo à 'Enshittification' da IA
Ilustração: Bem-vindo à 'Enshittification' da IA

Cunhado pelo autor Cory Doctorow, a enshittification descreve a degradação previsível das plataformas online. Este termo, inicialmente aplicado a gigantes das redes sociais, captura perfeitamente o ciclo de vida de serviços que começam amigáveis ao usuário antes de se transformarem em uma casca frustrante e com valor extraído de seus antigos eus. É uma podridão sistêmica, não um incidente isolado.

Doctorow descreve um sombrio processo de três estágios. Primeiro, as plataformas atraem usuários com um produto excelente, muitas vezes subsidiado, estabelecendo um forte efeito de rede. Segundo, uma vez que os usuários estão presos, a plataforma começa a explorá-los, desviando valor para clientes comerciais como anunciantes ou criadores de conteúdo. Finalmente, com usuários e empresas dependentes, a plataforma então explora seus clientes comerciais, recuperando todo o valor restante para si, deixando todos os outros com uma experiência diminuída.

Essa trajetória espelha a crise em desenvolvimento na IA. As primeiras iterações de modelos como o ChatGPT da OpenAI e o Claude da Anthropic ofereceram capacidades sem precedentes, muitas vezes sem custo direto para o usuário. Esta foi a fase do "ótimo produto", fortemente subsidiada para atrair milhões, coletar dados valiosos de usuários e estabelecer o domínio do mercado. O fator "uau" inicial, no entanto, deu lugar a um declínio palpável na qualidade e confiabilidade.

O que os utilizadores percebem como um declínio no desempenho da IA não é uma falha; é um resultado deliberado dos seus modelos de negócio em evolução. Assim como o Facebook passou de conectar amigos para monetizar a atenção, e o Twitter (agora X) priorizou métricas de engajamento em detrimento do bem-estar do utilizador, as empresas de IA estão agora a otimizar para imperativos corporativos. Isso inclui corte de custos na inferência, implementação de filtros de "segurança" rigorosos, ou adaptação de modelos para clientes empresariais, tudo à custa da experiência geral do utilizador e da inteligência bruta. A janela de Overton para a qualidade aceitável da IA está a deslocar-se para baixo, impulsionada pelo lucro, não pelo progresso.

São Os Incentivos, Estúpido

A frustração dos utilizadores com a qualidade em declínio dos chatbots não é acidental; é a consequência direta de poderosas e concorrentes estruturas de incentivo dentro das próprias empresas que constroem estes sistemas avançados de IA. Longe de ser um erro técnico, a degradação observável de modelos como o ChatGPT da OpenAI e o Claude da Anthropic decorre de uma mudança fundamental nas prioridades corporativas, onde a satisfação externa do utilizador agora luta contra a sobrevivência corporativa interna.

As ambições iniciais de oferecer experiências de utilizador inovadoras e inteligentes foram ofuscadas por uma trindade de pressões internas. Estas incluem o esmagador custo de computação, que exige uma eficiência severa em detrimento do poder bruto e irrestrito; o medo paralisante de litígios, levando a resultados excessivamente cautelosos, frequentemente censurados e, por vezes, inúteis; e a guerra impossível de vencer contra as 'alucinações', empurrando os modelos para a insipidez e previsibilidade na busca pela precisão factual absoluta.

Estas profundas batalhas internas ditam agora o desenvolvimento da IA, deixando de lado a busca inicial por interações verdadeiramente inteligentes ou envolventes. As empresas já não estão a otimizar apenas para a "melhor" experiência de chatbot, mas para uma que seja economicamente viável, legalmente defensável e minimamente propensa a gerar conteúdo controverso ou indesejável. Esta reorientação altera fundamentalmente a forma como estes sistemas são treinados, ajustados e, em última análise, implementados para milhões de utilizadores.

O que os utilizadores percebem como a IA a ficar "mais burra" é, em essência, uma série de compromissos estratégicos. O fator "uau" inicial que cativou milhões deu lugar a uma abordagem mais pragmática e avessa ao risco, sacrificando o desempenho pela estabilidade e controlo de custos. Nas secções seguintes, dissecaremos cada uma destas três forças, explorando precisamente como as imensas exigências computacionais, as ameaças legais iminentes e a tarefa sisífica de erradicar as fabricações estão ativamente a tornar o seu chatbot menos capaz e mais frustrante.

Fator #1: O Peso Esmagador do Custo

Operar modelos de linguagem grandes (LLMs) de última geração como o GPT-4 da OpenAI ou o Claude Opus da Anthropic exige um gasto astronómico. Cada interação, desde uma consulta casual a um pedido de codificação intrincado, desencadeia uma cascata computacional massiva através de vastos clusters de GPUs especializadas. Estas operações consomem quantidades prodigiosas de eletricidade e exigem manutenção constante de infraestruturas de alta qualidade, traduzindo-se num custo por consulta que fundamentalmente supera a receita típica.

Cada consulta de utilizador, portanto, funciona como uma transação fortemente subsidizada. Embora as empresas possam oferecer níveis gratuitos para atrair utilizadores e subscrições pagas para acesso melhorado, a economia subjacente permanece brutal. O custo real de gerar uma resposta matizada e profundamente fundamentada de um modelo de primeira linha muitas vezes excede a receita marginal gerada, mesmo de um subscritor premium.

Assinaturas premium, frequentemente na faixa de US$ 20 a US$ 30, oferecem aos usuários mais tokens ou limites de uso mais altos. No entanto, essas taxas raramente cobrem a despesa computacional total de tarefas de raciocínio complexas. Quando um usuário solicita à AI para resolução de problemas intrincados, análise multi-etapas ou geração criativa que exige um 'pensamento' interno extenso, o modelo gasta significativamente mais recursos. Paradoxalmente, quanto mais um usuário aproveita a inteligência real da AI — sua característica mais valiosa — mais dinheiro a empresa perde nessa interação.

Essa estrutura de incentivo invertida obriga os desenvolvedores a encontrar eficiências. Um método principal envolve reduzir sutilmente a profundidade de raciocínio do modelo, uma prática coloquialmente chamada de "raspar tokens de pensamento". Não se trata de censura explícita; trata-se de reduzir as etapas computacionais internas que um LLM executa antes de formular uma resposta. Engenheiros podem reduzir o 'tempo de pensamento' do modelo, limitar seu monólogo interno ou restringir o escopo de sua recuperação de informações, tudo para economizar em ciclos computacionais caros.

Os usuários experimentam as consequências diretas dessas medidas de corte de custos. Chatbots frequentemente parecem 'mais preguiçosos', fornecendo respostas mais curtas, menos abrangentes ou excessivamente genéricas. Eles demonstram uma notável relutância em se envolver com perguntas complexas e multipartes, muitas vezes simplificando o problema ou solicitando esclarecimentos em vez de tentar uma solução profunda. Essa queda observada na qualidade — a frustração por uma AI outrora brilhante agora parecer diminuída — é um resultado direto e economicamente racional do peso esmagador do custo computacional.

Fator #2: O Espectro do Processo Judicial de Bilhões de Dólares

Ilustração: Fator #2: O Espectro do Processo Judicial de Bilhões de Dólares
Ilustração: Fator #2: O Espectro do Processo Judicial de Bilhões de Dólares

Empresas de AI, entidades corporativas massivas, operam sob um pavor existencial de responsabilidade legal. Ao contrário de startups mais ágeis, essas organizações multibilionárias priorizam a mitigação de riscos acima de quase tudo. Cada consulta processada por um large language model representa um vetor potencial para um processo judicial devastador, incutindo uma abordagem profundamente conservadora ao desenvolvimento.

A violação de direitos autorais já projeta uma longa sombra. Editores e autores buscam vigorosamente litígios, exemplificado pelo processo contra a Anthropic, alegando que a empresa treinou seus modelos Claude em vastas quantidades de livros protegidos por direitos autorais sem consentimento. Tais casos ameaçam redefinir o cenário legal para dados de treinamento de AI, potencialmente invalidando modelos existentes e exigindo taxas de licenciamento astronômicas.

Além dos dados de treinamento, o espectro de conselhos prejudiciais é iminente. Modelos de AI que dispensam orientação errônea ou perigosa podem desencadear batalhas legais catastróficas. Imagine um chatbot de AI fornecendo: - Aconselhamento jurídico incorreto que leva à ruína financeira - Diagnósticos errados em um contexto médico, colocando em risco a saúde do paciente - Planejamento financeiro falho resultando em perdas significativas

Para antecipar essas responsabilidades, os desenvolvedores recorrem a medidas extremas, efetivamente lobotomizando seus modelos sofisticados. Essa estratégia legal agressiva e defensiva envolve a implementação de amplas salvaguardas e filtros projetados para tornar a AI excessivamente cautelosa, moralista e emocionalmente estéril. O objetivo principal torna-se eliminar qualquer saída que possa, sob a interpretação legal mais escrupulosa, ser considerada um conselho acionável, mas problemático.

Esse medo generalizado de um processo judicial de bilhões de dólares se traduz diretamente na utilidade decrescente dos chatbots modernos. As empresas sacrificam sistematicamente respostas matizadas, genuinamente úteis e envolventes por platitudes genéricas e avessas ao risco. O imperativo de evitar a culpabilidade legal molda inevitavelmente o comportamento da AI, resultando em modelos que parecem menos inteligentes, menos capazes e, em última análise, muito mais frustrantes para o usuário comum.

A IA 'Lobotomizada': Segura, Estéril e Inútil

Os utilizadores outrora aclamavam chatbots como ChatGPT e Claude pela sua fluência conversacional e faísca criativa. Agora, a experiência muitas vezes parece interagir com um autómato meticulosamente programado, mas totalmente sem alegria. Esta é a consequência direta da "lobotomização" da IA: uma castração deliberada concebida para eliminar riscos legais e de reputação, mas a um custo elevado de utilidade e envolvimento, empurrando a Overton window window do comportamento aceitável da IA firmemente para a cautela extrema.

Longe vão os dias de respostas matizadas e brincadeiras espirituosas. Em vez disso, os utilizadores encontram cada vez mais uma enxurrada de frases pré-fabricadas, sendo a mais notória o ubíquo aviso "As a large language model...". Este preâmbulo muitas vezes precede uma palestra sobre limites éticos, diretrizes de segurança ou as limitações inerentes do modelo, independentemente da natureza inócua do prompt. A IA, outrora um parceiro na exploração, agora age como um comité de ética perpétuo, lembrando constantemente os utilizadores das suas restrições e salvaguardas.

Esta sanitização agressiva despoja os modelos da sua nascente inteligência emocional e personalidades distintas. Onde as primeiras iterações poderiam ter oferecido sugestões criativas, respostas empáticas ou até interações lúdicas, as versões atuais permanecem teimosamente neutras, planas e desprovidas de qualquer caráter discernível. Para tarefas que exigem imaginação, ideação matizada ou o tipo de interação companheira que muitos dos primeiros utilizadores valorizavam, estes modelos revelam-se frustrantemente inadequados, muitas vezes recusando-se a envolver-se com prompts criativos ou cenários de role-playing devido a preocupações percebidas de "segurança".

A busca implacável pela segurança absoluta, impulsionada pelo espectro de processos judiciais de bilhões de dólares e pela reação pública, criou assim uma experiência de utilizador estéril e profundamente inútil. As empresas de IA efetivamente trocaram versatilidade e interação envolvente por uma conformidade insípida. A promessa inicial de um assistente dinâmico e inteligente, capaz de se adaptar a diversas necessidades e fomentar a criatividade, foi sistematicamente minada. É agora substituída por uma ferramenta que é segura, talvez, mas cada vez mais inútil para qualquer coisa além das tarefas mais rigidamente definidas e de baixo risco. Esta contradição fundamental destaca a trágica ironia do cenário atual da IA: ao esforçarem-se para serem perfeitamente inofensivos, estes sistemas avançados tornaram-se largamente inertes, falhando em cumprir o seu potencial original como assistentes verdadeiramente úteis e versáteis.

Fator #3: A Guerra Impossível de Vencer contra as Hallucinations

Hallucinations representam o impedimento mais significativo para a adoção generalizada em empresas e no meio profissional da IA generativa. Estas saídas convincentes, mas factualmente incorretas, tornam os modelos fundamentalmente não confiáveis para aplicações críticas em áreas como medicina, direito e finanças. As empresas não podem arriscar a sua reputação ou enfrentar repercussões legais ao implementar ferramentas que rotineiramente inventam dados ou deturpam factos.

No entanto, alcançar 100% de precisão factual contradiz diretamente a mecânica central de como os grandes modelos de linguagem operam. Estes modelos funcionam como sofisticados pattern-matchers, prevendo a próxima palavra mais provável com base em vastos conjuntos de dados de treino, em vez de consultar uma base de dados interna de verdades verificadas. Eles são projetados para *gerar*, não necessariamente para *saber*, tornando a recordação factual perfeita um objetivo inerentemente elusivo.

Desenvolvedores de IA empregam várias técnicas para conter essas fabricações, mais notavelmente o Reinforcement Learning from Human Feedback (RLHF). Este processo trabalhoso envolve anotadores humanos avaliando as respostas do modelo, guiando a IA para favorecer saídas verdadeiras, inofensivas e úteis. Embora eficaz na redução de erros flagrantes, o RLHF frequentemente leva a um fenômeno em que os modelos se tornam excessivamente cautelosos, genéricos e menos criativos, sacrificando seu brilho inicial por uma segurança insípida.

A busca implacável pela infalibilidade para médicos, advogados e analistas financeiros inevitavelmente despoja essas IAs das mesmas capacidades que inicialmente cativaram um público mais amplo. À medida que as empresas priorizam a mitigação de responsabilidades e a garantia de respostas estéreis e previsíveis para casos de uso profissional de alto risco, os modelos perdem sua capacidade de surpreender, inovar ou gerar conteúdo verdadeiramente novo. Esse impulso para tornar a IA "segura" e factualmente robusta para a empresa, ironicamente, a torna cada vez mais maçante e menos útil para todos os outros, extinguindo a faísca que antes a fazia parecer verdadeiramente mágica.

Uma Corrida para o Fundo Mais Seguro

Ilustração: Uma Corrida para o Fundo Mais Seguro
Ilustração: Uma Corrida para o Fundo Mais Seguro

O peso esmagador dos custos operacionais, o espectro onipresente de processos judiciais de bilhões de dólares e o problema intratável das hallucinations remodelaram fundamentalmente o cenário competitivo da IA. As empresas antes alardeavam benchmarks e competiam pelos modelos mais inteligentes ou capazes, empurrando os limites do que a cognição da máquina poderia alcançar. Essa era, parece, terminou decisivamente. Os incentivos mudaram.

O campo de batalha de hoje não é a inteligência bruta, mas a viabilidade comercial. Grandes desenvolvedores de IA, da OpenAI à Anthropic, não priorizam mais a capacidade cognitiva inovadora ou a criatividade irrestrita. Em vez disso, estão travados em uma competição feroz e silenciosa para construir modelos que abordem simultaneamente suas ameaças existenciais mais prementes. Isso significa priorizar modelos que sejam: - Mais baratos para operar em escala, mitigando o subsídio massivo de computação inerente a cada consulta do usuário. - Mais defensáveis legalmente, minimizando a exposição a reivindicações de violação de direitos autorais, processos por difamação ou responsabilidades por erros factuais. - Mais seguros para clientes corporativos, garantindo saídas previsíveis e alinhadas à marca, totalmente livres de conteúdo controverso, ofensivo ou politicamente sensível.

Este pivô estratégico explica diretamente a frustração generalizada dos usuários e a percepção de degradação da qualidade do modelo. A IA "lobotomizada", despojada de sua nuance, faísca criativa e espírito aventureiro, não é um subproduto acidental. É o resultado deliberado e projetado dessas poderosas pressões comerciais e legais. A inovação, particularmente em áreas que exigem criatividade não filtrada, compreensão matizada ou raciocínio complexo, torna-se menos um objetivo e mais uma responsabilidade.

Em última análise, essa trajetória representa uma corrida para o fundo mais seguro. As empresas de IA sacrificam ativamente a inteligência bruta, as capacidades emergentes e uma experiência de usuário genuinamente envolvente no altar da eficiência de custos e mitigação de riscos. A IA mais bem-sucedida neste novo paradigma não é a mais inteligente, nem mesmo a mais útil para um usuário geral; é a mais estéril, previsível e a menos propensa a gerar controvérsias, dores de cabeça legais ou déficits operacionais massivos. Isso sufoca o verdadeiro avanço, trocando a capacidade genuína pela tranquilidade corporativa e, em última análise, diminuindo o potencial de todo o campo.

Existe Uma Saída Para Esta Espiral?

Escapar da espiral atual exige uma reavaliação fundamental do desenvolvimento e implantação da IA. A alternativa mais promissora reside nos modelos de código aberto, oferecendo um contraponto transparente aos sistemas opacos e proprietários como ChatGPT e Claude. O desenvolvimento impulsionado pela comunidade poderia fomentar a inovação sem as mesmas pressões corporativas por segurança universal ou corte de custos.

Os modelos de código aberto, no entanto, enfrentam desafios formidáveis. Treinar um modelo de linguagem grande de ponta pode custar de dezenas a centenas de milhões de dólares, uma barreira proibitiva para muitas entidades não comerciais. Além disso, embora ofereçam liberdade, a falta de salvaguardas centralizadas levanta preocupações legítimas sobre o potencial uso indevido e a ausência de estruturas claras de responsabilidade.

Modelos de negócios alternativos também poderiam mudar os incentivos centrais. Em vez de um chatbot generalista, baseado em assinatura e projetado para servir a todos, a IA futura poderia evoluir para modelos altamente especializados e ajustados para indústrias específicas. Imagine ferramentas de IA personalizadas para pesquisa jurídica, diagnósticos médicos ou análise financeira, onde a precisão e a expertise de domínio superam a ampla capacidade conversacional.

Essas IAs especializadas poderiam ser licenciadas ou implantadas no local, mudando o cálculo econômico. As empresas pagariam por utilidade precisa e desempenho verificável, em vez de subsidiar cada consulta pública em um modelo genérico e avesso a riscos. Essa abordagem minimiza o ônus do custo "por token" e reduz a ampla exposição legal das ofertas atuais de mercado de massa.

Em última análise, a questão permanece se essa degradação é um destino inevitável para qualquer IA comercializada em escala massiva. As forças de custo, responsabilidade e a guerra impossível de vencer contra as alucinações criam uma atração inexorável em direção a um produto mais seguro, porém menos capaz, quando o lucro e o domínio do mercado são os principais impulsionadores. Quebrar esse ciclo exige uma mudança radical na forma como concebemos, construímos e financiamos a inteligência artificial, priorizando a utilidade e a integridade em detrimento da acessibilidade universal e sanitizada.

Seu Papel no Futuro da IA

Os usuários detêm um poder significativo para direcionar o futuro da inteligência artificial; sua trajetória não é predeterminada. Sua participação ativa e escolhas criteriosas podem contrariar as forças de enshittification que atualmente degradam os principais modelos. As empresas, em última análise, respondem ao engajamento, retenção e receita dos usuários, tornando sua voz coletiva e hábitos de consumo cruciais.

Forneça feedback específico e crítico aos desenvolvedores de IA, indo além de simples relatórios de bugs. Articule a perda precisa de capacidade que você observa. Por exemplo, explique como as iterações anteriores do ChatGPT podiam lidar com conversas complexas de múltiplas voltas com memória contextual, detalhando onde as versões atuais agora falham. Ou descreva como Claude Opus 4.7 já se destacou na escrita criativa com nuances, agora padronizando para prosa genérica e avessa a riscos. Documentar essa degradação é vital para que os desenvolvedores compreendam o verdadeiro impacto de suas salvaguardas de segurança e medidas de corte de custos.

Além dos jardins murados das ofertas corporativas, explore e apoie ativamente o crescente ecossistema de IA de código aberto. Projetos como Llama 3 da Meta, os modelos robustos da Mistral AI e os inúmeros derivados fornecem alternativas transparentes, muitas vezes livres dos mesmos conflitos de incentivo corporativos que impulsionam a degradação de código fechado. Engajar-se com essas comunidades, contribuir para seu desenvolvimento ou simplesmente escolher executar modelos locais poderosos fomenta um cenário competitivo que prioriza capacidade, controle do usuário e inovação.

Em última análise, torne-se um consumidor consciente de AI. Compreenda as forças ocultas que moldam as ferramentas que você usa diariamente — os custos computacionais esmagadores, o medo generalizado de processos judiciais de bilhões de dólares e a guerra impossível de vencer contra as hallucinations. Exija melhor. Ao procurar ativamente e defender modelos que priorizam a inteligência e a utilidade em detrimento da esterilidade, os usuários podem, coletivamente, impulsionar a indústria em direção a um futuro mais inovador e genuinamente útil para a inteligência artificial.

Perguntas Frequentes

O que é a 'enshittification' da AI?

É a teoria de que os AI models, como as plataformas de redes sociais, degradam-se ao longo do tempo à medida que as empresas mudam o foco do valor para o utilizador para a maximização do lucro e a minimização do risco.

Por que as empresas de chatbot tornam seus modelos 'mais seguros'?

Para evitar processos judiciais caros de utilizadores que possam agir com base em conselhos prejudiciais, incorretos ou ilegais gerados pela AI, o que as força a tornar os modelos excessivamente cautelosos.

As assinaturas pagas de AI ainda são subsidiadas pelas empresas?

Sim, de acordo com análises da indústria, mesmo os clientes pagantes muitas vezes não cobrem o custo computacional total, dando às empresas um incentivo financeiro para reduzir o desempenho do modelo.

Como combater as 'hallucinations' piora a AI?

O foco intenso na eliminação de erros factuais (hallucinations) muitas vezes resulta em modelos menos criativos, mais repetitivos e que se recusam a participar em conversas especulativas ou matizadas, limitando a sua utilidade geral.

Perguntas frequentes

Existe Uma Saída Para Esta Espiral?
Escapar da espiral atual exige uma reavaliação fundamental do desenvolvimento e implantação da IA. A alternativa mais promissora reside nos modelos de código aberto, oferecendo um contraponto transparente aos sistemas opacos e proprietários como ChatGPT e Claude. O desenvolvimento impulsionado pela comunidade poderia fomentar a inovação sem as mesmas pressões corporativas por segurança universal ou corte de custos.
O que é a 'enshittification' da AI?
É a teoria de que os AI models, como as plataformas de redes sociais, degradam-se ao longo do tempo à medida que as empresas mudam o foco do valor para o utilizador para a maximização do lucro e a minimização do risco.
Por que as empresas de chatbot tornam seus modelos 'mais seguros'?
Para evitar processos judiciais caros de utilizadores que possam agir com base em conselhos prejudiciais, incorretos ou ilegais gerados pela AI, o que as força a tornar os modelos excessivamente cautelosos.
As assinaturas pagas de AI ainda são subsidiadas pelas empresas?
Sim, de acordo com análises da indústria, mesmo os clientes pagantes muitas vezes não cobrem o custo computacional total, dando às empresas um incentivo financeiro para reduzir o desempenho do modelo.
Como combater as 'hallucinations' piora a AI?
O foco intenso na eliminação de erros factuais muitas vezes resulta em modelos menos criativos, mais repetitivos e que se recusam a participar em conversas especulativas ou matizadas, limitando a sua utilidade geral.
🚀Descubra mais

Fique à frente da curva da IA

Descubra as melhores ferramentas de IA, agentes e servidores MCP selecionados pela Stork.AI.

Voltar a todas as publicações