Resumo / Pontos-chave
A Confissão Que Abalou o Silicon Valley
Andre Karpathy, um titã da inteligência artificial que foi pioneiro na condução autônoma na Tesla, cofundou a OpenAI e até cunhou o termo "vibe coding", fez recentemente uma admissão surpreendente que reverberou em todo o mundo da tecnologia. Falando no evento anual de IA da Sequoia, ele confessou: "Nunca me senti tão atrasado como programador." Esta declaração, de uma das mentes mais influentes da área, sinalizou uma aceleração sem precedentes nas capacidades da IA.
Para Karpathy, este profundo sentimento de ser superado pela tecnologia não foi meramente desencorajador; foi uma mistura complexa de emoções. Ele descreveu o sentimento como "uma mistura de ambos, com certeza"—simultaneamente exilarante pelo puro progresso que representava e profundamente inquietante para a sua própria posição profissional. Um sentimento tão franco de um especialista líder sublinha a velocidade radical do avanço da IA.
Esta não foi uma evolução gradual de ferramentas. Karpathy identificou um ponto de viragem preciso: "Dezembro foi este ponto claro." Durante uma pausa, com mais tempo para experimentar, ele notou uma mudança dramática, quase instantânea, nas capacidades dos mais recentes modelos de IA. Onde anteriormente ele editava e corrigia meticulosamente pedaços de código gerado, de repente, "os pedaços simplesmente saíam bem", e ele declarou: "Não consigo lembrar a última vez que o corrigi."
Os modelos de IA, combinados com os seus avançados sistemas operacionais, transformaram-se de assistentes de código úteis em desenvolvedores quase autônomos. Matthew Berman, apresentador de "Why is AI so smart but also so dumb?", elaborou sobre isso, explicando que esses sistemas não ofereciam mais apenas trechos; agora eles podiam construir aplicações inteiras de ponta a ponta. Este novo paradigma de confiança e saída perfeita levou Karpathy a adotar o "vibe coding"—uma interação fluida, quase intuitiva com a IA que redefine fundamentalmente o ato de programar.
Berman enfatizou que qualquer pessoa que tenha experimentado a IA um ano antes, talvez através das primeiras iterações do ChatGPT, precisava "olhar novamente a partir de dezembro." A mudança foi fundamental e nítida, particularmente no "fluxo de trabalho coerente e agêntico." A confissão de Karpathy não é apenas uma reflexão pessoal; ela sinaliza uma mudança fundamental que afeta todo desenvolvedor, engenheiro e profissional de tecnologia globalmente. Este súbito "despertar de dezembro" altera irrevogavelmente o panorama da proficiência tecnológica e o futuro do próprio trabalho.
O 'Momento de Dezembro': Quando a IA Despertou
Dezembro marcou um ponto de viragem distinto para as ferramentas de IA agênticas, um 'ponto claro' onde as capacidades se transformaram fundamentalmente. Andre Karpathy, cofundador da OpenAI e a mente por trás da condução autônoma da Tesla, notou esta mudança durante uma pausa, observando um salto qualitativo no desempenho do modelo. Não foi meramente uma atualização incremental; sinalizou uma mudança profunda na capacidade da IA de executar tarefas complexas de forma coerente e confiável.
Antes deste mês crucial, os desenvolvedores que usavam IA para codificação frequentemente se viam envolvidos numa dança laboriosa. Os sistemas de IA geravam pedaços de código, mas estes frequentemente exigiam extensa edição manual e depuração. As ferramentas eram úteis, oferecendo trechos, mas a sua saída raramente era impecável, exigindo constante intervenção humana para montar software funcional. Os programadores ainda estavam muito no comando, corrigindo e refinando meticulosamente as sugestões da IA.
Então veio dezembro. Karpathy descreveu uma melhoria súbita e dramática: os blocos de código "simplesmente saíam bem". Ele continuou a pedir mais, e o sistema entregou, produzindo consistentemente a saída correta. Ele não conseguia se lembrar da última vez que teve que corrigir a AI, levando-o a um estado de criação sem esforço que ele chamou de "vibe coding". Este novo paradigma significava confiar cada vez mais no sistema, indo além da mera assistência para uma colaboração genuína.
Isso representou uma mudança monumental de simples code snippets para o desenvolvimento completo e end-to-end de aplicações. A AI, de repente, podia construir aplicações inteiras, materializando software complexo com confiabilidade sem precedentes e mínima supervisão humana. Matthew Berman, um proeminente comentarista de AI e apresentador do vídeo "Why is AI so smart but also so dumb?", ecoou a experiência de Karpathy, enfatizando que "algo mudou com os models plus the harnesses" tornando-os "incrivelmente bons".
Berman destacou isso como uma "transição marcante", enfatizando que muitos perderam essa evolução profunda. Ele instou aqueles que descartaram a AI após encontros anteriores menos impressionantes com ferramentas como ChatGPT a "olhar novamente a partir de dezembro". A taxa de progresso era "insana", ele observou, alterando fundamentalmente o cenário para agentic, coherent workflows. Matt Shumer, uma voz reconhecida em AI, articulou ainda mais essa transformação em seu ensaio, "Something Big Is Happening", observando uma melhoria nos modelos "mais do que ele jamais pensou ser possível em tão pouco tempo", remodelando fundamentalmente não apenas a programação, mas a economia em geral. Isso não foi um pequeno patch; foi um salto qualitativo em inteligência e utilidade.
Adeus Snippets, Olá Agentes End-to-End
Longe vão os dias da AI agindo meramente como um sofisticado gerador de code snippet. A mudança para agentic coding marca uma alteração fundamental, indo muito além do antigo fluxo de trabalho de copiar e colar. Anteriormente, os desenvolvedores usavam ferramentas como ChatGPT para buscar blocos isolados de código, depois os montavam manualmente, depurando e editando conforme necessário. Isso era útil, mas ainda uma linha de montagem em grande parte impulsionada por humanos.
Este salto transformador deve-se a uma combinação potente: modelos de AI subjacentes dramaticamente melhorados, emparelhados com "harnesses" mais eficazes. Estes harnesses permitem que os modelos unam tarefas complexas de forma coerente, executando múltiplos passos sem intervenção humana constante. Andre Karpathy, refletindo sobre sua experiência, notou que em dezembro, os blocos de código "simplesmente saíam bem", eliminando a necessidade de correções e promovendo uma profunda confiança no sistema.
O que emerge é uma AI que funciona menos como um assistente inteligente e mais como um desenvolvedor júnior em ascensão. Estes agentes avançados podem construir aplicações inteiras do zero, demonstrando uma nova capacidade para trabalho independente. Matthew Berman, um proeminente comentarista de AI, destacou esta distinção, enfatizando que a AI já não fornece apenas snippets; ela "literalmente poderia fazer tudo end-to-end". Esta capacidade sustenta o conceito de "vibe coding" que Karpathy descreveu.
Qualquer pessoa que tenha desconsiderado as capacidades da AI há apenas um ano deve reavaliar imediatamente a sua proeza atual. A taxa de progresso é "insana", como Berman a descreveu, tornando as impressões anteriores obsoletas. O momento de dezembro representa uma transição marcante para um fluxo de trabalho de AI fundamentalmente diferente e mais coerente. Para mais informações sobre a perspectiva de Karpathy sobre as limitações e o potencial da AI, explore Por que a AI não é tão inteligente quanto você pensa: A verdade brutal de Karpathy sobre a Inteligência Artificial.
Bem-vindo ao Paradigma 'Software 3.0'
Andre Karpathy, co-fundador da OpenAI e ex-chefe de AI na Tesla, oferece uma estrutura profunda para esta mudança sísmica, definindo três eras distintas de desenvolvimento de software. O Software 1.0 envolvia a escrita de código explícito, baseado em regras, onde engenheiros humanos criavam meticulosamente cada instrução. Este paradigma tradicional dominou a computação por décadas, com resultados determinísticos baseados na lógica definida por humanos.
O Software 2.0 surgiu com o advento do deep learning, onde a "programação" se transformou na curadoria de grandes conjuntos de dados e no treinamento de redes neurais. Os desenvolvedores organizavam vastas quantidades de dados, definiam objetivos e selecionavam arquiteturas de redes neurais, permitindo que a rede aprendesse seus próprios pesos e representações internas. Esta era significava programar implicitamente através de dados, em vez de código explícito.
Agora, Karpathy postula a chegada do Software 3.0, um paradigma centrado inteiramente na criação de prompts para large language models (LLMs). Isso representa uma redefinição fundamental do próprio computador. Aqui, os pesos do modelo pré-treinado do LLM funcionam como a CPU, executando operações complexas e raciocínio com base em seu vasto conhecimento aprendido.
A context window, aquele espaço finito onde residem a entrada do usuário e a saída do modelo, atua como a RAM — a memória de curto prazo desta nova arquitetura de computação. Esta analogia esclarece como um LLM processa informações, interpretando o contexto imediato para gerar respostas coerentes e executar tarefas intrincadas.
A programação no Software 3.0 torna-se a arte de criar prompts precisos e gerenciar habilmente esta context window. Os desenvolvedores não escrevem mais linhas de código; em vez disso, eles usam a context window como sua principal "alavanca sobre o interpretador", como Karpathy a descreve. Esta abordagem guia o poderoso LLM pré-programado através de tarefas intrincadas e processos computacionais.
Este novo e poderoso "computador" obtém suas imensas e versáteis capacidades de uma forma implícita de programação derivada diretamente de seus dados de treinamento. Ao ingerir vastas porções de toda a internet — texto, código, imagens e muito mais — os LLMs aprendem implicitamente a realizar multitarefas em inúmeros domínios e bases de conhecimento, construindo efetivamente uma inteligência generalizada. A própria internet torna-se a base de código definitiva e não estruturada para este novo paradigma.
Consequentemente, a programação muda da instrução explícita para a orquestração cuidadosa de um interpretador inteligente e de propósito geral. Este novo fluxo de trabalho, exemplificado pelo 'Momento de Dezembro' da AI agêntica, altera fundamentalmente como os engenheiros constroem e interagem com sistemas complexos, expandindo os limites do que o software pode alcançar em um cenário digital cada vez mais autônomo.
Você já está 'Vibe Coding'?
Vibe coding surge como a consequência direta de abraçar o paradigma Software 3.0 de Andrej Karpathy. Não mais escrevendo regras explícitas ou treinando meticulosamente pesos aprendidos, os desenvolvedores agora programam ao solicitar a um grande modelo de linguagem, confiando implicitamente no sistema. Essa profunda mudança redefine o papel central do programador, transformando-o de um arquiteto de código meticuloso em um orquestrador da intenção mais ampla da IA.
Os desenvolvedores agora entram em um verdadeiro estado de fluxo, guiando a "vibe" ou direção geral da IA, em vez de depurar linhas individuais ou erros de sintaxe. O processo torna-se menos sobre correção precisa de código e significativamente mais sobre transmitir um resultado desejado ou uma visão arquitetônica. Isso permite que a IA agêntica preencha autonomamente detalhes intrincados e gere funcionalidades complexas, promovendo uma parceria altamente intuitiva e colaborativa.
Este novo modelo de programação sinaliza uma transição fundamental de uma abordagem de codificação determinística para uma probabilistic coding. Em vez de definir rigidamente cada etapa lógica e função, os desenvolvedores articulam um objetivo de alto nível, uma "vibe" abstrata. O LLM então gera probabilisticamente código funcional e coerente que se alinha precisamente com essa intenção expressa, parecendo mais uma direção criativa do que engenharia tradicional.
A própria experiência de Karpathy sublinha poderosamente essa profunda mudança. Ele identificou um "ponto claro" em dezembro do ano passado onde ferramentas agênticas como Claude Code transformaram fundamentalmente suas capacidades. Anteriormente, ele rotineiramente editava "chunks of code" que exigiam refinamento, mas com os modelos mais recentes, ele observou uma consistência surpreendente onde "os chunks simplesmente saíam bem."
"Não me lembro da última vez que o corrigi," afirmou Karpathy, destacando a confiabilidade sem precedentes desses sistemas avançados. Essa nova precisão fomentou uma confiança profunda e acelerada na IA, impulsionando sua adoção do vibe coding. O foco do desenvolvedor muda inteiramente para refinar prompts, iterar em estratégias de alto nível e gerenciar as saídas da IA, confiante em sua execução de tarefas complexas.
Seu Novo Script de Instalação é um Parágrafo de Texto
A mudança de paradigma descrita por Karpathy se estende profundamente à instalação de software. Longe vão os dias de lutar com scripts de shell complexos ou seguir meticulosamente guias de dependência de várias etapas. Considere a instalação de uma ferramenta como "Open Claw." No mundo do Software 1.0, isso poderia exigir um longo comando `curl | bash`, assumindo configurações de sistema e gerenciadores de pacotes específicos, muitas vezes falhando devido a discrepâncias ambientais.
Agora, sob a estrutura do Software 3.0, seu novo script de instalação é um simples parágrafo de texto direcionado a um agente de IA. Em vez de um comando preciso, você declara: "Instale Open Claw para mim." O agente então interpreta essa intenção, compreendendo as especificidades do seu sistema, resolvendo dependências e executando as etapas necessárias autonomamente, imitando um administrador de sistema experiente.
Exemplos de here.now e Journey Kits ilustram ainda mais essa transição. Seus prompts de instalação vão além de comandos rígidos para articular lógica condicional, como: "Se você tem npm, faça isso... se não, faça aquilo." Isso efetivamente transfere todo o ônus da depuração específica do ambiente, gerenciamento de dependências e tomada de decisões do usuário para a inteligência inerente do agente de IA. O agente possui a consciência contextual para navegar em diversos sistemas operacionais, ferramentas instaladas e potenciais conflitos.
Esta abordagem prova ser significativamente mais poderosa porque aproveita totalmente a capacidade emergente do agente de raciocinar, adaptar-se e auto-corrigir-se. Os desenvolvedores não escrevem mais instruções explícitas e frágeis; eles simplesmente descrevem o resultado desejado. Esta mudança fundamental altera o modelo de interação, permitindo que a AI lide com os detalhes intrincados, muitas vezes frustrantes, da configuração do sistema, resolução de erros e até mesmo da configuração pós-instalação. Compreender esta capacidade é fundamental para apreciar o rápido progresso na programação agêntica, embora também destaque discussões contínuas sobre o verdadeiro "entendimento" dos modelos de AI versus suas impressionantes habilidades de correspondência de padrões. Para mais informações sobre as nuances das capacidades cognitivas da AI, leia The Limitations of Large Language Models for Understanding Human Language and Cognition - PMC.
A 'Lição Amarga' Finalmente Chegou
Um princípio fundamental na inteligência artificial, "a lição amarga", afirma o triunfo inevitável da computação geral e escalável sobre as heurísticas criadas por humanos. Este princípio, articulado pelo pioneiro da AI Richard Sutton, postula que a computação de força bruta e grandes volumes de dados superam consistentemente regras intrincadas e ajustadas manualmente ou conhecimento específico de domínio. Ele defende o poder do aprendizado em detrimento da engenharia explícita.
Andre Karpathy vivenciou esta lição em primeira mão durante seu papel fundamental na liderança da AI na Tesla. As primeiras iterações do Tesla Autopilot operavam em uma arquitetura híbrida, combinando redes neurais com extenso código C++ escrito por humanos. Os engenheiros codificaram meticulosamente instruções explícitas e máquinas de estado complexas para lidar com cenários de condução específicos e casos extremos, criando uma colcha de retalhos frágil de regras.
A subsequente e radical mudança da Tesla abraçou totalmente a lição amarga. O sistema transformou-se em uma rede neural pura, de ponta a ponta, ingerindo diretamente dados brutos de sensores — câmeras, radar, ultrassônicos — e emitindo comandos de controle. Isso eliminou milhares de linhas de regras definidas por humanos, substituindo-as por um sistema de aprendizado singular e unificado, treinado em imensos conjuntos de dados de condução no mundo real.
Os resultados foram nada menos que revolucionários. A rede de ponta a ponta demonstrou capacidades de generalização vastamente superiores, navegando em situações complexas e novas com robustez sem precedentes. Não só teve um desempenho melhor, mas também se tornou significativamente menos complexa de manter, eliminando a dívida técnica acumulada de inúmeras heurísticas frágeis codificadas por humanos. Esta transição serviu como uma poderosa validação da premissa central da lição amarga.
A profunda e prática experiência de Karpathy com esta mudança de paradigma na Tesla molda profundamente sua compreensão da atual revolução da AI e sua conceituação de Software 3.0. Ele testemunhou um sistema evoluir de uma mistura complexa de inteligência humana e de máquina para uma entidade elegantemente simples e orientada por dados. Esta percepção em primeira mão sustenta sua crença de que o futuro do software reside na instrução de agentes inteligentes.
Seu "December Moment" — a percepção de que ferramentas de agentic AI poderiam construir aplicações inteiras de ponta a ponta (end-to-end) — é a bitter lesson se manifestando na própria codificação. A ascensão do vibe coding e a mudança para scripts de instalação de parágrafo único são consequências diretas. Os programadores não definem mais cada etapa lógica intrincada; eles articulam a intenção de alto nível, confiando na computação subjacente e massivamente escalada do LLM para executar. Isso não é meramente uma atualização incremental; representa uma re-arquitetura fundamental de como o software é concebido, desenvolvido e mantido. A era das regras explícitas e codificadas manualmente está cedendo à era da inteligência aprendida e emergente.
Seu Aplicativo Inteiro É Apenas um Único Prompt
A ilustração marcante de Karpathy sobre essa mudança de paradigma centra-se em um aplicativo de menu aparentemente simples. Um programador pode inicialmente abordar isso com vibe coding, criando código tradicional para a funcionalidade principal, e então integrando componentes de AI para recursos como image recognition ou dynamic content generation. Essa abordagem híbrida, embora alavancando a AI, ainda se enraíza nas regras explícitas do Software 1.0.
No entanto, o verdadeiro poder do Software 3.0 manifesta-se em um método radicalmente diferente. Imagine apresentar a um modelo multimodal apenas uma fotografia de um menu e uma única frase declarativa: "use Nano Banana to overlay images on this menu." O agent então interpreta autonomamente a imagem, compreende o contexto e executa a tarefa inteira, não exigindo mais manual coding.
Isso demonstra o surpreendente outwards creep das capacidades de neural network end-to-end. Onde antes os desenvolvedores construíam meticulosamente camadas de software – database, backend, frontend, image processing libraries – agora, a stack inteira colapsa. O Large Language Model (LLM) torna-se o intérprete e executor universal, abstraindo as complexidades da software engineering tradicional.
O LLM absorve efetivamente as funções de operating systems, compilers e até mesmo application frameworks inteiros. Seus vastos learned weights, derivados de imensos datasets, permitem que ele compreenda a intenção e gere outputs complexos, incluindo visual layouts e interactive elements, diretamente de high-level prompts. Isso não é apenas sobre gerar code snippets; é sobre o LLM *ser* o computational environment.
As implicações futuras são profundas: para um número crescente de tarefas, o ato de escrever code tradicional e explícito se tornará cada vez mais redundante. Os desenvolvedores passarão de instruir máquinas com syntax precisa para comunicar os resultados desejados por meio de natural language, aproveitando a vasta base de conhecimento implícito do LLM para manifestar aplicações. A era do single-prompt app não é uma fantasia distante, mas uma realidade iminente.
Como Construir na Nova Era
Os desenvolvedores devem agora mudar para uma filosofia agent-first, projetando sistemas que abracem a inteligência inerente da AI em vez de restringi-la com regras prescritivas. Isso significa ir além da automação de tarefas individuais; em vez disso, construir frameworks onde os agents interpretem autonomamente high-level goals e orquestrem complexos workflows. Considere como um agent pode se adaptar dinamicamente a desafios imprevistos, em vez de apenas executar um static script.
Sua habilidade principal muda de implementar processos meticulosamente para articular precisamente os *outcomes* desejados. Sob o paradigma Software 3.0 de Andre Karpathy, o desenvolvedor define o "o quê" — o propósito e a funcionalidade do aplicativo — e delega o "como" ao LLM subjacente. Isso exige uma nova disciplina na elaboração de prompts claros e inequívocos que comuniquem a intenção, permitindo que o agent gere o code ou as ações necessárias.
Cultivar uma intuição profunda para este novo paradigma exige experimentação incessante com os modelos mais recentes. Engaje-se diretamente com plataformas de ponta como Claude, GPT e outras. Somente através da interação prática é possível desenvolver a sensibilidade de vibe coding descrita por Karpathy, compreendendo as nuances sutis do comportamento agêntico e prevendo suas respostas. Matthew Berman enfatiza esta necessidade urgente de reavaliar as capacidades da IA, especialmente após os avanços transformadores de dezembro.
Esta era redefine o papel do desenvolvedor, de um codificador de baixo nível para um arquiteto de intenção de alto nível. Em vez de escrever funções verbosas, agora você elabora diretivas concisas, confiando no agente para gerenciar os detalhes intrincados da implementação. Isso se alinha com a 'lição amarga' ('bitter lesson'), onde a inteligência geral e escalável inevitavelmente supera as heurísticas frágeis e criadas por humanos.
Fundadores e equipes devem reavaliar estrategicamente todo o seu stack de desenvolvimento, focando na definição de problemas em sua mais alta abstração. O objetivo não é mais construir cada componente do zero, mas sim solicitar (prompt) efetivamente a modelos agênticos para construir a solução de ponta a ponta. Para mais informações sobre a natureza paradoxal da inteligência da IA, onde ela pode ser incrivelmente inteligente e surpreendentemente 'burra', explore Why some artificial intelligence is smart until it's dumb | Knowable Magazine. Este reset fundamental exige uma mudança de mentalidade, não apenas proficiência em ferramentas.
Cavalgando o Tsunami Exponencial
O 'Momento de Dezembro' ('December Moment') sinalizou mais do que apenas progresso incremental; marcou uma mudança de fase ('phase shift') nas capacidades da IA. A profunda percepção de Andre Karpathy – sentindo-se "mais atrasado como programador" – sublinha esta aceleração não linear. Não estamos vivenciando uma ascensão constante, mas sim uma série de saltos exponenciais.
Esta rápida evolução expõe um paradoxo peculiar: a IA parece 'burra' quando limitada por regras explícitas do Software 1.0. Quando tentamos microgerenciar ou forçá-la a heurísticas rígidas e definidas por humanos, seu desempenho falha.
No entanto, sua profunda 'inteligência' emerge quando lhe é concedida agência dentro de seu ambiente nativo Software 3.0. Confiar no sistema, permitindo que ele interprete a intenção de alto nível através de prompts de linguagem natural, desbloqueia capacidades de ponta a ponta sem precedentes. A mudança de depurar trechos de código para 'vibe coding' de aplicações inteiras exemplifica isso.
Considere as implicações: Se o último dezembro trouxe uma mudança tão marcante e fundamental, o que o próximo ponto de inflexão promete? Como desenvolvedores, gerentes de produto e fundadores se preparam para essas acelerações inevitáveis e imprevisíveis? Manter-se informado através de recursos como Join My Newsletter de Matthew Berman para Regular Updates torna-se crucial, mas a mera observação é insuficiente.
A 'lição amarga' ('bitter lesson') nos ensina que a computação generalizada e escalável inevitavelmente triunfa sobre as especificidades criadas por humanos. Este princípio está agora se manifestando em um ritmo sem precedentes. A única maneira de realmente acompanhar, de evitar ficar para trás como Karpathy inicialmente sentiu, é através da participação ativa.
Construir, experimentar e abraçar o ritmo acelerado da mudança não são opcionais; são fundamentais. Não se trata apenas de adotar novas ferramentas; trata-se de mudar toda a nossa abordagem para a criação de software. O tsunami do progresso da IA está aqui, e somente aqueles que cavalgarem suas ondas moldarão o futuro.
Perguntas Frequentes
O que é 'Software 3.0' segundo Andre Karpathy?
Software 3.0 é um novo paradigma de computação onde a programação muda de escrever código explícito (Software 1.0) ou treinar modelos com conjuntos de dados (Software 2.0) para 'prompting' um grande modelo de linguagem. O LLM atua como um intérprete, e a 'context window' é a principal alavanca para direcionar a computação.
Por que dezembro de 2023 foi um mês crucial para o desenvolvimento da IA?
Por volta de dezembro de 2023, os principais modelos de IA experimentaram um salto significativo em capacidade, especialmente em 'agentic workflows'. Eles transitaram de gerar trechos de código para construir de forma confiável aplicações inteiras e complexas 'end-to-end' com correção mínima, uma mudança sentida por muitos 'frontier developers'.
O que é 'vibe coding'?
'Vibe coding' é um termo cunhado por Andre Karpathy para descrever um estado de programação onde o agente de IA é tão eficaz e confiável que o desenvolvedor pode confiar nele para lidar com tarefas complexas. O processo se torna menos sobre microgerenciar código e mais sobre guiar a IA em direção ao resultado desejado com 'high-level prompts'.
O que é a 'bitter lesson' na IA?
A 'bitter lesson' postula que, a longo prazo, a computação de propósito geral e o escalonamento (como em redes neurais 'end-to-end') sempre superarão sistemas que dependem de regras e heurísticas complexas, projetadas por humanos. É uma aposta no poder de escalonamento de dados e modelos em detrimento da programação manual.