Cette IA écrit du code, pas seulement du texte

Les Large Language Models sont notoirement mauvais en mathématiques et en logique complexe, ce qui conduit à des résultats lents, coûteux et imprécis. Une nouvelle approche appelée Code Mode inverse la tendance, permettant à l'IA d'écrire et d'exécuter son propre programme TypeScript pour fournir des tableaux de bord de données plus rapides, moins chers et parfaitement précis en un seul appel.

Hero image for: Cette IA écrit du code, pas seulement du texte
💡

En bref / Points clés

Les Large Language Models sont notoirement mauvais en mathématiques et en logique complexe, ce qui conduit à des résultats lents, coûteux et imprécis. Une nouvelle approche appelée Code Mode inverse la tendance, permettant à l'IA d'écrire et d'exécuter son propre programme TypeScript pour fournir des tableaux de bord de données plus rapides, moins chers et parfaitement précis en un seul appel.

Pourquoi votre AI Assistant échoue en mathématiques de base

Les Large Language Models (LLMs) fonctionnent fondamentalement comme des prédicteurs de texte probabilistes, et non comme des calculateurs déterministes. Leur architecture excelle à générer un langage cohérent et contextuellement pertinent en prédisant le prochain token le plus probable dans une séquence. Cette conception les rend puissants pour l'écriture créative, la synthèse et la traduction, mais intrinsèquement inadaptés au calcul mathématique précis et étape par étape. Les LLMs « devinent » essentiellement des nombres ou des résultats logiques basés sur des modèles dans leurs données d'entraînement, plutôt que d'exécuter des calculs avec certitude.

Cette limitation fondamentale crée des obstacles importants dans l'analyse de données et les tâches numériques. Les LLMs introduisent fréquemment des erreurs mathématiques, interprètent mal les relations logiques et peuvent même halluciner des points de données ou des résumés statistiques incorrects. S'appuyer sur un LLM non assisté pour agréger des chiffres, calculer des moyennes ou dériver des informations complexes à partir de données numériques brutes compromet gravement la précision et la fiabilité. Le résultat peut *sembler* plausible, mais sa base factuelle reste suspecte.

Les développeurs atténuent traditionnellement ces problèmes par un paradigme de « tool calling » ou de « function calling ». Un LLM, reconnaissant un besoin de calcul, génère un appel structuré vers un outil externe et déterministe, tel qu'une API de calculatrice ou un moteur de requête de base de données. Bien que cette approche améliore la précision, elle introduit un surcoût opérationnel substantiel. Chaque interaction nécessite de multiples allers-retours entre le LLM et l'outil externe, entraînant une latence élevée et une consommation significative de tokens pour chaque étape intermédiaire. Les flux de travail de données complexes deviennent rapidement excessivement lents et coûteux.

Jack Herrington, dans sa vidéo « Prompt to Dashboard in One AI Tool Call », articule précisément ce défi. Il déclare : « Les LLMs sont terribles pour faire des maths nativement. » Herrington souligne comment des solutions comme le Code Mode de Tanstack AI y remédient en faisant générer par les LLMs du code TypeScript déterministe. Ce code s'exécute ensuite dans un sandbox sécurisé, déchargeant toutes les opérations mathématiques vers un runtime fiable. Cette méthode garantit que les calculs sont effectués avec précision et efficacité, en contournant les faiblesses numériques inhérentes des LLMs.

Le changement de paradigme du 'Code Mode'

Illustration : Le changement de paradigme du 'Code Mode'
Illustration : Le changement de paradigme du 'Code Mode'

Tanstack AI introduit le Code Mode, une solution novatrice qui s'attaque aux limitations inhérentes des grands modèles linguistiques, en particulier leurs difficultés avec les calculs déterministes et le raisonnement en plusieurs étapes. Au lieu de s'appuyer sur la prédiction de texte probabiliste d'un LLM pour une logique complexe, le Code Mode change fondamentalement le paradigme. Il demande au LLM d'*écrire un programme*—spécifiquement, un script TypeScript—qui orchestre les outils et exécute les tâches dans un sandbox sécurisé, transformant la manière dont l'IA interagit avec les systèmes externes.

Les approches traditionnelles des LLM impliquent un modèle de « chat », où l'IA prend des décisions séquentielles de Tool Call Using Code Mode, entraînant souvent de nombreuses interactions aller-retour, des coûts de tokens plus élevés et une exécution plus lente. Le Code Mode, cependant, adopte un modèle de programmation déterministe. Le LLM reçoit un Prompt et, en réponse, génère un programme TypeScript complet. Ce programme utilise ensuite des fonctions injectées comme `query table`, `report text` ou `report grid` pour effectuer toutes les opérations nécessaires en une seule exécution efficace au sein d'une VM sécurisée.

La vidéo de Jack Herrington, "Prompt to Dashboard in One AI Tool Call", démontre de manière éclatante cette capacité. Il y présente Code Mode se connectant à une Netlify Database, générant un Dashboard de tendance de revenus quotidiens et effectuant des calculs complexes. Le LLM, plutôt que de tenter de faire des calculs lui-même – une faiblesse connue qui conduit à des inexactitudes – écrit habilement du TypeScript qui exécute des opérations mathématiques précises. Cela décharge le calcul vers un runtime déterministe, garantissant la précision et surmontant un obstacle majeur pour les LLM.

Cette approche innovante confère à l'IA une capacité d'action sans précédent pour aborder des tâches complexes et multi-étapes au sein d'un processus unique et optimisé. En consolidant plusieurs opérations en un seul programme généré, Code Mode réduit considérablement l'utilisation de tokens et augmente la vitesse d'exécution par rapport aux appels d'outils séquentiels traditionnels. Le prompt système fournit au LLM des détails complets sur tous les outils injectés disponibles, lui permettant d'écrire des programmes très efficaces et intégrés. Cela garantit que l'IA peut effectuer des transformations de données complexes et générer des sorties riches, comme le Dashboard dynamique montré dans la démonstration de Herrington, avec une fiabilité et une efficacité supérieures. Cela marque une étape significative vers des systèmes d'IA plus autonomes et plus performants.

Du Prompt au Programme : Comment ça marche réellement

Le Code Mode de Tanstack AI redéfinit fondamentalement la manière dont les Large Language Models interagissent avec des systèmes complexes. Au lieu de générer des appels d'outils fragmentés ou de tenter des requêtes directes à la base de données, le LLM reçoit un Prompt système robuste détaillant une suite de fonctions disponibles et prédéfinies. Ce ne sont pas de simples commandes abstraites ; ce sont des fonctions JavaScript/TypeScript entièrement typées, méticuleusement conçues pour effectuer des opérations spécifiques comme l'interrogation de bases de données ou le rendu de composants d'interface utilisateur (UI). Cette approche atténue les limitations inhérentes au LLM, en particulier sa nature probabiliste, en déchargeant les tâches déterministes vers un runtime sécurisé et haute performance.

Les développeurs définissent des outils Tanstack AI standards, tels que `queryTable` pour l'interaction avec la base de données ou `reportGrid` pour le rendu de l'interface utilisateur (UI). Code Mode prend ensuite ces définitions et, de manière cruciale, les injecte directement dans un environnement d'exécution sécurisé. Cet environnement peut être un Node.js V8 isolate, un runtime QuickJS WebAssembly léger, ou même des Cloudflare Workers, assurant à la fois sécurité et évolutivité. Ce processus d'injection fournit au LLM une API concrète et exécutable, comblant le fossé entre ses capacités de génération de texte et le besoin d'une logique de calcul précise. Pour des informations techniques plus approfondies, consultez l'Overview | TanStack AI Docs.

Armé de ce Prompt système complet, le LLM ne « devine » plus les appels d'API. Il génère un programme TypeScript complet et autonome conçu pour résoudre la requête de l'utilisateur de bout en bout. Ce programme utilise les fonctions injectées comme blocs de construction. Par exemple, un utilisateur demandant des « tendances de revenus quotidiens » incite le LLM à écrire du TypeScript qui appelle d'abord `queryTable` pour récupérer les données de vente brutes de la Netlify Database.

Une fois les données récupérées, le programme TypeScript généré prend le relais. Il effectue toutes les agrégations, les calculs de dates et les analyses de tendances nécessaires en utilisant une logique TypeScript standard et déterministe. C'est là que Code Mode excelle vraiment : les LLM sont notoirement mauvais en arithmétique native, mais ils excellent à produire du code TypeScript précis qui exécute les opérations mathématiques sans faille. Enfin, le programme utilise des fonctions d'interface utilisateur (UI) injectées comme `reportText`, `reportGrid` ou `reportCard` pour formater les résultats calculés en une sortie structurée et lisible par l'homme, qui est ensuite renvoyée au LLM pour résumé.

Considérez ce flux conceptuel simplifié : ```typescript async function generateDailyRevenueReport() { const rawData = await queryTable("purchases", { where: { date: { gte: "two_months_ago" } } });

// Effectue des regroupements de dates complexes et des calculs de sommes en TypeScript const aggregatedData = calculateDailySums(rawData);

reportGrid("Daily Revenue Trend", aggregatedData); reportMetrics({ totalRevenue: sumAll(aggregatedData) });

return "Report generated successfully with daily revenue trends."; } ``` Ce programme TypeScript unique et généré s'exécute dans le sandbox, fournissant des résultats précis et réduisant considérablement les coûts de jetons par rapport aux appels d'outils LLM itératifs. Le LLM reçoit ensuite la valeur de retour du programme, ce qui lui permet de créer un résumé markdown concis pour l'utilisateur dans le chat Discord.

Déverrouiller votre base de données avec un seul Prompt

Déverrouillez vos données avec un seul Prompt en utilisant le Code Mode de Tanstack AI. Le système s'intègre brillamment aux bases de données SQL, comme l'illustre une démo avec Netlify Database. Les utilisateurs peuvent simplement demander des informations complexes, transformant les données brutes en intelligence exploitable sans écrire une seule ligne de code traditionnel.

La démonstration de Jack Herrington a présenté un scénario d'e-commerce. Un utilisateur a émis le Prompt "daily revenue trend", générant instantanément un rapport complet. Ce rapport, affiché comme un nouvel élément de Dashboard, a fourni les tendances de revenus des deux derniers mois, complété par des graphiques dynamiques et un résumé markdown concis.

La supériorité du Code Mode sur l'interaction directe LLM-vers-SQL découle de son orchestration intelligente. Au lieu de donner à l'IA des outils `execute SQL` bruts, le LLM génère du code TypeScript. Ce programme utilise ensuite des fonctions injectées, comme `query table`, pour récupérer les données brutes nécessaires de la base de données. Cette distinction cruciale décharge toutes les transformations de données complexes et les calculs mathématiques vers le runtime TypeScript, où la précision est garantie.

Les LLM sont notoirement peu fiables pour les opérations mathématiques natives. En faisant générer du TypeScript par le LLM qui effectue les calculs, le Code Mode contourne cette limitation fondamentale, garantissant des résultats précis. Cette approche réduit également considérablement les coûts de jetons et améliore la vitesse d'exécution par rapport aux appels d'outils LLM séquentiels. Le TypeScript généré utilise ensuite d'autres outils injectés, tels que `report text` et `report grid`, pour formater les données traitées dans le rapport final.

À la base de cette interaction avec la base de données se trouve Drizzle ORM. Ce Mappeur Objet-Relationnel définit le schéma de la base de données pour des entités comme les clients et les achats, offrant une portabilité cruciale entre différentes bases de données PostgreSQL. Le `defineConfig` de Drizzle Kit simplifie la configuration, rendant l'intégration robuste de la base de données à la fois puissante et simple au sein de l'écosystème Code Mode. Cette combinaison offre une méthode très fiable et efficace pour l'analyse de données pilotée par l'IA.

La pile de données moderne : Netlify DB + Drizzle

Illustration : La pile de données moderne : Netlify DB + Drizzle
Illustration : La pile de données moderne : Netlify DB + Drizzle

Jack Herrington a choisi la nouvelle Netlify Database de Netlify comme backend robuste pour la démonstration du Code Mode, louant ses capacités. En tant qu'offre Postgres sans serveur, elle simplifie le développement avec une configuration locale facile et un déploiement en production fluide. Herrington a souligné ses déploiements de branches "super cool", provisionnant automatiquement des environnements de test isolés pour chaque branche de code, assurant un développement robuste et sans conflit.

Le processus de configuration a commencé par l'installation des dépendances nécessaires, notamment `@netlify/database@1.0` dans le `package.json`. Les développeurs ont ensuite lancé un environnement de développement local, démarrant automatiquement un simulateur de base de données local dans un terminal séparé. Cette simulation locale reflète fidèlement l'environnement de production, assurant cohérence et prévisibilité dès les premières étapes.

Ensuite, Herrington a démontré la génération de migrations de schéma de base de données à l'aide de `Drizzle Kit generate`, une étape cruciale pour définir la structure de la base de données. Cette commande a produit des fichiers de migration versionnés dans le répertoire `netlify/database/migrations`, décrivant des tables comme les clients et les produits. L'application de ces migrations a été rapide, exécutée avec `netlify database migrations apply`, garantissant que le schéma était correctement établi.

Une fois le schéma fermement établi, le remplissage de la base de données avec des données de test est devenu l'étape cruciale suivante. Une simple commande `DB seed` a inséré efficacement un ensemble complet de données d'échantillon de clients et de produits, préparant la base de données avec des entrées réalistes. Cet amorçage rapide a garanti que la base de données était immédiatement prête pour des requêtes complexes et une analyse sophistiquée par Code Mode, accélérant le développement.

Enfin, Herrington a présenté Drizzle Studio, une interface puissante et intuitive pour visualiser et interagir avec la base de données pendant le développement actif. Accessible en exécutant `DB Studio`, cette « interface vraiment cool » offre une vue graphique immédiate des tables, des données et du schéma, décrite comme « littéralement aussi simple que possible ». Elle simplifie grandement le débogage et la validation, offrant une fenêtre claire et en temps réel sur l'état de la base de données.

Plus rapide, moins cher, plus intelligent : la triple menace

Le Code Mode de Tanstack AI inaugure une nouvelle ère pour le développement piloté par l'IA, offrant un trio d'avantages convaincants : une exécution plus rapide, des coûts opérationnels considérablement réduits et des résultats manifestement plus intelligents et plus fiables. Ce paradigme innovant aborde directement les lacunes inhérentes aux Large Language Models lors de l'orchestration de tâches complexes en plusieurs étapes qui exigent précision et efficacité.

Des gains de vitesse sans précédent redéfinissent l'expérience utilisateur. Les méthodes traditionnelles impliquent de nombreuses étapes séquentielles, chacune nécessitant un aller-retour réseau distinct et une invocation LLM séparée. En consolidant l'ensemble de ce flux de travail en un seul Tool Call Using Code Mode, le système réduit drastiquement la latence du réseau et les temps d'attente des utilisateurs. Au lieu d'une série d'échanges conversationnels aller-retour, le programme TypeScript complet et généré s'exécute en une seule rafale consolidée, fournissant des résultats presque instantanément.

Les économies financières s'avèrent tout aussi substantielles. L'enchaînement d'outils traditionnel exige de nombreux tours de conversation, où un LLM pourrait générer un morceau de code, attendre son exécution, recevoir les résultats, puis générer d'autres instructions basées sur ce retour. Chacun de ces échanges itératifs entraîne des token costs significatifs. Le modèle d'exécution en un seul appel de Code Mode élimine en grande partie ces allers-retours coûteux, offrant une solution beaucoup plus économique pour les opérations complexes.

L'intelligence elle-même connaît une profonde amélioration, allant au-delà de l'approximation. Les grands modèles linguistiques (Large Language Models), fondamentalement des prédicteurs de texte probabilistes, ont notoirement du mal avec les opérations mathématiques déterministes et le raisonnement logique. En déchargeant toute la logique complexe, les transformations de données et les calculs vers un TypeScript runtime sécurisé, Code Mode garantit des calculs 100 % précis. Cela contourne complètement une faiblesse inhérente des LLM, assurant une analyse de données fiable, la génération de rapports et des sorties de Dashboard, particulièrement critique pour les intégrations de bases de données comme avec Netlify Database. Pour plus de détails sur Netlify Database, consultez la documentation officielle : Netlify Database | Netlify Docs. Cette approche consolidée et déterministe transforme l'interaction avec l'IA d'une série de suppositions éclairées en un moteur d'exécution précis, efficace et hautement fiable, remodelant fondamentalement la façon dont les assistants IA peuvent effectuer des opérations complexes et multi-étapes.

Au-delà des données : une IA qui construit sa propre UI

Le Code Mode de Tanstack AI introduit l'UI Générative (Generative UI), une capacité révolutionnaire où l'IA construit activement des interfaces utilisateur, et pas seulement des sorties de données. Cela va au-delà de la manipulation de données traditionnelle, permettant à l'IA de concevoir et de rendre des composants visuels à la demande, créant des Dashboards complets à partir d'un Prompt en langage naturel.

Le code TypeScript généré par l'IA est central à ce processus. Il traite les données puis exploite un ensemble complet de fonctions UI injectées, telles que `reportGrid`, `reportChart`, `reportText` et `reportCard`. Ces fonctions agissent comme des directives de haut niveau, permettant à l'IA de dicter précisément comment les informations traitées doivent apparaître, des simples résumés aux visualisations complexes.

Par exemple, après avoir calculé les tendances de revenus quotidiens à partir d'une Netlify Database, l'IA peut appeler `reportChart` pour visualiser les résultats sous forme de graphique linéaire, ou `reportGrid` pour un affichage tabulaire détaillé. Le système inclut également des primitives comme `progress`, `sparkline`, `grid` et `VBox`, offrant une riche boîte à outils pour la construction d'UI.

Lorsque le TypeScript de l'IA invoque ces fonctions UI, elles ne rendent pas les composants directement. Au lieu de cela, elles ajoutent dynamiquement des « nœuds » structurés à un JSON array. Chaque nœud représente un élément UI spécifique ou une primitive de mise en page, définissant abstraitement ce qui doit être affiché et comment, sans dicter l'implémentation exacte du React component.

Un Node Renderer spécialisé dans l'application frontend prend alors le relais. Ce renderer itère à travers le JSON array, agissant comme un interpréteur sophistiqué qui mappe chaque type de nœud à son React component correspondant, assemblant efficacement l'intégralité de l'UI de manière programmatique. Cette architecture découplée assure à la fois flexibilité et évolutivité, permettant des mises à jour faciles des composants frontend sans altérer la logique centrale de l'IA.

Ce mécanisme sophistiqué confère à l'IA un contrôle extraordinaire sur la visualisation des données. Il évalue dynamiquement les informations traitées, prenant des décisions autonomes quant au format de présentation le plus percutant. L'IA construit une UI personnalisée à la volée, précisément adaptée aux données et au Prompt initial de l'utilisateur, offrant une expérience véritablement dynamique et personnalisée.

Les utilisateurs reçoivent des Dashboards sur mesure, et non des modèles statiques, reflétant la profonde compréhension de l'IA tant des données que des stratégies de présentation optimales. Cette innovation va au-delà de la simple génération de texte, inaugurant une ère où l'IA peut construire des UI riches et interactives à partir d'un seul Tool Call Using Code Mode.

Le système améliore considérablement la manière dont les développeurs et les utilisateurs finaux interagissent avec des données complexes. Il transforme les informations brutes en formats visuellement attrayants et facilement digestibles, transformant efficacement les données abstraites en une expérience tangible et interactive. Cela met en lumière un avenir puissant pour le développement d'applications basées sur l'IA.

Est-ce la fin des outils de BI comme Tableau ?

Illustration : Est-ce la fin des outils de BI comme Tableau ?
Illustration : Est-ce la fin des outils de BI comme Tableau ?

Le Code Mode de Tanstack AI entre dans une arène de plus en plus compétitive de l'intelligence économique alimentée par l'IA, mais il se positionne dans un espace fondamentalement différent. Alors que de nombreuses solutions se concentrent sur l'intégration de l'IA aux plateformes de BI existantes, Code Mode se positionne comme une couche fondamentale pour les développeurs. Il leur permet de construire des capacités de données basées sur l'IA à partir de zéro, plutôt que de s'adapter à des environnements analytiques prédéfinis.

Les acteurs majeurs ont déjà intégré des fonctionnalités d'IA avancées dans leurs offres. Power BI Copilot de Microsoft permet aux utilisateurs de générer des rapports et des visualisations à partir du langage naturel. Tableau Pulse fournit de manière proactive des informations personnalisées basées sur l'IA. Looker + Gemini de Google combine l'analyse avancée avec l'IA générative pour une exploration intuitive des données. Ces outils démocratisent l'accès aux données complexes via leurs plateformes établies et orientées utilisateur.

Code Mode, cependant, n'est pas un

Apprendre de nouvelles astuces à votre IA avec les 'Skills'

Au-delà des interactions ponctuelles, Code Mode introduit les Agent Skills, une fonctionnalité avancée qui transforme fondamentalement la manière dont les Large Language Models apprennent et fonctionnent. Cette capacité permet au LLM de sauvegarder et de stocker de manière persistante des extraits de code TypeScript efficaces qu'il a précédemment générés, construisant ainsi sa propre bibliothèque réutilisable de solutions.

Les Agent Skills dotent l'IA d'une forme de mémoire persistante, où les blocs de code réussis ne sont pas simplement écartés après exécution. Au lieu de cela, l'IA peut nommer, typer et rappeler ces 'skills' pour relever des défis similaires lors de conversations ultérieures. Cela augmente considérablement l'efficacité, permettant au système de contourner la génération de code redondante pour les tâches récurrentes.

Considérez un scénario où l'IA génère une fonction TypeScript complexe pour effectuer une conversion multi-devises et agréger les données de vente dans diverses régions. Plutôt que de recréer cette logique complexe à partir de zéro à chaque fois, le LLM peut l'enregistrer comme une 'skill' nommée 'generateRegionalRevenueReport'. Plus tard, une simple invite comme "Show me the regional revenue breakdown for Q3" peut invoquer cette fonction précise et pré-optimisée.

Ce changement de paradigme fait passer l'IA d'un générateur de code réactif à un résolveur de problèmes proactif doté d'une base de connaissances croissante. Cela signifie des résultats plus rapides et plus précis, réduisant les coûts de jetons et accélérant l'analyse de données complexes, en particulier lors de l'interaction avec des systèmes comme Netlify Database. Pour les développeurs désireux de comprendre les structures de données sous-jacentes pour de tels rapports complexes, l'exploration d'outils comme Meet Drizzle Studio offre des informations précieuses sur la visualisation et l'interrogation de schémas. Cela élève Code Mode au-delà d'un simple orchestrateur de Tool Call Using Code Mode, transformant l'IA en un agent en constante amélioration et très efficace.

L'avenir est l'IA programmatique

L'ère des agents d'IA probabilistes se contentant de prédire du texte touche à sa fin. Le Code Mode de Tanstack AI annonce un nouvel avenir pour la collaboration homme-IA, transformant les Large Language Models en programmeurs capables et déterministes. Il ne s'agit pas seulement d'une amélioration de l'appel d'outils ; c'est un changement de paradigme fondamental où les développeurs guident les IA pour écrire et exécuter du Code robuste et vérifiable, changeant fondamentalement la façon dont nous construisons des logiciels.

Au lieu de lutter avec les faiblesses mathématiques inhérentes des LLMs ou les coûts élevés des tokens, Code Mode leur permet de générer des programmes TypeScript. Ces programmes orchestrent des requêtes de données complexes contre des systèmes comme Netlify Database, effectuent des calculs précis avec une exactitude garantie, et construisent même des éléments dynamiques de Generative UI, le tout au sein d'un bac à sable sécurisé et efficace qui réduit considérablement la latence et les dépenses.

Cette approche programmatique offre des agents IA plus puissants et fiables, capables d'opérations complexes en plusieurs étapes avec une précision sans précédent et une consommation de tokens réduite. Les développeurs connaîtront des cycles de développement considérablement plus rapides pour les fonctionnalités basées sur les données, passant d'un Prompt en langage naturel à un Dashboard entièrement fonctionnel en un seul Tool Call Using Code Mode d'IA.

Les implications vont au-delà de la simple efficacité. Nous assistons à la naissance d'une nouvelle classe d'applications natives de l'IA, construites de toutes pièces par des agents intelligents qui comprennent et génèrent une logique exécutable. Imaginez des systèmes qui non seulement répondent à des questions de données complexes, mais construisent et maintiennent activement leurs propres composants opérationnels, s'adaptant dynamiquement aux besoins des utilisateurs.

Avec les 'Skills', ces agents IA peuvent apprendre et réutiliser des modèles de code efficaces, les rendant de plus en plus sophistiqués et autonomes au fil du temps. Cela représente une évolution profonde, faisant passer l'IA d'un assistant qui *décrit* des solutions à un assistant qui les *construit*, favorisant une relation symbiotique entre l'intelligence humaine et machine.

Cet avenir n'est pas lointain ; il est accessible dès maintenant. Les développeurs désireux de façonner cette prochaine génération d'applications basées sur l'IA devraient explorer le dépôt GitHub de Tanstack AI. Commencez dès aujourd'hui à expérimenter la création de vos propres outils d'IA programmatiques, contribuant ainsi à un paysage où les agents IA ne sont pas seulement intelligents, mais aussi manifestement capables et robustes.

Foire aux questions

Qu'est-ce que le Code Mode de Tanstack AI ?

C'est une fonctionnalité qui permet à un Large Language Model (LLM) d'écrire et d'exécuter un programme TypeScript complet dans un bac à sable sécurisé, au lieu de faire plusieurs appels d'outils séquentiels.

Comment le Code Mode améliore-t-il l'utilisation traditionnelle des outils d'IA ?

Il réduit les coûts des tokens et la latence en regroupant les opérations en un seul appel. Il assure également la précision mathématique en déchargeant les calculs vers le runtime TypeScript fiable au lieu du LLM.

Le Code Mode peut-il se connecter à ma propre base de données ?

Oui. Il est conçu pour se connecter aux bases de données SQL en utilisant des fonctions injectées. La vidéo le démontre avec Netlify Database et le Drizzle ORM.

Qu'est-ce que la Generative UI dans ce contexte ?

C'est la capacité de l'IA à créer dynamiquement des composants d'interface utilisateur, comme des graphiques et des grilles, pour un rapport ou un tableau de bord, basés sur les données qu'elle a traitées en utilisant son code généré.

Questions fréquentes

Est-ce la fin des outils de BI comme Tableau ?
See article for details.
Qu'est-ce que le Code Mode de Tanstack AI ?
C'est une fonctionnalité qui permet à un Large Language Model d'écrire et d'exécuter un programme TypeScript complet dans un bac à sable sécurisé, au lieu de faire plusieurs appels d'outils séquentiels.
Comment le Code Mode améliore-t-il l'utilisation traditionnelle des outils d'IA ?
Il réduit les coûts des tokens et la latence en regroupant les opérations en un seul appel. Il assure également la précision mathématique en déchargeant les calculs vers le runtime TypeScript fiable au lieu du LLM.
Le Code Mode peut-il se connecter à ma propre base de données ?
Oui. Il est conçu pour se connecter aux bases de données SQL en utilisant des fonctions injectées. La vidéo le démontre avec Netlify Database et le Drizzle ORM.
Qu'est-ce que la Generative UI dans ce contexte ?
C'est la capacité de l'IA à créer dynamiquement des composants d'interface utilisateur, comme des graphiques et des grilles, pour un rapport ou un tableau de bord, basés sur les données qu'elle a traitées en utilisant son code généré.
🚀En savoir plus

Gardez une longueur d'avance en IA

Découvrez les meilleurs outils IA, agents et serveurs MCP sélectionnés par Stork.AI.

Retour à tous les articles