En bref / Points clés
La course à l'IA de poche vient d'exploser
La course pour intégrer une IA puissante et privée directement dans nos poches a atteint une nouvelle intensité. Une poussée à l'échelle de l'industrie exige une intelligence sophistiquée et capable de fonctionner hors ligne pour tout, des smartphones aux IoT devices, garantissant la confidentialité, minimisant la latence et assurant la fonctionnalité sans dépendance au cloud. Cette compétition fervente pour la suprématie de l'IA embarquée vient de recevoir une secousse sismique.
Google a considérablement intensifié cette bataille avec le lancement inopiné de Gemma 4, une série véritablement open-source conçue pour une utilisation hors ligne haute performance. Doté de versions edge spécialisées comme les E2B et E4B, avec aussi peu que 2,3 milliards de paramètres, Gemma 4 est conçu pour fonctionner entièrement sur du matériel grand public, y compris les iPhones, les Android flagships et les Raspberry Pis. Cette initiative perturbe directement le paysage des petits modèles, défiant les concurrents établis tels que Qwen 3.5, qui a récemment repoussé les limites de l'IA locale.
De manière cruciale, Google a publié Gemma 4 sous une licence Apache 2.0, un choix essentiel qui souligne son engagement envers un développement open-source authentique. Cette licence accorde aux développeurs et aux entités commerciales une liberté inégalée pour intégrer, modifier et distribuer Gemma 4, éliminant les obstacles courants à l'adoption en entreprise et favorisant une innovation généralisée à travers diverses applications.
L'innovation fondamentale de Gemma 4 réside dans son architecture unique de Per-embedding layers (PLE), marquant un changement technique significatif au-delà du simple nombre de paramètres. Contrairement aux transformeurs traditionnels où un seul embedding doit transmettre toute la signification à travers chaque couche, PLE permet à chaque couche d'introduire de nouvelles informations précisément quand cela est nécessaire. Cette approche définit une nouvelle métrique clé pour les modèles edge : la densité d'intelligence. Par exemple, le modèle E2B atteint la profondeur de raisonnement d'un modèle de 5 milliards de paramètres tout en n'utilisant que 2,3 milliards de paramètres actifs pendant l'inférence. Il en résulte une densité d'intelligence significativement plus élevée, permettant une logique complexe avec moins de 1,5 gigaoctet de RAM, rendant l'IA avancée viable sur des appareils aux ressources limitées.
Comment les Per-Layer Embeddings changent tout
Dans les architectures de transformeurs conventionnelles, une seule couche d'embedding définit la signification d'un token au tout début de son parcours à travers le réseau. Cet embedding initial doit ensuite transporter rigidement toutes les informations contextuelles et les nuances sémantiques à travers chaque couche de traitement subséquente. À mesure que le modèle progresse à travers ses nombreuses étapes, cette représentation statique a souvent du mal à s'adapter à un contexte évolutif, limitant potentiellement la profondeur et la flexibilité de son raisonnement.
Gemma 4 de Google perturbe ce paradigme avec ses Per-embedding layers (PLE) révolutionnaires. Contrairement aux systèmes traditionnels, Gemma 4 attribue un ensemble distinct d'embeddings à *chaque* couche individuelle au sein du modèle. Cette conception innovante permet au modèle d'introduire, de rafraîchir et d'affiner dynamiquement les informations précisément au moment et à l'endroit où elles sont les plus critiques, améliorant considérablement sa capacité à traiter des données complexes.
Cette ingéniosité architecturale mène directement au concept de « Paramètres Effectifs », un différenciateur clé signifié par le 'E' dans les désignations de modèles E2B et E4B de Gemma. Par exemple, le modèle E4B, bien qu'activant seulement environ 2,3 milliards de paramètres pendant l'inference, fonctionne avec la profondeur de raisonnement et la compréhension sophistiquée caractéristiques d'un modèle beaucoup plus grand de 5 milliards de paramètres. Cette efficacité permet à Gemma 4 d'atteindre une densité d'intelligence sans précédent, offrant des performances élevées à partir d'un encombrement compact, crucial pour le déploiement en edge.
Une telle densité d'intelligence se traduit par de profonds avantages concrets pour le déploiement d'IA sur appareil. Les modèles Gemma 4 peuvent exécuter des opérations logiques complexes et gérer des tâches de raisonnement complexes avec une efficacité remarquable, consommant notablement peu de mémoire. Plus précisément, le modèle E4B nécessite moins de 1,5 gigaoctet de RAM, permettant des expériences d'IA puissantes et privées directement sur des appareils edge à ressources limitées comme les iPhones, les téléphones phares Android et les cartes Raspberry Pi, sans dépendance au cloud.
Un modèle qui réfléchit avant de parler
Les petits modèles tombent fréquemment dans des pièges frustrants : boucles infinies, incohérences logiques et erreurs factuelles pures et simples. Gemma 4 de Google s'attaque à ces problèmes de front avec son Thinking Mode innovant, une fonctionnalité conçue pour prévenir de telles défaillances courantes. Native à l'architecture unifiée du modèle, cette capacité aborde directement l'instabilité souvent observée dans l'IA compacte lors du traitement de requêtes complexes sur des appareils edge à ressources limitées.
Le Thinking Mode fonctionne en engageant une chaîne de raisonnement interne. Avant de générer une sortie finale, le modèle vérifie activement sa propre logique, en « réfléchissant » essentiellement au problème étape par étape. Ce mécanisme d'autocorrection, qui traite les informations à travers ses couches par embedding, améliore considérablement la fiabilité des réponses de Gemma 4, une amélioration cruciale pour les opérations d'IA sur appareil.
Les utilisateurs bénéficient immédiatement de cette délibération interne améliorée. Le Thinking Mode améliore considérablement : - La précision factuelle, réduisant les hallucinations inhérentes à de nombreux modèles de langage plus petits. - La cohérence dans les tâches complexes en plusieurs étapes, évitant les impasses frustrantes ou les sorties non pertinentes. - La fiabilité globale, faisant de Gemma 4 un assistant plus digne de confiance et fiable dans votre poche.
Les développeurs obtiennent un contrôle simple sur cette puissante capacité. L'activation du Thinking Mode ne nécessite qu'un simple jeton de contrôle intégré dans l'invite système, offrant un moyen précis d'exploiter l'auto-vérification du modèle pour les applications critiques. Ce choix de conception souligne l'accent mis par Gemma 4 sur l'utilité pour les développeurs et les performances robustes, comme détaillé plus loin sur le blog officiel de Google : Gemma 4: Our most capable open models to date - Google Blog.
Les benchmarks ne mentent pas : les performances étonnantes de Gemma 4
Gemma 4 de Google arrive avec des résultats de benchmark qui redéfinissent fondamentalement les attentes en matière d'IA edge. Le modèle compact E4B a obtenu un étonnant 42,5 % au benchmark de mathématiques AIME 2026. Ce score représente plus du double des performances des modèles de génération précédente significativement plus grands, signalant un bond profond dans le raisonnement computationnel sur appareil. Une telle efficacité découle de son architecture de « Paramètres Effectifs » ; un modèle E4B, malgré son nombre modeste de paramètres actifs, fonctionne avec la profondeur de raisonnement typiquement associée à un modèle de 5 milliards de paramètres, consommant moins de 1,5 Go de RAM. Cette densité d'intelligence dépasse désormais des concurrents comme Qwen 3.5.
Au-delà de ses pures prouesses académiques, Gemma 4 a démontré un potentiel d'agentivité supérieur. Sur le banc T2, il a réalisé un bond énorme en matière de précision d'utilisation des outils, démontrant sa capacité à gérer des flux de travail complexes et multi-étapes. Sa fonctionnalité « Agent Skills », alimentée par l'appel de fonction natif, permet au modèle d'interagir dynamiquement avec des systèmes externes – en interrogeant Wikipedia pour des données en direct ou en construisant des widgets de bout en bout. Cette intégration profonde de l'utilisation des outils a été intégrée au modèle dès sa conception, réduisant considérablement le besoin d'une ingénierie d'invite (prompt engineering) poussée et rendant les actions sophistiquées accessibles hors ligne.
Ces chiffres révélateurs modifient profondément le paysage des mathématiques avancées, du codage sophistiqué et de la résolution de problèmes complexes directement sur du matériel contraint. Les petits modèles précédents luttaient souvent avec la logique et la cohérence ; le « Thinking Mode » de Gemma 4 et son architecture innovante de couche d'intégration (embedding layer) préviennent activement les pièges courants comme les boucles infinies et les erreurs logiques. Avec une fenêtre de contexte robuste de 128K pour les petits modèles et la prise en charge de plus de 140 langues, Gemma 4 n'est pas seulement plus rapide ; il est exponentiellement plus performant. Cette suite de fonctionnalités positionne Gemma 4 comme un cerveau transformateur pour votre téléphone, prêt à s'attaquer à des tâches auparavant impossibles hors ligne avec une fiabilité et une densité d'intelligence sans précédent, apportant véritablement une IA puissante dans votre poche.
Le Défi de Codage Local : Gemma vs. The World
En lançant des défis de codage réels, nous avons soumis Gemma 4 à un défi local. Ce test impliquait la génération d'un site web de café complet, incluant HTML, CSS et JavaScript, entièrement hors ligne. Cette évaluation rigoureuse a été exécutée sur un M2 MacBook Pro utilisant LM Studio, reproduisant les benchmarks précédents pour les petits modèles concurrents.
Le modèle E2B de Google, avec ses 2,3 milliards de paramètres actifs, a accompli la tâche en environ 1,5 minute. Son résultat s'est cependant avéré décevant. Le modèle a ajouté sa liste de tâches interne aux fichiers HTML et CSS, nécessitant un nettoyage manuel avant le rendu de la page.
Plus grave encore, bien qu'il ait prétendu produire un fichier JavaScript, aucun ne s'est matérialisé dans le résultat final. Cette omission fondamentale a rendu impossibles les éléments interactifs clés, soulignant des limitations significatives dans sa génération de code pour le développement web pratique.
En passant au modèle E4B, plus performant, les résultats se sont considérablement améliorés. Bien que prenant plus de temps, environ 3,5 minutes, cette version a produit un résultat « nettement meilleur ». De manière cruciale, le E4B a réussi à implémenter une fonctionnalité de panier fonctionnelle, une première pour tout petit modèle de cette série de tests, y compris les itérations précédentes de Qwen.
Bien que le design soit resté « très fade », la présence de JavaScript fonctionnel a démontré un bond qualitatif dans les capacités du E4B. Cela a marqué une étape significative au-delà de la simple génération de balisage statique, prouvant sa densité d'intelligence améliorée en application pratique.
La comparaison directe des performances de Gemma 4 avec les tentatives précédentes de Qwen 3.5 révèle des compromis distincts. Qwen 3.5, utilisant des modèles aussi petits que 0,8 milliard de paramètres, offrait auparavant une génération de sites web statiques « tout à fait décente », surpassant le E2B de Gemma en termes de qualité et de propreté du code initial.
Qwen 3.5, cependant, n'a jamais atteint l'interactivité dynamique du panier fonctionnel de Gemma E4B. Bien que Gemma E4B ait nécessité plus de temps d'inférence et ait encore produit une esthétique rudimentaire, sa capacité à produire du JavaScript fonctionnel pour une fonctionnalité complexe comme un panier d'achat établit une nouvelle référence pour les prouesses de codage hors ligne des petits modèles.
En fin de compte, ces tests confirment que si les petits modèles ne sont toujours pas adaptés aux projets de codage sérieux et complexes, la variante E4B de Gemma 4 montre des progrès remarquables. Elle équilibre un nombre accru de paramètres avec des innovations architecturales, repoussant les limites de ce qui est réalisable en matière de génération de code AI locale et hors ligne.
Libérer la véritable AI sur votre iPhone
Assister aux performances de Gemma 4 sur un iPhone 14 Pro s'est avéré vraiment impressionnant. Fonctionnant au sein de l'application AI edge Gallery de Google, le modèle E2B a fourni des réponses avec une rapidité surprenante, surpassant significativement Qwen 3.5 lors de comparaisons directes. Cette inférence rapide, même sur une puce mobile, témoigne de la prouesse d'optimisation du framework LiteRT-LM sous-jacent de Google, démontrant l'efficacité avec laquelle il utilise les ressources de l'appareil.
Tester le modèle avec le casse-tête logique classique du "car wash" a offert des aperçus plus profonds de son raisonnement. Gemma 4 a correctement conseillé de "conduire" mais a précédé cela d'une explication exceptionnellement longue et prudente. Cette sortie verbeuse suggère que le "Thinking Mode" du modèle délibère activement, privilégiant l'exhaustivité à la concision dans les situations nuancées. Bien que correcte, cette prudence révèle un style de raisonnement distinct, potentiellement une surcompensation pour éviter les boucles infinies et les erreurs logiques qui affligent souvent les modèles plus petits.
Cependant, apporter cette puissance aux applications iOS personnalisées présente des défis immédiats pour la communauté des développeurs au sens large. Les bindings MLX officiels pour Gemma 4 ne sont actuellement pas disponibles, ce qui empêche les développeurs d'intégrer directement le modèle avec le framework MLX de Swift pour exploiter le GPU Metal natif. Cette limitation signifie que, pour l'instant, les impressionnantes capacités multimodales de Gemma 4 ne peuvent pas être facilement accessibles en dehors de l'application spécifique de Google, entravant une adoption généralisée pour les solutions iOS sur mesure.
L'intégration future dépend d'un support de framework plus large et d'initiatives communautaires. Le framework LiteRT-LM de Google, bien que puissant pour un usage interne, manque actuellement de bindings iOS directs pour une consommation générale par les développeurs. Cela crée un goulot d'étranglement pour les développeurs indépendants désireux de construire avec Gemma 4. Heureusement, des projets communautaires comme SwiftLM émergent déjà, tentant de construire les ponts nécessaires et de fournir un support natif. Ces initiatives sont vitales pour libérer tout le potentiel de Gemma 4, permettant à tous les développeurs mobiles d'intégrer une AI avancée et privée directement dans leurs applications. Pour plus de détails techniques sur l'architecture et les capacités du modèle, y compris ses paramètres effectifs et sa profondeur de raisonnement, consultez la Gemma 4 model card | Google AI for Developers.
Plus que des mots : Vision native et OCR testés
Gemma 4 se vante d'une multimodalité native, une distinction essentielle par rapport aux modèles où la vision et l'audio ne sont que des fonctionnalités ajoutées. Cette architecture traite les entrées visuelles, textuelles et même audio au sein du même système unifié. Cela conduit à une compréhension plus cohérente et intégrée à travers différents types de données, vitale pour une AI véritablement intelligente sur l'appareil.
Pour tester cette capacité, le modèle E2B, fonctionnant en direct sur un iPhone 14 Pro via l'application AI edge Gallery de Google, a été confronté à un défi de vision. Présenté avec l'image d'un chien, le modèle a correctement identifié l'animal, démontrant une solide compréhension de la reconnaissance générale d'objets. Cette capacité fondamentale est très précieuse pour d'innombrables applications du monde réel.
Cependant, les performances du modèle n'étaient pas parfaites en ce qui concerne les spécificités. Bien qu'il ait reconnu un chien, il a mal identifié la race, appelant un Corgi un Border Collie. Cela démontre que si la compréhension visuelle de Gemma 4 est impressionnante pour ses 2,3 milliards de paramètres, les distinctions plus fines représentent toujours une frontière d'amélioration pour les petits modèles.
Ensuite, un test exigeant de Latin OCR (Reconnaissance Optique de Caractères) a poussé les limites multimodales du modèle. Le modèle E2B a non seulement correctement identifié la langue comme étant le latin, mais a également transcrit la majorité du texte avec seulement des inexactitudes grammaticales mineures. Cela souligne son support linguistique robuste et sa conscience contextuelle, rendus possibles par une fenêtre de contexte de 128K et la prise en charge de plus de 140 langues.
Cette transcription réussie d'une langue difficile et moins courante à partir d'une image est un exploit significatif pour un modèle edge. Cela souligne les capacités avancées de Gemma 4 à traiter des informations visuelles complexes contenant du texte.
Dans l'ensemble, pour un modèle edge de 2,3 milliards de paramètres, les performances de vision native et d'OCR de Gemma 4 sont exceptionnellement impressionnantes. Son architecture unifiée et l'utilisation efficace de « paramètres effectifs » permettent un niveau de compréhension multimodale très utilisable pour un large éventail de tâches réelles, sur l'appareil. L'avenir de l'IA mobile semble considérablement plus prometteur avec ce niveau d'intelligence disponible localement.
Parler 140 Langues, Depuis Votre Poche
La promesse ambitieuse de Gemma 4 de prendre en charge plus de 140 langues le positionne comme un outil essentiel pour l'accessibilité mondiale, déplaçant fondamentalement le paradigme de l'IA centrée sur l'anglais. Cette vaste gamme linguistique, traitée entièrement sur l'appareil, donne du pouvoir aux utilisateurs du monde entier en supprimant les barrières inhérentes à la langue et à la connectivité. Cela représente un pas significatif vers une intelligence artificielle véritablement inclusive.
Pour examiner rigoureusement cette affirmation audacieuse, nous avons mis au défi le modèle E4B avec une conversation en direct en latin, une langue moins courante et grammaticalement complexe. Le modèle a démontré une compréhension claire de nos invites et a généré des réponses contextuellement pertinentes, un exploit en soi pour un appareil edge. Cependant, sa sortie présentait parfois des structures grammaticales bizarres, indiquant que, bien qu'il ait compris l'intention sémantique, les nuances plus fines de la syntaxe latine nécessitent encore des améliorations.
Malgré ces constructions particulières, cette réalisation reste tout simplement monumentale pour un petit modèle local fonctionnant entièrement hors ligne. Sa capacité à interagir et à répondre en latin, une langue rarement rencontrée dans les interactions quotidiennes de l'IA et certainement pas une langue à ressources élevées, sans aucune dépendance à l'assistance cloud, souligne la remarquable densité d'intelligence de Gemma 4. Cette performance valide l'efficacité de sa nouvelle architecture de couches par embedding, permettant un traitement linguistique complexe avec des contraintes de ressources minimales.
Cette capacité multilingue sur l'appareil a d'immenses implications pour l'avenir des applications localisées et axées sur la confidentialité. Les développeurs obtiennent le pouvoir de créer des expériences profondément personnalisées adaptées à d'innombrables contextes linguistiques, des dialectes obscurs aux principales langues mondiales. De manière cruciale, cela signifie que les données utilisateur, y compris le contenu conversationnel sensible, restent sécurisées sur leur appareil, à l'abri des serveurs externes ou des API de traduction tierces. Imaginez une assistance linguistique véritablement privée et hors ligne, une traduction locale en temps réel ou des outils éducatifs accessibles partout, sans connexion Internet. Cette capacité démocratise l'IA avancée, la rendant accessible et sécurisée pour des milliards de personnes.
Compétences d'Agent : Votre IA Reçoit une Liste de Tâches
Gemma 4 va au-delà de la simple génération de texte, inaugurant une ère de véritables workflows agentiques pour l'IA embarquée. Le modèle n'est pas seulement un chatbot sophistiqué ; il est conçu pour planifier, exécuter et s'adapter activement à travers des tâches multi-étapes, changeant fondamentalement la façon dont les utilisateurs interagissent avec l'intelligence locale. Cela représente un bond significatif par rapport aux grands modèles linguistiques traditionnels, qui se concentrent principalement sur la génération de réponses textuelles cohérentes.
Au cœur de cette capacité se trouvent les Agent Skills intégrées de Gemma 4 et le native function calling. Ces fonctionnalités ne sont pas des plugins externes mais sont entraînées directement dans l'architecture du modèle dès sa conception, les rendant intrinsèques à son processus de raisonnement. Cette intégration profonde permet au modèle de comprendre précisément quand et comment interagir avec des outils et des API externes, tels que la recherche web ou les fonctionnalités d'appareils locaux, sans intervention manuelle extensive.
Cette conception intrinsèque réduit considérablement la surcharge généralement associée à la création d'applications d'IA complexes. Les développeurs peuvent désormais compter sur la capacité inhérente du modèle à orchestrer les tâches, minimisant le besoin d'instructions élaborées ou de prompts chaînés. Le modèle lui-même détermine la séquence optimale d'actions, traitant les informations et prenant des décisions dynamiquement pour atteindre l'objectif d'un utilisateur.
Les applications pratiques mettent en évidence ce changement de paradigme. Gemma 4 peut effectuer des opérations complexes en plusieurs étapes, comme interroger Wikipedia pour des données en direct et à jour, puis utiliser ces informations pour construire un widget interactif. Le modèle a démontré son potentiel agentique sur le banc T2, montrant un bond énorme dans la précision de l'utilisation des outils, un témoignage de sa capacité à gérer des informations dynamiques et une logique complexe.
Cette fonctionnalité débloque une nouvelle catégorie d'applications interactives embarquées, transformant les smartphones en compagnons intelligents. Imaginez un assistant IA sur votre téléphone qui ne se contente pas de répondre à des questions, mais effectue proactivement des recherches, agrège des informations et même construit des interfaces simples basées sur vos demandes. Ce niveau d'autonomie, alimenté par l'intelligent density de Gemma 4, transforme l'expérience de l'IA mobile. Pour des informations techniques plus approfondies, explorez le Announcing Gemma 4 in the AICore Developer Preview - Android Developers Blog.
Le Verdict : Est-ce l'IA Edge Ultime ?
Gemma 4 ressort de nos tests rigoureux comme un concurrent redoutable dans le paysage de l'IA edge en rapide évolution. Il démontre une prouesse exceptionnelle en matière de raisonnement complexe et de capacités multilingues, comme en témoigne son score remarquable de 42,5 % au benchmark mathématique AIME 2026 pour le modèle E4B et un support robuste pour plus de 140 langues, y compris une OCR latine native réussie. Cependant, les tâches créatives comme le développement web local ont révélé une faiblesse claire ; le modèle E2B a eu du mal avec la génération de base HTML/CSS/JavaScript, ajoutant même des listes de tâches superflues aux fichiers de code, tandis que la version E4B, bien qu'améliorée, a tout de même livré un design fade malgré un panier techniquement fonctionnel.
L'architecture innovante Per-embedding layers de Google apporte un changement de paradigme en matière d'intelligence density. Cette conception révolutionnaire permet aux modèles Gemma 4, tels que le E2B, d'atteindre la profondeur de raisonnement typiquement associée à un modèle de 5 milliards de paramètres tout en ne consommant que 2,3 milliards de paramètres actifs et moins de 1,5 Go de RAM pendant l'inférence. Cette efficacité inégalée est l'avantage le plus significatif de Gemma 4, permettant à une IA sophistiquée et haute performance de fonctionner entièrement hors ligne sur des appareils edge contraints comme un iPhone 14 Pro ou un Raspberry Pi sans compromettre la puissance de calcul ni nécessiter de connectivité cloud.
La comparaison de Gemma 4 avec le précédent champion en titre, Qwen 3.5, révèle des avantages distincts. Alors que Qwen 3.5 a montré des compétences en codage de base, le modèle E4B de Gemma 4 l'a surpassé dans la mise en œuvre de fonctionnalités fonctionnelles comme un panier d'achat opérationnel, une tâche que les modèles précédents n'avaient pas réussie. Sur les appareils mobiles, Gemma 4 a démontré une vitesse d'inférence supérieure sur un iPhone 14 Pro en utilisant l'application Google AI Edge Gallery, répondant significativement plus rapidement que Qwen 3.5, probablement grâce à son framework LiteRT-LM optimisé. De plus, la multimodalité native de Gemma 4 et son « Thinking Mode » augmentent sa fiabilité, atténuant activement les pièges courants des petits modèles comme les boucles infinies et les erreurs logiques grâce à des chaînes de raisonnement internes.
Ce modèle edge véritablement open-source et haute performance redéfinit les attentes en matière d'IA embarquée, promettant un avenir de capacités et de confidentialité sans précédent. Les solides compétences agentiques de Gemma 4, avec l'appel de fonctions natif pour les workflows multi-étapes, accéléreront sans aucun doute le développement des applications mobiles de nouvelle génération, permettant des assistants IA profondément personnalisés et transformant les appareils IoT avec une intelligence avancée et privée. Imaginez une traduction linguistique en temps réel et hors ligne dans 140 langues, une analyse de données sophistiquée sur l'appareil, ou des workflows agentiques complexes exécutés directement depuis votre poche. Gemma 4 n'est pas seulement un nouveau modèle ; c'est une étape fondamentale vers une intelligence artificielle omniprésente, puissante et privée pour tous.
Foire aux questions
Qu'est-ce que Gemma 4 de Google ?
Gemma 4 est la dernière famille de modèles d'IA open-source de Google, comprenant des versions 'edge' spécialisées (comme E2B et E4B) conçues pour fonctionner efficacement hors ligne sur des appareils comme les smartphones et les ordinateurs portables.
Qu'est-ce qui rend l'architecture de Gemma 4 unique ?
Gemma 4 utilise une nouvelle architecture 'Per-Layer Embeddings' (PLE), qui lui permet d'avoir la profondeur de raisonnement d'un modèle plus grand tout en utilisant moins de paramètres actifs. Cela se traduit par une 'densité d'intelligence' plus élevée et une consommation de mémoire réduite.
Gemma 4 est-il vraiment open source ?
Oui, Gemma 4 est publié sous la licence Apache 2.0, qui est une licence permissive autorisant une utilisation commerciale et de recherche gratuite. Cela en fait un modèle véritablement open-source.
Gemma 4 peut-il comprendre les images et l'audio ?
Oui, Gemma 4 est nativement multimodal. Tous les modèles peuvent traiter le texte et les images, et les modèles plus petits E2B et E4B sont spécifiquement conçus pour gérer également l'entrée audio native.