View all AI news articles

Enrutamiento adaptativo: ¡Cómo los modelos de IA eligen su propia aventura!

April 8, 2024
El panorama de los modelos lingüísticos extensos (LLM) está al borde de un cambio radical. Esta es una guía simplificada para los ingenieros de inteligencia artificial y aprendizaje automático sobre los cambios fundamentales que se avecinan.

De la investigación a la realidad

¡No creerás lo barato que puedes entrenar tu propio modelo de IA ahora!

Olvídate de la idea de que GPT y LLama son meros productos; son el modelo para la próxima generación de IA. La inminente claridad sobre las arquitecturas, las canalizaciones y los conjuntos de datos reducirá drásticamente los costos de capacitación. Pronto, el entrenamiento previo de un modelo especializado podría costarle solo entre 10 000 y 100 000 dólares, incluso en una configuración distribuida. Es la democratización del desarrollo de la IA.

Inferencia sobre esteroides

¿Crees que tu smartphone no puede ejecutar una supermodelo? ¡Piensa otra vez!

Gracias a la cuantificación, la modificación y la optimización de los dispositivos periféricos, estamos a punto de ejecutar entre 13 y 30 000 millones de modelos de parámetros en nuestros teléfonos inteligentes y otros dispositivos periféricos mediante arquitecturas ARM, TPU y NPU. Las implicaciones para el desarrollo de aplicaciones y la participación de los usuarios son asombrosas.

El ajuste fino se convierte en opcional

Olvídese del ajuste: ¡cómo la IA está a punto de convertirse en Plug-and-Play!

Con modelos que manejan millones de fichas, la necesidad de realizar ajustes disminuye. Imagínese alimentar a un modelo con todo el historial de su organización en un solo mensaje y, a cambio, obtener un modelo a medida. ¿El cambio de una plataforma a otra? Está a punto de convertirse en algo tan fácil como copiar y pegar. Imagina crear un modelo personalizado simplemente introduciendo un mensaje que abarque entre 10 y 100 páginas de tu historia personal o de tus registros organizacionales. Este enfoque reduce considerablemente las barreras para obtener modelos de IA personalizados y simplifica la transición entre plataformas como Zephyr y Hermes, o Cloud y Databricks, a simples acciones de copiar y pegar con solo hacer clic y pegar.

Enrutamiento adaptativo: la nueva normalidad

El concepto de enrutamiento adaptativo está preparado para redefinir la forma en que las aplicaciones interactúan con los modelos y viceversa. Este proceso de selección dinámico, basado en los requisitos específicos de una tarea y en el panorama actual de los recursos computacionales, introduce un nivel de flexibilidad y eficiencia sin precedentes en la implementación y la utilización de los modelos.

El futuro es flexible: las aplicaciones seleccionarán modelos sobre la marcha, adaptados a tareas específicas, mientras que los modelos elegirán su campo de juego computacional en función de la disponibilidad del hardware en tiempo real. Este enrutamiento adaptativo está diseñado para revolucionar la implementación y la eficiencia de los modelos. Ejemplo: Enrutador «marciano».

RAG redefinido

RAG ha llegado para quedarse; simplemente está experimentando una mejora.

RAG no va a ninguna parte; se está actualizando. Con los conjuntos de datos descentralizados que absorben el conocimiento en tiempo real, los modelos básicos serán más ágiles, rápidos y, sí, capaces de funcionar en un teléfono. Esta evolución supone un alejamiento parcial de la formación previa tradicional, lo que allana el camino para modelos más ágiles y con mayor capacidad de respuesta. Lejos de quedar obsoleto, se espera que el RAG sustituya parcialmente al proceso tradicional de preformación. La integración de vastos conjuntos de datos RAG descentralizados, que abarcan miles de millones o incluso billones de tokens, permitirá a los modelos asimilar el conocimiento en tiempo real. Este avance facilitará el desarrollo de modelos básicos que no solo sean más ágiles y rápidos, sino que también puedan implementarse en dispositivos «simples».

Para quienes están a la vanguardia de la IA y el aprendizaje automático, estos avances marcan un período de oportunidades e innovación sin precedentes. El futuro de los LLM promete no solo avances en la tecnología, sino también una reforma completa de la forma en que abordamos, implementamos e interactuamos con la IA.

Recent articles

View all articles