Contáctanos

Contáctanos

La expansión de ventanas de contexto en LLMs: Clave para respuestas más coherentes

  23/08/2024

La capacidad de los grandes modelos de lenguaje (LLM) solía medirse por la cantidad de parámetros, pero el enfoque ha cambiado hacia las ventanas de contexto, que determinan la cantidad de texto que un modelo puede procesar simultáneamente. Con la reciente tendencia a ampliar estas ventanas, los LLMs están mejorando su habilidad para generar respuestas más coherentes y precisas, especialmente en tareas empresariales especializadas.

Las ventanas de contexto, medidas en tokens, permiten a los LLMs mantener más información en su "memoria de trabajo". Esto es crucial para tareas como la revisión de contratos o la resolución de problemas de codificación, donde la coherencia a lo largo de un texto extenso es vital. Los modelos más recientes, como los Granite de IBM, ahora cuentan con ventanas de hasta 128,000 tokens, lo que equivale a un libro de 250 páginas. Esta expansión permite a los modelos procesar y generar respuestas basadas en un contexto mucho más amplio.

Sin embargo, esta ampliación no está exenta de desafíos. Procesar más tokens requiere más recursos computacionales, lo que puede ralentizar el tiempo de inferencia y aumentar los costos, especialmente para las empresas que pagan por token. Además, los LLMs pueden sufrir sobrecarga de información si se les da demasiado contexto, lo que podría afectar su capacidad para identificar los puntos clave.

IBM ha abordado estos retos mejorando la eficiencia computacional de sus modelos Granite y optimizando cómo se gestionan las posiciones de los tokens en sus datos de entrenamiento. Estos avances no solo permiten manejar ventanas más grandes, sino que también mejoran el rendimiento en tareas de codificación y la capacidad para procesar documentación extensa.

A pesar de los avances en ventanas de contexto, técnicas como la Generación Aumentada por Recuperación (RAG) siguen siendo relevantes, especialmente para consultas sobre eventos actuales o para evaluar información contradictoria. Sin embargo, a medida que las ventanas de contexto continúan expandiéndose, algunos expertos predicen que RAG podría volverse menos necesario en el futuro, permitiendo a los LLMs analizar información directamente desde su contexto sin necesidad de API adicionales.

IBM continúa liderando esta evolución en inteligencia artificial, integrando sus modelos Granite en soluciones como el asistente de codificación generativa watsonx Code Assistant for Z. Con la mejora constante de las ventanas de contexto, los LLMs están preparados para ofrecer respuestas más precisas y relevantes en un rango cada vez mayor de aplicaciones.

En esta nota

IBM

IBM, International Business Machines Corporation, es una empresa multinacional líder en tecnología y servicios de consultoría.