En su primer gran evento para desarrolladores, OpenAI ha anunciado este lunes ChatGPT Turbo. Se trata de un nuevo modelo grande de lenguaje (LLM, por sus siglas en inglés) que promete abordar algunos de los puntos débiles de los modelos anteriores, GPT-3.5 y GPT-4.
Sam Altman, el máximo responsable de la compañía, asegura que GPT-4 Turbo supera la longitud de contexto de 32K que era capaz de soportar su modelo disponible más avanzado hasta hoy. GPT-4 en su versión Turbo tiene una enorme longitud de contexto de 128K.
GPT-4 ahora es más capaz, ahora es "Turbo"
Cuando hablamos de longitud de contexto estamos hablando de tokens y cada token puede equivaler a una palabra o frase. Por lo tanto, mientras mayor sea la longitud de contexto, mayor es el prompt que puede interpretar el modelo para darnos una respuesta.
En líneas generales, porque el cálculo puede variar según el prompt, 1.000 tokens equivalen a unas 750 palabras. Así que cuando hablamos de una longitud de contexto de 128K estamos hablando de más de 300 palabras de un libro estándar, según ha explicado OpenAI.
OpenAI también ha mejorado la forma en la que el modelo interactúa a través de su API con elementos JSON. Se trata de características avanzadas que pueden ser de gran utilidad para los usuarios avanzados que pagan a nivel de tokens para utilizar la herramienta.
El nuevo GPT-4 Turbo, junto a una versión Turbo de GPT-3.5 que admite una ventana de contexto de 16K, estará disponible a partir de hoy para las firmas que acceden a la API. Recordemos que una amplia variedad de aplicaciones y servicios se alimentan de estos modelos.
Duolingo, Be My Eyes, Stripe, Morgan Stanley, Khan Academy, entre otras, utilizan GPT-4 de alguna u otra manera para hacer funcionar ciertas características. Ahora estos y otros desarrolladores podrán hacer uso de los mencionados nuevos modelos para mejorar sus proyectos.
Imágenes: ilgmyzin | OpenAI
En Xataka: Por primera vez una IA alcanza y supera un aspecto crucial de la inteligencia humana
via Robótica e IA - Xataka https://ift.tt/pY6CATm
No hay comentarios:
Publicar un comentario