La carrera entre las Big Tech por liderar el desarrollo de la inteligencia artificial generativa se está traduciendo en una avalancha de novedades para los usuarios. Recientemente hemos visto a Amazon lanzar su propio chatbot conversacional, Amazon Q, a Google presentar su nuevo modelo Gemini, y a Microsoft actualizar su omnipresente Copilot.
En este artículo nos enfocaremos en las novedades que el gigante de Redmond ha comenzado a desplegar en su asistente de IA presente en Bing, Edge, Windows, Office 365, Azure, entre otros productos. En concreto, en las tres más importantes: GPT-4 Turbo, una versión mejorada de DALL·E 3 y un nuevo intérprete de código. Vamos a los detalles.
GPT-4 Turbo
A principios de noviembre asistimos al lanzamiento de GPT-4 Turbo, un modelo mejorado del prodigioso GPT-4. La ventaja de este versión actualizada no es otra que ofrecer una mayor ventana de contexto. Pasamos de los 32 K de la versión normal a los 128 K de la versión Turbo. ¿En qué se traduce esto? En una mayor longitud de prompts.
Como sabemos, mientras más detalladas sean las indicaciones textuales (prompts), más posibilidades tendremos de obtener los resultados deseados en nuestra interacción con un asistente de IA. Asimismo, podremos utilizar la ventana de contexto mejorada para introducir más información, por ejemplo, para pedirle que nos resuma o extraiga los conceptos más importantes de un fragmento de un libro. Las ventajas son enormes.
El modelo mejorado también tiene otra ventaja: ha sido entrenado con datos hasta abril de 2023. Sin embargo, su disponibilidad estaba limitada a desarrolladores que utilizan la API de pago de OpenAI. Esto empieza a cambiar con el anuncio de Microsoft de que ha comenzado su despliegue en Copilot. Por el momento está disponible en unos pocos usuarios seleccionados, pero en el transcurso de “las próximas semanas” llegará a todos.
DALL·E 3 mejorado y nuevo intérprete de código
DALL·E 3, el modelo de generación de imágenes más avanzado de OpenAI, está entre nosotros desde septiembre. El salto en sus capacidades en relación a DALL·E 2 ha sido notable, y afortunadamente hemos podido probarlo a través de Copilot. No obstante, el asistente acaba de incorporar una versión mejorada de DALL·E 3 que permite crear imágenes de mayor calidad y, algo muy importante, más precisas de acuerdo al prompt utilizado.
Como hemos visto, los modelos de IA pueden ser muy útiles si sabemos cómo utilizarlos. En caos de estar presentes en un asistente como Copilot solemos utilizar el lenguaje natural para canalizar nuestras peticiones. Lo cierto es que esto también tiene ciertas limitaciones, principalmente cuando queremos obtener resultados más complejos. Aquí es donde entra en escena el intérprete de código que lleva la experiencia al siguiente nivel.
Un intérprete de código nos permite obtener mejores resultados en tareas como el análisis de datos y la codificación. "Copilot escribirá el código para responder a sus complejas solicitudes en lenguaje natural, ejecutará ese código en un entorno aislado y utilizará los resultados para obtener respuestas de mayor calidad", explica Microsoft. El sistema nos permitirá, además, cargar nuestros propios datos para que pueda alimentarse de ellos.
Tendremos que esperar un poco para ver el intérprete de código en acción. La compañía de Redmond dice que ya está probándolo y que planea ponerlo a disposición del público. No sabemos exactamente cuándo ocurrirá esto, pero cabe señalar que el despliegue de herramientas de IA por parte de Microsoft está produciéndose a velocidad de vértigo, por lo que probablemente ocurre más temprano que tarde.
Imágenes: Microsoft
via Robótica e IA - Xataka https://ift.tt/lxLoCdy
No hay comentarios:
Publicar un comentario