sábado, 15 de junio de 2024

Amazon quiso convertir Alexa en la némesis de ChatGPT. El proyecto ha acabado siendo un caos

Amazon quiso convertir Alexa en la némesis de ChatGPT. El proyecto ha acabado siendo un caos

El pasado mes de septiembre Amazon parecía estar preparada para plantear su particular revolución en el mundo de la IA. En un evento en Washinton DC, los responsables de la firma nos enseñaban la nueva versión de Alexa. Su asistente de voz nos invitaba a chatear con él de todo tipo de cuestiones. Quería dejar tan tonto como una piedra y parecía que podría conseguirlo. Y después, silencio.

¿Dónde está el nuevo Alexa? Se suponía que tras la presentación el despliegue de Alexa, que realmente parecía prometedor, se extendería rápidamente a los aproximadamente 500 millones de dispositivos con dicho asistente. Sin embargo en Amazon no volvieron a dar noticias de la evolución del proyecto, y solo en enero de 2024 aparecieron rumores de que Alexa podría aparecer este año... con una suscripción de la mano. ¿Qué está pasando? ¿Por qué no se ha lanzado esa nueva versión?

Caos en Amazon. Según indican fuentes de la empresa citadas en Fortune, el problema está en Amazon. La organización, aseguran, está plagada de "disfunciones estructurales" que han retrasado una y otra vez el lanzamiento de una nueva Alexa impulsada por IA generativa.

La demo era eso. Una demo. Aunque la presentación de Alexa del pasado mes de septiembre fue llamativa, eran tan solo una demo. Esa versión no estaba preparada para su despliegue, y sigue sin estarlo hoy. El LLM en el que se basa está "lejos de ser de última generación", y las razones son variadas.

Ni datos, ni GPUs. Los científicos entrevistados que trabajaron en el proyecto explicaban en Fortune que Amazon no tenía ni suficientes datos para entrenar el modelo, ni suficientes chips para entrenarlo y ejecutarlo de forma competitiva.

Mejor hagamos un chatbot para la nube. En lugar de seguir trabajando en Alexa a toda máquina, en Amazon parecen haber cambiado el foco y están desarrollando un modelo de IA generativa orientado a Amazon Web Services. La empresa invirtió 4.000 millones de dólares en Anthropic, creadora de Claude, pero de momento eso no ha ayudado ni en un lado ni en otro.

Amazon niega que haya problemas. Una portavoz de Amazon ha indicado en Fortune que los datos proporcionados eran antiguos, y añadió que la empresa tiene acceso a cientos de miles de GPUs. También niega que Alexa haya perdido prioridad o que no estén usando Claude, pero no dio detalles sobre cómo lo están haciendo.

Siri adelanta a Alexa por la derecha. Eso es al menos lo que parece tras los anuncios de esta semana en la WWDC 2024. Allí Apple mostró una versión mejorada de Siri con una voz sintética más natural y el potencial de que el asistente complete acciones mediante aplicaciones con las que se conecta. La integración con ChatGPT es otra de las opciones llamativas de un asistente de voz que se lanzó en 2011 y que ahora, aun habiéndose olvidado de algunos de los dispositivos que podrían potenciarlo, tiene una nueva oportunidad. Alexa puede quedarse atrás.

Los exempleados de Amazon no son optimistas. Mihail Eric, un experto en aprendizaje automático que trabajó en Alexa AI, publicó recientemente un largo post en X. Dejó la empresa en julio de 2021, y afirma que a pesar de todos los recursos de Amazon y de tener también mucha gente con talento, la empresa estaba "plagada de problemas técnicos y burocráticos".

¿Qué hay de Olympus? El pasado noviembre se reveló que Amazon tenía en marcha un proyecto para crear un LLM gigantesco llamado Olympus con dos billones de parámetros. Eso supone el doble de lo que se estima que utiliza GPT-4, pero uno de los entrevistados en Fortune indican que esa cifra "es un chiste". En realidad, afirma, el modelo más grande que tienen ronda los 470.000 millones de parámetros (470B) , la cuarta parte de los que teóricamente iba a tener Olympus. Mientras, el LLM de esa nueva versión de Alexa ronda los 100B, y ahora están al parecer trabajando en hacer un ajuste fino del mismo.

Lentos. El progreso del LLM de Alexa es aún modesto. Según los datos publicados, Llama 3 fue preentrenado con 15 billones de tokens, mientras que Alexa LLM solo ha podido hacerlo con 3 billones. Su ajuste fino también es peor que el del modelo de Meta, que utilizó 10 millones de "data points" frente a tan solo un millón en el caso del de Amazon.

Demsiada gente, demasiada complejidad. El proyecto se ha alejado mucho de los famosos grupos de trabajo de "dos pizzas" de Jeff Bezos, y ahora aglutina a unos 10.000 empleados que además trabajan en distintos escenarios de uso, como el hogar, las compras, la música o el entretenimiento. Eso no facilita las cosas, pero aún así en Amazon confían —también lo hacen algunos de los entrevistados— en que ese LLM para Alexa acabará apareciendo en el mercado.

Imagen | Jonathan Borba

En Xataka | Amazon se ha cargado el nombre 'Alexa'. Se usa un 90% menos para llamar a niñas recién nacidas que antes del primer Echo



via Robótica e IA - Xataka https://ift.tt/F3vAwZK

No hay comentarios:

Publicar un comentario