La IA generativa está en auge. Pero esta tecnología tiene grandes obstáculos. Debido a que clasifican un gran volumen de contenido existente para crear algo nuevo, requieren una potencia informática enorme, entregada a través de la nube. Y encontrar a alguien con un servicio a la altura que permita esto es muy complicado. Pero para estas empresas esa necesidad es, sin duda, un filón de oro.
Si bien Microsoft, Google, OpenAI y otros tienen sus propios modelos de aprendizaje automático para procesar y generar texto, audio e imágenes, Amazon aún carece de ese frente, pero lo que sí tiene es una de las redes de computación en la nube más grandes del mundo. Así que, para superar este problema, Amazon Web Services (AWS), ha anunciado una asociación estratégica a largo plazo similar con Hugging Face.
Para quien no lo sepa, Hugging Face es uno de los ejes centrales del aprendizaje automático, con más de 100.000 modelos accesibles y gratuitos descargados más de 1 millón de veces al día por investigadores, científicos de datos e ingenieros. AWS, por su lado, es uno de los mayores proveedor de computación en la nube, ya que ofrece herramientas para ayudar a los desarrolladores a crear software basado en IA, incluidos chips informáticos patentados que transmiten grandes cantidades de datos y reducen drásticamente el tiempo que lleva crear un chatbot u otros productos de IA.
A través de esta asociación, este servicio de IA podrá acceder a las herramientas de AWS (Amazon SageMaker, AWS Trainium, AWS Inferentia, etc) para entrenar, ajustar e implementar modelos en AWS de inteligencia artificial de próxima generación. El objetivo, dicen, es hacer los modelos de aprendizaje automático más accesibles para la comunidad con el mayor rendimiento al menor coste.
La guerra por liderar el mercado
Amazon quiere también, claro está, que esta alianza sirva para plantarle cara a ChatGPT, que ha supuesto un antes y un después en la visión que tiene mundo de la IA generativa. Todo esto mientras cada vez más firmas de tecnología se blindan de aliados en un mercado en auge.
Y, a medida que este sector crece, es más importante que nunca garantizar que todos los desarrolladores puedan acceder y evaluar los últimos modelos populares de IA generativa. Sin embargo, la mayoría de estos no están disponibles públicamente, lo que amplía la brecha de capacidades de aprendizaje automático entre las empresas tecnológicas más grandes y todos los demás. AWS y Hugging Face quieren contrarrestar esta tendencia y, según dicen, democratizar el aprendizaje automático.
Además, Hugging Face ha anunciado que construirá la próxima versión del modelo de lenguaje BLOOM en AWS, según explicaba Swami Sivasubramanian, vicepresidente de base de datos, análisis y aprendizaje automático en la unidad de nube de Amazon. Concretamente, la próxima generación de Bloom, un modelo de IA de código abierto que compite en tamaño y alcance con el modelo que OpenAI, respaldado por Microsoft, usó para crear ChatGPT, se ejecutará en Trainium, un chip de inteligencia artificial patentado creado por AWS.
Hay que comentar que esta asociación es parte de una tendencia creciente de acuerdos e inversiones que vinculan a los proveedores de nube más grandes con empresas que trabajan en IA generativa. El mes pasado, Microsoft Corp. llegó a un acuerdo para invertir en el fabricante de ChatGPT, OpenAI, que se dice que está valorado en 10.000 millones, y está utilizando la tecnología de la startup para la búsqueda de Bing.
A principios de mes, Google también invirtió casi 400 millones en el rival de OpenAI, Anthropic. Como podemos ver, está en juego la capacidad de vender servicios de computación en la nube para aprovechar el auge del interés en los programas generativos de IA. Y nadie quiere perderse este momentum.
via Robótica e IA - Xataka https://ift.tt/tlsJRGp
No hay comentarios:
Publicar un comentario