La inteligencia artificial (IA) no es barata. Para que puedas charlar con soluciones como las máquinas parlantes ChatGPT o Bard es necesaria una cantidad enorme de energía. Para que te hagas una idea, una consulta en el robot conversacional de OpenAI consume tres veces más que una búsqueda en Google . Una conversación de unas 20 preguntas, o algo más, obliga a la empresa al uso de medio litro de agua para refrigerar sus bases de datos. Evidentemente, esto provoca que el coste del mantenimiento, y las emisiones de carbono provocadas por las máquinas, sean muy elevadas. IBM está intentando buscar solución a este problema. La tecnológica apuesta por el uso de un nuevo tipo de chip analógico de IA que, según la empresa, ya ha demostrado ser catorce veces más eficiente a nivel energético que los chips digitales convencionales. Noticias Relacionadas estandar No Google trabaja en una inteligencia artificial que te dirá cómo debes vivir tu vida ABC estandar No Nuevo uso para ChatGPT: en EE.UU. recurren a la IA para retirar libros con contenido erótico de los colegios ABC En un estudio publicado en ' Nature ', la empresa señala que su chip está compuesto por 14 nanómetros que contienen 35 millones de celdas de memoria de cambio de fase en 34 mosaicos. En los chips de los ordenadores convencionales actuales, los datos se transfieren entre la memoria y la unidad central de procesamiento (la GPU) cada vez que se realiza un cálculo, lo que provoca que una inversión de energía ingente, muy superior a la que sería necesaria para realizar la operación solicitada por el usuarios, se pierda. El chip análogo de IBM ofrece una solución parcial a este problema ubicando varias unidades de procesamiento pegadas a la memoria. Catorce veces más eficiente Para probar su chip, el equipo de investigadores de la tecnológica, encabezado por el investigador Stefano Ambroggio , probó su capacidad para el procesamiento del lenguaje recurriendo a dos programas de reconocimiento del habla por ordenador para, después, pasarla a texto; una red pequeña (Google Speech Commands) y otra grande (Librispeech). El rendimiento del chip análogo con el primer programa fue, prácticamente, equivalente al que ofrece la tecnología actual. Sin embargo, durante los test con Librispeech (que contiene grabaciones de lecturas en voz alta de libros, con un vocabulario mucho más extenso que el de la solución de Google) el ingenio del equipo de Ambroggio fue hasta 14 veces más eficiente a nivel energético. De acuerdo con los investigadores, esta prueba demuestra que los chips análogos pueden ofrecer un rendimiento similar a la tecnología existente en el campo de la IA sin necesidad de que el consumo generado sea tan elevado. Sin embargo, Hechen Wang, investigador de Intel, señala en otro artículo al respecto de la investigación de IBM que todavía queda mucho para que esta tecnología termine de cristalizar. Entre otras cosas, habría que realizar cambios en los algoritmos para que los chips fuesen funcionales y adaptar las distintas aplicaciones y plataformas para ello . Es decir, habría que ponerlo todo patas arriba y rehacerlo para que la alternativa propuesta por IBM pueda operar. Y eso no es fácil. Ni mucho menos. Podría tardarse décadas en conseguirlo, según explica Wang. «La buena noticia es que Ambrogio y sus colegas, junto con otros investigadores en esta área, están dirigiendo el barco, y hemos zarpado hacia la realización de la meta», apunta el investigador. Un problema de difícil solución Efectivamente, el elevado gasto al que obliga el desarrollo de inteligencia artificial sigue siendo un problema de difícil solución. A día de hoy, se calcula que las bases de datos de las grandes tecnológicas consumen entre el 1 y el 2% de la electricidad total. Y, además, todo indica que va a ir a peor en el futuro. De acuerdo con datos recogidos en un estudio de McKinsey , para 2030, se espera que los centros de datos ubicados en Estados Unidos alcancen los 35 gigavatios anuales de consumo eléctrico frente a los 17 gigavatios del año pasado. Más allá de posibles soluciones al problema, como el chip análogo de IBM, los expertos apuntan que es importante invertir en la búsqueda de nuevos sistemas que ayuden a refrigerar los servidores. Actualmente, de acuerdo con un reciente estudio de la Universidad de Purdue, publicado también en ' Nature ', apuntaba que el entrenamiento de un modelo de lenguaje, como ChatGPT, precisa de un consumo de 4,9 millones de litros de agua.
via Tecnología https://ift.tt/vUhCxbB
No hay comentarios:
Publicar un comentario