No te fíes demasiado de lo que te dicen ChatGPT o Bard. Estos motores de inteligencia artificial conversacional de OpenAI tiene un problema fundamental: se inventan cosas y cometen errores, algunos de los cuales les han salido muy caros a empresas como Google. Hay, no obstante, otro oscuro problema en ellos.
Contaminan. En esa carrera por crear motores de búsqueda basados en inteligencia artificial se necesita una enorme potencia de cálculo, lo que a su vez hace que la cantidad de energía utilizada por estas empresas también crezca. Eso nos lleva a mayores emisiones de carbono, agravando un problema que ya era notable hasta ahora y que podría agravarse.
Entrenar cuesta mucho. Estos motores se nutren de ingentes cantidades de datos con los que se les entrena para que puedan ofrecer respuestas cada vez más precisas y mejores a nuestras preguntas. Carlos Gómez-Rodríguez, informático en la Universidad de La Coruña, explicaba en Wired cómo "entrenar estos modelos requiere una cantidad inmensa de potencia computacional. Ahora mismo solo las grandes tecnológicas pueden entrenarlos".
Estimaciones. OpenAI no ha indicado cuál es el coste computacional o energético de estos productos, pero hay estudios publicados por investigadores de Google que estiman que el entrenamiento de GPT-3 —en el que ChatGPT está parcialmente basado— consumió 1.287 MWh y generó emisiones de más de 550 toneladas de carbono.
Otros estudios independientes, como el de la Universidad de Massachusetts Amherst, revelaban que un solo entrenamiento genera tantas emisiones como cinco coches durante todo su ciclo de vida. Si se entrena a un modelo de forma repetida, las emisiones crecen enormemente. En The Economist (muro de pago) ya avisaban hace unos años: el coste de entrenar a las máquinas "se está convirtiendo en un problema".
¿Eso es mucho? La cantidad no es especialmente excepcional —equivale a las emisiones de 550 vuelos entre Nueva York y San Francisco— pero a esa cantidad habría que sumarle las correspondientes a "ejecutar el motor para servir las peticiones de millones de usuarios", como explicaba Gómez-Rodríguez.
Y ChatGPT ni siquiera está actualizado. El motor de OpenAI tiene la limitación de estar entrenado con datos que llegan hasta finales de 2021. En un motor como el que integra Bing y que está actualizado prácticamente al día, ese entrenamiento es teóricamente constante y eso implica un uso energético elevado y, sobre todo, constante. Según la International Energy Agency, los centros de datos son actualmente responsables del 1% de las emisiones de efecto invernadero, y este uso masivo de recursos podría aumentar esa cuota.
Objetivos medioambientales. Esto podría complicar las cosas para Microsoft y Google, que tienen como objetivo tener un balance negativo de emisiones en 2050. Google quiere lograr cero emisiones en 2030, pero esos procesos pueden perjudicar esos objetivos. Las energías renovables ayudan, y también se habla de rediseñar las redes neuronales para que sean más eficientes y reduzcan el llamado "tiempo de inferencia", es decir, la cantidad necesaria de potencia computacional para que un algoritmo trabaje con nuevos datos.
Imagen: Marek Piwnicki
via Robótica e IA - Xataka https://ift.tt/sblEUFp
No hay comentarios:
Publicar un comentario