La inteligencia artificial general es un tipo de sistema automático que puede realizar con éxito cualquier tarea intelectual llevada a cabo por los seres humanos. No solo eso: esta modalidad de inteligencia artificial (IA), conocida como AGI por su denominación en inglés (Artificial General Intelligence), también deberá ser capaz de realizar juicios y razonamientos ante una situación de incertidumbre a partir del aprendizaje y el entrenamiento, así como de comunicarse utilizando el lenguaje natural, planificar o aprender.
Esta es la acertada definición de AGI con la que mi compañero Javier Pastor abordó el completísimo artículo que dedicó a esta forma de IA a finales del pasado mes de noviembre. No obstante, también nos interesa conocer la definición que nos propone OpenAI porque introduce un matiz interesante: la inteligencia artificial general es un sistema autónomo que supera la capacidad humana a la hora de realizar la mayor parte de las tareas que tienen un valor económico.
Algunos expertos utilizan los términos 'inteligencia artificial general' e 'inteligencia artificial fuerte' como sinónimos, pero otros prefieren restringir esta última denominación solo para aquellos sistemas que tienen consciencia de su propia existencia, y que, por tanto, tienen la capacidad de desarrollar sus propios sentimientos y experimentar vivencias. Sea como sea hay otro debate encima de la mesa en el que merece la pena que indaguemos: cabe la posibilidad de que el hardware que soporte esta ambiciosa modalidad de IA deba ser radicalmente diferente al que utilizamos hoy. Esto es, precisamente, lo que defiende Extropic.
Los transistores que usamos actualmente no son los ideales para "la era de la IA"
Extropic es una empresa emergente estadounidense fundada por dos científicos especializados en la investigación en inteligencia artificial: Guillaume Verdon y Trevor McCourt. A principios del pasado mes de diciembre anunció la puesta en marcha de una ronda de inversión de 14,1 millones de dólares con el propósito de financiar un proyecto extraordinariamente ambicioso: el desarrollo de una nueva arquitectura de hardware específicamente diseñada desde la base para lidiar de la forma más eficiente posible con los algoritmos de inteligencia artificial.
Y en la base de este modelo de hardware residen, cómo no, los transistores. Según Verdon y McCourt la ley de Moore está agotándose debido a que los transistores se están aproximando a la escala atómica, de modo que el ruido térmico y otros efectos de naturaleza cuántica pueden arruinar su capacidad de operar en el dominio digital. Además, una de las consecuencias más evidentes que está acarreando el despliegue de grandes centros de datos para aplicaciones de IA es que el consumo de energía se está disparando, lo que ha propiciado que algunas empresas propongan alojar una central nuclear junto a las mayores instalaciones para satisfacer todas sus necesidades energéticas.
Este nuevo paradigma de computación debe ser capaz de procesar los algoritmos de IA probabilísticos con los que no pueden lidiar las GPU actuales
Estos dos desafíos, las limitaciones impuestas por los transistores actuales y las crecientes necesidades energéticas de los grandes centros de datos, están sobre la mesa. Y resolverlos, según Verdon y McCourt, exige elaborar un paradigma de computación completamente nuevo que sea capaz de garantizar el escalado del hardware para IA más allá de las limitaciones que impone la computación digital actual. Además, los nuevos aceleradores para IA deben ser mucho más rápidos y eficientes que las actuales GPU que NVIDIA, AMD, Huawei y las demás compañías utilizan en sus grandes centros de datos. Y dejamos para el final quizá lo más importante: este nuevo paradigma de computación debe ser capaz de procesar los algoritmos de IA probabilísticos con los que no pueden lidiar las GPU actuales.
El futuro de la inteligencia artificial general de la que hemos hablado en los primeros párrafos de este artículo está en juego. Las ideas en las que hemos indagado hasta ahora son complicadas, pero podemos intuir qué proponen los científicos de Extropic con más precisión si nos fijamos en que a la lógica digital con la que todos estamos familiarizados gracias a nuestros ordenadores, smartphones y demás dispositivos se le dan bien las operaciones determinísticas, pero, curiosamente, el aprendizaje automático que es tan importante en el ámbito de la inteligencia artificial es de naturaleza probabilística.
Para entender con cierta precisión de qué estamos hablando nos interesa recordar que el determinismo establece que el resultado de un fenómeno u operación está necesariamente determinado por las condiciones iniciales. Sin embargo, el hardware idóneo para procesar los algoritmos de aprendizaje automático no es determinista; es probabilístico. Esto significa, sencillamente, que los datos que nos va a devolver el algoritmo son el resultado de una distribución de probabilidad.
El hardware idóneo para procesar los algoritmos de aprendizaje automático no es determinista; es probabilístico
El núcleo de la propuesta de Extropic respeta a pies juntillas esta idea y la traslada a la base de su plataforma de hardware. A los transistores. En este artículo no vamos a indagar con todo el detalle posible en ellos para no complicar el texto excesivamente (si queréis conocer su física con más profundidad os sugiero que echéis un vistazo al estupendo hilo en X del físico Andrew Côté).
No obstante, al menos nos interesa recordar que la velocidad de conmutación de un transistor, que identifica la rapidez con la que puede cambiar entre los estados de encendido y apagado, está condicionada por la carga que está conectada al transistor, la corriente y la tensión de polarización, la estructura interna del transistor, sus características eléctricas naturales, e, incluso, por la temperatura ambiental y su capacidad de disipar la energía térmica en forma de calor.
Sin embargo, la velocidad de conmutación de los transistores de naturaleza termodinámica en los que están trabajando los científicos de Extropic solo está condicionada por el tiempo que tarda el calor ambiental en actuar sobre ellos y en alterar su estado interno. Como acertadamente afirma Côté, es mucho más rápido y requiere menos energía alterar de forma aleatoria el estado de un conjunto de electrones que inducir un flujo de corriente neta a partir de la aplicación de voltaje. Sobre el papel, y esto es lo realmente importante, los transistores termodinámicos de Extropic son mucho más eficientes que los convencionales, y, además, tienen una velocidad de operación varios millones de veces más alta.
Este es el sustrato físico sobre el que Guillaume Verdon y Trevor McCourt proponen construir todo un nuevo paradigma de computación afianzado sobre unos chips de naturaleza termodinámica más eficientes, más rápidos y con un comportamiento eminentemente probabilístico que, en teoría, encajan como un guante en el futuro hardware para IA. Un avance como este tiene la capacidad de allanar el camino a la inteligencia artificial general, aunque aún no está claro cuándo estará lista esta forma de IA tan avanzada. Elon Musk aseguró en 2020 que estaría preparada en 2025, pero la mayor parte de los científicos que investigan en esta área no se atreve a dar una fecha precisa, por lo que el vaticinio de Musk parece, una vez más, demasiado optimista.
Imagen | ThisIsEngineering
Más información | Extropic
via Robótica e IA - Xataka https://ift.tt/a9ctm13
No hay comentarios:
Publicar un comentario