Las posibilidades de la inteligencia artificial (IA) generativa son enormes. A día de hoy, gracias al uso de herramientas como ChatGPT , igual organizas un viaje a Nueva York que aligeras el trabajo y pones al robot de turno a buscarte información o a redactarte los correos electrónicos. No está mal, pero lo realmente interesante llegará en el medio plazo; cuando las máquinas lleguen a ser más listas que el humano más listo. Entonces, la jornada laboral se reducirá y una sola persona podrá dirigir compañías de miles de millones de euros. Al menos, es lo que esperan algunos gurús tecnológicos; eso sí, siempre y cuando el desarrollo se realice con tiento. En caso contrario, apuntan que los algoritmos pueden terminar dibujando una distopía futurista al más puro estilo de Terminator. Solo que, esta vez, fuera de la pantalla. En Silicon Valley, cuna de de talento tecnológico por antonomasia, hasta se han comenzado a hacer estadísticas, llamadas p(doom) -algo así como 'probabilidad de condenación'-, en las que el empresario de turno apunta, según su parecer, cuál es la probabilidad de que las máquinas terminen amenazando a la humanidad. Según a quien le preguntes, la posibilidad está más o menos presente. Por ejemplo, de acuerdo con ' The New York Times ', Lina Khan, presidenta de la Comisión Federal de Comercio, cree que la probabilidad es del 15%. Darío Amodei, CEO de la startup Anthropic, es algo más pesimista, y apunta a «entre el 10 y el 25%». Una horquilla bastante estrecha, al menos en comparación con el 5 o 50% que plantea Emmet Shear, quien fue director ejecutivo interino de OpenAI durante apenas un par de días, el pasado noviembre, justo antes de que Sam Altman recuperase el cargo . Noticias Relacionadas estandar No «Nunca se había visto tanta expectación en los comités de dirección como ahora con la IA», según Deloitte Jon Oleaga estandar No Batman es Florentino Pérez y Arrimadas se presenta a las elecciones: los patinazos de Bard, la nueva IA de Google Rodrigo Alonso Aunque se desconoce el p(doom) del restituido CEO, sí que se sabe que ve riesgo en el futuro de la tecnología. «Si esto sale mal, puede salir muy mal», advirtió durante una vista ante el Capitolio de EE.UU. la pasada primavera. Pero eso no implica que haya que bajar las revoluciones en el desarrollo de la IA. Eso no lo piensa hacer, y esa es la razón por la que, aparentemente, el anterior consejo de la startup intentó prescindir de sus servicios. Aunque, seguramente, no la única. Horas después de que el CEO de OpenAI volviese a ser el CEO de OpenAI, 'Reuters' informó de que el presunto desencadenante de la salida fue el hallazgo de una IA con potencial para convertirse en una «amenaza» para la humanidad . Sobre la solución no se sabe casi nada; solo que responde al nombre de Q-Star y que, a día de hoy, es capaz de realizar problemas matemáticos al nivel de un niño de primaria. «Ni siquiera han sido originales escogiendo cómo llamarla», explica en conversación con ABC Sergio Álvarez-Teleña, director ejecutivo del centro de excelencia de inteligencia artificial SciTheWorld y copresidente del departamento para la Regulación Global de la IA de la Asociación Global sobre Inteligencia Artificial, dependiente de la OCDE y el G7. «El nombre viene de q-learning, que es una técnica de aprendizaje reforzado que se lleva utilizando muchos años», señala Álvarez-Teleña. «Funciona igual que si le pidieses a un robot que saliese de una habitación. Se chocará con las paredes muchas veces hasta que lo consiga», prosigue. Cuando se le consulta la posibilidad de que una solución de estas características pueda amenazar a la humanidad, el ejecutivo se ríe un poco y lo zanja rápido: «No, no, no. Todo es una estrategia de marketing. Son muy buenos haciendo ruido». La venida de la AGI De acuerdo con Altman y su empresa, el potencial peligro para la humanidad llegará con la futura venida de la inteligencia artificial general (AGI, por sus siglas en ingles), que podría «llegar pronto o en un futuro lejano»; pero, al menos, no durante 2024, de acuerdo con una reciente previsión del ejecutivo hecha en sus redes sociales. Este algoritmo estaría más capacitado que el ser humano más capaz independientemente del área de conocimiento y podría razonar de forma parecida. En una carta firmada junto a científicos y empresarios la pasada primavera, Altman alzó más la voz y llegó a señalar que se debe mitigar «el riesgo de extinción» que trae consigo la IA . Más o menos lo mismo que dijo ante el Capitolio de EE.UU. y en varias ciudades europeas, como Madrid, el pasado mayo. Lo mismo opinan Demis Hassabis, CEO de la startup de IA DeepMind, o el exejecutivo de Google Geoffrey Hinton, que hace unas semanas discutía sobre el tema en X con Yann LeCun, jefe de IA de Meta y completamente descreído de las profecías más fatalistas de la tecnología. Y el caso de LeCun no es excepción. Otros miles de académicos y expertos se muestran escépticos. Tanto con el potencial de la AGI para acabar con la humanidad como con la presunta amenaza que representa el proyecto Q-Star. Entre ellos se encuentra, Juan Bernabé, experto en IA y director de IBM Research en Europa. Tampoco tiene nada claro que la AGI vaya a llegar pronto: «No estamos en ese punto. Se pueden ver algunos atisbos de razonamiento en los datos, pero todavía sigue siendo un área de investigación». «El que la inteligencia artificial avance no implica que pueda, por ejemplo, desarrollar la tendencia de dominar el mundo. Somos los humanos los que la creamos y la orientamos», completa. De acuerdo con Álvarez-Teleña, y con numerosos científicos que han criticado las posturas más apocalípticas respecto al desarrollo de la IA, las preocupaciones responden, principalmente, al interés de las grandes empresas en desviar la atención de los reguladores de los problemas reales, como la falta de transparencia en el entrenamiento de la IA. También apunta que se están intentando «levantar barreras» que impidan que empresas más pequeñas puedan hacerle competencia.
via Tecnología https://ift.tt/AiS1OdQ
No hay comentarios:
Publicar un comentario