El desarrollo de la bomba atómica bajo el célebre 'Manhattan Project' cambió el curso de la historia. Lo hizo, eso sí, bajo medidas de seguridad extremas que trataban de mantener el proyecto en total secreto y evitar que los rusos pudieran lograr desarrollar un arma similar. Ahora hay quien defiende que deberíamos hacer lo mismo con la inteligencia artificial, desarrollándola como un proyecto de alto secreto para que no caiga en malas manos. Es el viejo debate tecnológico.
El (no tan secreto) Manhattan Project. Los sitios en los que se desarrolló el proyecto —Los Alamos, Oak Ridge, Hanford— estaban geográficamente aislados y muy protegidos por policía militar y alambre de espino. Había controles de seguridad y de acceso 24/7 y señales y recordatorios constantes a los empleados de que mantuvieran lo que sabían en secreto. A pesar de ello, los espías soviéticos lograron conseguir información crítica que aceleró el desarrollo de la bomba atómica soviética unos 12-18 meses. Aquella bomba soviética, por cierto, era una copia casi exacta de la creada por el Manhattan Project.
Marc Andreessen quiere "cerrar" la IA. El conocido inversor, cofundador de Netscape, hacía recientemente esa analogía entre el Manhattan Project y el desarrollo de modelos de IA. En su opinión la inteligencia artificial se debería gestionar como aquel proyecto de la Segunda Guerra Mundial. Es decir, con medidas de seguridad extremas para evitar que según él "El Partido Popular de China logre acceso a la IA americana".
Hasta marines y detectores de mentiras. Andreessen propone que haya acceso restringido para todos esos desarrollos que variarían desde el CEO "hasta el cocinero de la empresa", y propone crear mecanismos de vigilancia internos "constantes" e incluso que los empleados pasasen por detectores de mentiras cada mes. También deberían crearse ubicaciones de trabajo seguras y protegerlas con marines de los EEUU las 24 horas del día.
Este inversor propone también evitar filtraciones protegiendo los dispositivos usados con jaulas de Faraday, contramedidas electrónicas y que todos los empleados cuenten con algo parecido a un AirTag para poderles seguir en todo momento. Debería haber además un gran encargado de la seguridad que podría interrogar a cualquiera —y "aterrorizarle"— en cualquier momento.
La IA es una amenaza para la civilización. La excusa de Andreessen, como la de otros tecnogurús, es la de apuntar a la IA como la gran amenaza para nuestra civilización. Si cayera en malas manos, este tipo de proyectos podrían desembocar en (quizás) el fin de la raza humana.
La seguridad actual es como un queso suizo. El emprendendor critica que en lugar de cerrar estos desarrollos, ni OpenAI ni otras startups en este ámbito están protegiendo demasiado sus desarrollos. "La seguridad es el equivalente de un queso suizo. La penetración china de estos laboratorios podría ser trivial usando cualquier método de espionaje industrial, como un simple soborno para que la gente que limpia sus oficinas conectara llaves USB a los portátiles". Para él, de hecho, la realidad es que China está espiando ya a EEUU y hay descargas nocturnas de todas las investigaciones estadounidenses en IA en estos momentos.
OpenAI debería nacionalizarse. La solución es clara para Andreessen: OpenAI debería ser nacionalizada inmediatamente. Eso plantearía potenciales cambios importantes en la gestión de esta empresa, que se convertiría probablemente en algo más parecido al Pentágono o la NSA.
Elon defendía abrirla y ahora cierra más que nadie la IA. Es exactamente el mismo discurso que desde hace años defiende Elon Musk, pero curiosamente él cofundó OpenAI como una organización que tenía la intención de compartir todo lo que descubrieran. La empresa (ya sin él) acabó convirtiendo GPT-4 en un desarrollo más secreto, pero es que Musk, que también ha iniciado su proyecto con xAI, lo ha hecho no como planteaba inicialmente OpenAI, sino de forma totalmente cerrada y secreta.
Apoyos. Hay otras personalidades que opinan de coinciden con Andreessen. Uno de ellos es el multimillonario Vinod Khosla, cofundador de Sun Microsystems. Hace meses comentó cómo "hay mucha bellaza en la apertura. La publicación del estudio sobre transformers permitió florecer a la IA actualmente". Y sin embargo, apunta "estas publicaciones, ideas y líneas de código se están diseminando en China".
El magnate fue creyente del Open Source con la aparición de Linux, "pero ya no lo soy. Si estás optimizando para progresar lo más rápido posible, pon tu trabajo en manos del mayor número de personas al menor coste posible. Esa es la receta para un progreso rápido. Y eso es ciencia básica. Pero esto no es ciencia básica. Esto es el Proyecto Manhattan".
Cerremos todo para protegernos (y ganar más pasta). Lo que plantea Andreessen es una visión ya conocida y frecuente entre muchos de las grandes personalidades al frente de las Big Tech. La apertura parcial de muchas de ellas al Open Source siempre ha sido criticada como un postureo. Microsoft es un buen ejemplo de ello: durante años criticó esa filosofía —recordemos, Ballmer llamó a Linux "un cáncer"— y acabó adoptándola gradualmente para volver a ganarse a la comunidad de desarrolladores y usuarios.
Es desde luego una buena noticia que las grandes apoyen estos proyectos, pero tanto si lo hacen como si se cierran aún más en banda, es muy poco probable que lo hagan por una convicción moral. Al menos quien suscribe tiene claro que lo hacen para acabar ganando más dinero. Es lícito, sin duda, pero argumentos como "tenemos que protegernos de China" o "hacemos esto para tener un mundo mejor" quedan en segundo plano.
Pero la IA Open Source cada vez es más prometedora. Los comentarios de Andreessen ponen de relieve el hecho de que los proyectos Open Source de IA siguen ganando terreno y mucho interés. Lo hace por ejemplo Llama 2, el LLM de Meta que tiene a Yann LeCun al gran defensor de esa apertura de la investigación. El propio LeCun contestaba a Vinod Khosla, que afirmaba que "estamos en una guerra económica con China y la IA debe ser una victoria". Según el máximo responsable de IA en Meta, "Sea cual sea la guerra en la que crees que estamos metidos, Vinod, la perderemos inevitablemente si prohibimos o simplemente obstaculizamos las plataformas de IA de código abierto". Recordemos: hace más de un año hasta Google estaba preocupada por el avance de modelos como Llama 2, y sus responsables indicaron que "El Open Source nos puede eclipsar". Hay mucho, muchísimo dinero en juego.
Imagen | TechCrunch
En Xataka | Meta, IBM y otras forman The AI Alliance. Su objetivo: defender el desarrollo de modelos de IA Open Source
via Robótica e IA - Xataka https://ift.tt/kqiXlVC
No hay comentarios:
Publicar un comentario