Al llegar al lugar de la entrevista, Xabi Uribe-Etxebarría hace un gesto con la mano, como para decir «espera, estoy contigo en un minuto». Está chateando por WhatsApp. Unos segundos después, se acerca sonriente y lleno de excusas. «Perdón, es que estaba hablando con Sculley, que hace tiempo que no nos vemos». «¿Con John Sculley, el de Apple?», le pregunto. «Sí, con ese...», responde tímidamente al tiempo que me enseña la pantalla de su móvil, con Whatsapp aún abierto. Alcanzo a ver el nombre del exdirector ejecutivo de Apple, ese al que Steve Jobs hechizó un día y le hizo abandonar la presidencia de PepsiCo, y me da tiempo a leer una frase de Sculley, al final del diálogo: «A ver si nos vemos pronto, te echo de menos...». Empieza la entrevista y resulta que no solo conoce a Sculley, sino que ha fichado para Sherpa, su empresa, a Tom Gruber, el creador de Siri, y también a la mítica J oanna Hoffman, la que fue mano derecha del mismísimo Steve Jobs durante tantos años y que al parecer era la única capaz de cantarle las cuarenta al «boss» sin temer a las represalias. Un tipo curioso este Xabi Uribe-Etxebarria. En Estados Unidos su empresa está considerada como una de las diez más importantes del mundo en Inteligencia Artificial. Y a él han llegado a compararle con Elon Musk. Pero aquí, en España, su tierra natal, casi nadie sabe quién es. Y los que le conocen no le creen capaz de llegar donde ha llegado. La conversación con él, pues, promete ser interesante... ¿Qué es la Inteligencia Artificial? Es la capacidad de una máquina de imitar el intelecto humano. Estoy hablando de habilidades que son casi exclusivas de las personas: razonar, aprender de ejemplos, etc. ¿Y qué no es la Inteligencia Artificial? Hay un montón de sistemas, que se basan en machine learning, es decir, en la capacidad de aprendizaje, que dicen ser Inteligencia Artificial, pero que no lo son. Muchos asimilan la IA a la consciencia. ¿Existe, o podrá existir en el futuro, un sistema de IA que sea consciente de sí mismo? Sí, antes o después, sí. A menudo, la gente de a pie suele relacionar la IA con robots, androides, hologramas o cualquier cosa que pueda tener forma humanoide. Pero la IA es mucho más que eso. Y hay muchos desarrollos de IA que están en nuestra vida cotidiana sin que la mayoría lo sepa. Cuando desbloqueo el móvil con mi huella o mi cara, cuando voy a un parking y me leen la matrícula y no tengo que meter el ticket, cuando uso Google Maps… Hay un montón de aplicaciones que usan la IA para facilitarnos la vida y que habrían sido imposibles sin ella. Es decir, ya usamos sistemas de IA, y no se parecen en nada a un robot. Evidentemente, en todos esos ejemplos no hay una consciencia… No, claro. Si ni siquiera sabemos aún cómo funciona el cerebro humano, ¿Cómo vamos a ser capaces de imitarlo? Es una conversación que suelo tener con Rafa Yuste (neurobiólogo español e impulsor del Proyecto Brain, puesto en marcha en Estados Unidos por el presidente Obama en 2013), que me dice que ni siquiera sabemos aún lo que es un pensamiento. Los humanos vivimos en una especie de realidad virtual, fabricada por nuestro cerebro... Y no sabemos cómo funciona. Por lo tanto, es difícil tratar de imitar algo que aún no sabemos lo que es. ¿Hasta dónde podremos llegar entonces? Lo que sí conseguiremos hacer relativamente pronto es imitar el modo en que el cerebro humano procesa la información, es decir, imitar la inteligencia humana. Los expertos dicen que eso sucederá alrededor del 2045 y llaman a ese evento «singularidad», el punto en que la inteligencia de una máquina va a sobrepasar la inteligencia de un humano. Y subrayo lo de «un humano», que no es lo mismo que decir la de los humanos en general. En algunos casos, y en tareas muy concretas, eso ya se ha conseguido. Sin embargo, hay toda una serie de cualidades de los humanos que aún estamos muy lejos de imitar. ¿Como por ejemplo? Hay una capacidad, llamada «small sample learning», que es uno de los grandes retos que tiene la IA ahora mismo. Se trata de la capacidad de aprender a partir de muy pocos ejemplos. Para que una IA sea capaz de reconocer, por ejemplo, la imagen de un elefante, hay que alimentarla con miles, con millones de imágenes diferentes de elefantes, de formas, de colores... Sin embargo, si a un niño que nunca ha visto un elefante le enseñas una sola foto, una sola vez, ya lo reconocerá para siempre, incluso si después le enseñas no ya una foto, sino un simple dibujo o un garabato de un elefante. Esto las IA no lo pueden hacer, y nos queda aún muchísimo para que lo consigan. Otro ejemplo es lo que se llama el "transfer learning" o transferencia de aprendizaje. Si sabes jugar, por ejemplo, al ajedrez, te costará muy poco aprender otros juegos de tablero, ya que utilizas para ello las partes comunes con otros juegos. Esto las máquinas tampoco saben hacerlo. ¿Se supone que esa capacidad sí que estará presente cuando llegue la singularidad...? Sí, claro. De hecho, en transfer learning ya hay algo en las máquinas, sobre todo para traducción de idiomas. Se pueden transferir muchas reglas de un idioma a otro para traducirlo. Lo cual nos lleva a la pregunta siguiente: ¿Hay que tenerle miedo a la Inteligencia Artificial? Yo creo que miedo no... Hay que tenerle respeto, pero no miedo. ¿En qué sentido? Siempre tenemos un cierto miedo a lo desconcido. Y digo que hay que tenerle respeto porque la IA es un arma muy poderosa, aunque yo estoy convencido de que traerá grandes beneficios a la Humanidad. Cualquier avance científico o tecnológico, de por sí, no es bueno ni malo. Es neutro. Suelo hacer una alalogía con la fusión nuclear, que puede servir igual para generar energía limpia que para construir bombas de hidrógeno. Todo depende del uso que le demos. Por lo tanto, no hay que tener miedo de la IA, sino de los humanos que la van a usar. La IA, igual que cualquier otro avance tecnológico, solo hará lo que un humano le diga que haga. ¿Por qué entonces hay manifiestos firmados por cientos de científicos, entre ellos el ya desaparecido Stephen Hawking, alertando de los peligros de la IA? Porque son tantas las posibilidades que tiene, tanto para el bien como para el mal, que se hace necesario un gran ejercicio de responsabilidad a la hora de desarrollarla y utilizarla. En ese sentido, junto a Rafael Yuste y otros, estamos tratando de hacer lo que llamamos "juramento tecnocrático", que es análogo al juramento hipocrático de los médicos, un código de conducta que todos deben jurar antes de ejercer. Creemos que la IA debe empezar a mirarse también desde un punto de vista humanista, y no solo tecnológico. ¿Y en qué punto está ese juramento tecnocrático? El documento ya existe, y ahora mismo estamos en conversaciones con varios gobiernos, instituciones y universidades para que esto sea pronto una realidad. Gobiernos como el español, o el de Chile, ambos ya muy involucrados. También queremos llevarlo a la ONU. Otro debate gira en torno a la posibilidad de combinar la IA con otras ciencias para aumentar las capacidades de los humanos... Sí, unida a las neurociencias, la IA puede aumentar, por ejemplo, nuestra memoria o nuestras capacidades mentales. Y ahí hay otro debate. Si esas mejoras en las capacidades humanas no se hacen de forma proporcionada, podemos incluso llegar a crear nuevas "castas" de humanos, por lo que es necesario asegurar el reparto equitativo de estos aumentos de capacidades, y eso podría llegar incluso a convertirse en un nuevo derecho humano. ¿Es partidario entonces de limitar la IA? Si, por ejemplo, la unimos a un robot, podríamos tener robots inteligentes. ¿Limitaría usted las posibilidades de acción de esos robots con algo parecido a las leyes de la robótica propuestas por Isaac Asimov? No, no lo haría. No se trata de limitar a las máquinas. Cualquier limitación que se les ponga también se les podría quitar en cualquier momento... Lo que sí que habría que limitar son las aplicaciones de la IA, lo que los humanos hagamos con ella. Debería limitarse su uso de forma que cuacluier aplicación se haga siempre y solo en beneficio de la Humanidad. ¿Y cómo se podría garantizar eso? Pues para eso es, precisamente, el juramento tecnocrático. No se trata de decirle a una máquina que no mate gente, sino de que esa máquina no se construya nunca. Eso entra de lleno en el debate actual sobre la industria de las armas. Drones que deciden de forma autónoma si disparar o no, etc... Efectivamente, de eso se trata. Usted es creador de Sherpa, una empresa española de IA. ¿Qué es lo que aporta su empresa en este campo? Empezamos siendo un asistente digital, tipo Siri, pero hemos creado tanta tecnología que hemos ido evolucionando a una empresa de servicios de Inteligencia Artificial, y así se está reconociendo en todos los rankings mundiales de IA. Sherpa es, de hecho, una de las más reconocidas del mundo, ¿no? Sí, según Datamation, por ejemplo, estamos en la lista de las diez compañías más relevantes del mundo en IA. Ocupamos el noveno lugar, pero es que en esa lista están, Microsoft, Amazon, Google... gigantes de la tecnología. Y nuestra empresa, que es pequeña y de Bilbao, está ahí, en medio de todos los grandes. ¿Qué ha hecho Sherpa para merecer tanto reconocimiento? Tenemos una serie de desarrollos, de algoritmos, creados por un equipo top en el que trabajan algunos de los mejores expertos del mundo. Hemos creado esos algoritmos en cuatro grupos o líneas: la primera son los sistemas conversacionales, que puedes implementar en cualquier máquina, altavoz inteligente, automóvil, televisor, etc, y convertirlo en un sistema con el que puedas hablar. La segunda línea son los recomendadores y personalización de contenidos, que es un sistema que te puede recomendar desde noticias a televisión o música aprendiendo de tus gustos y tratando de anticiparse a ellos. En las otras dos estamos trabajando, están sin terminar aún, y estamos haciendo descubrimientos sorprendentes que nos colocan por delante de cualquier otra empresa del planeta. Una es lo que llamamos análisis de contenidos, que mide la polaridad de la noticia y es capaz de identificar noticias falsas. ¿Y cómo exactamente hace eso? Llevamos a cabo cinco análisis, que identifican cinco patrones que nos dicen si es o no un fake. El primero es análisis del lenguaje que se utiliza en la noticia. Hay una serie de patrones y estilos que las fake news utilizan mucho. Otro es el índice de viralidad, que es cómo se disemina la noticia en las redes sociales. Otro análisis es el del medio, la fuente, quién ha publicado la noticia. En total, cada patrón aporta un porcentaje de probabilidad de que sea una fake. Al combinarlos, sabemos si es o no una noticia falsa. Nos faltaba aún la cuarta línea de trabajo de Sherpa... Sí, es la privacidad. Estamos haciendo enormes avances en este campo. Avances que nos sitúan en cabeza y que están muy por delante de lo que hacen otras empresas, incluídas las más grandes. Se trata de tecnología que garantiza que tus datos sean privados. ¿Y cómo puede una pequeña empresa de Bilbao tener algo que decir en temas que entran de lleno en el terreno de las grandes empresas de tecnología, como Google, Amazon o Microsoft, que trabajan en lo mismo? No solo tenemos algo que decir, sino que muchas cosas las hacemos mejor que ellos. Para poner los pies en la tierra, nosotros no competimos con Google, sino con un equipo que trabaja en Google, que es su equipo de Inteligencia Artificial. Y dentro de eso competimos en un terreno muy concreto. Google hace desde buscadores a coches autónomos, y nosotros no entramos en eso. ¿Y cuáles son las cosas concretas que haceis, por ejemplo, mejor que Google o que otros grandes? Pues en recomendación somos mucho mejores, más que Netflix o Apple, entre otros. En privacidad de datos estamos más avanzados que Google. Cuando empezamos cn ese tema tratamos de usar sus plataformas, pero tenían carencias, así que empezamos la nuestra, y los resultados son mejores que los de Google, aunque ellos aún no lo saben. ¿Con qué mimbres cuenta para desarrollar todo esto? Necesitará un equipo de primera... Sí, para mi el equipo es lo más importante, y a eso he dedicado muchos esfuerzos. Por ejemplo, hemos incorporado a Tom Gruber, el creador de Siri, al que conozco desde que estaba en Apple. Apple siempre ha estado interesada en nosotros, y Gruber nos consideraba como la empresa más avanzada en IA. Así que hace un año dejó Apople y se vino con nosotros. Pero no solo él, hace apenas unos días hicimos público el fichaje de Joanna Hoffman, la mano derecha de Steve Jobs durante toda su carrera, directora de marketing de Apple y creadora de la imagen única que tiene esa compañia en el mundo. El resto del equipo quizá no sea tan mediático, pero no tienen nada que envidiar a los dos que he mencionado y que son muy relevantes en el mundo de la tecnología. Se os reconoce mucho más fuera que dentro de España. ¿A qué se debe? Creo que es por falta de conocimiento, y también de interlocutores. Se trata de un sector muy puntero, que normalmente se desarrolla fuera, lo cierto es que nos resulta mucho más fácil explicarlo en Estados Unidos, donde tenemos un gran reconocimiento, que hacerlo aquí, en España, donde no pueden creerse que una empresa pequeña y de Bilbao haya hecho lo que ha hecho... Aquí hay que hacerse perdonar los éxitos. Por último, ¿Quién es y de dónde viene Xabi Uribe-Etxebarria? Estudié ingeniería técnica electrónica y organización industrial. Empecé un doctorado que no terminé, porque creé mi primera empresa, que se dedicaba a la atención al cliente online para grandes empresas. Y luego monté Sherpa, al mismo tiempo que hacía cursos en el MIT y estudiaba arquitectura, carrera de la que me falta aún un año para acabar. Pero no quiero hablar de títulos porque creo que cada vez son menos relevantes. Lo más importante es la capacidad de adaptarse y de aprender. Han llegado a compararle con Elon Musk... Sí, quizá porque me gusta hacer muchas cosas diferentes, tener un proyecto principal pero hacer al mismo tiempo otros proyectos. Mo objetivo no es el de hacer mucho dinero, sino el de crear un impacto positivo para el mundo. Por eso hay proyectos que me motivan mucho, como el de llevar la Inteligencia Artificial con Sherpa al resto del mundo, pero no es el único. Tengo otros proyectos que no tienen nada que ver con tecnología. Por ejemplo, me encanta la historia y he dedicado, y dedico, años a investigar sobre la primera vuelta al mundo. He ido recopilando en muchos países documentos de Elcano, mapas, antiguos testimonios de protagonistas olvidados y que han cambiado el mundo. Entonces, ¿cuál es la huella que le gustaría dejar? Me autoexijo mucho, pero lo que me gustaría es dejar un impacto positivo en el mundo. Tengo muchísimo miedo a la muerte, y un dia leí que le vas perdiendo el miedo a la muerte en la medida que vas cumpliendo objetivos en la vida. Y en eso estoy.
via Tecnología https://ift.tt/2IwVYf4
No hay comentarios:
Publicar un comentario