miércoles, 29 de abril de 2020

Jay-Z demanda a un canal de Youtube de deepfakes de audio por suplantar su voz y hacer ver que leía a Shakespeare

Jay-Z demanda a un canal de Youtube de deepfakes de audio por suplantar su voz y hacer ver que leía a Shakespeare

Utilizar una inteligencia artificial para replicar la voz y hacer ver que decimos cosas que no hemos dicho. Son los deepfakes de audio y los podemos encontrar en canales de YouTube como Vocal Synthesis. En ese canal, con casi 40.000 suscriptores, podemos escuchar a Frank Sinatra cantando 'Dancing Queen', a Barack Obama leyendo a H.P Lovecraft o a Jay-Z rapeando el 'To Be, Or Not To Be' de Hamlet.

No parece que le haya gustado a este último encontrar que su voz está siendo replicada con una IA pues a través de Roc Nation, su agencia de derechos, ha presentado una demanda al canal de YouTube y ha solicitado su eliminación por "derechos de autor".

El primer vídeo conocido de deepfakes de audio eliminado de Youtube

Youtube está plagado de deepfakes de audio. Es sencillo encontrar voces creadas artificialmente que se encuentran cantando o leyendo un texto que no es suyo. Pero esta es la primera vez donde se tiene constancia que un artista ha demandado directamente a un canal por este uso supuestamente indebido de la inteligencia artificial.

La decisión surge a raíz de un artículo publicado por Andy Baio, cofundador del festival XOXO, en su blog Waxy, donde describe el trabajo del canal Vocal Synthesis y su uso de la IA para hacer ver que Jay-Z leía a clásicos como Shakespeare.

El texto llamó la atención de Roc Nation y decidieron presentar una demanda a Youtube por "infracción de copyright". "Este contenido usa ilegalmente una IA para hacerse pasar por la voz de nuestro cliente", explica el responsable del canal a TheVerge. "Parece razonable suponer que un modelo y audio generado a partir de grabaciones de audio con derechos de autor se considerarían trabajos derivados. ¿Pero es una infracción de derechos de autor? Como prácticamente todo en el mundo de los derechos de autor, depende de cómo se usó y con qué propósito", argumenta Voice Synthesis.

Para la generación de estos deepfakes de audio, Voice Synthesis utiliza precisamente un software de Google, el motor open source Tacotron 2. A través de la IA es posible elegir una canción de Jay-Z, "obtener su voz" y hacer que lea un texto que se le introduce de manera escrita.

Youtube ha reestablecido el vídeo, pero el debate sobre el uso de los deepfakes de audio continúa

A raíz de la denuncia de Roc Nation, Youtube eliminó el vídeo de Jay-Z leyendo a Shakespeare. Una decisión que en poco tiempo han rectificado, pues ahora de nuevo vuelve a estar disponible el vídeo.

El debate está encima de la mesa, pues no está claro qué supone una infracción de derechos en los casos de deepfake de audio. Entre los argumentos que pueden suponer una infracción está el propósito del vídeo, la naturaleza del vídeo y los efectos y alcance que logra. En el caso de Voice Synthesis estamos ante un canal pequeño, creado específicamente para mostrar el alcance de los deepfakes de audio y además no está monetizado.

En respuesta a Andy Baio, el autor de Voice Synthesis, que desea mantener el anonimato, explica que no tiene claro si ha sido Youtube quien ha revertido la decisión o ha sido la propia Roc Nation quien ha retirado la demanda.

Desde Xataka hemos contactado con Youtube para conocer más detalles sobre este vídeo y su política respecto a los deepfakes de audio.



via Magazine - robotica-e-ia https://ift.tt/2yPbPEu

La IA de Google diagnosticaba con un 90% de precisión retinopatía diabética, hasta que fue puesta a prueba en un hospital real

La IA de Google diagnosticaba con un 90% de precisión retinopatía diabética, hasta que fue puesta a prueba en un hospital real

Uno de los campos donde se está tratando de aplicar la inteligencia artificial es en el de la medicina. Ya hemos encontrado antibióticos gracias a la inteligencia artificial y Google ha puesto su IA a detectar cáncer de mama o enfermedades oculares por ejemplo. Pero precisamente en esto último quizás no sea tan buena como parecía, su efectividad en hospitales reales y no en las pruebas de laboratorio es bastante menor de la deseada.

Durante años Google ha estado trabajando en mejorar su inteligencia artificial para que sea capaz de detectar enfermedades oculares analizando fotografías de retinas. Mediante esto se puede agilizar el proceso de diagnóstico y de este modo facilitar el trabajo de los médicos sin tener que comprobar ellos uno a uno todos los posibles casos. En pruebas de laboratorio Google explica que habían conseguido una precisión de hasta el 90% a la hora de detectar retinopatía diabética. Por lo que quisieron empezar a probar en hospitales reales.

Ojo

En un paper publicado por Google Health, explican cómo ha sido la experiencia de utilizar el sistema de aprendizaje automático para detectar retinopatía diabética en varios hospitales. No tan bien como esperaban y de hecho a menudo llegó incluso a ser un inconveniente.

De las condiciones idílicas del laboratorio a la cruda realidad

Para realizar sus pruebas Google se alió con el gobierno tailandés para implementar la IA en un total de 11 clínicas/hospitales de zonas rurales de Tailandia. El sistema estaba diseñado para detectar retinopatía diabética, una de las principales causas de pérdida de visión en todo el mundo. Generalmente el proceso sin intervención por parte de la IA dura varias semanas desde que se toman fotografías del ojo del paciente hasta que son analizadas y se devuelven los resultados por parte de los especialistas. La idea era agilizar esto a cuestión de minutos.

Según explican, la implementación fue más complicada de lo esperado. Cada clínica tenía unas condiciones diferentes y el proceso de trabajo de cada una de ellas era ligeramente distinto, esto dificultaba la recogida de datos por parte del sistema de Google. Si es que podía recogerlos, porque las malas conexiones a Internet también dificultaban la subida de datos.

D7553d87 Cad7 45a5 B21c D74a9159bb40 Enfermera tomando fotos de una retina de un paciente para la IA de Google. Vía Google.

Los datos recogidos por otra parte tampoco eran los ideales, Google había hecho pruebas en laboratorios con fotografías de alta resolución y tomadas en condiciones casi perfectas. En el caso de las clínicas las fotografías eran de peor calidad, a veces borrosas y con otras imperfecciones que hacían que la IA directamente las descartase y no dise un diagnóstico incluso habiendo claros indicios retinopatía diabética. Explican que el sistema "tiene directrices estrictas con respecto a las imágenes que evaluará... Si una imagen tiene un poco de desenfoque o un área oscura, por ejemplo, el sistema la rechazará, incluso si podría hacer una predicción fuerte".

Como resultado de todo esto el sistema llegó incluso a entorpecer el trabajo de los médicos y los pacientes en sí. Una de las enfermeras comentó que los pacientes no están tan preocupados por la precisión como por el tiempo que pierden por venir al hospital sin obtener una respuesta clara.

¿Es esto un fracaso de la IA de Google? No hay por qué verlo así. Poder agilizar el proceso de diagnóstico tanto es un paso gigantesco que puede ser de mucha ayuda en lugares donde los recursos médicos son escasos. Sin embargo sí que sirve para demostrarnos una vez más que las condiciones perfectas donde se diseña un producto no siempre se ajustan con la realidad. Y esto no es algo nuevo ni de ahora ni de Google.

Vía | Google Más información | ACM
Imagen | Liam Welch



via Magazine - robotica-e-ia https://ift.tt/3aLBkDR

viernes, 24 de abril de 2020

Además de correr, ahora ayuda en hospitales: la telemedicina es una nueva oportunidad para el perro robótico de Boston Dynamics

Además de correr, ahora ayuda en hospitales: la telemedicina es una nueva oportunidad para el perro robótico de Boston Dynamics

Spot, el perro de Boston Dynamics, es capaz de abrir puertas, hacer running e incluso remolcar un camión. Ahora la compañía anuncia que también tiene una nueva función, muy apropiada para esta situación de pandemia que nos ha tocado vivir: la telemedicina.

Junto al hospital Bringham and Women’s de Massachusetts, Boston Dynamics ha adaptado su perro robótico para incorporar un iPad en la parte delantera y permitir a doctores o personal del hospital comunicarse remotamente con el paciente. Es decir, una solución de telemedicina que permite preservar equipo médico y exponer menos al personal sanitario, algo muy relevante en la lucha contra el COVID-19.

Gracias al micrófono y altavoz del iPad, el doctor puede hablar con el paciente e ir preguntándole cosas. Pero no se trata únicamente de una pantalla, pues Spot puede moverse y ser controlado remotamente por el doctor para poder atender a distintos pacientes.

Boston Dynamics Perro

La semana pasada el Hospital de Brigham realizó sus primeros tests con este sistema, con distintos pacientes que aceptaron participar en el experimento. Según el doctor Farah Dadabhoy, los pacientes estaban encantados.

En colaboración con el MIT, los doctores del hospital de Brigham estuvieron experimentando con sensores de diagnóstico remoto, pero al final necesitaban un robot que lo moviera de sitio. Aquí es donde entra en juego Boston Dynamics con su robot Spot.

Liberan el código para que otros hospitales puedan implementar un sistema similar

"Hemos desarrollado la carga útil, el hardware y el software para esta aplicación para que sean generalizables y puedan implementarse en otras plataformas móviles robóticas, con una API y capacidad para carga útil personalizada. Estamos compartiendo los resultados de nuestro trabajo inicial con el Hospital Bringham and Women en Massachusetts y estamos haciendo un código abierto de los diseños de hardware y software utilizados para llevar estos robots al campo", explican desde Boston Dynamics. Y es que la compañía ha decidido liberar el código en Github de esta implementación de Spot para que otros hospitales puedan hacer uso de él para tareas de telemedicina.

Spot On White Small

Boston Dynamics explica que el uso de Spot en hospitales puede ir más allá que no únicamente ayudar a comunicarse con los pacientes. Desde la compañía están explorando cómo incorporar sensores para medir la temperatura, la frecuencia respiratoria y cardíaca y el nivel de oxígeno. Unas mediciones que se realizarían mediante una cámara térmica y una cámara RGB para medir el pulso.

El último paso propuesto por el equipo para este proyecto, en caso que siguiera adelante, sería incorporan tecnología de desinfección por luz ultravioleta u otro mecanismo para desinfectar las zonas por donde pase el robot, no solo el hospital pero también estaciones de metro y otros espacios.

En Xataka | Mi hijo de 5 años se ha encariñado con un robot en vez de con un perro, ¿y ahora qué?



via Magazine - robotica-e-ia https://ift.tt/2VxdOGc

jueves, 23 de abril de 2020

Una de las aplicaciones más espectaculares de la IA en todo su esplendor: así es como vídeos con más de 100 años parecen grabados ahora

Una de las aplicaciones más espectaculares de la IA en todo su esplendor: así es como vídeos con más de 100 años parecen grabados ahora

La inteligencia artificial no solo sirve para humillarnos al Go o crear alucinantes (y no tan alucinantes) deepfakes: desde hace un tiempo se ha convertido en una poderosa herramienta para devolvernos al pasado.

Lo demuestran la cada vez mayor cantidad de vídeos restaurados a través de técnicas de inteligencia artificial. Aquellas antiguas grabaciones cobran ahora nueva vida al ser coloreadas y adaptadas a resoluciones 4K, y el resultado es todo un viaje al pasado.

Así era la vida hace (más de) un siglo

Este tipo de vídeos comenzaron a aparecer compartidos en redes sociales recientemente. Hablamos por ejemplo aquel vídeo legendario de los Hermanos Lumière de 1896 que mostraba un tren llegando a la estación. Mostramos el vídeo original remasterizado, el vídeo reescalado y suavizado y, por último, el vídeo también con el color aplicado automáticamente con el desarrollo DeOldify del que hablamos más adelante:

Un programador ruso llamado Denis Shiryaev aplicaba entonces dos tipos de proceso sobre un vídeo ya remasterizado en 2017. El primero, el del escalado 4K a través de la plataforma Gigapixel AI de Topaz Labs. El segundo, un generador de fotogramas interpolados llamado DAIN creado por ingenieros de Google que también generaba esas imágenes para suavizar el vídeo.

Esos mismos resultados se aplicaban luego a otros espectaculares vídeos de Shiryaev, como por ejemplo este alucinante recorrido por las calles de la Nueva York de 1911 a partir de un vídeo remasterizado en 2018 que originalmente capturó la empresa sueca Svenska Biografteatern y que conserva incluso los sonidos de la época.

Como explicaba Shiryaev, además del proceso de 'upscaling' a 4K con una ESRGAN y un suavizado a 60 FPS gracias al citado DAIN usó After Effects y algunos plugins para mejorar la definición y los detalles, y aplicó por último la red neuronal propuesta por un desarrollo llamado DeOlfidy para colorear estas imágenes.

El resultado es sencillamente prodigioso, y este tipo de técnicas han ido aplicándose a más y más vídeos de aquella primera época de la cinematografía.

El propio Shiryaev ofrece unos cuantos espectaculares muy antiguos de vídeos tomados en San Francisco en 1906, Amsterdam en 1922, Inglaterra en 1901 o Moscú en 1896, pero además pero le hace un guiño a los vídeos en blanco y negro más relevantes del pasado algo más reciente con el del paseo en el rover lunar del Apollo 16.

La interpolación que da lugar a ese reescalado o sobreescalado es desde hace tiempo más conocida y los sistemas de inteligencia artificial han ayudado a acelerar y mejorar el proceso, pero las cosas se han puesto aún más interesantes a la hora de colorear esas imágenes y lograr que del blanco y negro pasemos a colores bastante convincentes.

DeOldify crea color donde (casi) no lo había

Jason Antic (https://twitter.com/citnaj), un apasionado del software, comenzó a investigar las llamadas redes generativas antagónicas (GAN) a principios de 2019. Como explicaban en el AI Podcast de NVIDIA, tras completar un curso online en Fast.ai para conocer cómo funcionaban las redes neuronales, inició un proyecto singular: el de tratar de aplicar esta rama de la inteligencia artificial a una tarea muy concreta y convertir imágenes en blanco y negro a imágenes en color.

Su trabajo en este campo acabó dando un resultado espectacular: el proyecto DeOldify —con el código en GitHub para que cualquiera lo use— no solo colorea imágenes, sino que las restaura. No es, desde luego, el único proyecto en este sentido.

El proyecto no solo funciona para imágenes individuales, sino que también es posible aplicarlo a vídeos a través de las llamadas NoGAN, un nuevo tipo de sistema GAN que reduce el entrenamiento de la red neuronal y consigue resultados espectaculares que corrigen errores de la aproximación pura que aplicaba DeOldify.

El resultado de ese trabajo se puede aplicar a todo tipo de vídeos. Durante la conferencia Facebook F8 Antic demostró el resultado aplicado a un pequeño fragmento de la película 'Psicosis' de 1960, pero su aplicación se extiende a todo tipo de imágenes y vídeos, y ha sido aprovechada para —entre otras cosas— transformar esos viejos vídeos de principios del siglo XX y lograr que del blanco y negro logremos disfrutarlos en color con unos resultados sorprendentemente convincentes.

En una larga entrevista en Humans of Machine Learning —no os la perdáis— desvelaba muchas de las claves de su trabajo en este campo. Nunca había tratado de restaurar el color de una foto en Photoshop, por ejemplo, y al estudiar su curso de inteligencia artificial se dio cuenta de que el fallo al colorear imágenes automáticamente es que siempre tenía que haber un humano que las revisaba para ver si estaban bien.

Eso hacía que la red neuronal fuera muy conservadora en sus predicciones, explicaba, pero con las GANs se podía hacer un coloreado realista con mucho menos esfuerzo y que a pesar de ser más "arriesgado" daba resultados mucho mejores. Aún así, destacaba que "no hay un único color válido para muchas cosas (como la ropa, por ejemplo)", de modo que parte del proceso es "arte, y probablemente por eso es difícil lograr que una red neuronal lo haga bien".

Imagen1 El proceso de dar color a estas imágenes también implica eliminar ruido y otros efectos provocados por el envejecimiento de la foto original (y no de lo que representa). Fuente: Rob Cross.

Este ámbito también es foco del trabajo de Robert Cross (@RobCross247), un experto en diseño y arquitectura digital que desde hace tiempo mantiene un proyecto en el que transforma viejas fotos de Irlanda en blanco y negro a color con unos resultados fantásticos gracias a DeOldify.

Ese proceso, que hasta no hace mucho se hacía básicamente con programas de postprocesado de imágenes como Photoshop, ha avanzado notablemente gracias a la inteligencia artificial, y otro extenso post en FloydHub analiza el proceso en este caso. Los resultados pueden ser mágicos, pero hay mucha ciencia tras ellos.

Color1 Esta foto fue tomada entre 1860 y 1870, pero casi parece que pudiera haber sido tomada ayer. Fuente:Reddit

Pasar imágenes de blanco y negro a color se ha convertido para algunos en una interesante afición, y de hecho el subrredit Colorization se ha convertido en un singular museo con los resultados que los usuarios que aplican estos procesos logran. Muchos de ellos son impactantes —aunque en muchos las fotos tengan cierto acabado "pictórico"—, y demuestran que esta técnica está ya realmente avanzada.

Un proceso que es en parte todo un arte

Más allá del debate sobre si este proceso traiciona el contenido original o no, lo cierto es que las imágenes que nos ofrecen estos métodos son espectaculares y hacen que esa visita al pasado sea mucho más asumible e impactante para todos los públicos. Acercan esos lugares y esos tiempos más que nunca.

A pesar de que las técnicas para lograrlo son absolutamente nuevas, su aplicación es casi un pequeño arte en sí mismo. Un fantástico hilo reciente de Joaquim Campa rescataba fantásticos ejemplos del resultado de aplicar algunos de esos procesos en esos vídeos. Muchos de ellos están procesados con desarrollos con DeOldify, pero algunos están incluso retocados a mano. El resultado, en todo caso, es nuevamente mágico.

Como expliac Denis Shiryaev —que presenta su trabajo en Neural.love— en ese vídeo de San Francisco de 1906 (días antes del terrible terremoto que sacudió la ciudad) restaurado, hay unos cuantos componentes en acción en dicha transformación.

  • Reducción de ruido: para lograr imágenes sin esos tradicionales artefactos de las películas antiguas.
  • Aumento de la definición (sharpening): para mejorar el nivel de detalle y los contornos de todos los elementos mostrados en pantalla.
  • Interpolación de fotogramas (FPS boosting): para pasar de 24 o 30 a los 60 fotogramas por segundo que logran esa suavidad de los vídeos, algo que está particularmente bien explicado en este proyecto de Wenbo Bao.
  • Coloreado: logrado con DeOldify y que como bien señala no es necesariamente preciso históricamente pero aporta esa transformación de blanco y negro a color.
  • Reescalado a 4K: para lograr que los vídeos, capturados en una resolución mucho menor e incluso remasterizados a mayores resoluciones acaben mostrándose en 4K de forma nativa con un resultado espectacular.
  • Audio: en muchos de estos vídeos el audio también estaba grabado, pero también es necesario procesarlo para aumentar su calidad y definición.

Cualquiera puede hacerlo (pero una GPU bestial ayuda mucho)

Los algoritmos, como explicaba Shiryaev, son aún lentos y necesitan un hardware potente para procesarse de forma más o menos rápida. Las modernas tarjetas gráficas ayudan cada vez en este ámbito, y de hecho NVIDIA lleva mucho tiempo empujando este tipo de aplicaciones tanto en su anterior familia GTX 1000 como en las nuevas RTX 2000.

Golden La imagen del Golden Gate en construcción es de 1937. Al aplicar DeOldify pasó algo curioso: el puente no era blanco, sino que ya había sido pintado de rojo en aquella época. Aquí Jason Antic demostraba cómo la precisión histórica sigue siendo uno de los grandes retos de esta disciplina.

El propio Antic lo avisaba en la página de proyecto de DeOldify: para poder realizar estas tareas con cierta soltura es muy recomendable tener una tarjeta gráfica súper potente: él confiesa que le encantaría tener más de los 11 GB de memoria gráfica que tiene en su GeForce 1080 Ti para la fase de entrenamiento, aunque para el coloreado se pueden usar tarjetas más modestas con unos 4 GB de memoria gráfica.

En esa página de GitHub se explica cómo funciona todo el proceso, pero además Antic ha preparado una guía con documentación que permite comenzar a dar los primeros pasos en una tarea que sin duda es sorprendente. Así pues, si queréis animaros ahí tenéis una buena forma de hacerlo.

Imagen | DanielFarjoun



via Magazine - robotica-e-ia https://ift.tt/2KpgRdk

lunes, 20 de abril de 2020

Respuestas ‘inteligentes’ automáticas ayudan a los humanos a comunicarse durante una pandemia

El aislamiento social empuja a los humanos a mantener las comunicaciones con amigos y familiares de forma remota. Esto podría propiciar que la inteligencia artificial desempeñe un papel que permita mantener nuestras conversaciones encaminadas, según la Universidad de Cornell.

Un nuevo estudio titulado “IA como una zona de amortiguación moral: los efectos de la IA mediadora de comunicación sobre la atribución y confianza”, publicado en línea en la revista Computers in Human Behavior, reveló que las personas que tenían conversaciones difíciles confiaban en sistemas de inteligencia artificial para que les sugirieran respuestas “inteligentes” para escribir, más que en la persona con la que estaban hablando.

“Descubrimos que cuando las cosas salen mal, las personas asumen la responsabilidad que de otro modo habría sido designada a su compañero humano y designan algo de eso al sistema de inteligencia artificial”, dijo Jess Hohenstein, un estudiante de doctorado en el campo de la ciencia de la información y el primer autor del artículo. “Esto introduce un potencial para tomar la IA y usarla como mediador en nuestras conversaciones”.

Hohenstein cree que la IA podría actuar como una mediadora de conflicto entre dos o más personas, sugiriendo estrategias de resolución de conflicto. Lo que este estudio buscó evaluar es la manera en que las respuestas inteligentes de sistemas de IA están afectando la manera como las personas interactúan.

Las personas deciden elegir estas respuestas sugeridas, pues aunque puede que no sean exactas a lo que estaban pensando, ahorran tiempo de tipeo de palabras, pero esto podría alternar sus conversaciones y sus relaciones.

“La comunicación es tan fundamental para formar percepciones de los demás, cómo formamos y mantenemos relaciones, o cómo podemos lograr algo trabajando juntos”, dijo el coautor Malte Jung, profesor asistente de ciencias de la información y director de Robots en el laboratorio de Grupos, que explora cómo los robots alteran la dinámica del grupo.

“Este estudio se encuentra dentro de la agenda más amplia de comprender cómo estos nuevos sistemas de IA interfieren con nuestra capacidad de interactuar”, dijo Jung. “A menudo pensamos en cómo el diseño de los sistemas afecta la forma en que interactuamos con ellos, pero menos estudios se centran en la cuestión de cómo las tecnologías que desarrollamos afectan la forma en que las personas interactúan entre sí”.

Es así como este estudio no solo tiene la intención de dejar en claro cómo las personas usan las respuestas inteligentes, sino también cómo estas afectan la comunicación humana. Hohenstein y Jung dijeron que buscaron explorar si la IA podría funcionar como una “zona de amortiguación moral”, diseñada tal y como funcionan los amortiguadores de vehículos, para absorber el impacto (peleas, disputas, etc.). Encontraron que, en efecto, la IA podría absorber parte de la responsabilidad moral en una discusión al ser intermediaria.

La entrada Respuestas ‘inteligentes’ automáticas ayudan a los humanos a comunicarse durante una pandemia se publicó primero en IntelDig.



via IntelDig https://ift.tt/2xLuHDX

domingo, 19 de abril de 2020

Pulseras inteligentes para evitar tocarte la cara: ¿útil contra el coronavirus?

Un equipo liderado por el investigador del departamento de Psicología Biológica y de la Salud de la Universidad Autónoma Madrid (UAM) Javier Virués colabora en un proyecto internacional para evaluar la eficacia del brazalete «Immotouch», desarrollado por la startup Slightly Robot (Seattle, EE.UU.), que vibra al llevarse las manos a la cara. Se trata del proyecto «SafeHands», en el que la Autónoma participa en colaboración con la asociación ABA España y la compañía SlightlyRobot, según ha informado la Universidad en un comunicado. Parte de la constatación de que «no llevarse las manos a la cara es más complicado de lo que parece», y, por ello, actúa como «una alarma vibro-táctil que monitoriza la conducta de contacto facial y alerta al portador del movimiento que va a llevar a cabo con sus manos». El estudio reclutará participantes de España, Estados Unidos y Reino Unido que recibirán el brazalete por correo y se prestarán a varias modalidades de uso enviando los datos diariamente al equipo investigador para su análisis. «El brazalete se cree ayudaría a eliminar la conducta al presentar una leve penalización (el estímulo vibro-táctil). Es de esperar que la mera presencia del brazalete llegue a tener un efecto disuasorio sobre la conducta de tocarse la cara una vez la persona se haya expuesto varias veces a la vibración», explica Virués. El investigador considera que «es probable que el uso del brazalete deba limitarse a contextos de alto riesgo de contagio, como las visitas a supermercados o centros sanitarios», y ha señalado que «la aparente ausencia de dominancia manual de la conducta de contacto facial probablemente requeriría de llevar el brazalete en ambas muñecas».

via Tecnología https://ift.tt/34OnTSf

sábado, 18 de abril de 2020

La guía del hogar conectado: Cómo elegir tu iluminación inteligente

En Actualidad Gadget tenemos numerosos análisis productos destinados a hacer tu hogar un lugar más inteligente, iluminación, enchufes, sonido, asistentes virtuales, robots aspiradora… Todo lo que te puedas imaginar lo tenemos, y por ello hemos tenido la idea de poder hacer una guía definitiva con todos los pasos necesarios y las recomendaciones para convertir tu casa en un hogar conectado en el que poder aprovechar al máximo el tiempo y todas las características que estas funcionalidades te brindan. Te traemos la primera edición de “La guía del hogar conectado” en el que vamos a hablar de iluminación inteligente, todo lo que debes saber antes de adquirir un producto, sus variedades y cómo utilizarlos.

Tipos de iluminación inteligente

Las que requieren un puente de conexión

Estas son las bombillas que por lo general funcionan por RF, es decir, la bombilla no tiene WiFi en su hardware, sino que hay un puente de conexión que se encarga de dominar a todas las bombillas. En su mayoría cuentan con el protocolo Zigbee, es decir, son universales. Un ejemplo son las bombillas de IKEA y las bombillas Que de Philips que son compatibles entre sí. Algunas de estas bombillas además presentan más características como Bluetooth en su interior. Una de sus ventajas es que funcionan incluso sin conexión a internet y son más independientes. Estas son las más recomendadas si quieres ajustar la totalidad de la vivienda a iluminación inteligente.

Echo Dot + 2 bombillas Philips Hue

Bombillas WiFi independientes

Este tipo de bombillas aunque se pueden agrupar mediante aplicaciones, son totalmente dependientes de la conexión a internet a pesar de que a menudo disponen de Bluetooth también para su manejo. Estas bombillas por lo general son un poco más caras, aunque otorgan gran independencia si nuestra intención es utilizarlas a modo de luz ambiental o simplemente queremos prescindir del puente de conexión.

Tipos de productos de iluminación inteligente

Aunque hay casi infinidad de productos, vamos a centrarnos en los básicos, sus ventajas y a su vez sus inconvenientes.

Bombillas de casquillo estándar

Esta es una de las ideas más estandarizadas, las tenemos tanto de tipo Zigbee como de tipo WiFi y de muchas marcas como Xiaomi, Philips, Lifx…etc. Te recomendamos que eches un vistazo a nuestros análisis de algunas de estas bombillas de todo tipo. La ventaja de este tipo de bombillas es que no necesitas cambiar la instalación ni las lámparas, es decir, lo más rápido y sencillo. Por contra estas bombillas son a menudo caras si las comparamos con otros productos del sector y tenemos que tener en cuenta factores como el brillo, que se menciona con la grafía “XXX lm” o lúmenes.

Tiras LED e iluminación ambiental

Encontramos con muchos tipos de iluminación ambiental en este tipo de productos y es que es precisamente donde suelen empezar los usuarios. Hay buenas ideas como colocar tiras LED en ubicaciones interesantes. Estas tiras LED por lo general permiten ajustar la intensidad, el color y otras características muy interesantes. Además de las tiras LED tenemos también pequeñas bombillas que cuentan con iluminación RGB por ejemplo para lámparas auxiliares e incluso paneles de marcas como Nanoleaf que permiten una interesante relación entre decoración e iluminación.

Lámparas inteligentes

También tenemos disponible la versión más cara aunque suele ser la que mejor calidad de diseño ofrece, las lámparas inteligentes. Tenemos desde lámparas de techo hasta plafones LED e incluso algún tipo de iluminación de despacho, en este apartado tenemos un buen elenco de productos interesantes y es lo más. Este tipo de lámparas inteligentes son especialmente recomendables para escritorios o mesas de noche, donde acompañarán la decoración sin ocupar excesivo espacio, son más interesantes. Aunque también contamos con lámparas inteligentes con protocolo Zigbee como las Hue de Philips, es más fácil encontrarlas mediante WiFi como las de Xiaomi.

Los accesorios de las luces inteligentes

Es muy importante que hagamos hincapié en cuenta cuál es la finalidad y la utilidad constante que le vamos a dar a nuestra iluminación inteligente, por ello debemos tener en cuenta estos factores:

  • Que las bombillas o dispositivos que instalemos sean compatibles entre sí.
  • Que cuenten con soporte de software o una marca que asegure actualizaciones para garantizar la seguridad de la red.
  • Que contemos con dispositivos que dispongan de accesorios como pulsadores, distintos kit de ampliación o cualquiera que pudiéramos imaginar.
  • Asegurarnos de que nos gusta la aplicación de gestión de la iluminación compatible con los dispositivos que queremos instalar.

Teniendo en cuenta todo esto tenemos muchas marcas donde elegir, os contamos nuestras recomendaciones:

  • Iluminación Zigbee: En este apartado el grupo Hue de Philips es inigualable, la opción más inteligente si buscamos equipar toda la casa al completo ya que su aplicación es buena, la compatibilidad es absoluta con un sinfín de marcas y protocolos y tiene un importante soporte. Además, son compatibles y extensibles con el kit de IKEA, por lo que la combinación de ambos es muy buena en relación calidad-precio.
  • Iluminación WiFi: Este tipo de bombillas es donde más variedad vamos a encontrar sin embargo, está muy enfocada a la hora de limitarnos con la iluminación ambiental o la posibilidad de optar a iluminar pocas habitaciones. Es la mejor opción si sólo quieres iluminar una zona en concreto o no quieres optar por alternativas que cuenten con “puentes de conexión” como pasa con las de protocolo Zigbee.

Está claro que nos es fácil decantarse por el inicio de la iluminación inteligente, pero esperamos que con nuestra ayuda en esta primera guía seas capaz de saber cuáles son las diferencias entre unos tipos de iluminación inteligente y otros y sobre todo puedas escoger aquél dispositivo que se adapte más y mejor a tus necesidades. Te recomendamos que le eches un vistazo al vídeo que encabeza esta guía porque resolvemos muchas dudas de forma práctica y que permanezcas atento a la web de Actualidad Gadget porque vamos a traerte más tutoriales sobre cómo configurar y mantener perfecta tu iluminación inteligente con sencillos pasos. Te advertimos, la iluminación inteligente y el hogar conectado son adictivos, y puedes acabar comprando cada vez más y más productos.



via Actualidad Gadget https://ift.tt/2Vg9DhY

jueves, 16 de abril de 2020

La era post-Covid 5.0

Una crisis (palabra derivada del griego κρισις y que significa «separar» y «decidir») es un cruce de caminos en el que se entrelazan peligros y oportunidades. Tras cerca de tres semanas confinados en casa y tele-trabajando hemos podido ya aprender las mejores practicas internacionales para la gestión temprana de la pandemia y la organización del trabajo en remoto. En todas ellas la tecnología y la digitalización han sido claves. Fruto de la gestión de esta crisis, son muchos los sectores –desde la sanidad, la educación a la industria- que ya identifican cómo la tecnología podría haberles ayudado mucho más de haber estado preparados digitalmente hablando y si hubiesen dispuesto de servicios cloud u otros. No son pocas tampoco las compañías y organizaciones que han tenido que activar con urgencia sus procesos de digitalización para hacer frente a la crisis y el nuevo panorama. El sector de la educación es en este sentido el más paradigmático y el que a mayor velocidad se está transformando y lo hará tan solo a la vuelta del verano con el crecimiento exponencial de la formación online. El brutal desafío a nuestros sistemas y modelos de organización social e industrial que nos está planteando la crisis del Coronavirus nos va a abrir nuevas ventanas de oportunidad a una industria y sociedad 5.0. Esto no es una ficción sino un modelo ya anticipado en Japón por su gobierno y que explica perfectamente por qué este país estaba preparado para este crisis y ha sabido gestionarla de manera excelente. Este modelo de Sociedad e Industria 5.0 se basa en dos aspectos: por un parte, la acumulación de datos masivos en tiempo real procedentes de todos los sectores y, por otra, una cultura «monozukuri» de excelencia y hábitos de «lean manufacturing». El espejo para Europa tras el Covid-19 es el modelo japonés de Sociedad 5.0. Las soluciones y oportunidades que se abren para la digitalización en el horizonte post-crisis se pueden agrupar en este sentido en cuatro ámbitos: salud, movilidad, infraestructuras y FinTech. A nivel de salud, la aplicación del big data a los datos médicos de detección, chequeo y tratamiento ha demostrado que permite tratamientos efectivos como hemos visto de manera palmaria. Nuestros hospitales deberían dotarse de robots móviles autónomos para la desinfección de las zonas quirúrgicas y UCI así como para el traslado de la medicación a las habitaciones evitando el contacto físico con los enfermos y sirviendo de apoyo a las enfermeras. Por último, se debería incorporar la atención médica en remoto para la comunicación entre profesionales y pacientes. La movilidad y la logística también se verán afectadas tras el coronavius. Disponemos ya de la tecnología para entregar todo tipo de productos a las puertas de cualquier persona en cuarentena o no. En el caso del post-Covid19, esto va a significar la automatización de muchos sistemas a escala, mediante drones y vehículos de guiado automático. En este sentido, la robotización de los procesos logísticos debería ser otra apuesta urgente para la digitalización de nuestra industria manufacturera en la agenda de los directivos de las compañías. Las infraestructuras son otra área de oportunidad. El internet de las cosas junto con la inteligencia artificial y la robótica nos ayudarán a la inspección, mantenimiento y control de los espacios públicos y las infraestructuras. Deberíamos aprender estas lecciones para tener escenarios preparados en los que las estrategias de control del movimiento de las personas sean plenamente eficaces. Por último, el dinero físico ha operado como una de las vías más importante de transmisión del virus. El uso del blockchain para las transferencias económicas es otra ventana de oportunidad, además de su uso en otras áreas como la logística (si disponemos de transacciones con blockchain no volveros a tener más casos de timo a propósito de test rápidos de detección de virus. Estos escenarios no son una distopía. Son rutas que en esta crisis podemos o no elegir y desarrollar con visión y consistencia. No olvidemos que el proceso de transformación digital post-coronavirus no hará sino acelerar la importancia de las tecnologías habilitadores de la industria 4.0 (pronto ya en un modelo 5.0) cuyo habilitador estratégico es el talento digital. Si no cultivamos ambos aspectos (tecnología y talento) la próxima crisis vírica nos volverá a golpear con la misma o mayor virulencia, acrecentando nuestra brecha económica y de fallecidos respecto a los mejores. Roberto Ranz es director de ASTI Talent Tech Foundation

via Tecnología https://ift.tt/3cpzDxg

miércoles, 15 de abril de 2020

La inteligencia artificial de Google está empezando a crear y seleccionar algoritmos para su evolución sin intervención humana

La inteligencia artificial de Google está empezando a crear y seleccionar algoritmos para su evolución sin intervención humana

AutoML es una inteligencia artificial de Google que tiene como propósito diseñar y entrenar otras inteligencias artificiales para mejorarlas más allá de las capacidades humanas. Esto sin embargo no es algo sencillo. Años atrás Google ya decía que empezaba a ser mejor que los humanos en esta tarea, pero aún hay mucho trabajo por delante. Ahora los ingenieros de Google dicen haber dado un paso esencial: AutoML tiene potencial para operar sin sesgo humano de por medio y siguiendo un proceso similar a la teoría evolutiva de Charles Darwin.

En un nuevo paper publicado por los ingenieros de la división Google Brain explican el gran avance que han hecho con AutoML. Sugieren que la Ia podría descubrir automáticamente nuevos algoritmos completamente desconocidos por el ser humano porque básicamente este no intervendría en el proceso de investigación.

C9b8ffe6 35a0 448e Af4a 1ef997681302 Ilustración representativa de AutoML. Vía Google.

Actualmente AutoML es capaz de mejorar las inteligencias artificiales existentes y entrenarlas buscando patrones de forma automática para así escoger las que mejor rendimiento tienen. Es una herramienta que cualquiera puede usar. Pero el humano sigue interviniendo en el proceso de refinamiento e introduce datos y caminos a seguir al influir durante el proceso. AutoML en cierto modo escoge las mejores IAs según patrones que los ingenieros le ha dado.

En principio, eliminando al humano del proceso la IA tiene "vía libre" para desatar todo su potencial y encontrar mejores soluciones que aquellas que puede encontrar con el sesgo y por lo tanto los límites de los ingenieros humanos. Según explican en el documentos publicado:

"Los componentes diseñados por el hombre sesgan los resultados de búsqueda en favor de algoritmos diseñados por el ser humano, posiblemente reduciendo el potencial de innovación de AutoML"

Esto es lo que los investigadores dicen que pueden cambiar. Y para ello una actualización de AutoML utiliza un nuevo método para buscar y mejorar IAs sin ningún parámetro definido previamente por un humano.

100 algoritmos de los que sólo sobreviven las mejores

Según indican en ScienceMag, AutoML-Zero (nombre que recibe esta nueva versión) sigue un proceso de selección similar al que proponía Charles Darwin en su Teoría de la Evolución. AutoML-Zero escoge 100 algoritmos candidatos de forma aleatoria y los pone a prueba con tareas relativamente sencillas. Los algoritmos que mejor rendimiento tengan pasan a una siguiente fase donde su código se modifica ligeramente y de forma aleatoria para luego ser puestos a prueba de nuevo. Al mismo tiempo, las variantes que se ha visto que son efectivas se añaden al resto de algoritmos. Y así fase tras fase hasta tener una "población" de algoritmos más variada y con mejores capacidades para solucionar las tareas propuestas.

D1839367 C6fd 42c8 A8de 8409d9f2388a

Es un proceso similar al que siguen los seres vivos, donde sólo sobreviven los mejor adaptados, que reciben esas mejores adaptaciones de mutaciones en generaciones anteriores. La diferencia aquí es que las mutaciones que se demuestra que son de utilidad para la supervivencia no se pueden transmitir directamente a los organismos ya existentes, sino sólo a los descendientes de futuras generaciones.

AutoML-Zero es una prueba de concepto y aún tiene mucho trabajo por delante. Tendremos que ver en los próximos años cómo se desarrolla para ver si efectivamente puede crear inteligencias artificiales por evolución sin intervención humana. No obstante, es un paso interesante y sin duda curioso si tenemos en cuenta cómo utiliza el proceso de mutación para evolucionar las IAs que genera.

Vía | ScienceMag
Más información | Arxiv



via Magazine - robotica-e-ia https://ift.tt/3a7bJ88

martes, 14 de abril de 2020

Computación biológica: qué es y cómo nos está ayudando a resolver algunos de los grandes retos a los que se enfrenta la humanidad

Computación biológica: qué es y cómo nos está ayudando a resolver algunos de los grandes retos a los que se enfrenta la humanidad

La alianza de la informática y la biología no es nueva. Alan Turing, el matemático y criptógrafo británico que es considerado unánimemente uno de los padres de la informática, coqueteó en los años 50 con la posibilidad de utilizar aquellos primeros ordenadores para entender mejor los procesos biológicos complejos. Además, fue lo suficientemente astuto para darse cuenta de que esta alianza podía resultarnos útil desde dos frentes diferentes.

Por un lado decidió desarrollar modelos matemáticos de la morfogénesis, que a grandes rasgos es el proceso biológico que explica cómo un organismo adquiere una forma determinada. Y, por otra parte, afianzó las bases de la inteligencia artificial como una disciplina integrada en las ciencias de la computación que pretendía imitar las capacidades cognitivas de la mente humana. Turing, probablemente sin pretenderlo, había asentado los cimientos de dos disciplinas que hoy, siete décadas más tarde, tienen un potencial enorme: la biología computacional y la computación biológica. La primera de ellas la hemos explorado en el artículo que enlazo aquí mismo, por lo que la auténtica protagonista de este texto es la segunda, una rama de la informática que ya tiene un impacto profundo en nuestras vidas.

Computación biológica: qué es y en qué difiere de la biología computacional

Sus nombres se parecen tanto que es razonable que una persona que no esté familiarizada con estas disciplinas pueda confundirlas. Ambas reflejan la cooperación de la biología y la informática para alcanzar un propósito, pero su alcance y su ámbito de trabajo no son los mismos. La biología computacional es una ciencia que recurre a herramientas informáticas para ayudarnos a entender mejor los sistemas biológicos más complejos. Sin embargo, la computación biológica es una rama de la informática que estudia, por un lado, cómo podemos utilizar elementos de naturaleza biológica para procesar y almacenar la información, y también cómo podemos inspirarnos en los mecanismos de la evolución biológica para desarrollar nuevos algoritmos que nos permitan resolver problemas complejos.

La computación biológica estudia cómo podemos utilizar elementos de naturaleza biológica para procesar y almacenar la información, y también cómo podemos inspirarnos en los mecanismos de la evolución biológica para desarrollar nuevos algoritmos

Una forma sencilla e intuitiva de identificarlas consiste en recordar que en la biología computacional es la biología la que se beneficia de las herramientas que le ofrece la informática, mientras que en la computación biológica es la informática la que se beneficia de los mecanismos que podemos observar en los sistemas biológicos. No obstante, como acabamos de ver, esta última disciplina se ha bifurcado en dos ramas diferentes que tienen aplicaciones en campos distintos de la informática. Una de ellas está permitiendo desarrollar el hardware desde una perspectiva muy diferente a aquella con la que estamos familiarizados, mientras que la otra se adentra en el software bajo la forma de una de las ramas más prometedoras de la inteligencia artificial.

En las siguientes secciones del artículo vamos a indagar en los dos ámbitos de trabajo de la computación biológica con cierta profundidad, pero merece la pena que antes de entrar en detalles los definamos con más precisión. Si nos ceñimos al hardware esta disciplina recurre a moléculas derivadas de sistemas biológicos, como las proteínas o el ADN, para llevar a cabo cálculos, almacenar y recuperar la información. Y si nos adentramos en el terreno del software, en particular en el de la inteligencia artificial, la computación biológica propone abordar algunos problemas de la informática inspirándonos en la estrategia utilizada por la biología para resolver algunos retos. Estas son sus principales tres fuentes de inspiración:

  • El comportamiento social: una definición que ilustra bastante bien esta idea consiste en observarlo como la conducta colectiva que tiene lugar entre miembros de una misma especie que conviven en el mismo hábitat. La computación biológica se inspira en él para entender y predecir el comportamiento de las poblaciones integradas por entidades del mismo tipo que se relacionan entre sí.
  • El conexionismo: propone que los procesos mentales que explican nuestras capacidades cognitivas y nuestro comportamiento pueden ser descritos como el resultado de la comunicación de unidades sencillas que tienen la misma estructura y que están interconectadas. Esas unidades son las neuronas, y su conexión se establece gracias a un mecanismo conocido como sinapsis. La mayor parte de las redes neuronales artificiales se han desarrollado inspirándose en este enfoque.
  • La emergencia: este concepto describe las propiedades de un sistema complejo que no están presentes en los elementos que lo constituyen. Parece una definición complicada y abstracta, pero, en realidad, no lo es. Podemos ilustrarla fijándonos en la estructura de nuestro cerebro. Por sí sola cada una de nuestras neuronas no tiene consciencia, pero los procesos desencadenados por la cooperación y la comunicación de un conjunto grande de neuronas hacen posible que la consciencia emerja como una propiedad esencial de nuestra mente.

Su impacto en el hardware: los ordenadores biológicos

Todavía queda mucho trabajo por hacer para que los ordenadores biológicos salgan de los laboratorios y puedan marcar la diferencia ayudándonos a resolver algunos problemas muy concretos que actualmente son difíciles de abordar con los ordenadores convencionales. Aun así, podemos ser razonablemente optimistas y confiar en que durante los próximos años experimentarán un avance importante porque ya lo han hecho durante las dos últimas décadas gracias al impulso que ha tomado la nanobiotecnología.

La definición más precisa de esta última disciplina, y también la más aceptada por los científicos, la describe como la tecnología que nos permite manipular con precisión proteínas para ensamblar estructuras funcionales más complejas. Precisamente es esta capacidad la que ya ha permitido a varios grupos de investigación poner a punto los primeros ordenadores biológicos que tienen la capacidad de llevar a cabo cálculos manipulando el ARN (ácido ribonucleico) de una bacteria. Si lo exponemos de esta forma resulta difícil creerlo porque las bacterias no tienen nada que ver ni con el silicio ni con los transistores de los que están hechos los microprocesadores de nuestros ordenadores, smartphones y tablets. De algún modo parece magia, pero no lo es.

La nanobiotecnología nos permite manipular proteínas para ensamblar estructuras funcionales más complejas

Explicar de forma minuciosa cómo funciona esta tecnología nos obligaría a indagar en técnicas de ingeniería genética avanzadas que exceden el alcance de este artículo, pero, afortunadamente, no necesitamos profundizar tanto para entender cómo funcionan estos primeros ordenadores biológicos. Lo que los científicos están haciendo es, sin entrar en detalles demasiado complicados, diseñar un circuito biológico manipulando moléculas de ADN que se comporta de la misma manera que un circuito digital, y con el que, por tanto, es posible implementar las mismas operaciones lógicas que llevan a cabo los procesadores de silicio convencionales.

Esa manipulación del ADN es posible, precisamente, gracias a los avances que ha experimentado la nanobiotecnología durante los últimos años. Una vez que el circuito biológico está preparado lo introducen en una bacteria Escherichia coli idéntica a las que residen en el interior de nuestro estómago e intestino, y sin las que no podríamos llevar a cabo la correcta digestión de los alimentos. La bacteria E. coli es lo suficientemente sencilla e inocua para que los investigadores puedan manipularla sin esfuerzo, y cuando el ADN manipulado atraviesa la pared celular de la bacteria la máquina molecular de la propia célula lo traduce a ARN mensajero (ARNm).

Ecolli Este esquema refleja los componentes y orgánulos fundamentales de una bacteria similar a la Escherichia colli que algunos científicos están utilizando para fabricar los primeros ordenadores biológicos.

Lo interesante es que ese ARNm indica al ribosoma de la célula qué debe hacer para sintetizar una proteína prefijada por los investigadores. Los ribosomas son los orgánulos o componentes de las células que se responsabilizan de la síntesis o fabricación de las proteínas. Y ahora viene lo más sorprendente: el ARNm que indica al ribosoma cómo debe fabricar la proteína solo se activa en presencia de una entrada concreta, y cuando lo hace desencadena la producción de la proteína, que es la salida. Este comportamiento es exactamente el mismo de un transistor, y el tándem formado por el ARNm y el ribosoma equivale a una puerta lógica, que es el dispositivo electrónico mínimo de nuestros microprocesadores que es capaz de llevar a cabo una operación.

La maquinaria celular de la bacteria se comporta como un transistor que es capaz de llevar a cabo unas determinadas operaciones lógicas

Aún hay algo que no hemos explicado: ¿cómo consiguen los investigadores activar el ARNm para que el ribosoma sintetice la proteína? Lo logran introduciendo en la bacteria una nueva molécula de ARN diseñada expresamente para activar la expresión del ARNm que han introducido previamente. Al final lo que están consiguiendo es que la maquinaria celular de la bacteria se comporte como un transistor que es capaz de llevar a cabo unas determinadas operaciones lógicas. Hace poco más de dos años unos investigadores de las universidades de Arizona y Harvard, ambas en Estados Unidos, consiguieron utilizar esta tecnología para poner a punto un circuito biológico constituido por cinco puertas lógicas OR, otras cinco AND y dos NOT. No parece gran cosa, pero por algo se empieza.

Actualmente varios grupos de investigación de algunas de las universidades más prestigiosas del mundo están trabajando en esta tecnología, y parece razonable prever que poco a poco conseguirán diseñar circuitos biológicos más complejos. Como os adelanté en el primer párrafo de esta sección del artículo, parece que aún queda mucho trabajo por hacer hasta que podamos conseguir un ordenador biológico capaz de llevar a cabo procesos complejos. En el MIT, por ejemplo, han apostado por una estrategia similar, que no idéntica, a la que han desarrollado los investigadores de las universidades de Arizona y Harvard. Quién sabe, quizá en algún momento a alguien se le ocurra una táctica original que haga posible un avance notable de los ordenadores biológicos.

También es una rama muy importante de la inteligencia artificial

Como acabamos de ver, el impacto de la computación biológica en el hardware es una promesa a medio o largo plazo. Sin embargo, en el ámbito del software la situación es muy distinta. Y es que esta disciplina es una rama muy sólida de la inteligencia artificial. Tanto que ha adoptado la forma de una asignatura que se imparte en muchas de las universidades españolas que ofertan el grado en ingeniería en informática. Su propósito es, como hemos visto unos párrafos más arriba, inspirarse en los mecanismos de la evolución biológica para encontrar las soluciones óptimas a algunos problemas computacionales complejos.

Algunas de las herramientas más interesantes que propone son los sistemas de aprendizaje basados en poblaciones; la resolución de problemas mediante esquemas evolutivos inspirados en metáforas biológicas, como los algoritmos genéticos; o las redes neuronales artificiales, entre otras opciones. Estas dos últimas estrategias pueden ayudarnos a entender con bastante precisión cómo funcionan los mecanismos de la computación biológica, por lo que merece la pena que indaguemos un poco en ellas.

Los algoritmos genéticos persiguen encontrar la solución a algunos problemas imitando los mecanismos que condicionan la evolución biológica

Empezaremos por los algoritmos genéticos. Su propósito es ayudarnos a encontrar la solución a algunos problemas imitando los mecanismos que condicionan la evolución biológica, como las mutaciones y las recombinaciones, y también las leyes de la selección natural. Todo esto parece muy abstracto y alejado de la informática con la que estamos familiarizados, pero, en realidad, es fácil intuir en qué consiste si nos abstraemos de los detalles más complicados. Imaginemos que necesitamos viajar con nuestro coche a otra ciudad muy alejada y no tenemos ni idea acerca de cuál es el recorrido que nos permitirá afrontar el trayecto en el mínimo tiempo posible.

Lo primero que haría un algoritmo genético para ayudarnos a resolver este dilema es generar un conjunto finito de posibles trayectorias aleatorias que podemos seguir con nuestro coche. Ese conjunto de soluciones, entre las que quizá se encuentra la solución óptima, equivale a una población, y cada una de las soluciones equivale a un individuo. Como estamos viendo la inspiración biológica de los algoritmos genéticos está presente desde el principio, pero aún nos queda mucho por hacer porque tenemos que encontrar la mejor solución entre todas ellas.

Antenanasa Esta antena tan peculiar fue diseñada por la NASA para sus microsatélites ST5 utilizando un algoritmo genético. Esa forma tan extraña le permite obtener el mejor patrón de radiación.

Imaginemos ahora que para nosotros la trayectoria ideal es aquella que nos permite llegar a nuestro destino en el menor tiempo posible teniendo presente tanto la distancia como el estado del tráfico. Y, además, también queremos que evite las autopistas de peaje. Estas condiciones en la nomenclatura de los algoritmos genéticos se conocen como funciones de aptitud, y nos permiten encontrar la solución óptima descartando aquellas que no satisfacen los requisitos que hemos definido. Nuestro algoritmo genético analizará cada una de las trayectorias de nuestra población inicial e irá descartando aquellas que no nos interesan porque no cumplen nuestras condiciones.

Cuando haya terminado este proceso habremos obtenido un conjunto de soluciones más pequeño que el conjunto inicial porque ya habremos descartado aquellas que no nos interesan. La semejanza entre este método y la forma en que la selección natural actúa sobre una población de individuos permitiendo la supervivencia de los que mejor se adaptan al medio es clara. Pero aún no hemos dado con la solución a nuestro problema porque seguimos teniendo muchas opciones y no sabemos si la óptima está entre ellas.

El algoritmo genético describe un proceso iterativo que cada vez nos ofrece mejores soluciones a partir de un conjunto limitado y aleatorio de soluciones iniciales

Lo que hará ahora nuestro algoritmo genético es clasificar las soluciones que tenemos para ordenarlas tomando como referencia el criterio que hemos elegido. Por esta razón considerará que las mejores son las más cortas, las que recurren a las carreteras con menos tráfico y las que nos permiten evitar las autopistas de peaje. Ya tenemos nuestras posibles soluciones jerarquizadas, pero aún no podemos estar seguros de que la solución óptima esté entre ellas porque nuestro punto de partida ha sido un conjunto finito de soluciones aleatorias. Necesitamos generar más soluciones, así que nuestro algoritmo aplicará sobre las que tenemos operaciones que imitan la reproducción biológica de los individuos de una población.

Lo que hará será, por ejemplo, emparejar estas soluciones de dos en dos dando prioridad a aquellas que han resultado favorecidas en la clasificación que acabamos de hacer para obtener nuevas trayectorias que combinan partes del trazado de las trayectorias originales. Cuando tengamos este nuevo conjunto de soluciones tendremos que aplicar de nuevo sobre ellas la función de aptitud para seleccionar aquellas que encajan mejor con nuestras preferencias iniciales, pero seguiremos sin estar seguros de que la solución óptima está entre ellas. Por esta razón, el algoritmo genético seguirá adelante volviendo a permitir que las soluciones que tenemos se reproduzcan entremezclándose, pero, de nuevo, dará prioridad a las que encajan mejor con nuestros requisitos iniciales.

Como estamos viendo, es un proceso iterativo que cada vez nos ofrece mejores soluciones a partir de un conjunto limitado y aleatorio de soluciones iniciales. Nuestro ejemplo ilustra bastante bien los conceptos de reproducción y selección natural, que están claramente inspirados en la biología, pero los algoritmos genéticos también utilizan otro mecanismo que les permite generar nuevas soluciones: las mutaciones. Lo que hacen es introducir en la población zonas del espacio de búsqueda que no están cubiertas por la población actual, y que quizá podrían ayudarnos a encontrar la solución óptima.

En nuestro ejemplo una mutación podría consistir en introducir en algunas trayectorias el desvío aleatorio hacia una ciudad que no está contemplada en la trayectoria original. Es posible que muchas de las soluciones empeoren, pero alguna podría mejorar tomando como referencia nuestro criterio de selección en el que prevalecen la distancia, el tráfico y el descarte de las autopistas de peaje. Las soluciones que empeoren serán penalizadas por la selección natural, que acabará descartándolas, pero si alguna de ellas mejora pasará a formar parte de futuras generaciones de soluciones en nuestra búsqueda de la opción óptima.

Redneuronal Esta representación abstracta de una red neuronal artificial refleja la complejidad de las conexiones que es necesario establecer entre cada uno de los nodos o neuronas artificiales para que esta estructura pueda inferir nuevo conocimiento.

Los algoritmos genéticos no son la mejor opción para resolver cualquier problema. Su estrategia provoca que en ocasiones no nos entreguen la solución óptima, que nos devuelvan una solución que no es satisfactoria, o, incluso, que su coste en recursos y tiempo de computación sea inasumible. Pero hay retos en los que encajan como un guante. Actualmente estos algoritmos se utilizan con mucho éxito en problemas complejos que requieren evaluar la idoneidad de un conjunto muy amplio de soluciones.

Se usan, por ejemplo, en ingeniería de materiales para diseñar nuevos compuestos; en ingeniería civil para diseñar los sistemas de alcantarillado y distribución de aguas; en transporte para optimizar la carga de los contenedores; en electrónica para diseñar la topología de las placas de circuito impreso; en biología para estudiar la capacidad de expresión de los genes y optimizar estructuras moleculares; algunas universidades muy grandes los utilizan para confeccionar los horarios de las clases y evitar que se produzcan conflictos, y un larguísimo etcétera. Sus aplicaciones son innumerables, y poco a poco vamos descubriendo más escenarios en los que los algoritmos genéticos pueden marcar la diferencia.

No cabe duda de que estos algoritmos ilustran muy bien el potencial que tiene la computación biológica si nos ceñimos al software, pero no son en absoluto la única herramienta que nos propone esta disciplina. Como hemos visto unos párrafos más arriba, también pone en nuestras manos otras estrategias que pueden ayudarnos a encarar con eficacia otros retos, y las redes neuronales artificiales son una de las herramientas con un mayor potencial. De hecho, actualmente se utilizan para implementar los sistemas de aprendizaje automático usados, por ejemplo, por los asistentes de inteligencia artificial de Google, Amazon, Apple o Microsoft; y también en la visión por ordenador y el reconocimiento de voz.

Las redes neuronales artificiales persiguen resolver los problemas de una forma similar a como los encara el cerebro humano, y para lograrlo imitan su estructura recurriendo a unas unidades lógicas conocidas como neuronas artificiales que están interconectadas y que intercambian información. Cada una de esas neuronas está diseñada para llevar a cabo una serie de operaciones a partir de unos datos de entrada y generar unos datos de salida que pueden activar o no las neuronas adyacentes con las que se comunica esa primera neurona artificial. De esta manera la información que colocamos en la entrada de la red neuronal va atravesando todo el entramado de neuronas artificiales, y durante este viaje va siendo sometida a un conjunto de operaciones que nos permitirá obtener unos valores de salida.

Esta descripción de las redes neuronales artificiales es muy superficial, pero nos permite intuir con claridad lo mucho que su funcionamiento se parece al de nuestro cerebro. Su complejidad reside esencialmente en las operaciones que puede llevar a cabo cada neurona artificial a partir de los datos de entrada que recibe; en la forma en que están implementados los enlaces entre las neuronas y en cómo consiguen activar o inhibir las neuronas circundantes; y también en las operaciones que limitan la salida de cada neurona para impedir que esos valores superen un umbral prefijado antes de propagarse a otras neuronas de la red.

Las redes neuronales artificiales son capaces de inferir nuevo conocimiento sin necesidad de que sean programadas explícitamente, lo que las hace muy valiosas en robótica, reconocimiento de patrones o control de procesos, entre otras aplicaciones

Ya conocemos de una forma relativamente sencilla e intuitiva cómo funciona una red neuronal artificial y algunas de sus aplicaciones, pero aún no hemos indagado en la que sin duda es una de sus características más asombrosas: no necesitan ser programadas de forma explícita. Esto significa, sencillamente, que son capaces de aprender por sí mismas a partir de un conjunto de datos de entrada que nosotros les suministraremos. Nosotros previamente habremos implementado la red delimitando el número de neuronas que la conforman, las operaciones que son capaces de realizar y la estrategia que utilizan para comunicarse entre ellas, pero, a partir de ahí, la propia red será capaz de inferir nuevo conocimiento sin que tengamos que programar este último procedimiento de forma expresa tal y como haríamos si recurriésemos a la programación tradicional.

Esta sorprendente cualidad ha provocado que las redes neuronales artificiales tengan aplicaciones, además de en los ámbitos que he mencionado más arriba, en robótica, procesamiento de datos, control de procesos o reconocimiento de patrones, entre otros muchos escenarios de uso. Todo lo que acabamos de ver acerca de los algoritmos genéticos y las redes neuronales artificiales pone sobre la mesa que, a diferencia de la aplicación de la computación biológica al hardware, que aún es una promesa, si nos ceñimos al software es algo tangible. Real. De hecho, ya nos estamos beneficiando de su potencial. Queda mucho por hacer, por supuesto, pero los investigadores siguen encontrando nuevas aplicaciones, y algunas de ellas podrían tener un impacto profundo en nuestra vida, así que merece la pena que nos mantengamos a la expectativa.

Imagen de portada | Andrea Piacquadio
Imágenes | Mariana Ruiz | NASA | Pixabay



via Magazine - robotica-e-ia https://ift.tt/34AdFVj

lunes, 13 de abril de 2020

Trabajo "diseñando la personalidad" de una inteligencia artificial

Trabajo

Imagina que estás en medio de la autopista y te va guiando el navegador. “Tome la siguiente salida”. La tomas. “Ocupe el carril de la derecha”. Lo ocupas. “A 200 metros, gire a la derecha”. Avanzas un poco y giras. “En la rotonda, tome la segunda salida”. Te la saltas. “Dije que tomara la segunda salida de la rotonda. Ponga más atención, humano”.

Lógicamente, esta es una historia de ficción porque nadie usaría un navegador que imitara a un copiloto real. Pero tampoco sería popular la opción contraria, una voz que dijera que no hay problema con pasar la tarde dando vueltas. La personalidad perfecta para una inteligencia artificial (IA) está a medio camino entre cómo se comportaría una persona real y cómo lo haría Ned Flanders. Un punto medio que hoy es materia de investigación para los profesionales que crean las personalidades de las máquinas con las que interactuamos.

“En cuanto empezamos a interactuar con la IA de forma conversacional, buscamos sin darnos cuenta una personalidad en la máquina”, explica Nieves Ábalos, jefa de producto y fundadora de Monoceros Labs. “Ocurre tanto con la voz como con el texto, pero especialmente con la voz porque es exclusivamente humana. Cuando escuchamos que algo nos habla, nuestro cerebro empieza a asociar rasgos de personalidad, una edad, un sexo… Estamos programados para ello", subraya Ábalos, que es ingeniera informática.

“Si tú no defines la personalidad de tu máquina, es probable que lo hagan tus usuarios, y no queremos eso porque no sabemos qué clase de personalidad asignarán”

“Si tú no defines la personalidad de tu máquina, es probable que lo hagan tus usuarios, y no queremos eso porque no sabemos qué clase de personalidad asignarán”, apunta Helen Creeger, UX y conversation designer freelance. “La personalidad de la máquina es la clave de la experiencia del usuario con la máquina, así que hay que construirla con cuidado”.

Construir una personalidad sintética es una tarea colectiva. Intervienen ingenieros informáticos, lingüistas, guionistas, expertas en UX, sociólogos. Una mezcla de tecnología y humanismo donde quien decide qué responde la máquina cuando le preguntas si te quiere, una de las cuestiones más demandadas junto con cuéntame un chiste, es la persona que menos sabe de informática del equipo. Lo suyo son las conversaciones humanas.

La conversación es la clave

Una calculadora no es simpática, un dron no es distante y el Word no es impertinente aunque te observe desde una hoja en blanco. Sin embargo, hay un consenso mundial acerca de que Clipo, la mascota odiosa del Word, era efectivamente odiosa. ¿Por qué podemos afirmar esto con rotundidad? Porque ese clip de ojos saltones nos importunaba sin venir a cuento, es decir, se comunicaba. La personalidad de las máquinas sólo se nota si se comunican con sus usuarios.

¿Y qué clase de máquinas está obligadas a comunicarse de forma eficiente y efectiva con sus usuarios? Los asistentes conversacionales. Sean altavoces inteligentes o chatbots, estas máquinas están sirviendo de punta de lanza para el desarrollo de personalidades sintéticas. Nada es casual ni está ahí para rellenar. Ni siquiera esos chistes tan malos que te cuenta tu altavoz inteligente.

Marina Jimenez

Pero hay que ir por orden. Primero se diseña la personalidad y luego se canaliza a través de la conversación. “El proceso de creación de personalidad se asemeja muchísimo a la creación de la ficha para un personaje literario”, explica Marina Jiménez, conversational experience designer en Everis y escritora (estudió Periodismo).

“Una personalidad bien trabajada es capaz de dar la sensación de estar hablando con el mismo asistente si nos dirigimos a este en diferentes momentos y para diferentes tipos de conversación. Si es capaz de darnos la sensación de estar hablando con un mismo ente tanto si le preguntamos por sus hobbies como si le preguntamos por las cifras de facturación de la compañía el último año, estaremos ante una personalidad bien trabajada."

En el mundo real no hay dos personalidades iguales y en el tecnológico ocurre lo mismo. Sí hay, apunta Jiménez, rasgos frecuentes: “simpatía, cercanía —con educación—, voluntad de ayudar y ser entendido y entusiasmo”.

Primero, definir la personalidad

Lo primero que hay que saber para diseñar la personalidad de un asistente conversacional es el contexto en que se va a usar, explica Helen Creeger. "Porque no es lo mismo utilizar un asistente mientras se conduce, cuando se necesitan respuestas rápidas y funcionales, que si estás en casa y te entretienes preguntándole cosas a Alexa con las amigas."

Helen Creeger

Conocido el contexto en que se interactuará con la máquina, las preguntas para definir su personalidad se deben centrar en el usuario tipo: qué quiere hacer con la máquina, cómo se comunicará con ella, si lo hará con jerga y si hay que tener en cuenta dificultades cognitivas y problemas de accesibilidad. Es decir, qué espera de la máquina el usuario y cómo se lo va a comunicar.

Para Creeger, hay una batería de preguntas que deben responderse: “¿la personalidad de la máquina debe inspirar confianza, ser ilusionante, servir de apoyo? ¿Debe ser sencilla y amable o es mejor que sea algo autoritaria? ¿Que se comunique de forma directa y graciosa o que sea más bien formal? ¿Debe llevar la iniciativa o que responda a lo que haga el usuario?”. Dependiendo de cómo quede definida la personalidad, así será la conversación que pueda mantener la máquina con el usuario.

La tercera pata de esta fase de investigación —las dos primeras fueron el contexto de uso y el usuario— afecta a quien pone el dinero para desarrollar la interfaz conversacional: qué quiere conseguir la empresa, el cliente. Marina Jiménez explica que en ocasiones el diseño de una personalidad “choca” con ciertas restricciones por parte del cliente. Por ejemplo, puede que la interacción asistente-persona pida una comunicación cercana, salpimentada con humor y emojis incluso, pero el cliente puede preferir mantener la distancia y tratar al usuario de usted.

Diseñando una conversación efectiva y afectiva

Una vez se ha hecho toda la investigación previa, hay información suficiente para elaborar la personalidad de la máquina. Y, como se dijo más arriba, el usuario percibirá la personalidad de la máquina cuando converse con ella. Un ejemplo sensacional de hasta qué punto la personalidad de la máquina es algo perceptible por el usuario es Project Susan, una skill de Alexa desarrollada por la compañía estadounidense Smart Design, pensada para facilitar la vida a Susan, una paciente de esclerosis múltiple (y ululofilia, pasión por el coleccionismo de figuras de búhos).

El diseño de la conversación debe partir de lo que le va a pedir el usuario, asi que los FAQ son un buen inicio para empezar a diseñar la conversación. A partir de esta información, ampliada con casos de uso e investigaciones internas, el departamento de diseño conversacional tiene material suficiente para elaborar un flujo de conversación efectivo, que es aquel que comienza con una pregunta pertinente del usuario y finaliza con la respuesta correcta de la máquina.

En el desarrollo de un modelo conversacional efectivo intervienen varios perfiles. Como el lingüista computacional, el primer traductor entre lo que pide el humano y lo que puede hacer la máquina. Su función es analizar todas las variantes posibles con las que el usuario puede interactuar con la máquina. Esta infinidad de posibilidades se acota y se transmite a los científicos de datos, quienes elaboran un modelo conversacional que, utilizando algoritmos de Procesamiento de Lenguajes Naturales, permita a la máquina captar, interpretar correctamente y ejecutar las peticiones de sus usuarios.

Así escrito parece sencillo, pero no lo es en absoluto. La parte un poco menos complicada es trazar la conversación lógica, donde el usuario pide claramente algo y la máquina lo entiende y lo ejecuta. Pero esto no sucede a menudo, el teléfono escacharrado hace de las suyas y los diseñadores conversacionales deben prepararse para que la conversación siga fluyendo de una forma aparentemente coherente.

La personalidad se descubre en cómo la máquina te dice que no te entiende

Pensemos en interfaces de voz. Para Nieves Ábalos, fundadora de Monoceros Labs, hay tres razones por las que una interfaz de voz puede haber funcionado mal: 1), porque no ha oído lo que el usuario decía, es decir, que la máquina no haya percibido la onda de sonido y no haya transcrito a texto lo que dijo el usuario; 2), porque la máquina haya oído pero no entendido, esto es, que no haya creado una “representación semántica” correcta de lo que pedía el usuario; y 3), que la interfaz haya oído y entendido correctamente lo que pedía el usuario pero que no pueda hacerlo (porque no tiene ese producto, porque no encuentra un dato, porque la función que pide el usuario está deshabilitada...) Si hablamos de personalidad, nos interesan las dos últimas opciones de fallo: cuando la máquina le tiene que decir al usuario que no le ha entendido o que no le puede ayudar.

Nieves Abalos

Cuando se produce una confusión se usan los fallbacks, explica Marina Jiménez, de Everis, que son “las respuestas prestablecidas que el chatbot produce cuando la frase emitida por el usuario no matchea ninguna intención que él controla. En estos casos podemos pedir al usuario con naturalidad, y por qué no, con humor, que nos formule la pregunta con otras palabras, o volverle a recordar lo que sí es capaz de responder”.

Un caso muy distinto es cuando el usuario no busca resolver una necesidad asociada a la máquina, sino simple charla. “El usuario puede decir cualquier cosa en cualquier momento, y eso es súper relevante cuando diseñamos la personalidad de una voz”, explica Nieves Ábalos. “El usuario puede preguntar por el tiempo que hace, pedir un chiste, decirle te quiero o ponerle a prueba, porque los seres humanos tendemos a poner a prueba a este tipo de asistentes. Y aquí hay que tirar de creatividad y tener respuestas para todo tipo de situaciones. A día de hoy eso se hace de forma manual. Hay copys [redactores publicitarios], lingüistas, guionistas que trabajan en este tipo de respuestas, que tienen que ser acordes con los rasgos de personalidad que se quieren transmitir”, explica Ábalos. “¿Por qué los chistes de este tipo de asistentes son tan malos, tan neutros? Porque se ha decidido que si el rango de personalidad es inocente, los chistes también tienen que serlo”.

“¿Por qué los chistes de este tipo de asistentes son tan malos, tan neutros? Porque se ha decidido que si el rango de personalidad es inocente, los chistes también tienen que serlo”

Las personalidades que pueden venir

El campo de la personalidad de las máquinas está en pañales, así que para hablar de futuro sólo hay que esperar una semana para leer cuál ha sido el siguiente avance en materia de PLN. Sin embargo, sí hay retos a largo plazo. Para Marina Jiménez, “el verdadero desafío a nivel conversacional es la comprensión y el ‘recuerdo’ dentro de la propia conversación. Si estamos interactuando con el usuario sobre una determinada cuestión y nos hace una pregunta, el asistente debe ser capaz de retomar ese tema. Este es uno de los grandes retos de la conversación”. Para Nieves Ábalos, un gran reto también es el “contexto”, que la máquina perciba el momento y el lugar en que se produce la conversación y utilice esta información para desarrollar una conversación más natural.

"Si la voz va ser femenina, pues perfecto, pero que exista una razón para que sea femenina, que no sea la opción por defecto"

Más allá del “recuerdo” y el “contexto”, que no dejan de ser avances técnicos, a Helen Creeger, UX y conversation designer freelance, le preocupa el género de los asistentes, en particular, que las voces de los asistentes sean, por defecto, femeninas. “Debemos sacar el tema del género en las reuniones para definir la personalidad del asistente. Si la voz va ser femenina, pues perfecto, pero que exista una razón para que sea femenina, que no sea la opción por defecto. La voz también puede ser masculina o neutra, como Q, y se debería dar la opción al usuario de que la pudiera cambiar”.

“Es verdad que los asistentes de Amazon, Google, Apple y Microsoft son femeninos porque lo investigaron y fueron los usuarios quienes lo decidieron, pero me parece que alguien debería desafiar esto, que la razón de eso no sea simplemente porque lo quisieron los usuarios", explica Creeger. "La publicidad de los 50 y los 60 era machista porque lo querían los consumidores, pero con el tiempo la industria dejo de hacer esta clase de anuncios a pesar de que era lo que los consumidores esperaban. Me gustaría que con los asistentes de voz pasara algo parecido, que alguien desafiara la idea de que tienen que tener siempre y sólo voz femenina. Sólo así conseguiríamos que las presentaciones de los asistentes del futuro dejen de ser de un tío de mediana edad dándole órdenes a un asistente con voz de mujer”.

Imágenes |Portada|



via Magazine - robotica-e-ia https://ift.tt/3ekIq55