martes, 30 de junio de 2020

Disney desarrolla una red neuronal capaz de crear deepfakes realistas de alta resolución

Disney desarrolla una red neuronal capaz de crear deepfakes realistas de alta resolución

A lo largo de los últimos años hemos visto cómo la tecnología de deepfakes ha ido mejorando. Sin prisa pero sin pausa, los investigadores han desarrollado modelos cada vez más capaces y con resultados más realistas, siendo esta tecnología muy prometedora en el campo de cine. Todavía queda un poco para conseguir resultados indetectables para el ojo entrenado, pero Disney Research parece haber dado un pasito adelante en su última investigación (PDF).

Los resultados obtenidos por Disney Research y ETH Zürich no solo son realistas, sino que tienen una "alta resolución". No están en 4K u 8K, pero sí en 1.024 x 1.024 píxeles. Puede parecer poco, sobre todo si partimos de la base de que en móviles tenemos sensores de 108 y 64 megapíxeles, pero según apuntan los investigadores, las alternativas open source disponibles (como DeepFakeLab) hasta el momento producen vídeos de 256 x 256 píxeles, por lo que estamos hablando de una resolución sensiblemente mayor.

Potencial para el cine

Que Disney desarrolle e investigue esta tecnología tiene un motivo, y es que tiene un tremendo potencial para el cine. Los actores y actrices envejecen y fallecen, por lo que hacer películas en los que tengan que aparece más jóvenes o, directamente, aparecer, puede ser complicado.

Por lo general, se suelen aplicar efectos especiales para recrear la cara de estos actores sobre la de un modelo, como se hizo con Carrie Fisher y Peter Cushing (Leia y Gran Moff Tarkin) en 'Rogue One' , pero es una tecnología cara y lenta. Sin ir más lejos, los investigadores señalan que puede llevar meses crear apenas unos cuantos segundos de vídeo. Sobre el precio, se estima que recrear al Will Smith joven de 'Gemini' costó entre medio millón y un millón de dólares más 100.000 dólares por escena.

Comparativa Con Otras Tecnologias Resultados del modelo de Disney comparados con otras tecnologías de face-swapping.

Los resultados, si bien son bastante buenos y creíbles, requieren mucho tiempo porque los modelos de tienen que animar manualmente. Con una tecnología como esta, este proceso se haría de forma automática. Además, el modelo de Disney Research es capaz de adaptar la luz y el contraste de la cara superpuesta en función de la escena para que de la sensación de que el actor, efectivamente, está ahí. Además, aseguran que los pares de caras son intercambiables entre sí.

Afirman que su modelo sería capaz de evitar el "valle inquietante", aunque para eso son conscientes de que se deben mejorar los resultados cuando el modelo y la fuente (la cara del actor) han sido grabados en condiciones de luz demasiado diferentes. A los deepfakes todavía les queda camino por delante para abrirse paso en la industria del cine, pero que se puedan empezar a producir en una resolución aceptable y con una calidad considerable es ya un paso al frente.

Más información | Disney Research



via Magazine - robotica-e-ia https://ift.tt/2YLMhCB

lunes, 29 de junio de 2020

Un robot autónomo con tubos de luz ultravioleta: la idea del MIT para desinfectar estancias de coronavirus y otros patógenos

Un robot autónomo con tubos de luz ultravioleta: la idea del MIT para desinfectar estancias de coronavirus y otros patógenos

Con la "nueva normalidad" y las desescaladas no se acaban aún ni mucho menos las medidas de seguridad y desinfección en torno al coronavirus, y seguimos viendo ejemplos de robótica aplicada a estos propósitos. Entre los últimos este proyecto desarrollado por el MIT junto con Ava Robotics, un robot autónomo que desinfecta espacios con luz ultravioleta.

Concretamente se trata de luz UV-C, que se corresponde con el espectro de luz ultravioleta de entre 100 y 280 nanómetros de longitud de onda y que se ha usado previamente como germicida al poder destruir el ADN. Por esto mismo, y al ser un riesgo para los seres humanos, se trata de un robot diseñado para que desinfecte estancias cuando no hay trabajadores.

Y se hizo la luz (para eliminar el coronavirus)

Es el CSAIL (Computer Science and Artificial Intelligence Laboratory) del MIT el que ha desarrollado este robot junto a Ava Robotics, quienes han proporcionado la base del autómata. Sobre ésta han colocado un módulo con las luces UV, de modo que el robot recorre el espacio que sea como si fuese un robot aspirador con mapeo.

En este caso lo han podido probar en el Greater Boston Food Bank (GBFB), un almacén de unos 372 metros cuadrados. El robot puede ir a 0,35 kilómetros por hora aproximadamente, por lo que tardó una media hora en recorrer la estancia, con lo cual se neutralizan aproximadamente el 90% de las partículas de coronavirus en superficies según los investigadores.

Para comprobar que la dosis de luz era la correcta, el equipo usó dosímetros específicos para luz UV-C, confirmando así que esta especie de Roomba desinfectante proporcionaba la cantidad de luz esperada. Todo siempre controlado remotamente, pudiendo dejar que mapee de manera autónoma o bien con algo de control teleoperado por parte de algún operario.

Lo que no han comentado es la autonomía del robot en cuando a su consumo energético, pero teniendo en cuenta que no es pequeño y que tarda media hora en recorrer una superficie considerable no parece una limitación. Sí lo es el hecho de que haya áreas en constante cambio, como en este caso la de descarga, pero para ello están investigando cómo pueden ayudar los sensores que el robot incluye (de modo que puede ajustar su velocidad y otros parámetros).

Una manera automática e independiente de controlar las superficies

Según Alyssa Pierson, investigadora jefe del módulo de luces UV-C, el poder probar este robot en un banco de alimentos es una buena oportunidad dado que durante las fases de confinamiento se disparó la demanda, pudiendo así reducir los riesgos de exposición. A este respecto y como ya vimos, según lo que se sabe hasta ahora y los estudios hasta la fecha, el SARS-CoV-2 puede permanecer hasta 72 horas en acero inoxidable y plástico, 24 sobre cartón y cuatro horas sobre cobre (como el de las monedas), siempre dependiendo de las circunstancias particulares de la superficie, especialmente la humedad (cuanto más seco sea el ambiente y/o la superficie, menos probabilidad de contagio).

Como comentábamos antes, la luz ultravioleta se ha usado desde hace años para esterilizar ambientes como los de los hospitales. Con este proyecto, los investigadores creen que robots de este tipo podrían ser útiles en entornos como fábricas, restaurantes, supermercados e incluso colegios, siempre cuando no haya empleados presentes.

Imagen | Alyssa Pierson/CSAIL



via Magazine - robotica-e-ia https://ift.tt/388J4Ad

sábado, 27 de junio de 2020

La historia de 'Joker', el robot alemán que fue enviado a limpiar Chernobyl y murió casi inmediatamente

La historia de 'Joker', el robot alemán que fue enviado a limpiar Chernobyl y murió casi inmediatamente

Todavía cuesta digerir lo que vimos en 'Chernobyl', la angustiante serie de HBO que rápidamente se convirtió en todo un fenómeno televisivo y que se ha configurado como una de las 100 series mejor valorada de la historia por los usuarios de IMDb. Es por ello normal que, tras semejante impacto, se hayan investigado ciertos temas más concretos relacionados con la historia de este accidente.

Una de estas es la de "Joker", un robot alemán que era usado por la policía para tareas tácticas, como desactivar bombas, y que fue enviado a la Central Nuclear de Chernobyl para ayudar con las labores de limpieza de material radioactivo. Algo que al final no funcionó como todos esperaban.

Los robots fueron la primera opción

En el episodio cuatro de 'Chernobyl' vimos como empezaban los esfuerzos de limpieza en la zona tras la explosión del reactor número cuatro. La idea era usar robots para estas labores y evitar, en la medida de lo posible, la intervención de los humanos. Sin embargo, las esperanzas no tardaron en desvanecerse.

Después de la explosión del reactor, grandes cantidades de escombros, entre ellas trozos de grafito radioactivo, llenaron los techos de la instalación. Como el grafito había sido usado en un inicio para moderar la reacción, los funcionarios soviéticos pensaron que arrojar el grafito al núcleo expuesto del reactor podría ser una solución improvisada para contenerlo.

Llevar a cabo esta idea no era fácil, ya que ¿quién sería capaz de limpiar el grafito radioactivo y arrojarlo al reactor? Los trabajadores con equipos especiales, conocidos como 'biorobots', sólo podían exponerse un máximo 90 segundos ante este material e incluso así así era sumamente peligroso. ¿La solución? Hacer uso de la tecnología espacial soviética.

Es así como decidieron enviar unos 'Lunokhod' (Programa Lunojod), rovers lunares que formaban parte del programa espacial soviético. Alemania Occidental se enteró de esto y se ofreció a prestarles a 'Joker', su famoso robot policial que podía ser controlado a distancia y que creían que sería ideal para las tareas de limpieza.

La mala noticia es que esto no salió como estaba previsto, ya que 'Joker' fue enviado a limpiar la parte más radioactiva del techo, donde no tardó en morir. En un inicio se pensó que se había quedado atascado en los escombros y enviaron a algunos hombres para que lo bajaran, pero al llegar al lugar descubrieron que estaba frito.

La supuesta mentira como medida desesperada

No está claro cómo es que los alemanes se ofrecieron a prestar su costoso robot, pero de acuerdo al documental 'On the roof of Chernobyl' de Telecon, el motivoes que los rusos decidieron mentirle a los alemanes porque estaban desesperados y buscaban probarlo todo.

Supuestamente, los alemanes enviaron a 'Joker' creyendo que resistiría los niveles de radiación, ya que los soviéticos les dijeron que el techo estaba contaminado con 2.000 roentgens, cuando en realidad el techo irradiaba más de 12.000 roentgens. Esto provocó la muerte inmediata del robot.

Craig Mazin, co-creador de la serie, lo explicó así:

"Los soviéticos - y esto es alucinante para mí - se negaron a aceptar lo mal que estaba la situación. Incluso entonces, meses después de que el mundo supiera lo que estaba pasando en Chernobyl y lo grave de la situación, incluso en ese momento se negaron a decirles a los alemanes occidentales cuánta radiación había en ese techo. Era un 600% o 700% más de lo que podía manejar. Y lo que me sorprende es que el sistema de poder soviético pensó que eso estaba bien. ¿Por qué no? Vamos, es el mismo tipo de actitud que causó lo de Chernobyl en primer lugar".

¿Qué pasó con 'Joker'?

Tras la muerte de 'Joker', el Lunokhod fue usado para limpiar de desechos radioactivos la estructura inferior del techo y construir el sarcófago. La radiación en los techos inferiores no era tan alta, así que el rover lunar soviético pudo realizar su tarea. Sin embargo, al techo más alto, donde teóricamente iba a limpiar 'Joker', terminaron enviando a personas en intervalos de 90 segundos.

Se dice que al final los rovers fallaron a pesar de que los reacondicionaron para resistir mayores niveles de radiación. Los soviéticos sabían cuáles eran los niveles reales de radiación y trataron de preparar a los rovers lo mejor que pudieron. Sin embargo, los 'biorobots' fueron quienes terminaron de limpiar los techos.

Chernobyl Joker Robot 1

Esta imagen, de la que se desconoce su origen, supuestamente corresponde al 'Joker' abandonado en un depósito de chatarra en la zona de exclusión. Se cree que el robot sigue siendo extremadamente radioactivo a día de hoy. Aparentemente, lo que hay al fondo a la izquierda es un Lunokhod.



via Magazine - robotica-e-ia https://ift.tt/3ihg3aa

viernes, 26 de junio de 2020

Esta IA sabe diferenciar un gol de un "golazo": LaLiga estrena resúmenes automáticos en tiempo real con las mejores jugadas

Esta IA sabe diferenciar un gol de un

El 'Iniestazo'. El de Ramos en el 93. Las faltas imposibles de Messi. Son auténticos golazos y todos los aficionados al fútbol saben la importancia y dificultad que tienen. Pero para una inteligencia artificial es complicado diferenciar estos goles de otros cualesquiera. Aunque todo parece cuestión de perfilar y entrenar el algoritmo.

Ahora LaLiga de fútbol española estrena AIProclips, una herramienta desarrollada por el Grupo Mediapro junto a IBM que permite generar en tiempo real resúmenes de los partidos, adaptados a criterios personalizados. Es decir, lo que antes era un trabajo manual de seleccionar las mejores jugadas siguiendo criterios futbolísticos, ahora es posible hacerlo de forma automatizada gracias a una IA que ha sido entrenada para "entender de fútbol" y poder "valorar" qué peso asignar a cada acontecimiento del partido.

AIProclips, entrenando a los algoritmos para apreciar el fútbol

Aiproclips

La herramienta ha sido desarrollada durante el último año y promete la generación de resúmenes teniendo en cuenta "las especificidades de un partido" y valorando criterios que "hasta ahora solo podía tener en cuenta un realizador profesional", según explican los responsables de la herramienta.

El ejemplo más claro es el de los goles. Por definición, todos los resúmenes generados deben mostrar todos y cada uno de los goles. Pero, ¿cómo identificar el "golazo"? ¿Cómo logra la IA entender que ese momento es definitorio para entender el partido? Aquí es donde entra el apoyo de los expertos.

AIProclips está basada en la plataforma IBM Watson y ha sido entrenada para otorgar un mayor peso a las jugadas importantes, como la emoción de una falta, o la relevancia de un gol en el minuto 89. ¿Qué criterios se siguen para generar estos resúmenes? En concreto se basa en tres algoritmos; tres capas adaptadas por los trabajadores de Mediapro.

Algoritmo

La primera de ellas se centra en el análisis de las jugadas y la realización del corte decidiendo cuándo empieza y cuando acaba cada jugada. Aquí han contado con algoritmos creados por la empresa norteamericana Thuzz, especializada en el procesamiento de imágenes en el mundo del deporte.

En un segundo nivel está IBM Watson, que se basa en tres criterios para la relevancia: los gestos de los jugadores, la voz del comentarista y el sonido ambiente. Finalmente hay una tercera capa que se basa en el contexto del partido. Esta es la capa que va aprendiendo a medida que se añaden más partidos y ha sido entrenada para aprender que un gol en los minutos finales es más relevante que al inicio de la primera parte. Estas dos partes han sido adaptadas por los expertos de IBM y Mediapro para uso exclusivo de AIproclips y poder dotar a la herramienta de cierto "conocimiento".

AIProclips por el momento solo está aplicado al mundo de fútbol y cuenta con un único cliente: LaLiga de fútbol que ya ha procesado centenares de partidos de la presente temporada. Desde Xataka hemos probado la plataforma a través de una página web dedicada y hemos podido observar su nivel de personalización.

Jugadas La herramienta es capaz de diferenciar jugadas en función del tipo.

La herramienta permite crear resúmenes estableciendo todo tipo de filtros. El objetivo es que esta herramienta pueda ser utilizada por usuarios, empresas o realizadores para ofrecer rápidamente resúmenes de forma automatizada. En menos de 7 minutos, tiempo que tarda en procesar el contenido de todo el partido, la plataforma puede crear uno de estos resúmenes en alta calidad. "Aproximadamente se repasan unas 4.000 jugadas por jornada", nos explican los responsables.

El resumen puede adaptarse eligiendo el porcentaje de interés que queremos darle a determinados aspectos. Lo que a la práctica se trata de otorgar un valor de 0 a 1 al algoritmo. Podemos por ejemplo otorgar más peso a uno de los dos equipos (si somos un medio con un color determinado), centrarnos en las jugadas de un jugador (si queremos hacer un seguimiento concreto) o por ejemplo elegir la nacionalidad de los jugadores (si por ejemplo somos un medio de otro país y queremos un resumen centrado en esos jugadores).

Jugadores AIProClips también permite seleccionar a todos los jugadores de LaLiga para crear resúmenes específicos.

"Un medio español y un argentino querrán un resumen diferente. Nos permite ampliar nuestro rango de oferta", explica María Carmen Fernández, directora de Innovación y Nuevos Negocios de Mediapro. Nos relatan otros ejemplos; desde un medio brasileño que quiera un resumen del Real Madrid con Casemiro, Vinicius y Marcelo hasta un resumen del RCD Español con Wu Lei para el mercado chino. "La inmediatez es un factor clave, aunque no va a sustituir la elaboración manual", aclaran los responsables.

Con los recientes partidos sin público surge la duda de cómo se adapta el algoritmo a la falta de sonido ambiente. En esa dirección, los responsables apuntan que cada jornada se va corrigiendo. "El equipo editorial revisa el resultado".

La inteligencia artificial se lleva aplicando al mundo del deporte desde hace años. En el caso de AIProclips no se descarta que en el futuro esta herramienta pueda ser aplicada a otros deportes; colocando el baloncesto como una de las opciones más probables.

En Xataka | En LaLiga se habla de fútbol, pero también (y mucho) de tecnología: su última plataforma lucha contra los amaños, pero hay más



via Magazine - robotica-e-ia https://ift.tt/31kuQL5

Spot pronto se venderá con un brazo robótico y Boston Dynamics hasta lo ve como perfecto ayudante en el hogar

Spot pronto se venderá con un brazo robótico y Boston Dynamics hasta lo ve como perfecto ayudante en el hogar

En estas últimas semanas Boston Dynamics puso finalmente a la venta su perro-robot Spot para todo tipo de empresas (en Estados Unidos). Aquí no finaliza la aventura de la mascota robot más famosa de todas, la compañía planea añadir como accesorio a la venta un brazo robótico con el que aumentar considerablemente sus capacidades. Así mismo, su CEO cree que en algún momento será un acompañante ideal para ayudar en las tareas del hogar.

Según recoge VentureBeat, el fundador de Boston Dynamics, Marc Raibert, ha desvelado los planes para Spot a medio y largo plazo. Lo ha hecho en una conferencia online Collision from Home 2020 y en ella ha hablado de qué tienen preparado para Spot próximamente. Y es que, si bien actualmente el uso ideal que recomiendan para Spot es hacer tareas peligrosas para un humano, quieren expandir esto a más actividades.

Mover muebles, entregar paquetes y hasta recoger la ropa sucia

Lo primero que vamos a ver dentro de poco es la llegada de un brazo robótico que se adjunta a Spot para mejorar sus capacidades. Este brazo robótico en realidad no es nuevo, ya lo vimos en unos vídeos de prueba, aunque ahora piensan venderlo como accesorio externo. Los accesorios externos de Spot se acoplan generalmente a su parte superior y le permiten mejorar en funciones determinadas como ya vimos cuando lo pusieron a la venta.

Este brazo robótico llegará en los próximos meses y asegura el CEO de Boston Dynamics que "abre vastos horizontes sobre las cosas que los robots pueden hacer". Para demostrar esto muestran en el vídeo cómo el brazo robótico puede abrir una puerta, pero también cómo maneja palancas con precisión por ejemplo.

Por otra parte, Marc Raibert ha dejado ver su visión de futuro para Spot como parte del hogar. Actualmente esto es algo imposible, pues Spot no está certificado para su uso en el hogar o cerca de niños debido a que no es seguro para este tipo de actividades. Sin embargo "algún día lo estará" dice el fundador de Boston Dynamics. Como ejemplo, enseñan cómo Spot ya puede mover grandes muebles arrastrándolos con su brazo robótico o cómo recoge ropa sucia de forma autónoma en una casa. Finalmente, le ven viabilidad también como repartidor de paquetes.

Spot

El desarrollo de Spot en cierto sentido apenas ha comenzado, aunque lleven años con ello. Y es que la compañía tiene planes de futuro para él donde por ejemplo también otras empresas se involucren creando sus propios accesorios y aportando ideas para concebir a Spot como una plataforma más que como una producto.

Vía | VentureBeat



via Magazine - robotica-e-ia https://ift.tt/3fZRNYa

miércoles, 24 de junio de 2020

DHL acelera la implantación de robots en la logística de almacén con Azure

La primera implementación a escala mundial de la solución, desarrollada en colaboración con Azure y Blue Yonder, se ha llevado a cabo en Madrid, y ha reducido el tiempo de integración en un 60%.

from RSS de lo último publicado en 'Computing España' https://ift.tt/2VeoOrq
via IFTTT

martes, 23 de junio de 2020

Crean un delfín robot para sustituir a los que están en cautiverio en acuarios: así nada e interactúa con humanos

Crean un delfín robot para sustituir a los que están en cautiverio en acuarios: así nada e interactúa con humanos

En los últimos años cada vez se ha concienciado más la población de lo que supone tener un animal salvaje en cautiverio. Zoos o acuarios ya no están tan bien vistos como años atrás (a pesar de que a veces resulten necesarios), de ahí que se busquen alternativas a tener a los animales en semejantes condiciones. Una empresa de San Francisco tiene una idea: robots.

Edge Innovations, que se dedica a efectos especiales, ha creado un delfín robótico que se mueve y actúa como uno normal. Más sorprendente aún es su realismo, con una textura que imita a la piel de un delfín y también sus huesos en la estructura del robot. La idea es que sustituya a los delfines que viven en acuarios y forman parte de actuaciones al público. Y parece ser que no lo hace nada mal.

Edge Innovations

El alucinante realismo del delfín robot

De momento el delfín de Edge Innovations está siendo utilizado parar pruebas en un resort de Disney. En el acuario hace prácticamente las mismas actividades que hace un delfín real en los espectáculos tradicionales de un acuario. Nada con el público, pequeñas acrobacias, saluda a los espectadores... Y todo ello con movimientos que parecen de lo más naturales.

¿Dónde está el truco? Parece ser que no es tan complicado construir un robot que nade. Si nos fijamos, los principales movimientos que debe realizar son ondulando su columna. Pero no los realiza de forma autónoma, el robot de 270 kilogramos es controlado con un control remoto a distancia por un operario del acuario. Por lo tanto, simplemente tiene que dirigirlo por la piscina siguiendo a humanos o interactuando con ellos para dar la sensación de que el delfín responde de forma natural a eventos. Con esto también se ahorran sensores y cámaras que le quitarían realismo al delfín.

Según indican en Gizmodo, este nuevo robot está pensado para ser utilizado en un acuario chino donde el gobierno del país asiático ha decidido poner fin al uso de animales salvajes para detener la propagación del COVID-19.

Edge Innovations

No me sorprendería en absoluto que más de uno crea que es un delfín real. En el vídeo se puede apreciar movimientos muy fluidos y su aspecto tampoco defrauda. Además, es sólo una primera versión, no sería nada extraño ver versiones mejoradas en los próximos años. Así que sí, la próxima vez que vayamos a un acuario habrá que fijarse bien en el tipo de delfín que realiza las acrobacias de turno. Y bueno, parecen más amigables que Spot.

Vía | Gizmodo
Más información | Edge Innovations



via Magazine - robotica-e-ia https://ift.tt/317DLQ3

Monsieur Cuisine Connect: Lidl pone a la venta hoy su robot de cocina

Lidl vuelve a poner a la venta hoy, 23 de junio, el robot de cocina Monsieur Cuisine Connect, su indiscutible producto estrella, a partir de las 09.00 horas Leer

via Tecnología // elmundo https://ift.tt/3fMlQlV

lunes, 22 de junio de 2020

El robot que está aprendiendo a suturar viendo vídeos de cómo lo hacen los cirujanos

El robot que está aprendiendo a suturar viendo vídeos de cómo lo hacen los cirujanos

Suturar a un paciente después de una operación es una tarea relativamente sencilla para un médico. A fin de cuentas se trata simplemente de coser siguiendo unas pautas básicas. Pero, ¿lo es para un robot? En un nuevo proyecto de la Universidad de California en colaboración Intel decidieron poner esto a prueba y enseñaron a un robot a suturar.

Bajo el nombre de Motion2Vec, el proyecto busca conseguir que un robot pueda suturar a pacientes con la precisión propia de un humano. Para ello ha sido equipado con un sistema de aprendizaje profundo semi-supervisado con el que el robot aprende a base de ver vídeos quirúrgicos públicos donde se realizan suturas. a partir de ahí es trabajo de la IA aprender a imitar los movimientos del médico para luego imitarlos con suficiente precisión.

Imitando a cirujanos

El truco que han seguido los creadores de Motion2Vec es una técnica utilizada para el reconocimiento de imágenes llamada siamese neural network. La idea detrás de esto es que dos redes idénticas reciben dos conjuntos de datos separados y tras procesarlos y compararlos ofrece un sólo resultado final. En otras palabras, por un lado la IA obtiene el vídeo del médico haciendo la sutura y por el otro graba al robot practicando. Comparando estos dos vídeos aprende a mejorar la precisión de los movimientos del robot.

Muestra Videos de muestra que ha estado viendo el robot.

Añaden los investigadores que necesitaron un total de 78 vídeos de JIGSAWS como base de datos para enseñar al robot. Como resultado Motion2Vec aprendió a suturar con un 85,5% de precisión un error promedio de 0,94 cm en la precisión al acertar en el punto exacto. Aún no está al nivel que se requiere al operar con humanos, pero afortunadamente el robot no practicó con humanos.

Difícilmente un robot como este se va a encargar de sustituir a un cirujano. Como hemos visto en alguna que otra ocasión, la IA a la hora de la verdad falla más que en la teoría. Sin embargo, sí que es plausible que en el futuro pasen a ser una ayuda extra en la sala de operaciones para tareas muy básicas y monótonas que puede hacer alguien con un grado de cualificación no tan alto como el del médico. Los investigadores aseguran que mediante esta técnica el robot puede aprender más cosas aparte de suturar, como por ejemplo eliminar impurezas de una herida.

Vía | Yahoo!
Más información | Motion2Vec y arXiv



via Magazine - robotica-e-ia https://ift.tt/2Nlc8e9

jueves, 18 de junio de 2020

Esta herramienta consigue reconstruir rostros pixelados con una calidad sorprendente

Esta herramienta consigue reconstruir rostros pixelados con una calidad sorprendente

Pixelar el rostro de una persona para proteger su privacidad es una práctica común desde hace muchos años. Sin embargo, puede que ya no sea tan útil como lo era antaño. Las inteligencias artificiales cada vez son más hábiles a la hora de descifrar qué se oculta detrás de un puñado de píxeles. PULSE, una nueva herramienta que utiliza IA, recupera rostros con un detalle impresionante.

Unos investigadores de la Universidad de Duke en Estados Unidos son los responsables detrás de PULSE. Presentado el estudio de su investigación, los autores han publicado cómo funciona PULSE para conseguir revelar caras de forma casi perfecta si previamente se han pixelado.

Analizar todas las posibilidades en vez de acertar

PULSE no es la primera IA del mundo en recuperar rostros pixelados, pero sí que se diferencia de las demás por el proceso que sigue. Generalmente cuando una IA busca recuperar una cara pixelada (o fotos, imágenes, vídeos...) lo que hace es ver cómo son los píxeles de alrededor para generar otros similares en el entorno.

IA PULSS

Esto es ingenioso, pero a menudo al no poder adivinar exactamente cómo es el pixel que busca lo que hace es hacerlo similar a los otros y crear imágenes demasiado borrosas o "planas" y sin detalles. De ahí que muchas veces los deepfakes o caras degeneradas por IA parezcan tan extrañas.De ahí que el sistema de PULSE sea diferente.

El proceso de PULSE es algo distinto, primero coge la imagen pixelada de la cara y la usa como referencia para generar muchas caras de alta resolución que se puedan parecer a la que se ha pixelado. Una vez tiene la suficiente cantidad de rostros posibles los pixela por si mismo para ver cómo quedan una vez pixelados comparados con la imagen pixelada original. En cierto modo con esto prueba todas las opciones posibles que ha generado en vez de ir por intuición a la que cree que más se parece. ¿Resultado? Puede añadir más detalles a las fotografías y no limitarse a fotos borrosas o demasiado ausentes de detalles.

PULSE Diferentes métodos y sus resultados en comparación con PULSE (las dos últimas columnas).

La aplicación de la inteligencia artificial para mejorar imágenes y vídeos es sin duda uno de los campos más interesantes. Se pueden conseguir por ejemplo alucinantes efectos 3D a partir de imágenes tradicionales. En smartphones es donde más provecho se le está sacando últimamente, ahí está el modo Astrofotografía de los Google Pixel. Spectral Edge, comprada por Apple recientemnete, también consigue importantes hitos.

Vía | ScienceAlert



via Magazine - robotica-e-ia https://ift.tt/3fv6nGA

miércoles, 17 de junio de 2020

Por qué la Universidad de Granada está en el top de universidades en investigación de inteligencia artificial

Por qué la Universidad de Granada está en el top de universidades en investigación de inteligencia artificial

Caminar por la Granada vieja es dar un paseo entre el ayer y el mañana. Las calles estrechas e irregulares, las teterías árabes y la imponente vista de La Alhambra advierten de su rica y milenaria historia; las voces jóvenes que se escuchan por doquier, en distintos idiomas y con decenas de matices regionales, apuntan al futuro. La urbe nazarí, crisol de culturas desde la Edad Media, es hoy una de las principales ciudades universitarias de España y la institución que acoge a esos estudiantes, la Universidad de Granada (UGR), un destacado centro de investigaciones en informática e inteligencia artificial (IA).

Así lo afirman diversos rankings académicos internacionales, como el de la Universidad Jiao Tang de Shanghái de 2019, que coloca a la UGR entre las cien mejores universidades del globo en ingeniería informática. O el del Times Higher Education, que en 2017 posicionó a los nazaríes como la quinta institución del mundo por impacto de citas sobre investigaciones de inteligencia artificial, una lista que encabezaba el Instituto Tecnológico de Massachussets.

Pero ¿cómo ha conseguido la UGR, ubicada lejos de los principales polos tecnológicos de España y en una región con una economía muy ligada al turismo, codearse con las principales instituciones del mundo en informática e inteligencia artificial? La explicación hay que buscarla antes del bum digital, cuando las ciencias de la computación eran mucho más teóricas que prácticas.

“Los creadores del departamento de Ciencias de la Computación e Inteligencia Artificial, que nació en los años ochenta, plantearon la investigación de alto impacto como un elemento fundamental. Esa cultura de la investigación permitió atraer más proyectos, lo que hizo posible contratar a más profesores y que fuésemos creciendo”, explica Francisco Herrera, catedrático de Ciencias de la Computación e Inteligencia Artificial de la UGR.

Francisco Herrera

Así, el departamento se centró en investigaciones de relevancia internacional y su publicación en revistas científicas de prestigio con el objetivo de atraer más financiación de instituciones públicas, ya que, al ser más teórica en aquellos momentos, no había tanta inversión privada para nuevos proyectos como hoy día. Gracias a esa política, además, iban necesitando poco a poco a más investigadores e incorporaban a doctorandos -académicos que preparan su tesis doctoral- que contribuían con sus estudios a aumentar las publicaciones.

“Es una rueda. Si consigues más publicaciones y cumples con los objetivos, eres más competitivo a la hora de conseguir proyectos de financiación nacional e internacional y becas. Con eso, puedes tener a más doctorandos que hacen sus investigaciones contigo. Y después de varias décadas así, esta dinámica estimula el área y refuerza el departamento”, afirma Jorge Casillas, catedrático de Ciencias de la Computación e Inteligencia Artificial en la UGR.

“Por eso tenemos muchas publicaciones y aparecemos tan bien posicionados. En esos rankings, además, se tienen mucho en cuenta las citas de nuestros estudios por parte de otros investigadores, y es cierto que el departamento ha trabajado en líneas que han dado lugar a muchas citas”, añade Herrera, que es uno de los autores más citados de la Universidad de Granada.

De esta forma, el departamento en el que trabajan Herrera y Casillas ha podido pasar de contar con 16 profesores a finales de los ochenta a tener más de 70 en la actualidad. Aunque el enfoque en la investigación no ha sido el único factor que explica este crecimiento, también ha tenido una importancia capital que la informática se haya convertido con el paso de los años en una disciplina transversal a muchas carreras universitarias, lo que ha provocado una mayor necesidad de docentes de la materia.

“La plantilla se regula sobre todo por la actividad docente, aunque lo que acaba luciendo más es la investigación. Pero difícilmente se consigue financiación para una plantilla que sea sólo investigadora”, señala Casillas.

De la teoría a la aplicación

Las publicaciones científicas y el desarrollo de la informática permitieron, por tanto, el crecimiento del departamento durante sus primeras décadas de vida. Después, la explosión de la inteligencia artificial llevada a la práctica en multitud de ámbitos de nuestro día a día puso el foco sobre estos investigadores y permitió que aplicasen muchas de sus investigaciones teóricas, tanto en proyectos públicos como privados.

“Al ser una tecnología de aplicación en todos los campos de la sociedad, el departamento fue evolucionando y participando cada vez más en proyectos regionales, nacionales y europeos, muchos de ellos con empresa, al tiempo que se mantenía la investigación. Ahora más del 50% de la financiación que llega al departamento por proyectos proviene de empresas”, explica Herrera.

De esta forma, la consolidación del departamento en el marco teórico durante los noventa ha permitido que, tras el auge de la IA, haya atraído financiación de empresas para desarrollar proyectos, lo que posibilita contratar aún más investigadores y que sus publicaciones se sumen a la cuenta de la Universidad de Granada.

“Hemos tenido la suerte de contar con dos generaciones de investigadores muy brillantes y que, a la vez, trabajaban mucho. También, con publicaciones que han suscitado el interés de muchos científicos que las han citado en las suyas”, señala Casillas.

Granada exporta talento de IA

El destacado papel que otorgan estos rankings a los investigadores de la Universidad de Granada en un campo que, hoy día, tiene tantas aplicaciones prácticas ha llevado a que muchas empresas se interesen por ellos. En España, a través de proyectos, y desde Estados Unidos con ofertas para ‘ficharlos’.

Jorge Casillas

“Tanto algunos compañeros como yo hemos recibido ofertas para salir al extranjero, de empresas y de instituciones. Y ha habido colegas que han dado el salto. En España eso es menos habitual. Que yo recuerde, tenemos a varios doctores formados con nosotros trabajando en compañías de Alemania e Inglaterra”, explica Herrera.

Casillas añade que en nuestro país lo habitual es trabajar por proyectos: “Compran la idea, pero no al que la tiene. Aquí no se dan cuenta de que, si invirtiesen de una forma más estable, podrían tener soluciones a largo plazo. Aunque, como con todo, hay algunas excepciones. Pero en EEUU la dinámica sí es esa, las grandes empresas tecnológicas como Apple o Google cada vez fichan más en las universidades”.

En el apartado académico, hay doctores formados en la UGR repartidos por las universidades de Nottingham, Gante, Leicester, París y varias de Suecia. “Realmente la formación de España es muy buena, y es muy valorada en el extranjero. Y en el caso de Granada, el prestigio que nos dan estos rankings nos hace aún más atractivos para que quieran captar a nuestros estudiantes”, afirma Herrera.

Desarrollo tecnológico en Andalucía

Desde el auge de la aplicación práctica de la inteligencia artificial, los proyectos con empresas de los que se ha hecho cargo el departamento de Ciencias de la Computación e Inteligencia Artificial de la UGR no han hecho más que aumentar. Entre las compañías con las que actualmente trabajan se encuentran Repsol, Indra, Telefónica, Puleva, Heineken o Sherpa.

“Nuestros trabajos se aplican a muchas cosas. Trabajamos con proyectos de salud, como el comportamiento del cerebro en determinadas condiciones de estrés o la estratificación del riesgo de enfermedades crónicas en la población, en seguridad, para detectar armas a través de imágenes en tiempo real, o de eficiencia energética. Y se está empezando a aplicar en muchas otras disciplinas como el deporte, las ciencias sociales o el derecho. Hay muchas aplicaciones y hemos avanzado mucho, a pesar de que nos encontramos en una zona con un bajo tejido industrial, que es nuestro gran hándicap”, se lamenta Casillas.

Y es que, pese a que cada vez trabajan con más empresas, los proyectos que hasta ahora ha tenido la UGR con el sector privado han venido, en su mayoría, de empresas de otros puntos de España o de Europa. Aunque en los últimos años las cosas están cambiando gracias a que el sector tecnológico de Andalucía está experimentando un notable crecimiento, según los datos del Instituto de Estadística y Cartografía andaluz.

Casillas explica que en Granada hay varios ejemplos de pymes que se han creado a partir de investigaciones desarrolladas desde la UGR, mientras que Herrera señala que en Andalucía se está apostando cada vez más por el sector tecnológico y se están llevando muchas iniciativas al respecto.

“En nuestro campo, recientemente hemos creado el Centro de Innovación Digital en Ciencia de Datos e Inteligencia Computacional de Andalucía, con varias universidades de la comunidad, participación de la Junta y empresas andaluzas o con sede en la región relacionadas con la inteligencia artificial. Con él queremos crear un ecosistema en torno al tejido socioeconómico de la IA en Andalucía”, explica Herrera.



via Magazine - robotica-e-ia https://ift.tt/3eb3lHv

Boston Dynamics ya vende el robot Spot a cualquier empresa, cualquiera que pague 74.500 dólares

Boston Dynamics ya vende el robot Spot a cualquier empresa, cualquiera que pague 74.500 dólares

Spot, el robot más popular de Boston Dynamics, ya está a la venta para cualquier empresa. Tras años de desarrollo y venta exclusiva para empresas elegidas por la propia Boston Dynamics, ahora el perro-robot puede ser adquirido por cualquier empresa de Estados Unidos. Eso sí, no va a salir barato, a 74.500 dólares la unidad.

Boston Dynamics comenta que Spot es ideal para tareas de patrulla y revisión. El robot está pensado para trabajar moviéndose por lugares donde un humano no puede (por ejemplo un médico trabajando a distancia) o no quiere ir por ser peligroso o demasiado rutinario. En otras palabras, patrullar o realizar misiones de inspección.

El robot que han puesto a la venta es la versión Spot Explorer. Se trata del kit pensado para empresas comerciales e incluye el robot en sí, dos baterías, el cargador, un mando, una carcasa para el robot y diferente software para programar y modificar a Spot. De forma separada es posible comprar más baterías extra (a 4.620 dólares) o hasta un servicio de de garantía premium por 15.000 dólares al año.

Spot cuenta también con accesorios externos para vitaminar sus capacidades. Estos accesorios se colocan generalmente en la parte superior del robot y son por ejemplo un módulo de cámaras para inspecciones más detalladas (por casi 30.000 dólares), un módulo con mejores cámaras y mejor control remoto (por casi 22.000 dólares), un LIDAR (por algo más de 18.000 dólares) o una GPU extra para mejorar su inteligencia artificial (por 24.500 dólares).

Spot accesorios Algunos de los accesorios para Spot.

De qué es capaz Spot

Las habilidades de Spot ya las hemos visto a lo largo de los años, incluso también cómo ha sido utilizado para todo tipo de tareas. Por ejemplo, en Singapur ha estado patrullando parques para ver si la gente respeta las distancias de seguridad debido al COVID-19. Hay quien lo ha usado incluso en granjas para guiar al ganado. La policía por otra parte también le ha dado uso. Pero una de sus características más impresionantes probablemente sea su fuerza.

Spot

Para realizar las actividades previamente mencionadas Boston Dynamics eligió por sus propios criterios a quién vender Spot en estos últimos meses bajo el programa de Early Adopter. Ahora eso desaparece, el único requisito es ser un negocio o administración estadounidense. Y, claro, pagar los 74.500 dólares que cuesta Spot. Para todos los demás, Unitree A1

Vía | VentureBeat



via Magazine - robotica-e-ia https://ift.tt/2V6Uzmv

martes, 16 de junio de 2020

La idea de Amazon para que los trabajadores mantengan la distancia social: una cámara con IA que sabe cuándo se acercan demasiado

La idea de Amazon para que los trabajadores mantengan la distancia social: una cámara con IA que sabe cuándo se acercan demasiado

Volver al trabajo en tiempos de pandemia supone ciertos retos y dificultades. Una de ellas es que los trabajadores mantengan la distancia social al caminar por los pasillos o moverse de un lado a otro, pero Amazon tiene una idea que ya está empezando a implantar en sus instalaciones: una cámara con inteligencia artificial que detecta a las personas y sabe a qué distancia se encuentran.

Su nombre es "Distance Assistant" o "Asistente de distancia" si lo traducimos literalmente al español. El funcionamiento es relativamente sencillo: la cámara graba en todo momento una zona concreta y detecta a las personas que pasan. Bajo sus pies, reproduce un círculo verde que indica que esa persona no tiene a nadie a seis pies (poco menos de dos metros) y que cambia de color cuando dos o más personas se cruzan.

Planean hacerlo open source

Desde Amazon explican que una solución preliminar para ayudar a mantener la distancia social era aplicar inteligencia artificial y machine learning a las grabaciones de las cámaras de las instalaciones. De esa forma, los gerentes de zona podrían identificar las áreas de mayor tráfico e implementar las medidas correspondientes.

La "versión 2.0" de esta idea ha terminado resultando en un sistema de realidad aumentada. A través de un monitor de 50 pulgadas, los trabajadores que pasen por una zona pueden ver cómo de cerca están del resto de personas y separarse de ser necesario. Este sistema se vale de una cámara, un sensor de profundidad y un dispositivo de computación local que usa machine learning para diferenciar a las personas del entorno.

Circulos Rojos

Cuando la persona pase por la zona a la que apunta la cámara, digamos un pasillo, podrá ver en el monitor un círculo verde con un radio de dos metros. Si alguna persona se acerca demasiado y los círculos se cruzan, se pondrán de color rojo, indicando así que la distancia de seguridad no se está respetando y que se deben separar. Es más una medida de apoyo visual.

Desde la compañía aseguran que ya han probado el sistema en un "puñado" de edificios y que la medida ha sido bien recibida por los empleados, por lo que va a desplegar "cientos de estas unidades en las próximas semanas". El conjunto solo necesita una toma de energía para funcionar, así que, teóricamente, se debería poder desplegar en cualquier lugar.

Afirman, además, que liberarán el código fuente del software y de la inteligencia artificial para que cualquiera pueda usarlo. Esto permitirá no solo crear forks de la tecnología, sino auditar el código para comprobar cómo funciona por dentro y qué tipo de información se recoge, si es que se recoge alguna.

Más información | Amazon



via Magazine - robotica-e-ia https://ift.tt/3e7fcpZ

Las patas de este robot tienen ruedas para mejorar su velocidad, pero más alucinante es aún la estabilidad que consigue

Las patas de este robot tienen ruedas para mejorar su velocidad, pero más alucinante es aún la estabilidad que consigue

A día de hoy los robots o bien apuestan por tener patas o bien apuestan por tener ruedas. Los primeros son más estables y pueden moverse por terrenos complejos, los segundos sin embargo son más veloces. ¿Qué pasa si mezclas ambas cosas? El resultado es Ascento, un robot con lo mejor de ambos mundos. Pero eso es lo de menos, más impresionante aún es su estabilidad y equilibrio ante imprevistos.

Ascento ha sido desarrollado por un equipo de estudiantes del instituto de investigación ETH Zurich en Suiza. Lleva un tiempo en desarrollo y de hecho el que vemos en estas imágenes no es el primero, sino la segunda generación. El robot está diseñado especialmente para demostrar las capacidades que puede tener un robot con patas y ruedas en las extremidades. Se desplaza rápidamente usando sus ruedas y a la hora de subir o bajar un obstáculo flexiona las piernas para mantenerse en equilibrio o incluso saltar. Años atrás Boston Dynamics hizo un experimento similar.

Gracias al mecanismo con el que cuenta, el robot cuando se acerca a un desnivel que debe subir se agacha para precargar sus patas y luego salta hacia arriba y hacia adelante para superar el obstáculo. Sus 10,4 kilogramos de peso le permiten hacer saltos de apenas 0,4 metros, aunque más que suficiente para pequeños obstáculos. En cuanto a la velocidad y autonomía, alcanza los ocho kilómetros por hora y puede funcionar durante hora y media.

El robot (casi) imposible de tumbar

Ponerle la zancadilla a este robot va a ser complicado. Si nos fijamos en los clips compartidos por sus desarrolladores, vemos como no hay obstáculo que se le resista al robot. Cada una de sus patas funciona de forma independiente y le permite flexionarlas de forma diferente para que el robot siempre esté a la misma altura y en equilibrio sin importar sobre qué superficie se encuentre. Por ejemplo, no se cae al caer con una rueda del escalón, no le importa que le agarren una pata en el aire o se mantiene en pie incluso cuando le empujan constantemente.

Ascento ¿Cuál es el límite para molestar a un robot?

En el vídeo también podemos apreciar cómo se las ingenia para moverse por terrenos rocosos o en césped por ejemplo. Por otro lado, también hace frente a las escaleras sin ningún problema dando saltos continuos para subirlas.

Ascento Mejor que muchos utilizando un skate.

Este robot todoterreno permite ser controlado por control remoto o gestos, pero también dispone de una función autónoma para moverse por el entorno. En su parte frontal dispone de una serie de cámaras que le permiten ver aquello que le rodea y los obstáculos con los que se va a cruzar. El robot ha sido presentado en la conferencia de robótica ICRA 2020. Veremos si en las próximas versiones añade más habilidades.

Vía | New Atlas
Más información | ASCENTO



via Magazine - robotica-e-ia https://ift.tt/2Y60n1p