Gracias a un equipo de ingenieros pertenecientes al Centro de Investigación en Tecnologías de la Información de la Universidad de Santiago de Compostela (CiTIUS), se acaba de dar un paso bastante importante en cuanto al futuro comportamiento de los robots que pronto deberán comenzar a tratar con humanos. En esta ocasión hablamos de un nuevo algoritmo desarrollado para predecir dónde miramos los humanos, es decir, ante una imagen, qué parte de la misma tiene mayor probabilidad de atraer nuestra atención haya o no en la misma objetos en movimiento.
Lo que se busca con este nuevo algoritmo es, al igual que hace cualquier humano de forma instintiva y sin darse cuenta de ello, eliminar los datos innecesarios del entorno lo que conlleva un proceso derivado de un conjunto de mecanismos evolutivos extremadamente complejos a nivel óptico y neuronal, algo que hasta ahora solo podía realizar una persona y que, gracias a este complejo desarrollo, ahora también podrán ejecutar los robots.
Como puedes ver, crear un algoritmo capaz de enseñar a un robot a reproducir los pasos necesarios para que por sí mismo sea capaz de identificar las partes más relevantes de su entorno es algo dificilísimo, tal es el caso que este algoritmo ha sido calificado por expertos internacionales como uno de los mejores del mundo en la actualidad. Una de las novedades que más impacto está causando es la creación de una herramienta que no solo permite filtrar el ruido para su implantación en la robótica móvil, sino que, a su vez, es capaz de detectar cuáles son las partes más significativas de una imagen, las más atractivas para el espectador.
Según Víctor Levorán, miembro del equipo que ha desarrollado y diseñado este complejo algoritmo:
Cuando alguien se sienta ante el ordenador sin más objetivo que navegar, suele mirar hacia el centro unos segundos. Este es el lugar en el que los creadores de contenidos suelen situar la información que quieren transmitir. Inmediatamente, la vista se dirige a aquellas regiones diferentes de su entorno que contienen alguna característica, color, orientación, tamaño… diferente. No obstante, cuando hay movimiento se impone el color que más llamativo sea. Nuestro modelo es el que predice esos puntos de fijación en comparación con el resto de modelos computacionales del estado del arte.
El artículo Este nuevo algoritmo es capaz de mirar como una persona ha sido originalmente publicado en Actualidad Gadget.
via Actualidad Gadget http://ift.tt/1NFyeV3
No hay comentarios:
Publicar un comentario