jueves, 26 de marzo de 2020
Drones, robots y aplicaciones: tecnologías al servicio de la lucha contra el coronavirus
via Tecnología https://ift.tt/2QJCBnE
miércoles, 25 de marzo de 2020
Esta red neuronal une varias fotos fijas para hacer una imagen 3D con un realismo asombroso
La detección de profundidad y el avance del software ha permitido a las cámaras y dispositivos en general crear imágenes en tres dimensions cada vez más fácil. Facebook lo hace de forma automática con cualquier imagen en 2D y NVIDIA también ha mostrado de lo que es capaz. No obstante, en ninguno de los casos es tan espectacular como con NeRF, una nueva red neuronal que consigue imágenes en 3D especialmente realistas.
Matthew Tancik, un estudiante de doctorado de la Universidad de Berkley ha publicado junto a su equipo su investigación en Neural Radiance Fields (NeRF). NeRF es una tecnología que, según indican, consigue representar con mayor detalle los movimientos de la cámara suaves, las luces, la translucidez de los objetos y la posición y tamaño de las formas en sí.
Los resultados desde luego son espectaculares. De hecho cuesta imaginar que el resultado se obtenga a partir de varias fotos fijas de diferentes posiciones, parece más bien la grabación de un vídeo moviendo la cámara. Sin embargo, detrás de ello hay entre 30 y 100 fotografías y un (largo) proceso de renderización en el que la red neuronal analiza las fotografías y crea la escena en tres dimensiones.
Más allá de crear estos increíbles efectos, la tecnología también sirve simplemente para que el ordenador pueda entender la profundidad de una escena con sólo analizar una imagen. En uno de los ejemplos muestran una fotografía fija en la que una esfera "entiende" cuál es la profundidad y se desplaza de forma acorde por la imagen:
El truco está en la luz
Para obtener una imagen 3D que de la sensación de ser tan realista hay una serie de factores que influyen. El primero de ellos es la suavidad en la que se desplaza la cámara, para ello se requiere de una gran cantidad de imágenes tomadas desde cada uno de los ángulos en los que se mueve la vista. Por otro lado destaca la gran calidad que mantiene la forma en tres dimensiones del objeto, que se consigue con una buena cantidad de datos de profundidad. Y por último y quizás lo que más "engaña" a nuestro cerebro: las luces y sombras.
Son las luces y las sombras que se generan en una escena lo que nos ayuda a ver un objeto en tres dimensiones, darle profundidad y aportarle un nivel de realismo. Esto es algo que ocurre desde la vida real hasta en pintura o las fotografías. En el caso de NeRF, analiza especialmente bien la luz dinámica de la escena para mover no solamente la cámara sino también cómo se reflejan las luces y cómo se generan las sombras en el objeto y en el entorno donde se encuentra.
Para entender esto mejor en uno de los vídeos de ejemplo muestran cómo modifican la luz y a la vez mantienen el punto de vista para ver la diferencia:
NeRF, en líneas generales, es una red neuronal que ayuda a comprender mejor cómo se comporta la luz sobre los diferentes objetos de una escena. Esto se puede aprovechar para obtener vistosos resultados como estas imágenes en 3D pero también para crear escenas virtuales con mayor realismo en videojuegos por ejemplo. Y más allá del ocio, puede aprovecharse en robótica o coches autónomos para analizar mejor un escenario y posicionar correctamente los objetos del mismo.
Más información | Matthew Tancik
Disney+ ya está aquí: pruébalo gratis durante 7 días. Después, 6,99 euros al mes o 69,99 euros la suscripción anual.
via Magazine - robotica-e-ia https://ift.tt/2UfIWcE
martes, 24 de marzo de 2020
Mostrando a robots cómo hacer tareas
Entrenar a un robot con código lleva mucho tiempo y trabajo, por eso, los especialistas en robótica están centrando sus esfuerzos en desarrollar un robot automatizado que aprenda mientras observa a los humanos. De manera que cada persona en el futuro puede enseñarle a su robot cómo hacer las tareas que requiere, bien sean domésticas, de oficina, de cocina, etc. Los robots pasarían a ser una especie de nuevos empleados que cada persona puede capacitar mostrándoles muchas tareas.
Los investigadores del MIT han desarrollado un sistema que permite a los robots aprender mientras observan a los humanos. Es un robot especial para tareas complicadas con reglas que parecen confusas desde el punto de vista de la programación.
En esencia, el sistema de “Planificación con especificaciones inciertas” (PUnS, por sus siglas en inglés) de los investigadores proporciona a los robots la capacidad de planificación humana para sopesar simultáneamente muchos requisitos ambiguos y potencialmente contradictorios para alcanzar un objetivo final. El sistema elige la acción más probable para la tarea que se supone que debe realizar.
Los investigadores probaron el robot en una tarea que puede ser muy ambigua, como puede ser poner la mesa bajo ciertas condiciones. Un brazo robótico observó por primera vez demostraciones humanas seleccionadas al azar de poner la mesa con los objetos. Luego, los investigadores asignaron al brazo la tarea de establecer automáticamente una mesa en una configuración específica, en experimentos del mundo real y en simulación. El robot debía basar sus acciones en el conocimiento adquirido cuando vio a humanos hacerlo.
El robot había aprendido cómo colocar 8 objetos, una taza, un vaso, una cuchara, un tenedor, un cuchillo, un plato, un plato pequeño y un tazón, en diferentes configuraciones sobre una mesa. Para tener éxito, el robot tuvo que sopesar muchos posibles pedidos de ubicación, incluso cuando los artículos se eliminaron, apilaron u ocultaron a propósito. Cualquier robot se confundiría de inmediato en estas circunstancias. Pero este robot no cometió errores en las pruebas del mundo real y solo se equivocó algunas veces en decenas de miles de pruebas simuladas.
“La visión es poner la programación en manos de expertos en dominios, que pueden programar robots de manera intuitiva, en lugar de describir órdenes a un ingeniero para agregar a su código”, dice el primer autor Ankit Shah, un estudiante graduado en el Departamento de Aeronáutica y Astronáutica (AeroAstro) y el Interactive Robotics Group, que enfatizan que su trabajo es solo un paso para cumplir esa visión. “De esa manera, los robots ya no tendrán que realizar tareas preprogramadas. Los trabajadores de la fábrica pueden enseñarle a un robot a realizar múltiples tareas de ensamblaje complejas. Los robots domésticos pueden aprender cómo apilar gabinetes, cargar el lavavajillas o poner la mesa a la gente en casa”.
Los robots son buenos planificadores en tareas con “especificaciones” claras, pero poner la mesa aprendiendo de los humanos puede ser una tarea muy incierta. Los modelos actuales no pueden llevar a cabo tareas tan inciertas. Este nuevo sistema permite que un robot tenga una “creencia” sobre una gama de posibles especificaciones, gracias a que está basado en la “lógica temporal lineal” (LTL), un lenguaje expresivo que permite el razonamiento robótico sobre los resultados actuales y futuros.
La entrada Mostrando a robots cómo hacer tareas se publicó primero en IntelDig.
via IntelDig https://ift.tt/2UAh3Lc
lunes, 23 de marzo de 2020
Ingeniería neuromórfica: qué es, para qué sirve y cómo puede salvarnos la vida el chip de Intel que es capaz de oler
La ingeniería neuromórfica no es una disciplina reciente. Es relativamente poco conocida más allá de los ámbitos académico y de investigación, pero, en realidad, existe desde hace más de tres décadas. Su invención se atribuye a Carver Mead, un ingeniero eléctrico estadounidense formado en el prestigioso Instituto de Tecnología de California (Caltech) que a finales de los años 60 empezó a coquetear con la idea de diseñar circuitos integrados y algoritmos capaces de imitar el comportamiento del sistema nervioso de los animales.
Nuestro cerebro, que es, sin duda, el órgano más complejo de nuestro cuerpo, procesa la información de una manera extraordinariamente eficiente. Mead tuvo la habilidad de intuir hace más de medio siglo que algún día los ordenadores podrían inspirarse en él para desarrollar capacidades que los algoritmos que utilizamos en la informática clásica difícilmente podrían igualar. Su idea comenzó a tomar forma en los laboratorios dos décadas después de aquella primera intuición, a finales de los años 80, y durante la última década y media varios grupos de investigación y empresas han puesto en marcha proyectos que han aupado a la ingeniería neuromórfica como una disciplina con un potencial abrumador. Quizá, incluso, revolucionario.
Ingeniería neuromórfica: qué es y en qué se inspira
La naturaleza es una fuente de inspiración inagotable. La computación neuromórfica, como también se la conoce, no es en absoluto la primera tecnología que se inspira en la manera en que la naturaleza ha encontrado la solución a un reto. La forma de algunos trenes de alta velocidad está inspirada en una cualidad del martín pescador, un ave que gracias a la aerodinámica de su pico puede sumergirse en pleno vuelo sin apenas salpicar y sin provocar distorsiones en el agua. Los trenes más veloces han adoptado un «morro» puntiagudo similar al pico del martín pescador porque de esta forma no producen un estampido sónico al salir de los túneles.
Carver Mead concibió una arquitectura híbrida que combinase componentes electrónicos para emular no solo cómo funciona una neurona, sino también una gran cantidad de células nerviosas
Son tantas las innovaciones que hemos desarrollado inspirándonos en la naturaleza que ha surgido una disciplina científica, la biomímesis o biomimética, que, precisamente, toma como modelo la forma en que la naturaleza ha resuelto los retos con los que se ha encontrado durante miles de años. De la misma manera en que la aerodinámica de los trenes «bala» se inspira en la forma del pico del martín pescador, la computación neuromórfica se inspira en el comportamiento del sistema nervioso animal en general, y del cerebro en particular.
Una característica que puede ayudarnos a intuir su ambición es que su complejidad es tan alta que durante los últimos años se ha consolidado como una materia interdisciplinar que se nutre de la física, la microelectrónica, la biología, las matemáticas y la informática para seguir desarrollándose. El punto de partida inicial de Carver Mead fue aproximarse a los transistores como dispositivos de naturaleza analógica, y no como conmutadores digitales. Gracias a esta estrategia se dio cuenta de que el comportamiento de los transistores se parece a la manera en que las neuronas se comunican entre ellas transmitiendo impulsos eléctricos mediante un mecanismo conocido como sinapsis neuronal.
De alguna forma imaginó que debía de ser posible diseñar una arquitectura híbrida que combinase componentes electrónicos analógicos y digitales para emular no solo cómo funciona una neurona, sino también cómo se comporta un sistema complejo constituido por una gran cantidad de células nerviosas. En definitiva, intuyó que debía de ser posible construir un cerebro electrónico capaz de llevar a cabo un procesamiento complejo de la información similar al que realiza de forma natural y extremadamente eficiente un cerebro orgánico. Los científicos aún no han conseguido construir un sistema neuromórfico que iguale la capacidad del cerebro humano, pero ya tenemos, como veremos más adelante, sistemas con una capacidad equiparable a la del cerebro de un mamífero de pequeño tamaño con los que ya es posible llevar a cabo procesos muy complejos.
Estas son algunas de las aplicaciones de la computación neuromórfica
Los chips neuromórficos más avanzados que los científicos han conseguido desarrollar hasta ahora incorporan decenas de miles de neuronas artificiales, que son diminutos elementos electrónicos capaces de comunicarse entre sí de una forma muy similar a como lo hacen las neuronas de nuestro cerebro con el propósito de imitar su capacidad de procesamiento de la información. Esta estrategia provoca que la arquitectura de estos chips sea radicalmente diferente a la que utilizan los microprocesadores de nuestros ordenadores, teléfonos móviles y tabletas, y es precisamente esta diferencia la que nos permite enfrentarnos a problemas complejos de una forma muy distinta a como lo hacemos cuando utilizamos ordenadores y algoritmos clásicos.
El auténtico potencial de los sistemas neuromórficos consiste en su capacidad de resolver algunos problemas con mucha más rapidez y de una forma mucho más eficiente desde un punto de vista energético que un ordenador convencional. Incluso que un superordenador. Esto es posible, precisamente, debido a su habilidad a la hora de imitar la manera en que nuestro cerebro se enfrenta a los problemas. Una de las características más relevantes de los sistemas neuromórficos es su paralelismo intrínseco, que no es otra cosa que la capacidad de descomponer un problema en otros más pequeños que se pueden procesar de forma simultánea utilizando las distintas unidades funcionales de los sistemas neuromórficos.
Los sistemas neuromórficos pueden resolver algunos problemas con más rapidez y de una forma más eficiente que un superordenador convencional
Todo esto sobre el papel suena muy bien, pero para intuir el potencial real de la ingeniería neuromórfica es necesario que conozcamos en qué medida un sistema neuromórfico consigue aventajar a un ordenador convencional cuando ambos se enfrentan a la resolución de un mismo problema. Los sistemas neuromórficos actuales se utilizan principalmente para investigación, y si observamos lo mucho que han avanzado durante la última década y media parece razonable intuir que a medio plazo continuarán desarrollándose notablemente, lo que posiblemente los llevará más allá del ámbito académico y de los laboratorios de investigación. En cualquier caso, las cifras que manejan los sistemas neuromórficos actuales son bastante impresionantes. Y es que son capaces de resolver algunos problemas hasta 1.000 veces más rápido que un microprocesador clásico. Y, además, con una eficiencia energética hasta 10.000 veces mayor.
Estas cifras son muy impactantes, pero es importante que tengamos en cuenta que la computación neuromórfica no es la solución idónea para cualquier problema. Los investigadores la están utilizando para encontrar la solución a cargas de trabajo complejas y altamente paralelizables que conllevan un esfuerzo de cálculo y un gasto energético enormes cuando utilizamos un ordenador convencional. En estas circunstancias los sistemas neuromórficos pueden ser mucho más rápidos y eficientes incluso que los superordenadores con arquitectura clásica que tenemos hoy en día, pero no los reemplazarán porque, como acabamos de ver, no son idóneos para resolver cualquier problema. Ambas arquitecturas seguirán coexistiendo en el futuro.
Una de las disciplinas en las que está teniendo un mayor impacto la computación neuromórfica es la inteligencia artificial. Los investigadores están diseñando algoritmos que son capaces de procesar en tiempo real datos sin estructura que están sometidos a un gran volumen de ruido, algo que, precisamente, se le da mal a los microprocesadores y algoritmos convencionales. Estos últimos son muy eficientes cuando deben resolver operaciones matemáticas muy complejas, que es algo con lo que nuestro cerebro y los sistemas neuromórficos, que están inspirados en él, no se sienten cómodos, pero cuando lo importante es explorar en paralelo la viabilidad de una gran cantidad de soluciones en un entorno cambiante, y hacerlo a mucha velocidad, la computación neuromórfica marca la diferencia. Estos son algunos de los escenarios en los que esta disciplina encaja como un guante:
- Problemas de optimización: un algoritmo neuromórfico puede resultar de gran ayuda a la hora de encontrar la mejor solución a un problema determinado en tiempo real y de forma sostenida. Puede utilizarse, por ejemplo, para optimizar la velocidad de transferencia de un canal de comunicación adaptándose a las circunstancias difíciles de prever que se van sucediendo a lo largo del tiempo.
- Aprendizaje automático: esta rama de la inteligencia artificial puede sacar mucho partido a esta disciplina gracias a las facilidades que nos da a la hora de diseñar algoritmos neuromórficos que pueden ser entrenados con un conjunto finito de datos para inferir nuevo conocimiento a partir de un conjunto potencialmente infinito de datos. Esta tecnología se puede utilizar en motores de búsqueda, en programas de reconocimiento del habla, para elaborar predicciones económicas y diagnósticos médicos, etc.
- Reconocimiento de patrones: los algoritmos neuromórficos están demostrando ser muy eficaces en todos aquellos procesos en los que es necesario identificar un conjunto de objetos heterogéneos a partir de su semejanza con uno o varios modelos tomados como referencia. Pueden utilizarse, por ejemplo, para reconocer caras en una base de datos policial, o para encontrar la ruta más corta entre dos puntos conectados por varios caminos en una aplicación de navegación y mapas.
- Satisfacción de limitaciones: los algoritmos neuromórficos pueden diseñarse de manera que sean capaces de explorar un conjunto grande de soluciones a un problema determinado para encontrar aquellas que satisfacen unos requisitos concretos. Esta característica resulta muy útil para encontrar la ruta óptima que debe seguir un repartidor de paquetes, para planificar los horarios que deben tener las clases de una institución educativa, para diseñar estrategias capaces de maximizar la probabilidad de victoria en un juego de mesa, etc.
Loihi: el chip neuromórfico de Intel capaz de oler que puede salvarnos la vida
Intel es una de las compañías privadas que han apostado con más contundencia por la ingeniería neuromórfica. A finales de 2017 presentó Loihi, un chip neuromórfico de quinta generación con capacidad de aprendizaje y diseñado para proyectos de investigación con unas capacidades similares a las de un cerebro diminuto. Esto es, al menos, lo que nos permiten intuir sus cifras. Y es que este circuito integrado fabricado con fotolitografía de 14 nm incorpora 128 núcleos y algo más de 130.000 neuronas.
Estas especificaciones son bastante sorprendentes, pero lo más llamativo es que cada una de esas neuronas artificiales puede comunicarse con miles de las neuronas con las que convive, creando una intrincada red que emula a las redes neuronales de nuestro propio cerebro. Aquí es, precisamente, donde reside la potencia de Loihi. Tomando como punto de partida este chip Intel ha desarrollado sistemas neuromórficos más complejos que combinan varias unidades Loihi para adaptarse a cargas de trabajo sensiblemente más altas y a procesos más exigentes. El más sencillo de estos sistemas es Kapoho Bay, y contiene dos chips Loihi con 262.000 neuronas que le permiten, según Intel, identificar gestos en tiempo real y leer braille, entre otros procesos.
El sistema neuromórfico Pohoiki Springs integra 768 chips Loihi y 100 millones de neuronas artificiales, lo que lo dota de una complejidad equiparable a la del cerebro de un mamífero de pequeño tamaño
En cualquier caso, Kapoho Bay es solo la punta del iceberg. Y es que el sistema neuromórfico más ambicioso de esta compañía es Pohoiki Springs, una plataforma para investigación presentada por Intel hace solo unos días que integra 768 chips Loihi y nada menos que 100 millones de neuronas, lo que lo dota de una complejidad equiparable a la del cerebro de un mamífero de pequeño tamaño. Intel ha confirmado que tiene un consumo inferior a los 500 vatios, una cifra realmente sorprendente si tenemos presente que cada sistema neuromórfico Pohoiki Springs incorpora 768 chips Loihi. Aun así, más allá de las cifras, lo realmente interesante es qué podemos hacer con un hardware como este.
Todas las aplicaciones de los sistemas neuromórficos de las que he hablado unos párrafos más arriba pueden, según Intel, llevarse a cabo con Pohoiki Springs, pero hay una aplicación especialmente sorprendente en la que merece la pena que nos detengamos: la detección de sustancias químicas peligrosas a través del olfato. Esta innovación ha sido desarrollada por un grupo de trabajo en el que han participado ingenieros de Intel e investigadores de la Universidad de Cornell, y ha sido necesario que los chips neuromórficos Loihi trabajen en tándem con una matriz de 72 sensores químicos que es la responsable de capturar los olores.
Los investigadores han conseguido poner a punto un algoritmo neuromórfico que, una vez ejecutado en la matriz de chips Loihi, emula el comportamiento de un circuito olfativo biológico. De esta forma, los datos generados por los sensores químicos como respuesta a la recogida de los olores son procesados por el sistema neuromórfico, que, según Intel, consigue identificar correctamente hasta diez sustancias químicas peligrosas incluso en presencia de otros olores capaces de enmascararlas.
Las aplicaciones de una tecnología como esta en el mundo real son muy numerosas. Y, sobre todo, son importantes. Y es que los sistemas olfativos electrónicos podrán utilizarse para diagnosticar enfermedades, fabricar detectores de monóxido de carbono domésticos mucho más precisos que los actuales, detectar armas, explosivos y drogas, etc. Sus aplicaciones son muy variadas y prometen tener un impacto directo en nuestra vida, por lo que sería estupendo que esta tecnología alcance la viabilidad comercial lo antes posible. Crucemos los dedos.
Disney+ rebajado de 69,99 euros a 59,99 euros durante un año: oferta limitada hasta el 23 de marzo
Más información | Intel
via Magazine - robotica-e-ia https://ift.tt/2JcG4H2
Engañar a los sistemas de reconocimiento facial es (relativamente) fácil si sabes cómo
La polémica que enreda la privacidad con los avances del reconocimiento facial ha dejado de ser una anécdota para convertirse en un debate serio. Y no hablo sólo de casos en China, donde ya aplican esta técnica hasta para comprobar si la gente va en pijama o no por la calle: tu rostro es analizado para ver porno en Australia, para vigilarte en las escuelas y en las calles de Estados Unidos y para pagar el autobús en Madrid.
Con este panorama, en el que incluso en Europa estudia no vetar este modo de identificar a las personas, crecen las estrategias para burlar las cámaras de reconocimiento facial. Las imágenes de los manifestantes de Hong Kong evadiéndolas puede que sólo sean el aperitivo de algo mucho más extendido, que abarca desde maquillaje hasta máscaras y prendas de todo tipo.
Una de las primeras iniciativas sobre esto es CV Dazzle, un proyecto que nació en 2010 para burlar el algoritmo Haarcascade de detección facial que apareció en ese entonces. ¿Cómo? Pues con peinados y maquillaje aplicados de forma que las cámaras de reconocimiento eran incapaces de reconocer una cara.
La imagen superior da un buen ejemplo de ello: ningún algoritmo espera encontrarse pelo liso dando la vuelta a todo el cuello o extendiéndose en forma de 'pinchos'. El maquillaje se aplica en zonas estratégicas de la cara, donde las facciones son más determinantes y están más cerca la una de la otra, usando colores y diseños completamente fuera de la común. Es ahí donde los algoritmos de reconocimiento sacan los datos más críticos para identificarnos, y por lo tanto estos maquillajes los neutralizan.
Curiosamente, son peinados y maquillajes "pendientes de actualización". La propia web de la iniciativa reza que el algoritmo Haarcascade ha quedado obsoleto frente a las redes neurales más modernas, y que están preparando un nuevo catálogo de looks anti-reconocimiento preparados para las detecciones de 2020.
Otro tipo de maquillaje que burla las detecciones es el que te envejece a propósito. Acentuando las arrugas, cambiando las proporciones de tu cara simulando que tu piel está más caída y exagerando las sombras provocas que los algoritmos no puedan detectarte bien e incluso recopilen información incorrecta. Y si un algoritmo se basa en datos que no son correctos, sus resultados son inválidos.
Si la idea de maquillarnos no nos gusta, siempre podemos optar por utilizar máscaras. Cualquier máscara que tape nuestra cara funcionará, obviamente, aunque hay algunas ideas que van un poco más allá. En la imagen de arriba puedes ver la idea del neerlandés Jip van Leeuwenstein, reflejada desde BusinessInsider: una máscara transparente pero que distorsiona la luz gracias a que su forma actúa de lente. A los sistemas de detección les resulta imposible identificar a alguien con esta máscara, pero otras personas pueden identificar gestos y expresiones faciales conservando así la posibilidad de interactuar.
Martin Backes, un diseñador alemán, propone un pasamontañas que cubra toda nuestra cabeza con una versión muy pixelada de una cara. Perdemos esa posibilidad de interacción limpia con otras personas, aunque al menos nuestra boca y ojos no quedan demasiado tapados.
Zack Blas tiene otra propuesta que no puede ir más directa al grano: una máscara monocolor que deforman el rostro completamente para que las cámaras ni siquiera se den cuenta de que ahí hay una persona. Recuerdan vagamente a los zombies de la saga de juegos 'The Last of us'.
Y si no queremos taparnos la cara, esta bufanda ideada por la diseñadora Sanne Weekers nos cubre la cabeza de rostros para que los sistemas de reconocimiento los confundan con nuestra verdadera cara.
Algo menos sofisticado pero igual de ingenioso son estas gafas con unos LED de luz quasi-infrarroja incorporados. Al encenderse alrededor de nuestros rasgos faciales, las cámaras son incapaces de analizarlos corectamente ya que dicha luz añade un ruido que difumina la imagen. La propuesta es del profesor del Instituto Nacional de Informática de Tokio Isao Echizen, quien garantiza que la visión de la persona que lleve esas gafas no se ve afectada incluso con esas luces encendidas alrededor de sus ojos.
Y una última idea es directamente provocar que las cámaras eviten identificar la forma de una persona colgándonos una fotografía grande con un fondo que se parezca al de una calle con otras personas. Si los sistemas de reconocimiento necesitan identificar una persona antes de buscar su cara, quedan completamente anulados de esta forma. Simple, pero ingenioso.
Qué puedes hacer para burlar la identificación sin depender de estas ideas
Hay algunos consejos para que los sistemas de reconocimiento facial no sepan identificarte en momentos delicados, y sin que eso implique ponerte maquillajes que modifiquen tu cara, dispositivos con proyectores o máscaras con materiales raros. He aquí algunos de los más sencillos:
- Si el clima acompaña, lleva una bufanda que tape toda tu cara incluyendo la parte inferior de tu nariz.
- Lleva un gorro o sombrero que cubra tu peinado, y mantén la vista hacia el suelo al andar.
- Si tienes el pelo largo, péinalo de modo que cubra tu frente y rasgos de tu cara como las cejas y parte de los ojos.
- Llega gafas de sol grandes y cuyos cristales sean capaces de reflejar la luz infrarroja.
- Las barbas ayudan a camuflar algunos rasgos de nuestro rostro. Si puedes, déjatela crecer.
- Si quieres compartir alguna fotografía de tu cara en tus redes sociales, antes modifícala ligeramente para confundir los sistemas de reconocimiento.
No sería raro que con el tiempo, los algoritmos de reconocimiento facial mejoren gracias al progreso de la Inteligencia artificial y aprendan a sortear todos estos intentos de burlar sus algoritmos. Eso podría iniciar la clásica carrera del gato y la liebre, con las cámaras mejorando día a día y la ciudadanía urdiendo nuevas técnicas para evitar ser identificada. El futuro dirá si acabaremos llegando a eso.
via Magazine - robotica-e-ia https://ift.tt/3bkCMh2
martes, 17 de marzo de 2020
«Los humanos son lentos y caros, pero son buenos tomando decisiones»
via Tecnología https://ift.tt/2TWdtMu
«Gadgets» para el Día del Padre
via Tecnología https://ift.tt/33osycN
Videojuegos inmersivos para olvidarte del coronavirus y disfrutar en casa
via Tecnología https://ift.tt/2Ql4l1A
lunes, 16 de marzo de 2020
Los robots autónomos y drones que rocían con desinfectante y monitorizan el coronavirus en China y otras regiones
COVID-19 sigue causando estragos, ahora más en Europa que en Asia, donde tuvo su origen. China parece haber pasado ya el pico máximo de infección, según han indicado. Por otro lado, Corea del Sur es uno de los países que mejor ha frenado los contagios. Además de medidas restrictivas para la sociedad, también se han desplegado diferentes tecnologías autónomas que ayuden en las labores de control del coronavirus.
Una de las formas más efectivas de frenar los contagios por COVID-19 es evitando el contacto humano. Esto implica también evitar el contacto humano por parte de aquellos que ayudan en las labores de desinfección, limpieza o control de contagios. ¿Consecuencia? Estas semanas han surgido multitud de robots autónomos, drones y otras tecnologías para ayudar en las labores.
Robots para desinfectar, drones para vigilar
China, origen y mayor foco de COVID-19, es uno de los países que más ha apostado por la tecnología para hacer frente al coronavirus. Como ya vimos, las principales tecnológicas del país han desplegado apps y servicios para llevar el control de los infectados. Pero no sólo se ha visto en práctica la tecnología en servicios, también en hardware a pie de calle. Como indican en Bloomberg, las furgonetas autónomas de Neolix tienen una alta demanda estas últimas semanas gracias a que permiten transportar ítems de forma autónoma evitando el contacto humano. Las furgonetas se han utilizado especialmente para transportar material sanitario y para desinfectar las calles de las áreas infectadas.
Otros robots se encargan de distribuir comida y otros bienes en hoteles para evitar contacto humano:
Amid a novel #coronavirus outbreak, robots are deployed to deliver meals to travelers in isolation at a hotel in Hangzhou, China. #pneumonia pic.twitter.com/BgWZm4L1m6
— China Xinhua News (@XHNews) January 27, 2020
Siguiendo con China, las autoridades también han desplegado una serie de drones para monitorizar y vigilar a la sociedad en los focos de infección por COVID-19. Como recoge Global Times, han equipado a los drones con cámaras de alta resolución y altavoces para encontrar a usuarios que no lleven mascarillas o estén fuera de sus casas en zonas prohibidas. Mediante el altavos se dan instrucciones por voz para alertar a los ciudadanos.
Walking around without a protective face mask? Well, you can't avoid these sharp-tongued drones! Many village and cities in China are using drones equipped with speakers to patrol during the #coronavirus outbreak. pic.twitter.com/ILbLmlkL9R
— Global Times (@globaltimesnews) January 31, 2020
En otro vídeo publicado en esta ocasión por People's Daily China (medio perteneciente al gobierno chino) a principios de febrero, se mostraba un drone analizando la temperatura en tiempo real de los ciudadanos desde el balcón de sus casas.
Fear physical contact amid the #CoronavirusOutbreak? How about having your temperature taken by a drone? At Zhangjiashan community in E China's Jiangxi, you only need to stand on your balcony for a temperature check. pic.twitter.com/zU5lqWljxd
— People's Daily, China (@PDChina) February 3, 2020
En Hong kong han apostado también por los robots autónomos para desinfectar espacios públicos. Los metros, que transportan una cantidad masiva de gente son un lugar de alto riesgo de contagio. Es por ello que las autoridades han comenzado a desplegar un pequeño robot que se encarga de pulverizar cada vagón para matar gérmenes. Según indican, la sustancia utilizada para pulverizar llega a pequeñas zonas donde generalmente no se alcanza a limpiar manualmente. De momento han desplegado una flota de 20 robots.
Disney+ rebajado de 69,99 euros a 59,99 euros durante un año: oferta limitada hasta el 23 de marzo
via Magazine - robotica-e-ia https://ift.tt/33iwZpE
viernes, 13 de marzo de 2020
Detectando movimiento con un radar diminuto: Google explica cómo funciona Soli en un teléfono móvil
En 2017 llegaba Face ID, la tecnología de Apple que asentó las bases de los reconocimientos faciales en móvil. Ya hubo propuestas anteriores para lograr este propósito, pero nunca se llegó (ni se ha llegado) al punto tecnológico a nivel de seguridad y velocidad en el que se encuentra Apple aquí. La compañía que más cerca ha logrado quedarse ha sido Google, a través de Project Soli.
Este es un proyecto de mini-radares en el Google lleva trabajando desde hace cerca de cinco años y que se ha acabado materializando en el Pixel 4, el móvil gama alta de Google. La compañía ha explicado "cómo percibe" este radar, acercándonos más que nunca al funcionamiento del mismo.
Qué ve realmente Soli, el radar de Google
Los radares de Soli se utilizan tanto para el reconocimiento facial de Google como para su tecnología Motion Sense, una solución que permite interactuar con el teléfono sin que haya ningún tipo de contacto físico con el mismo. Se trata de una tecnología similar a la ya vista en móviles como el LG G8s, que también permite este tipo de gestos "por aire".
En concreto, Motion Sense permite detectar cuándo estamos cerca del teléfono, reducir el volumen de una alarma mediante gestos por aire, apagar la pantalla cuando no estamos cerca del dispositivo y demás. Pero, ¿cuáles son los principios básicos de detección de este radar? Como acostumbramos al hablar de Google, el aprendizaje automático y los algoritmos de procesamiento de señales son la respuesta.
Google explica que la función básica de su radar es detectar y medir las propiedades de los objetos en función de sus interacciones con las ondas de radio. No deja de ser algo similar a cómo actúa cualquier otro radar: un transmisor de ondas de radio que se redirigen a objetos para que reflejen su energía en el receptor de dicho radar. No obstante, uno de los retos de los radares clásicos, según Google, es que carecen de la sensibilidad y capacidad de detección de movimiento que se requieren en un pequeño dispositivo de consumo.
Para solucionar estas limitaciones, Google ha desarrollado Soli como un radar en miniatura, con un algoritmo de detección basado en el movimiento, más que en la posición que ocupan en el espacio los objetos. Cuenta Google que el tamaño de Soli es de apenas 5 mm x 6,5 mm x 0,873 mm, logrando introducirlo en el marco superior de su Pixel 4.
Siendo algo más técnicos, lo que hace Soli es procesar los cambios temporales en las señales que recibe. Trasmite una señal de frecuencia modulada de 60 Hz y, a través de esta, puede distinguir objetos que se mueven con diferentes patrones de movimiento. Es llamativo conocer que Soli es capaz de conocer los distintos patrones de movimiento de un objeto. Según la velocidad o cercanía/lejanía de los objetos y personas, la energía se distribuye de forma distinta, por lo que el radar puede tener constancia de ello con más precisión.
De forma gráfica, aquí tenemos un ejemplo de cómo Soli puede discernir entre una mano acercándose al móvil, cuando está a punto de cogerlo y cuándo empieza a interactuar con él. De este modo, la pantalla "sabe" cuándo tiene que encenderse, segundos antes de que el usuario coja el móvil para desbloquearlo.
Todo esto se hace posible, además de por el propio sistema de radar, gracias a los algoritmos de aprendizaje automático de Google, que filtra y aumenta la propia señal del radar y transforma las señales que recibe en órdenes que ha de seguir el teléfono. Hasta tal detalle se trabaja con el algoritmo, que se ha pensado incluso en la pequeña vibración que se produce cuando el móvil está reproduciendo música, la cual puede interferir en cómo capta el radar los movimientos.
Google cuenta que este modelo se ha perfeccionado entrenando una red neuronal con miles de voluntarios, que han ido registrando sus gestos y movimientos cerca del dispositivo, para que el algoritmo pueda minimizar el impacto que tienen las diferencias individuales de cada persona, la cual tiene sus propios gestos.
via Magazine - robotica-e-ia https://ift.tt/2TOd6DN
martes, 10 de marzo de 2020
El español que ha fichado a la mano derecha de Steve Jobs
via Tecnología https://ift.tt/2IwVYf4