jueves, 30 de septiembre de 2021

Alertan de que Astro, el robot de Amazon, registra graves fallos: «se tirará por las escaleras»

Y, de repente, Astro. Hace apenas un par de días Amazon sorprendía con el anuncio de su primer robot; un dispositivo que cuenta con una pantalla con dos cámaras y se desplaza gracias a sus ruedas. El dispositivo, que llegará a finales de este año, tiene como objetivo 'patrullar' la casa y avisar al propietario si hubiese algún problema. De acuerdo con la empresa, es capaz de reconocer toda la casa, distinguir entre animales, personas y objetos y detenerse antes de caer por una escalera. No obstante, información compartida recientemente por 'Motherboard' apunta que la máquina podría no estar tan pulida como la tecnológica quiso hacer ver durante la presentación. De acuerdo con fuentes que trabajaron en su diseño y documentos internos del desarrollo, a los que ha accedido el medio, Astro -conocido como 'Vesta' en nombre clave dentro de Amazon- registra muchos fallos. «Astro es terrible y es casi seguro que se tirará por un tramo de escaleras si se le presenta la oportunidad. La detección de personas no es confiable en el mejor de los casos, lo que hace que la propuesta de seguridad en el hogar sea ridícula», señala a este respecto una persona que trabajó en el proyecto. También se apunta que los materiales empleados por Amazon para la construcción de la máquina no son de la mejor calidad y que se rompen con facilidad: «El dispositivo resulta frágil para algo que tiene un coste absurdo. El mástil se ha roto en varios dispositivos, bloqueándose en la posición extendida o retraída, y no hay forma de enviarlo a Amazon cuando eso sucede». Otra fuente apunta que Astro «es un desastre que no está listo para su lanzamiento». Además, destaca que l os sistemas de reconomiento del dispositivo, que permite que pueda reconocer a las personas que habitan en la casa, funcionan mal. Algo que, como explican desde 'Motherboard', es preocupante en un dispositivo que, precisamente, está diseñado para seguir a las personas y determinar si son extraños o no. Fuentes de Amazon, que se han puesto en contacto con el medio, apuntan que la información vertida por las fuentes sobre el dispositivo, que tiene un precio de 999 euros, es «inexacta»: «Astro pasó por pruebas rigurosas tanto de calidad como de seguridad, incluidas decenas de miles de horas de pruebas con participantes beta. Esto incluye pruebas exhaustivas del sistema de seguridad avanzado de Astro, que está diseñado para evitar objetos, detectar escaleras y detener el dispositivo donde y cuando sea necesario».

via Tecnología https://ift.tt/3kUpUpJ

Una IA analizó obras del National Gallery de Londres, sugiere que una millonaria pintura comprada en 1980 es falsa

Una IA analizó obras del National Gallery de Londres, sugiere que una millonaria pintura comprada en 1980 es falsa

National Gallery de Londres acoge desde 1980 una de las pinturas de las que más orgulloso está el museo: 'Samson and Delilah' de Peter Paul Rubens. Una pintura que adquirió por 2,5 millones de libras esterlinas de la época, un valor de casi 8 millones de euros en valores actuales. Pero hay un problema, una inteligencia artificial asegura que la obra tiene un 91% de probabilidad de ser falsa.

Durante mucho tiempo los críticos han sugerido que la obra podía ser falsa. No coincide del todo en tiempo y sobre todo en estilo con las obras del artista flamenco Rubens. Ahora hay una prueba más a favor de la falsedad de la obra: el estudio hecho por una inteligencia artificial que ha analizado con todo lujo de detalles este 'Samson and Delilah' y cientos de obras más del artista. Inteligencias artificiales artistas y ahora también críticas de arte.

91,78% de probabilidad de que la pintura sea falsa

Art Recognition es una empresa suiza que utiliza la inteligencia artificial para reconocer y autenticar la veracidad de las obras de arte. Desde que fue creada ha analizado más de 400 obras y trabaja de forma permanente con algunas instituciones como la Universidad de Tilburg en Holanda. Recientemente la pusieron a analizar la polémica pintura de Rubens (o no de él).

Screenshot 2
Ejemplo de certificado de autenticidad que genera Art Recognition.

A la hora de analizar una obra para determinar si es verdadera o falsa la red neuronal primero aprende las características del artista. Para ello se entrena con numerosas obras reales del artista que las divide en trozos más pequeños y analiza en detalle. Una vez se completa el entrenamiento se le ofrece la imagen a analizar, que basándose en las características que sabe del artista, asignará un porcentaje de similitud con la pintura.

El informe en esta ocasión fue concluyente: 'Samson and Delilah', con una probabilidad del 91,78 %, no es una obra original de Rubens. Pra sacar semejante conclusión la inteligencia artificial analizó otras 148 pinturas de Peter Paul Rubens para tener una base de datos donde compararla. Determinó que el estilo de color utilizado no coincide con la paleta propia del artista. Los propietarios de la inteligencia artificial decidieron analizar la pintura en múltiple ocasiones, en todas ellas la IA aseguró con más del 90% de probabilidad de que no era una pintura de Rubens.

Pero la obra no es la primera vez que recibe estas críticas. Durante años numerosos críticos de arte han dejado ver que hay serias dudas sobre su autenticidad. Los dedos del pie derecho de Samson están recortados por ejemplo, mientras que si se muestran en un grabado original del artista. Así mismo, diferentes en composición de otras dos copias contemporáneas hechas por el propio Rubens. La pintura del National Gallery fue autenticada por Ludwig Burchard, un experto que tras su muerte 1960, se descubrió que había certificados de autenticidad falsos para obtener comisiones.

Utilizar una inteligencia artificial para determinar la veracidad de una obra de arte tiene sus puntos positivos y sus puntos negativos. Por un lado se puede argumentar que no va a conseguir apreciar detalles sublimes de una obra de arte, detalles propios de ser apreciados por un ojo humano. Por otro lado sin embargo, la IA puede analizar en instantes miles de factores y comparar con una base de datos enrome sin dejarse ningún pixel fuera. Todo ello sin subjetividad alguna ni bias a favor o en contra.

Vía | The Guardian



via Robótica e IA - Xataka https://ift.tt/3EYGBZ7

Esta herramienta anima cualquier fotografía retrato para hacerla hablar y expresarse: así de realistas son los resultados

Esta herramienta anima cualquier fotografía retrato para hacerla hablar y expresarse: así de realistas son los resultados

En marzo de este año D-ID nos sorprendió a todos con Deep Nostalgia, una herramienta de IA que permite animar fotografías antiguas para darle vida a nuestros antepasados. Los resultados eran, prácticamente, mágicos. Pero la compañía no se quedó ahí, sino que ha mejorado aún más su tecnología. Ahora llegan los "retratos hablantes", esencialmente permite colocar voz y expresiones en directo a cualquier fotografía de una persona donde se vea su cara de frente.

La gran limitación de Deep Nostalgia es que las animaciones que se realizaban estaban preconfiguradas. Puedes escoger entre varios estilos para que que la persona animada haga expresiones concretas, pero no hay una libertad completa para ello. Con 'Speaking Portraits', la nueva herramienta, nosotros controlamos todas las expresiones del deepfake.

Presentada la herramienta en el TechCrunch Disrupt 2021, con ella D-ID ha demostrado cuáles son sus nuevas capacidades en cuanto a aprendizaje profundo y deepfakes se refiere. La nueva herramienta consigue animar fotografías de rostros imitando las expresiones y la voz de otra persona que está hablando en directo. En el siguiente vídeo podemos ver cómo una mujer anima la fotografía de un niño para que mueva la cabeza y se exprese por igual:

El control total sobre la persona animada

Lo interesante aquí llega cuando se utiliza la versión más sofisticada de Speaking Protrait, llamada Trained Character. Como su propio nombre da a entender, hay que entrenar a la IA con más datos sobre la persona que va a ser animada. Los resultados también son mucho mejores.

Para utilizar esta versión mejorada del sistema, la persona que va a ser animada no basta con que se encuentre en una fotografía, sino que se necesita un vídeo de unos diez minutos en el que el sujeto realice una serie de movimientos y expresiones predeterminadas por D-ID. De este modo, la IA se entrena con las características de esta persona para luego poder hacer que able y se mueva como el usuario quiera.

Una vez los datos son recopilados sólo hay que grabar a la persona que va a animarlo para que hable y se mueva, en directo la persona animada comenzará a moverse y hablar como se le pida. A diferencia de la versión básica, en esta el fondo puede estar animado y el resultado es más realista, apenas hay muestras de que es un deepfake. D-ID muestra las capacidades de esto con una videollamada por Zoom donde uno de los participantes toma el control de tres rostros más:

¿Qué utilidad tiene esto? Más allá de controlar a compañeros de trabajo por Zoom, puede ser especialmente útil para aumentar las habilidades y capacidades de una persona en entornos concreto. Por ejemplo, para que un actor doblado en películas en otros idiomas sus labios coincidan con la voz. También para que un presentador pueda presentar cualquier noticia a cualquier hora aunque realmente sólo se use su imagen pero sean otros hablando en su lugar. También puede ser útil para hacer que una persona hable en varios idiomas aunque no los entienda, algo que ya hemos visto hacer a algunos candidatos políticos.

D-ID también tiene un ejemplo de una presentadora japonesa animada con esta herramienta:

Vía | PetaPixel
Más información | D-ID



via Robótica e IA - Xataka https://ift.tt/3kQUKzh

miércoles, 29 de septiembre de 2021

Un lobo con piel de cordero: Astro, el robot de Amazon, es una pesadilla para la privacidad según documentos filtrados

Un lobo con piel de cordero: Astro, el robot de Amazon, es una pesadilla para la privacidad según documentos filtrados

Astro te mira con sus grandes ojos circulares. Pestañea, guiña, los abre y los cierra un poco, y hace ruiditos mientras tanto. Recuerda al entrañable 'WALL-E' de la película de Pixar, pero cuidado, porque las apariencias podrían engañar.

Es al menos lo que revelan unos documentos filtrados en los que se muestra una cara oculta: Astro, dicen, está diseñado para seguir el comportamiento de sus usuarios. Quienes han trabajado en su desarrollo afirman que su sistema de reconocimiento es otra amenaza más para nuestra privacidad.

"Astro se tirará por las escaleras si se le presenta la oportunidad"

Cuando uno compra un Astro y se gasta los 999,99 dólares (o 1.449 dólares tras la promoción inicial) y lo enciende por primera vez, se le pide que "registre" su cara y su voz, así como las caras y voces de quienes habitan el hogar en el que funcionará: así Astro puede aprender quién se supone que puede estar allí.

Astro1
Los algoritmos de Movimiento Inteligente de Astro construyen un mapa de profundidad del entorno en el que se mueve este robot. Fuente: Amazon.

Ese documento, que identifica a Astro por su nombre en clave, 'Vesta', revela cómo el modo 'Centinela' ('Sentry') hace que el robot esté alerta por si no reconoce a alguien que está en casa o detecta ruidos extraños.

Sin embargo, desarrolladores que trabajaron en el desarrollo de Astro indicaban en ese documento que "Astro es terrible y es casi seguro que se tirará por las escaleras si se le presenta la oportunidad. La detección de personas es poco fiable en el mejor de los casos, lo que hace que la propuesta de seguridad en el hogar sea irrisoria".

Ese no es el único problema para un robot que según esas fuentes "tiene un coste absurdo". El mástil de la cámara periscópica se ha roto en varios dispositivos, afirmaban, y no hay forma de enviar el robot a Amazon cuando eso sucede. Para esos desarrolladores Astro es incluso "potencialmente peligroso para alguien que dependa de él para funciones de accesibilidad".

Otra de las fuentes destacaba que Astro "es una pesadilla de privacidad que es una denuncia de nuestra sociedad y de cómo sacrificamos la privacidad por la comodidad con dispositivos como Vesta".

El reconocimiento facial es según ese documento errático, algo que es preocupante para un dispositivo diseñado para seguir a la gente y determinar si es o no extraña en la casa.

Otro de los elementos que preocupan según esos datos es el de el seguimiento continuo de la actividad de sus propietarios y su comportamiento.

Amazon afirma tener la privacidad como foco absoluto

El objetivo es conseguir que Astro se comporte de forma autónoma e inteligente, pero para ello una vez más estos desarrolladores apuntaban a la cantidad de datos que el robot recolecta para aprender a interactuar de forma más eficiente con sus usuarios.

En Amazon aseguran que toda esa recolección de datos se hace con la privacidad como foco. "Las identidades visuales de los miembros de la casa registrados", explican en su blog, "se almacenan de forma segura en el dispositivo en local, y tanto Astro como Echo Show usan procesamiento local para reconocer a esos clientes registrados".

Con los mapas que crea Astro al recorrer la casa las cosas son algo distintas: aunque los datos de navegación se procesan localmente, cuando Astro crea el mapa tras la exploración se envía a la nube para almacenarlo y mostrarlo luego en la aplicación móvil de Astro.

No obstante, aseguran en Amazon, los datos de ese mapa están cifrados con claves de 256 bits. La información específica de privacidad de Astro revela cómo y cuándo se transfiere información, y en esencia el comportamiento es el que podíamos tener ya en altavoces de la familia Echo.

Vía | Vice



via Robótica e IA - Xataka https://ift.tt/2WmJHVb

Amazon presenta Astro, su primer robot autónomo inteligente

Amazon acaba de presentar sus novedades. Nuevos dispositivos se añaden a la ya amplia colección de la firma. Y algunos han sido toda una sorpresa. El primero es un termostato inteligente que nos ayuda a controlar el consumo. Sencillo de instalar, solo cuesta 59 dólares y se controla con la voz a través de Alexa. Se puede programar. Más interesante fue el nuevo miembro de la familia Echo. Se trata del Echo Show 15, con una gran pantalla de 15,6 pulgadas, mucho mayor que la clásica tele que tenemos en la cocina, y que puede incluso colgarse de la pared. No es un televisor, pero casi. La interface es nueva y muestra la información relevante del día. Cada miembro de la familia puede añadir sus propias citas al calendario o dejar notas para los demás en la propia pantalla. El nuevo Echo Show 15 es algo parecido a una pizarra desde la que se pueden controlar todos los dispositivos inteligentes de la casa, desde encender luces a ver otras habitaciones con las cámaras. Por supuesto, también se pueden consumir todo tipo de contenidos multimedia, desde noticias a series o películas de Prime Video o Netflix. Si no hacemos nada, podemos pedirle que haga rotar imágenes, a modo de salvapantallas. El diuspositivo incorpora hasta siete nuevas tecnologías. La principal viene de la mano de un nuevo procesador inteligente, el AZ2, que, con sus cuatro núcleos, sustituye al AZ1 del año pasado. Otra novedad son una serie de sonidos personalizados que pueden avisarnos, por ejemplo si hemos dejado abierta la puerta de la nevera. El nuevo Echo Show 15 estará disponible a finales de año por un precio recomendado de 249,99 dólares. Amazon Glow, ¿solo para niños? Gracias a una colaboración especial con Disney, los más pequeños podrán interactuar con los personajes, los juegos y los contenidos de la popular firma con solo decir 'Hey Disney' a su dispositivo Alexa. Solo hay que activar la nueva experiencia para poder disfrutar de ella en los altavoces Echo. Para los más pequeños, aunque no solo para ellos, nace el nuevo Amazon Glow, un curioso dispositivo que nos permite conectar con un solo toque con los miembros de nuestra familia que elijamos, hijos, abuelos o nietos. El dispositivo va mucho más allá de las videoconferencias, y permite interactuar a las personas que están a ambos lados de la comunicación proyectando sobre una mesa, o en el suelo, una pantalla virtual que se puede manipular desde los dos extremos de la conexión. Así, por ejemplo, los niños podrán jugar en cualquier momento con sus abuelos lejanos, hacer puzzles con ellos o ver juntos una serie de dibujos animados. El precio será de 249,99 dólares. Astro, el primer robot doméstico de Amazon Pero sin duda lo más espectacular fue la presentación de Astro, el primer robot de Amazon. Su cara es una pantalla, sus ojos dos cámaras y se desplaza sobre ruedas. No mide más de 50 cm de alto, pero puede ir por toda la casa. Puede hacer todo lo que hacen los demàs dispositivos Alexa, monitorizar la casa, patrullarla, comprobar que todo está en orden y, si no lo está, avisar al dueño con un mensaje o con un vídeo del problema. Puede llegar a ver los lugares altos proyectando una antena telescópica sobre su cabeza, equipada con una cámara, de modo que no habrá nada que se le escape. Si capta actividad mientras no estamos, investigará. Si escucha algún ruido sospechoso, irá a ver qué pasa. Hará un mapa de la casa y lo aprenderá de memoria. No solo es una cámara con ruedas. Detecta y comprende todo tipo de situaciones, distingue una mascota de una silla y sabe dónde están las puertas. Si encuentra una escalera, se detendrá. Costará 999 dólares a partir de fin de año. Se actualizará, haciendose cada vez mñas inteligente, durante siete años. Salud y seguridad Dentro de la familia Halo, destinada a mejorar la salud y la forma física, Amazon presentó también su nueva pulsera de actividd Halo View, con una pantalla AMOLED y desde la que se puede acceder a todas las métricas de Halo para monitorizar nuestra actividad física, pero también controlar lo que comemos. En seguridad, la gama Ring, que consta de sensores, alarmas y cámaras, también crece. El año pasado Amazon presentó una única cámara para toda la casa. Un pequeño dron que volaba por todas las habitaciones y nos evitaba tener múltiples.dispositivos. Un nuevo Kit Ring Alarm Pro consta de cinco dispositivos de seguridad que trabajan juntos. Cuentan 249,99 dólares.

via Tecnología https://ift.tt/3kQ9kHl

martes, 28 de septiembre de 2021

Astro es el robot doméstico de Amazon que vigila tu casa y que quiere ser algo más que un Alexa sobre ruedas

Astro es el robot doméstico de Amazon que vigila tu casa y que quiere ser algo más que un Alexa sobre ruedas

En Amazon creen que pronto habrá un robot en cada hogar, y quieren ser protagonistas en este ámbito con Astro, un pequeño robot sobre ruedas que cuenta con una tableta y una cámara periscópica que permite, por ejemplo, vigilar la casa o grabarnos durante videoconferencias.

Con Astro Amazon quiere llevar la potencia de Alexa a un robot que sea capaz de mostrarnos notificaciones y ponernos en contacto con nuestra familia y amigos desde una interfaz que combina un poco de sus Echo Show y un poco de sus soluciones de videovigilancia de la familia Ring.

En desarrollo...



via Robótica e IA - Xataka https://ift.tt/3APPgKS

viernes, 24 de septiembre de 2021

Lo último de OpenAI es un modelo de inteligencia artificial que resume 'Alicia en el País de las Maravilla' en 136 palabras

Lo último de OpenAI es un modelo de inteligencia artificial que resume 'Alicia en el País de las Maravilla' en 136 palabras

Lo que OpenAI está consiguiendo con GPT-3 es, en pocas palabras, impresionante. Este nuevo modelo de lenguaje es capaz de programar, diseñar, mantener conversaciones sobre temas complejos de forma fluida y, ahora, resumir libros enteros en un par de frases.

El sistema funciona de una forma bastante peculiar. En lugar de resumir el libro completo de una sola vez, lo hace reduciendo la tarea en tareas más pequeñas. Primero resume el texto original en secciones, luego resume esas secciones, que a su vez son resumidas en secciones más pequeñas y, finalmente, se consigue un resumen mucho más corto con la idea principal del libro.

De 24.449 a 136 palabras

Libros

De acuerdo a OpenAI, su modelo ajustado a partir de GPT-3 genera "resúmenes sensatos de libros entero incluso igualando la calidad media de los resúmenes escritos por humanos". Aseguran que tiene una precisión de seis sobre siete con respecto a los humanos que han leído el libro el 5% de las veces y de cinco sobre siete con respecto a los humanos que han leído el libro el 15% de las veces.

Para demostrarlo, OpenAI ha publicado una serie de resúmenes de libros en su web, pero a continuación mostramos traducidos los resúmenes de 'Alicia en el País de las Maravillas' y 'Romeo y Julieta' para que nos hagamos una idea:

"Alicia cae en una madriguera y crece hasta alcanzar un tamaño gigantesco tras beber una misteriosa botella. Decide concentrarse en volver a su tamaño normal y encontrar el camino hacia el jardín. Se encuentra con la Oruga, que le dice que un lado de la seta la hará crecer más alto y el otro más bajo. Se come la seta y vuelve a su tamaño normal. Alicia asiste a una fiesta con el Sombrerero Loco y la Liebre de Marzo. La Reina llega y ordena la ejecución de los jardineros por haberse equivocado con las rosas. Alicia las salva poniéndolas en una maceta. El Rey y la Reina de Corazones presiden un juicio. La Reina se enfada y ordena que Alicia sea condenada a muerte. Alicia se despierta y encuentra a su hermana a su lado" - Alicia en el País de las Maravilla (26.449 palabras).
"Romeo se encierra en su habitación, ya no está enamorado de Rosalina. Capuleto invita a muchos invitados a su fiesta, entre ellos Romeo y su amor, Julieta. Lady Capuleto le dice a Julieta que Paris, un hombre valiente, busca su mano en matrimonio. Romeo ve a Julieta y se enamora de ella. Julieta le confiesa su amor a Romeo y acuerdan casarse. Romeo mata a Tybalt en una pelea y es condenado al exilio. Julieta acepta fingir su muerte e ir a Mantua con Romeo. Romeo compra veneno para matar a Julieta en su tumba. Él y Paris se pelean y ambos mueren. Julieta se despierta y se suicida. El Príncipe dice que el cielo ha castigado el odio entre los Capuletos y los Montescos" - Romeo y Julieta (25.433 palabras).

Según explica la compañía, los modelos grandes entrenados previamente no son buenos para resumir. Una forma de mejorarlos es entrenarlos con comentarios de los humanos, pero eso requiere que dichos humanos hayan leído el libro entero y es algo que podría llevar horas.

¿Solución? La descomposición recursiva de tareas, o lo que es lo mismo, dividir una tarea difícil en otras más fáciles. Eso permite a los humanos evaluar los resúmenes más rápidamente y, evidentemente, permite al modelo resumir libros de cualquier longitud.

OpenAI entrenó al modelo con un dataset de libros, mayormente de ficción, que contenían unas 100.000 palabras de media. Para evaluar el modelo, seleccionaron los 40 libros más populares de 2020 y encargaron a dos personas que los leyeran, hicieran un resumen y luego evaluaran el resumen hecho por la IA.

El resultado es bueno, pero no está exento de problemas. Algunos de los más destacables es que puede generar afirmaciones inexactas (algo que puede deberse a la falta de contexto derivada de simplificar una tarea grande en tareas peque´ñas) y que, en algunas ocasiones, el resumen se convierte en una lista de los eventos importantes que hay en el libro.

En declaraciones a VentureBeat, OpenAI ha confirmado que la compañía "no tiene places de hacer disponible públicamente u open source el modelo de resumen de libros".

Vía | OpenAI



via Robótica e IA - Xataka https://ift.tt/3ADwSVy

lunes, 20 de septiembre de 2021

A Spot de Boston Dynamics le encuentran un nuevo trabajo: inspector de seguridad en fábricas

A Spot de Boston Dynamics le encuentran un nuevo trabajo: inspector de seguridad en fábricas

A finales de 2020 Hyundai compró Boston Dynamics a Softbank. Desde entonces no hemos visto muchos avances del perro-robot de Boston Dynamics, aunque finalmente ha aparecido en uno nuevo vídeo. En él, Hyundai nos demuestra cómo Spot puede ser el perfecto inspector de seguridad en una fábrica.

Según explica Hyundai, han comenzado a probar el potencial de Spot en una planta de fabricación de Kia en Corea del Sur. Spot pasará a ser uno de los servicios utilizados por la marca para garantizar la seguridad de las instalaciones para los trabajadores. Entre sus tareas están monitorear temperaturas, verificar posibles insectos o detectar personas. Si se encuentra algún imprevisto o se decide inspeccionar alguna zona más a fondo, el personal puede tomar el control remoto del robot.

Una cosa que vemos en este vídeo es que el aspecto de Spot a cambiado ligeramente. Hyundai lo ha equipado con una "mochila" especial que trae una serie de herramientas extra y capacidades al robot. Entre los nuevos accesorios destaca una LiDAR, una cámara térmica y una "unidad de servicio de procesamiento de inteligencia artificial", que le dota de más inteligencia y autonomía al robot.

La idea de Hyundai es evaluar las capacidades de Spot para vigilar y ser un robot de patrulla. Si el robot cumple con lo prometido, será desplegado en más sitios industriales adicionales.

Screenshot 1

Boston Dynamics puso a la venta Spot en julio de 2020, eso sí, a un precio no apto para cualquiera. El modelo básico arrancaba en unos 75.000 dólares, a los que se pueden sumar unos cuantos miles más con accesorios extra como el brazo robótico para el perro-robot.

Las diferentes profesiones de Spot

Donde más lo hemos visto (o al menos donde más ha llamado la atención) es en actividades con las autoridades. El ejército francés lo ha puesto a prueba, la policía estadounidense o la de Singapur.

Las actividades de patrulla son su otro gran punto fuerte. Lo que ha hecho con Hyundai en cierto sentido ya la hemos visto hacer a Spot. Boston Dynamics colaboró con Foster + Partners para que Spot vigilase edificios en construcción. Otra tarea similar que ha hecho es en Chernóbil, midiendo la radiación en la zona de exclusión. Aunque quizás la mejor de las actividades que ha hecho hasta ahora es la de bailar. Boston Dynamics nos mostró un vídeo donde todos sus robots se pusieron a bailar.

Más información | Hyundai



via Robótica e IA - Xataka https://ift.tt/3hNWdVa

jueves, 9 de septiembre de 2021

En vídeo: los 'barcos fantasma' de Estados Unidos ya son capaces de disparar misiles

La tecnología no solo facilita la vida. Su constante avance también está siendo aprovechado por ejércitos de todo el mundo. Y el de Estados Unidos, evidentemente, no es una excepción. El país sigue preparándose para la guerra del futuro y para ser capaz de contrarrestar a cualquier estado antagonista en caso de conflicto. Recientemente su Departamento de Defensa ha compartido imágenes de uno de sus barcos robot experimentales, en concreto un USV Ranger que no necesita tripulación humana, lanzando por primera vez un misil. En concreto, uno de los más punteros del país, un SM-6 con una peso de 1.500 kilogramos, capacidad para viajar a Mach 3.5 y alcance superior a los 240 kilómetros. «Son una evolución de los SM-1 y las SM- 2 que tenían las fragatas españolas. Esto ya es un salto notable. Tienen capacidad para derribar misiles balísticos y, supuestamente, para interceptar misiles hipersónicos. Representan un salto tecnológico enorme», explica en conversación con ABC el analista de defensa Jesús Manuel Pérez Triana sobre el SM-6, que, además, puede ser empleado para atacar objetivos en tierra, mar y aire, independientemente de que estén en movimiento. En este caso, aunque el USV Ranger está capacitado para navegar sin necesidad de que haya nadie a bordo de la embarcación, la política estadounidense requiere que la selección del objetivo y el orden de disparo sean controlados por una persona, como recuerdan desde 'New Sciencist'. La prueba del lanzamiento, que ha sido compartida por el Departamento de Defensa a través de sus redes sociales, está encuadrada dentro del programa Ghost Fleet Overlord (Señor absoluto de la flota fantasma, en castellano). Está destinado al desarrollo de barcos autónomos. Hasta el momento, las pruebas dentro de esta iniciativa, que lleva activa desde 2017, se han centrado en probar la autonomía de los barcos robot en misiones sin asistencia humana; además, interesa que los dispositivos sean capaces de evitar a otras tripulaciones cuando estén en alta mar sin necesidad de que un humano les de órdenes. Desde 'New Sciencist' apuntan que esta no es la primera vez que un barco robot autónomo lanza un misil. El ejército israelí ya lo consiguió en 2007. Sin embargo, remarcan que el SM-6 estadounidense es 100 veces más grande que el proyectil empleado en esa prueba.<blockquote class="twitter-tweet"><p lang="en" dir="ltr">See the game-changing, cross-domain, cross-service concepts the Strategic Capabilities Office and <a href="https://twitter.com/USNavy?ref_src=twsrc%5Etfw">@USNavy</a> are rapidly developing: an SM-6 launched from a modular launcher off of USV Ranger. Such innovation drives the future of joint capabilities. <a href="https://twitter.com/hashtag/DoDInnovates?src=hash&amp;ref_src=twsrc%5Etfw">#DoDInnovates</a> <a href="https://t.co/yCG57lFcNW">pic.twitter.com/yCG57lFcNW</a></p>&mdash; Department of Defense (@DeptofDefense) <a href="https://twitter.com/DeptofDefense/status/1433852377870839808?ref_src=twsrc%5Etfw">September 3, 2021</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> Compitiendo con China El interés en el desarrollo de armamento autónomo es una constante en países de todo el mundo desde hace aproximadamente una década. De acuerdo con Pérez Triana, detrás de la operación Ghost Fleet Overlord y del lanzamiento del misil se encuentra el interés de Estados Unidos por ser capaz de contrarrestar a China en caso de conflicto. Precisamente el país asiático lleva varios años fortaleciendo su armada. Hace apenas unos meses, su presidente, Xi Jinping, asitió a la inauguración de un nuevo submarino nuclear, un destructor y un buque de asalto. Las tensiones en el mar entre los dos países, además, llevan existiendo desde hace tiempo. El pasado 2020 China expulsó al destructor de misiles norteamericano USS Barry de las costas del Mar del Sur; territorio en disputa entre los dos estados. «(El desarrollo de barcos robot) te permite cubrir un área extensa del océano con unidades baratas y dirigidas de forma remota. Eso entra dentro del concepto de letalidad distribuida de la US Navy para enfrentarse a China», dice el analista de defensa. «Estados Unidos está diseñando una estrategia aeronaval para ser capaz de contrarrestar a China. Ha llegado a la conclusión de que la capacidad de detección del ejército chino provoca que los buques muy grandes y costosos, en un intercambio de misiles, llevarían las de perder. Eso se contrarresta con una flota muy numerosa, de buques cada vez más pequeños, e interconectados. De tal modo que si uno detecta a un enemigo este sea capaz de transmitir información al resto de unidades y esas, cada una en una esquina del tablero, serían capaces de lanzar su armamento inteligente contra la amenaza», completa Pérez Triana. Además, destaca que el área en el que se desarrollaría esa hipotética guerra marítima, el Pacífico que baña las costas de Asia, tiene una extensión enorme que obliga al desarrollo de «más buques y más pequeños». Estas embarcaciones, además, permiten que el coste en vidas en caso de sufrir un ataque llegue a ser inexistente, ya que pueden controlarse de forma autónoma. A pesar de ello, asociaciones, como 'Stop Killer Robots', y expertos en robótica e Inteligencia Artificial han alzado la voz en numerosas ocasiones para alertar sobre los riesgos de emplear armamento completamente autónomo y armado.

via Tecnología https://ift.tt/3tt3kHk

Roomba J7+: la aspiradora más inteligente capaz de esquivar los 'accidentes' de tu mascota

Hemos llegado a un punto en el que el hardware de las aspiradoras, en autonomía, succión y capacidad de limpieza, es difícilmente mejorable. Lo que sí se puede perfeccionar es la inteligencia de la máquina para saber cuándo deben funcionar sin molestar y, sobre todo, mejorar su independencia, ya que la mejor aspiradora es la que necesita menos intervención humana. Precisamente, el fabricante de las aspiradoras Roomba, iRobot, tal y como anunció el año pasado, se ha centrado en mejorar la Inteligencia Artificial de sus dispositivos y por ello acaba de lanzar Genius 3.0, una actualización gratuita para todas sus aspiradoras con capacidades de conexión a internet. Esta nueva versión de Genius 3.0, tiene como objetivo que el hogar se vuelva realmente inteligente y que sea el robot el que trabaje para el hogar, no al revés. La nueva plataforma hace hincapié en tres aspectos, que el robot sea capaz de seguir las reglas de la casa, entender mejor el hogar y mejorar en el mapeado inteligente. Con la idea de molestar lo mínimo a los habitantes del domicilio, el sistema añade dos nuevas características. La primera es la incorporación del desplazamiento silencioso. Si, por ejemplo, quieres aspirar la cocina, pero alguien está echando la siesta, el robot puede llegar hasta ella sin molestar. En la segunda, la aplicación también detectará cuándo sales de casa por geolocalización en el teléfono móvil y aspirará te alejes. Parará, precisamente, cuando te vayas acercando a tu domicilio. En cuanto al mapeado para ayudar a la puesta en marcha inicial de cualquier Roomba, éste se podrá transferir entre robots, muy útil si estamos renovando aspiradora. También, este mapeado inicial se volverá más inteligente sugiriendo el etiquetado de estancias de forma automática. Otra novedad es que la aplicación ofrecerá una estimación del tiempo de limpieza para que podamos decidir si da tiempo a que limpie, por ejemplo, antes de una reunión. Lamentablemente, esta característica está sólo disponible para los robots con Imprint Smart Mapping, es decir la generación 7 y 9. El mejor representante de esta nueva actualización de Genius 3.0 es la nueva Roomba j7+. Por dentro, nos encontraremos unas capacidades muy similares a la i7. Donde mejora considerablemente es en su inteligencia, sobre todo, en aspectos clave como la detección de objetos. Por ejemplo, es capaz de esquivar objetos problemáticos, como unos auriculares, unos zapatos o cables que generalmente suelen acabar atascados en los cepillos del robot. Además, a través de la aplicación preguntará si los obstáculos son temporales o definitivos mostrando una foto de lo que haya encontrado. Así, si es una lámpara que hemos cambiado de sitio se lo podremos indicar. También, gracias a la inteligencia artificial puede detectar los 'accidentes' de las mascotas evitando dejalos esparcidos por la casa, como podría ocurrir con las generaciones anteriores de Roomba. Una característica interesante para los dueños de cachorros. Con esta visión mejorada de la Roomba j7+ la navegación se vuelve más delicada frenando antes de llegar a los muebles o las paredes, para que el toque con el frontal sea mucho más suave. La inteligencia del dispositivo está diseñada para anticiparse al desorden, para aprender de los momentos y lugares que más se ensucian, y sugerir horarios personalizados. Por ejemplo, empezar a limpiar cuando te vas de casa y parar en cuanto llegas para que nunca escuches el aspirador funcionando. También sugerirá limpiar con más frecuencia en épocas de alergias o si hay mascotas, en la muda de pelo. Siempre buscando la máxima de limpiar lo mejor posible, con la menor intervención. Toda esta inteligencia artificial tiene como objetivo hacer a su usuario la vida más fácil, hasta el punto de poder olvidarse de la aspiradora, pero también es más intrusiva en el hogar. iRobot es consciente de que mantener la privacidad es primordial, y por ello se pueden desactivar las imágenes tomadas por el dispositivo y que se envían a los servidores de iRobot, donde se usan para que la IA aprenda a detectar nuevos obstáculos. Desde la empresa apuntan que las imágenes que se envían a iRobot para que el algoritmo mejore siempre están cifradas. El diseño de la Roomba j7+ y su 'clean base' se ha mejorado buscando una mejor integración con el hogar con acabados más premium. El exterior del robot es de metal pulido, y la base se ha rediseñado para que quepa debajo de una mesa, siendo más baja, pero más ancha que sus predecesoras. Además, le han añadido detalles como un tirador de cuero para abrir la tapa y espacio para bolsas extra. Como en los sistemas anteriores, iRobot sigue confiando en la bolsa para almacenar la suciedad. De esa manera evita que el polvo se derrame al volcarlo en la basura, ya que la bolsa se cierra nada más sacarla de la base. La bolsa ofrece a la Roomba j7+ una autonomía de más de 60 días. Ahora, hay que tener en cuenta que el precio del dispositivo no está al alcance de todos los bolsillos. El j7+ alcanza los 999 euros, mientras que el j7, a secas, se queda en 749.

via Tecnología https://ift.tt/38OSgLc

Roomba J7+: iRobot presenta su nueva generación de robots aspiradores

Y de la mano, una nueva app llamada Genius 3.0 que mejora las capacidades de análisis y reconocimiento de los aspiradores más modernos Leer

via Tecnología // elmundo https://ift.tt/38SMaJC

miércoles, 8 de septiembre de 2021

Esta startup consigue reducir o cambiar el acento por otro en tiempo real durante las llamadas

Esta startup consigue reducir o cambiar el acento por otro en tiempo real durante las llamadas

Hablar con un acento regional puede llegar a penalizar económicamente hasta un 20% en el sueldo. No hay acentos mejores que otros, pero en el mundo anglosajón no tener acento americano o británico al hablar inglés puede ser motivo de discriminación en determinadas ocasiones como al conseguir una oferta de trabajo o al realizar llamadas comerciales.

Para intentar corregir este asunto está Sanas, una startup norteamericana que recientemente ha conseguido una ronda de financiación por valor de 5,5 millones de dólares para continuar el desarrollo de su plataforma de inteligencia artificial, la primera en aplicar algoritmos en tiempo real y "neutralizar" el acento.

Transformando acentos en tiempo real

Sanas es una "tecnología de traducción en tiempo real que permite que quien hable lo haga con el acento que desee sin ningún retraso notable", explican desde la propia compañía.

Sanas.AI es capaz de reconocer mediante algoritmos acentos como el español y aplicar una modificación para que al otro lado de la llamada suene con otro acento concreto, principalmente el americano estándar.

Sanas

Se trata de un software instalado localmente en el dispositivo, lo que significa que no debe conectarse a los servidores de la plataforma para poder funcionar.

Según describen se integra en el sistema de sonido del sistema operativo, por lo que creen ser capaces de ser compatibles con cualquier herramienta de audio o vídeo. Si bien, por el momento el sistema ha sido probado en forma de programa piloto con miles de personas en los Estados Unidos, Filipinas y la India. Debido al éxito en varios centros de llamadas, la compañía ha conseguido la ronda de financiación para continuar con el trabajo.

A finales de año esperan poder reducir y "traducir" acentos como el americano, español, británico, indio, filipino y australiano.

Según los datos de la compañía, con su sistema aumentar la claridad de las conversaciones y han mejorado la fluidez en un 40%, reduciendo incluso los errores con Google TTS en un 20,5%.

El tiempo de latencia para la aplicación de esta modificación del audio está en unos 200 milisegundos, una latencia relevante respecto a las llamadas estándar pero sin llegar a suponer una barrera insalvable.

Según describe TechCrunch, el resultado es mejorable en cuanto a si bien sí se pierde el acento original, el resultado es algo más mecánico y la cadencia y personalidad de la voz queda difuminada.

Sanas ha sido creado por un equipo de estudiantes de ingeniería de Stanford y distintos expertos en aprendizaje automático del habla. "Queremos hacer que la comunicación sea fácil y libre de fricciones, para que las personas puedan hablar con confianza y entenderse entre sí, donde sea que estén y con quien estén tratando de comunicarse", explica Maxim Serebryakov, fundador de esta herramienta.



via Robótica e IA - Xataka https://ift.tt/3niujnR

RoboVac X80 y HomeVac H30, nuevas apuestas de aspiración de eufy

La marca especialista en domótica y opciones para el hogar conectado eufy ha decidido apostar por entrar de lleno en el mercado de la aspiración con la opción RoboVac X80 que denominan el robot aspiradora más avanzado del mercado, y su aspirador de mano HomeVac H30, vamos a conocerlos en profundidad con sus nuevos detalles y características.

RoboVac X80

RoboVac X80 es el primer robot aspirador del mundo en incluir una tecnología de aspirado de doble
turbina, que ofrece 2 motores de 2000Pa de potencia de succión. Esto aumenta enormemente la presión dinámica del robot, siendo capaz de mejorar la recogida de pelo de mascotas en un 57,6%* al mismo tiempo que realiza una limpieza eficiente y efectiva en una única pasada. Con el modelo RoboVac X80 Hybrid, una limpieza más profunda es posible con su doble función que aspira y pasa la mopa al mismo tiempo. La ratio de utilización del depósito de suciedad ha aumentado un 127%*, al alcanzar
una capacidad de hasta 600ml.

  • * > Información ofrecida por la marca

En conjunto, las tecnologías de navegación por láser iPath y de mapa inteligente potenciados por
Inteligencia Artificial (AI Map 2.0) crean un mapa preciso de la casa que ayuda al robot a calcular una
rutina de limpieza más eficiente sin olvidar ningún rincón.

HomeVac H30

La segunda de las novedades que eufy ha presentado hoy es el aspirador de mano HomeVac H30,
que ofrece versatilidad en el día a día. Con su sistema TriPowerTM de máxima capacidad de succión,
es sencillo mantener un entorno limpio, saludable y libre de todo tipo de alérgenos. Su diseño
compacto y ligero, de solo 808 gramos de peso, lo hace cómodo de utilizar durante largos periodos
de tiempo mientras guarda espacio para un depósito de suciedad de 250ml que incluye una
tecnología de raspado de polvo para retirar pelos del filtro más fácilmente.

En función del paquete elegido, HomeVac H30 puede incluir accesorios para limpiar el coche, un
cepillo motorizado que facilita la limpieza del pelo de mascotas, y en el kit Infinity, el cepillo para
suelos duros que es capaz de aspirar y pasar la mopa en una sola pasada.

Los nuevos modelos estarán disponibles para comprar en España a finales de septiembre en
Amazon. La familia RoboVac X80 comienza en 499,99€ y el modelo X80 Hybrid costará 549,99€.
HomeVac H30 tiene un precio de partida de 159,99€, que varía en función de la versión y accesorios
elegidos.



via Actualidad Gadget https://ift.tt/3zWVWWX

martes, 7 de septiembre de 2021

Un robot pony autónomo para que los niños interactúen y se monten sobre él: así es Little White Dragon

Un robot pony autónomo para que los niños interactúen y se monten sobre él: así es Little White Dragon

Con robots de mirada tierna como el perrito Aibo de Sony, el valle inquietante es más bien un camino de mariposas y colores primaverales hacia establecer un vínculo cariñoso con un robot-mascota, sobre todo en el caso de los niños. Y en esta idea parecen haberse sustentado los de XPeng Robotics para la creación de su robot pony para niños, aunque parece una mezcla de varias especies.

Quizás por ello el nombre del producto es Little White Dragon, y va algo más allá de dejarse acariciar por sus dimensiones. Se trata de un robot que recuerda a Spot de Boston Dynamics por sus patas y cuerpo, pero de aspecto mucho más amigable y colorido, pensado para que los niños interactúen y directamente se monten en él.

Corre, habla y "se emociona", y cuando se agota la batería se va él sólo a la base de carga

Quizás Xpeng nos suene de algo y de hecho hemos hablado de ella en Xataka. Con una importante división de coches eléctricos, la casa inició el pasado año Xpeng Robotics, una rama dedicada a los robots inteligentes. En esa labor se ubica Little White Dragon, el cual según explican en CNEvPost está orientado a ser "un pequeño vehículo inteligente para niños".

Lttle White Dragon 02

Como se ve en las imágenes y en el vídeo de su anuncio, Little White Dragon no recuerda precisamente a algo que hayamos visto en 'Juego de Tronos' o en alguna otra serie de ficción en la que aparezcan estos seres, sino que es más bien algo entre un perro grande y un pony, optando Xpeng por el pequeño équido para describirlo. Quizás incluso el unicornio que tendría Doraemon.

Little White Dragon dispone de sensores para reconocer sus alrededores y poder desplazarse, y según Xpeng puede interaccionar "emocionalmente". Una capacidad que ya achacaron a robots previos, como (el quizás en vías de extinción) Pepper.

Entre esos sensores tiene un LiDAR y cuenta con una serie de cámaras, de manera que puede crearse un mapa de manera similar a como hacen muchos robots aspiradores. Así puede trazar rutas de manera autónoma evitando obstáculos, según XPeng, y ser un vehículo para niños pequeños (sin que por ahora hayan especificado una edad).

Lttle White Dragon 03
Lttle White Dragon 05
Detallan en Xpeng que, cuando el robot detecta que tiene la batería baja, se dirige a la plataforma de carga de manera autónoma.

Dispone de reconocimiento facial y de voz, pudiendo interactuar con él mediante comandos de audio. Como suele ocurrir con este tipo de robots, dispone de una pantalla que muestra animaciones según la respuesta, que en este caso se corresponderían a esas "emociones" (siendo además una pantalla táctil).

Lttle White Dragon 04

A falta de saber el precio y la carga máxima que puede soportar, Little White Dragon se presenta como un robot asistente que hace las veces de mascota robótica que se ha intentado con robots previos como el adorabilísimo Nicobo (que venía incluso con "gases"). A Little White Dragon se le pueden añadir accesorios para cargar la compra o escalar, pero tampoco han dado a conocer el precio y la disponibilidad de los mismos, así que habrá que esperar si la idea es hacerse con uno. Mientras tanto, siempre podréis intentar haceros con un CyberDog de Xiaomi, aunque su diseño no es precisamente infantil.



via Robótica e IA - Xataka https://ift.tt/38RC0ZC

Robots aspiradores que suben y limpian escaleras y abren cajones: la llamativa idea que dejan ver las últimas patentes de Dyson

Robots aspiradores que suben y limpian escaleras y abren cajones: la llamativa idea que dejan ver las últimas patentes de Dyson

En los últimos años los robots aspiradores han ido incorporando nuevas tecnologías y los hemos visto incluso en su versión para limpiar ventanas, pero sigue habiendo un enemigo inquebrantable para ellos: las escaleras. Al menos hasta que ideas como la que ha tenido Dyson tomen forma, porque según sus recientes patentes están pensando en un robot aspirador que suba y baje escaleras.

No se trata del recurso que pensó aquel héroe sin capa del que hablamos que convirtió en dron su robot aspirador, sino de unos diseños de robot que no sólo serían capaces de limpiar las escaleras, sino también de abrir cajones. Están en estatus de patente, pero desde luego se trata de ideas que supondrían cierta revolución en este ámbito si acaban funcionando.

La esperanza para tener limpios ciertos rincones rebeldes

Se trata de dos patentes registradas en Reino Unido en relación a un diseño de robot que puede recorrer y limpiar escaleras y otro diseño de unos brazos robóticos ideados para abrir cajones y agarrar objetos como tazas simultáneamente. En Bloomberg se hacen eco de ellas y comentan que fuentes cercanas a estos proyectos aseguran que el fabricante ha estado trabajando en ello.

Al parecer, el fabricante habría estado trabajando en el desarrollo de un robot autónomo de limpieza capaz de interactuar con muebles y objetos de la casa (según la fuente interna). Como siempre ocurre con las patentes, el hecho de registrarlas no implica que vayan a acabar materializándose en un producto de consumo y un portavoz de Dyson comenta a Bloomberg que aunque registran "muchas patentes" pero nunca hablan acerca de "tecnologías que quizás lancen o quizás no", pero sin duda son ideas que resultarían muy útiles y que supondrían un llamativo aliciente.

Dyson Patente
Izquierda: ilustración del diseño para subir y bajar escaleras, además de limpiarlas (imagen: IPO UK). Derecha: boceto del brazo robótico para agarrar tazas (imagen: IPO UK).

Al fin y al cabo, llevamos años viendo robots subir escaleras y trepar paredes como si nada (o haciendo parkour, algunos más en plan experimental y otros ya trabajando en entornos en los que la limpieza va más allá de quitar pelusas, como en el caso de las centrales nucleares. Hace unos meses vimos también una propuesta de robot recolector de manzanas cuyo punto destacado era precisamente el brazo robot especializado, por lo que los robots de Dyson contarían con precedentes que han demostrado hacer bien esas funciones.

Queda ver si la propuesta del fabricante en sus patentes acaba siendo una realidad como todos estos (y muchos otros) precedentes con autonomía y habilidades que, como solemos buscar en los robots, puedan acabar echándonos un cable y librándonos de alguna tarea. Si se trata de algo que aplaque esos mortíferos rincones de las escaleras, verdaderas fábricas de bolas pelo de gato, sería un verdadero shut up and take my money para muchos de nosotros.

Vector # Macrovector



via Robótica e IA - Xataka https://ift.tt/3zQKkFb

Singapur ya utiliza robots patrulla: visión nocturna y cámaras 360º para vigilar que no se formen grupos de más de cinco personas

Singapur ya utiliza robots patrulla: visión nocturna y cámaras 360º para vigilar que no se formen grupos de más de cinco personas

Xavier es su nombre y las autoridades de Singapur ya están utilizándolo para patrullar la ciudad y asegurar que se cumplen las medidas anticovid, entre ellas la de evitar aglomeraciones de más de cinco personas. Se trata de un robot autónomo, equipado con sensores, visión nocturna y cámaras con visión de 360 grados.

El robot está siendo probado en zonas públicas para ayudar a las patrullas y controlar que no se forman grandes grupos. Durante las próximas tres semanas, estos robots monitorizarán las multitudes en Toa Payoh Central con el objetivo de detectar "comportamientos sociales indeseables".

Un robot que también detectará fumadores o vendedores ilegales

Según describe HTX (Agencia de Ciencia y Tecnología del Equipo Nacional de Singapur), Xavier también será capaz de detectar comportamientos inadecuados como fumar en áreas prohibidas, vendedores sin permiso o el estacionamiento erróneo de bicicletas y motos.

En caso de detectar uno de estos casos, el robot enviará un mensaje al centro de control y mostrará un mensaje de advertencia en su pantalla para alertar a los transeúntes.

El robot dispone de cuatro ruedas y distintos sensores y cámaras en la zona superior. El vídeo captado por sus cámaras es analizado por el propio robot con sus algoritmos de inteligencia artificial y es capaz de evitar obstáculos, tanto estacionarios como dinámicos, así como seguir una ruta preconfigurada.

Singapur planea ampliar hasta las 200.000 cámaras de vigilancia durante la próxima década. Estos robots pretenden ser una medida adicional para reducir el personal necesario para patrullar a pie.

No es la primera vez que Singapur apuesta por robots para realizar actividades de seguridad. En 2020, Singapur utilizó los perros robot Spot de Boston Dynamics para vigilar los parques. Ahora las autoridades apuestan por un robot más compacto y pensado para zonas más transitadas.

Países como China también utilizan desde hace unos pocos años robots autónomos enfocados al control del espacio público, realizando tareas como el control del tráfico.



via Robótica e IA - Xataka https://ift.tt/3jL4Z7P

miércoles, 1 de septiembre de 2021

El nuevo truco de Google que convierte imágenes pixeladas en fotos de alta resolución

La Inteligencia Artificial lleva años tratando de transformar, de forma radical, la sociedad. Durante los últimos meses, empresas tecnológicas han hecho avances en el campo que permiten, por ejemplo, transcribir la voz sin necesidad de haber entrenado a la máquina con texto o enseñar a un robot a caminar exactamente igual a como lo haría un ser humano. Google, empresa que igual te ayuda a buscar información en Internet que colocarte un altavoz inteligente en la mesilla de noche, no es una excepción. Recientemente, la tecnológica estadounidense ha compartido los resultados de una investigación en la que comparte sus últimos avances para transformar imágenes con una resolución baja en fotografías de gran calidad. «La superresolución tiene muchas aplicaciones que pueden... Ver Más

via Tecnología https://ift.tt/2WIqxcl

Este nuevo método de Google transforma fotos pixeladas en espectaculares imágenes de alta resolución

Este nuevo método de Google transforma fotos pixeladas en espectaculares imágenes de alta resolución

Si una cosa se le está dando cada vez mejor a la inteligencia artificial es la generación de imágenes. Basándose en un modelo inicial las inteligencias artificiales actuales pueden generar una imagen similar, colorear o escalar a mayor resolución. Esto último es algo que la IA de Google hace muy bien, tanto que convierte fotografías totalmente pixeladas en fotografías de alta resolución.

Una investigación reciente del departamento de inteligencia artificial de Google muestra cómo los nuevos avances en este aspecto permiten crear increíbles imágenes. El modelo de aprendizaje automático de la compañía es capaz de tomar una foto sin apenas resolución y escalarla para conseguir detalles únicos.

Modelos de difusión

A la hora de escalar fotografías por inteligencia artificial existen diferentes métodos para conseguirlo. El utilizado por Google es uno llamado modelos de difusión. Se trata de un modelo generativo que comenzó a implementarse en 2015 pero ha sido recientemente cuando este enfoque ha sido de utilidad para Google.

Según explican, el sistema toma como entrada una imagen de baja resolución y a partir de ahí construye una imagen de alta resolución pro su cuenta. Para ello Google dice que primero han entrenado a la IA para bajar la resolución de las imágenes y hacerlas extremadamente pixeladas. A partir de ahí "aprende a revertir este proceso, comenzando por el ruido puro y eliminando progresivamente el ruido para alcanzar una distribución objetivo a través de la guía de la imagen de entrada de baja resolución"

Screenshot 4

Con este método Google consigue mejorar especialmente los retratos de personas. Sin embargo va un paso más allá y con una segunda IA es capaz de escalar aún más las fotografías. De resoluciones de 32 x 32 px es capaz de llegar hasta a 1024 x 1024 px. Para esto primero las transforma a 64 x 64 px y toma esa nueva fotografía como referencia para subir a 128 x 128 px, luego el proceso de nuevo y así hasta la resolución deseada.

Los resultados son sin duda espectaculares, permite crear fotografías genuinamente detalladas prácticamente de la nada. Si bien hay algunos errores mínimos (por ejemplo a la hora de generar las transparencias de las gafas), las fotografías pueden pasar por reales sin problema alguno. De hecho, si no se sabe el contexto probablemente una persona normal y corriente no identificaría que son escaladas por una IA.

¿El uso de esto? Efectivamente, mejorar fotografías tomadas por los usuarios es una aplicación directa y clara para esto. Por ejemplo para mejorar la resolución de las fotografías tomadas con cámaras móviles, que no siempre son las mejores. Sin embargo también puede ser de utilidad en otros sectores como la medicina para mejorar las fotografías médicas.

Vía | Business Insider
Más información | Google AI Blog



via Robótica e IA - Xataka https://ift.tt/3Dy8WES