viernes, 28 de mayo de 2021

El peligro es real: un dron ha atacado a personas de forma totalmente autónoma por primera vez, según un informe de Naciones Unidas

El peligro es real: un dron ha atacado a personas de forma totalmente autónoma por primera vez, según un informe de Naciones Unidas

El peligro de los drones autónomos es real. Según un informe del Consejo de Seguridad de las Naciones Unidas, el año pasado por primera vez un dron militar pudo haber atacado de forma autónoma a humanos en Libia. No han trascendido detalles de la operación ni si hubo víctimas, pero confirma que estas armas autónomas letales ya se están utilizando en el campo de batalla pese a los esfuerzos internacionales por prohibirlas.

Un dron STM Kargu-2 de fabricación turca habría sido utilizado para "perseguir y comprometer remotamente" a los soldados en retirada, según describe el informe. El uso de estos drones en el conflicto de Libia puede abrir un nuevo capítulo para las armas autónomas. Unas herramientas programadas para que la IA decida por si sola eliminar a sus objetivos, incluidos los humanos.

Así son los Kargu-2, drones autónomos preparados para matar

En junio de 2020, el ejército turco compraba cerca de 500 drones Kargu a Defense Technologies Engineering and Trade Inc, más conocida como STM, una empresa turca armamentística. La primera generación de estos drones se presentó en 2017 y en 2019 se mostró la variante Kargu-2, capaz de llevar a cabo ataques en modo enjambre y operar de manera autónoma.

Kargu puede traducirse en turco como "halcón". La compañía explica que están diseñados para la "guerra asimétrica y la lucha antiterrorista". Con un peso de unos 7 kg, el dron puede permanecer en el aire al menos durante 30 minutos y volar a una velocidad de unos 145 km/h. Números mejorados en la segunda generación.

El informe del Consejo de Seguridad de las Naciones Unidas describe el suceso de la siguiente manera:

"Los convoyes logísticos y las fuerzas afiliadas a Haftar en retirada fueron posteriormente perseguidos y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales como el STM Kargu-2 y otras municiones de merodeo. Los sistemas de armas autónomos letales se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de “disparar, olvidar y encontrar”. Los vehículos aéreos de combate no tripulados y la pequeña capacidad de inteligencia, vigilancia y reconocimiento de drones con que cuentan las fuerzas afiliadas a Haftar fueron neutralizados mediante interferencia electrónica gracias al sistema de guerra electrónica Koral".

Las pruebas encontradas por las Naciones Unidas indican que los STM Kargu-2 utilizaron munición y están operativos en Libia. Se trata de la primera vez que detectan su uso y su despliegue supone un incumplimiento del párrafo 9 de la resolución 1970 (2011).

Informe Un Fuente: Consejo de Seguridad de las Naciones Unidas

Los drones de la serie Kargu pueden ser operados manualmente, pero también están preparados para operar autónomamente gracias al uso de sensores que van desde cámaras de video electroópticas e infrarrojas a un sistema de imágenes láser (LIDAR).

A través del programa KERKES, la empresa STM preparó a sus drones para poder coordinarse de manera autónoma en enjambre y moverse siguiendo el GPS. Junto a otros 20 drones, los Kargu-2 están programados con una IA capaz de seleccionar y atacar objetivos.

Por el momento no se ha informado de ninguna víctima de una de estas armas autónomas (sería la primera), pero en los vídeos demostrativos de STM se muestra como estos drones atacan a un grupo de maniquíes.

Cómo decide un dron autónomo a quién atacar

Las minas antipersona pueden configurarse para adaptar la sensibilidad y únicamente detonarse con adultos. Con los drones autónomos todavía hay mucho debate sobre qué parámetros concretos determinan cuándo atacan.

El aprendizaje automático de estos drones está programado con un gran conjunto de datos y permite diferenciar objetos. También vehículos como tanques, autobuses o furgonetas. Se presupone que los distintos ejércitos pueden entrenar a la IA del dron para que se focalice en las particularidades del enemigo, dándole acceso a bases de datos con imágenes e información de quienes desean abatir.

Kargu Personas

Sin embargo, de la misma manera que hemos visto como los algoritmos tienen muchos sesgos y no están exentos de fallos, estos drones autónomos también pueden equivocarse, con consecuencias fatales.

Expertos y organismos piden prohibir estas armas autónomas antes que sea demasiado tarde

Desde la Unión Europea han advertido contra estos robots asesinos. También Estados Unidos y Rusia son conscientes de las implicaciones de estas LAWs ('Lethal Autonomous Weapons'). Sin embargo, tanto una como otra potencia, apoyados principalmente por Corea del Sur, Israel y Australia, han bloqueado la negociación para prohibirlas.

Las Naciones Unidas tienen desde finales de 2013 la intención de prohibirlas, pero no han habido grandes avances. Durante este tiempo, personalidades como Brad Smith, presidente de Microsoft, Elon Musk, CEO de Tesla y DeepMind y hasta un total de 116 expertos de 26 países han solicitado que se prohíba el desarrollo y el uso de robots asesinos autónomos. Porque "una vez que se abra esta caja de Pandora, será difícil cerrarla".

En Xataka | China avisa: el peligro de una guerra accidental por culpa de "las armas inteligentes" es real y creciente



via Robótica e IA - Xataka https://ift.tt/3yMhFAM

miércoles, 26 de mayo de 2021

Sony está desarrollando una IA para que los enemigos de los videojuegos aprendan y sean más listos

Sony está desarrollando una IA para que los enemigos de los videojuegos aprendan y sean más listos

La inteligencia artificial tiene un papel importante en los videojuegos. En muchas ocasiones, es la encargada de que los enemigos nos rodeen e intenten matarnos de formas más astutas y la que le dice a nuestro compañero que dispare para darnos cobertura. Pero no es perfecta y algunas veces puede hacer cosas raras. Sony, sin embargo, ya trabaja en una solución de la mano de Sony AI y PlayStation.

Así lo afirma la compañía nipona en una presentación estratégica publicada recientemente. Según adelanta la firma, "[Sony AI] ha iniciado una colaboración con PlayStation que hará que las experiencias de juego aún más ricas y agradables". Esta colaboración consiste en aprovechar el aprendizaje de refuerzo para desarrollar agentes de IA que pueden ser oponentes o colaborares del jugador.

¿Me matas así? Ahora verás...

La idea de usar aprendizaje por refuerzo tiene miga. Básicamente, consiste en aplicar procesos de ensayo y error para evaluar nuevas estrategias de acción. En el caso de los videojuegos, podemos pensar en un enemigo que la primera vez que nos enfrentamos a él nos dispara de frente y sin cubrirse. Lo matamos, pero la IA aprende, tras muchas muertes, que esa estrategia no es óptima.

El sistema aprende de sus errores y toma cartas en el asunto, de forma que la próxima vez que nos enfrentemos a un enemigo, este sepa que no debe dispararnos de frente y sin cubrirse, sino buscar una cobertura, bordearnos y matarnos por el flanco. Lo mismo se aplica a nuestros ayudantes, que pueden aprender a ser más útiles según el contexto (dándonos cobertura, curándonos o dándonos munición, por ejemplo).

Starcraft 2 'Starcraft 2'.

Esto no es nada nuevo. DeepMind popularizó el aprendizaje profundo cuando presentó al mundo AlphaGo, que fue entrenado con miles de partidas de Go y consiguió ganar a un humano. Años más tardes, AlphaGo Zero consiguió ganar 100 veces seguidas a su predecesora con solo haber entrenado durante tres días. ¿Con quién entrenó? Consigo misma. Compitió contra sí misma para encontrar sus debilidades y aprender.

Por otro lado, esta decisión de Sony casa con la patente descubierta hace algunos meses. Dicha patente mostraba un sistema de IA que adaptaba la dificultad de los jefes finales según nuestro rendimiento. Es una forma inteligente de hacer que el juego se adapte al jugador y, según Sony, conseguir que "las experiencias de juego aún más ricas y agradables".

Cuando la compañía nipona presentó su división Sony AI dijo que lanzaría "tres proyectos insignia en las áreas de juegos, imágenes y detección, y gastronomía". Aseguró, además, que "esta investigación se llevará a cabo en estrecha colaboración con las unidades de negocio relevantes del Grupo Sony", así que quizá este sistema de aprendizaje de refuerzo sea la materialización de dicha investigación. Cuestión de esperar.

Vía | The Verge
Más información | Sony



via Robótica e IA - Xataka https://ift.tt/3hUiLV3

lunes, 24 de mayo de 2021

La nueva y sorprendente IA de Facebook es capaz de transcribir de voz a texto sin haber sido entrenada con transcripciones

La nueva y sorprendente IA de Facebook es capaz de transcribir de voz a texto sin haber sido entrenada con transcripciones

Cuando se entrena un sistema de inteligencia artificial para transcribir de voz a texto es necesario usar muchos pares de audio y texto. Es decir, le damos a la IA el sonido "esto es un gato" y ese mismo sonido transcrito, de forma que sea capaz de asociar cada palabra a un sonido. Eso es perfecto para lenguajes muy extendidos, como el inglés o el español, pero no para los idiomas más minoritarios. Facebook, sin embargo, asegura haber encontrado una solución: wav2vec-U, con "U" de "Unsupervised".

¿Qué es wav2vez-U? Es una forma de construir un sistema de reconocimiento de voz que no requiere ningún tipo de par transcrito. Simplemente aprende del audio y de texto desemparejado, lo que elimina por completo la necesidad de tener audio transcrito. Para ello, el sistema se vale de una GAN (red generativa antagónica) que, de acuerdo a Facebook, compite de tú a tú con los mejores sistemas supervisados de hace unos años.

Un mundo de posibilidades para transcribir lenguajes minoritarios

Tal y como detallan Alexei Baevski, Wei-Ning Hsu, Alexis Conneu y Michael Auli en el blog de Facebook AI, su método comienza con el aprendizaje de la estructura del habla a partir de audio sin etiquetar. Usando su modelo anterior, wav2vec 2.0, segmentaron la grabación de voz en unidades de voz que se corresponden con sonidos individuales. Por ejemplo, "cat", gato en inglés, tiene tres sonidos: "/K/", "/AE/" y "/T/".

Para enseñar al sistema a entender las palabras en un audio, usaron una GAN que, como todas las GAN, consiste en un generador y un discriminador. El generador selecciona cada fragmento de audio, predice el fonema correspondiente al sonido en cada idioma e intenta engañar al discriminador. Este es, en sí mismo, otra red neuronal que ha sido entrenada con las salidas de texto del generador y texto real de diferentes fuentes dividido en fonemas. Esto es importante: texto real de diferentes fuentes, no transcripciones del texto que estamos intentando transcribir.

La labor del discriminador es evaluar si las secuencias de fonemas predichas ("/K/", "/AE/" y "/T/" si hablamos de "cat") parecen realistas. Las primeras transcripciones del generador son malísimas, pero con tiempo y el feedback de discriminador, se vuelven más y más precisas. Y es todo un logro, ya que el sistema en sí no sabe que "gato" se transcribe como "gato", sino que entiende que, por los sonidos que componen la palabra, debe escribirse así.

Para poner a prueba el sistema, Facebook usó los tests TIMIT y Librispeech y asegura que "wav2vec-U es tan preciso como el estado del arte de hace solos unos años, sin utilizar ningún dato de entrenamiento etiquetado. Todo sea dicho, estos dos benchmarks miden el rendimiento en habla inglesa, un idioma con mucho corpus de texto hablado y tranascrito. El sistema de Facebook, sin embargo, es más interesante para idiomas minoritarios, como el suajili, el tártaro o el kirguís, cuyo corpus de datos es más reducido.

Es, sin duda, un gran paso adelante en lo que a transcribir voz se refiere. Ahora tocará ver cómo lo implementa Facebook, si es que llega a hacerlo. Por otro lado, la compañía de Zuckerberg ha publicado el código necesario para construir este sistema de reconocimiento de voz. Puede encontrarse en Github y cualquier persona puede acceder a él para trastear y probarlo.

Más información | Facebook AI



via Robótica e IA - Xataka https://ift.tt/3ujAkk2

viernes, 21 de mayo de 2021

Amazon no venderá su software de reconocimiento facial a la policía: la moratoria se extiende hasta nuevo aviso

Amazon no venderá su software de reconocimiento facial a la policía: la moratoria se extiende hasta nuevo aviso

En junio del año pasado, en plena polémica por la muerte de George Floyd, Amazon anunció que iba a dejar de vender su software de reconocimiento facial, Rekognition, a la policía. Lo haría durante un año a la espera de que los gobiernos establecieran "regulaciones más estrictas para el uso ético de la tecnología de reconocimiento facial". Ahora la empresa ha confirmado a Reuters que la moratoria se extiende de forma indefinida.

Eso, en otras palabras, significa que Amazon suspende la venta de su tecnología a los cuerpos policiales hasta nuevo aviso. Según exponen desde la agencia estadounidense, Amazon no ha desvelado el motivo de esta decisión. No es la única empresa que ha suspendido este tipo de ventas, ya que IBM hizo exactamente lo mismo dos días antes de que Amazon anunciase la moratoria inicial y Microsoft se sumó poco después. Desde Xataka hemos contactado con Amazon para obtener más información y actualizaremos en caso de recibir respuesta.

Un sistema nada exento de polémica

El sistema Rekognition de Amazon ha sido objeto de polémica en no pocas ocasiones. Allá por 2019, unos investigadores señalaron que los algoritmos de Amazon no eran del todo precisos y que tenían tasas de error más altas a la hora de identificar rostros de personas de color y mujeres. Estos mismos investigadores explicaban que el uso de este software por parte de la policía podría aumentar la discriminación racial.

En 2018, la Unión Americana de Libertades Civiles fue aún más contundente. En una publicación en su web oficial aseguró que "Amazon ha entrado oficialmente en el negocio de la vigilancia" con un sistema "potente y peligroso". El Washington Post señaló que la Oficina del Sheriff del Condado de Washington pagaba a Amazon entre seis y 12 dólares por usar el servicio. En palabras de la Unión Americana de Libertades Civiles:

"El producto de Amazon, Rekognition, tiene el poder de identificar personas en tiempo real, en fotos de grandes grupos de personas y en eventos y lugares públicos concurridos. En un momento en que nos unimos a las protestas públicas a niveles sin precedentes y las actuaciones policiales discriminatorias continúan aterrorizando a las comunidades de color, la entrega de esta tecnología de vigilancia al Gobierno amenaza nuestros derechos y libertades civiles.

El reconocimiento facial no es una tecnología neutra, no importa cómo lo haga Amazon. Automatiza la vigilancia masiva, amenaza la libertad de las personas para vivir sus vidas privadas fuera de la mirada del Gobierno y está preparada para amplificar los prejuicios y la desigualdad en el sistema de justicia penal".

Como decíamos anteriormente, Amazon no ha dado razones para extender la moratoria. En junio de 2020 dijeron que "hemos abogado por que los gobiernos establezcan regulaciones más estrictas para regular el uso ético de la tecnología de reconocimiento facial y, en los últimos días, el Congreso parece estar listo para asumir este desafío. Esperamos que esta moratoria de un año le dé al Congreso el tiempo suficiente para implementar las reglas apropiadas, y estamos listos para ayudar si se nos solicita".

Vía | Reuters



via Robótica e IA - Xataka https://ift.tt/343GFp3

jueves, 20 de mayo de 2021

Twitter comparte los nuevos requisitos que debes cumplir para verificar tu cuenta

Tras detenerlo en 2017, Twitter ha puesto en marcha de nuevo el proceso de solicitud de verificación de las cuentas de la red social. La nueva política, que entró en vigor el 22 de enero de 2021, modifica los requisitos necesarios para poder optar a la insignia azul de verificación e introduce nuevas categorías para los tipos que pueden obtenerla- De acuerdo con los nuevos criterios de la plataforma, para tener una cuenta verificada, que ayuda a distinguir la autenticidad de los perfiles de gran interés público, el internauta deberá cumplir con una serie de requisitos y entrar dentro de una de las seis categorías establecidas por la plataforma. A saber: Gobierno; Empresas, marcas y organizaciones; Empresas de noticias y periodistas; Entretenimiento; Deportes y gaming; Activistas, organizadores y otras personas influyentes. A lo largo del verano se incorporarán nuevas categorías, como científicos, académicos, y líderes religiosos. «Además de los criterios de elegibilidad específicos de cada categoría, que se indican en nuestra política de verificación, tu cuenta debe estar completa, lo que significa tener un nombre de perfil, una imagen de perfil y una dirección de email confirmada o un número de teléfono. Tu cuenta debe estar también activa en los últimos seis meses y tener un historial de cumplimiento de las normas de Twitter», explican desde Twitter en un comunicado remitido a este diario. La red social ha anunciado, a su vez, que ha empezado a eliminar de forma automática la insignia de las cuentas que ya no cumplen los criterios actualizados de verificación, como las que están inactivas o incompletas. Cómo solicitar la verificación En las próximas semanas, todo el mundo en Twitter empezará a ver la nueva solicitud de verificación directamente en la pestaña de Configuración de Cuenta. «Si no ves esta actualización inmediatamente, ¡no te preocupes! Lo estamos extendiendo gradualmente a todo el mundo para asegurarnos que podemos revisar las solicitudes de manera adecuada», avisan desde la red social. Los usuarios que presenten su solicitud recibirán un correo de respuesta en unos días, aunque desde la compañía han matizado que este proceso puede llevar algunas semanas según el número de solicitudes recibidas. Si la solicitud es finalmente aprobada, el usuario verá aparecer la insignia azul de forma automática en su perfil. En caso de ser rechazada, puede volver a presentar la solicitud 30 días después de recibir la decisión sobre su solicitud. Otros tipos de verificación La insignia azul es solo una de las formas que tiene Twitter de verificar la identidad de las cuentas que intervienen en la conversación pública en la plataforma social. Para las cuentas automatizadas, conocidas como 'bots', también existe un icono que las diferencia si comparten contenido útil. En concreto, muestran la cabeza de un robot de color gris, tanto en el perfil (bajo el nombre, con indicación de quién la gestiona) como en los 'tuits'. Por otra parte, la compañía está trabajando en una nueva pestaña para los perfiles llamada 'About', que permitirá a los usuarios y negocios ampliar la información que consideren importante para quienes les siguen o quieren comunicarse con ellos, como por ejemplo, los pronombres con los que se identifican.

via Tecnología https://ift.tt/3fwtfXX

Yeedi 2 Hybrid, análisis en profundidad de este robot aspirador inteligente

Volvemos a Actualidad Gadget con Yeedi, una marca de robots aspiradora que últimamente está triunfando en Amazon debido a su ajustada relación entre calidad y precio. Poco a poco se está dejando ver en España gracias a las valoraciones cosechadas tanto en Amazon como en AliExpress, así que no podía faltar en nuestra mesa de análisis.

Analizamos el nuevo robot aspiradora Yeedi 2 Hybrid y te contamos cuál ha sido nuestra experiencia con este completo dispositivo para mantener limpio tu hogar. Descubre con nosotros todas sus ventajas y por supuesto también las desventajas. No te pierdas esta nueva review en profundidad.

En primer lugar te recordamos que puedes comprar este Yeedi 3 Hybrid desde 299,99 euros en Amazon, por lo que si ya lo conoces, es una buena opción a través de la conocida tienda para aprovechar al máximo su garantía.

Diseño y materiales

Este Yeedi 2 Hybrid hereda el clásico diseño de este tipo de dispositivos con pocas novedades. El dispositivo está fabricado en plástico mate para su parte superior, donde encontraremos su botón «power» con indicador LED, la cámara que se encargará de mapear la zona de limpieza y que corona el dispositivo. Serigrafiado queda el logotipo de Yeedi, nos ha sorprendido gratamente la calidad de construcción y los materiales empleados.

  • Dimensiones: 34,5 x 7,5 cm
  • Peso: 5,3 Kg

En la parte inferior queda un doble cepillo rotativo, el cepillo central mixto también rotativo y las dos ruedas elevables. Parte trasera para el depósito de agua, mientras que el depósito de suciedad se alberga en la parte superior tras la tapadera, como sucede en los dispositivos Roborock. La base de carga también está correctamente fabricada, dispone de un cable de carga que se esconde en el interior, algo que se agradece para aprovechar al máximo el espacio que queda entre la base de carga y la pared.

Características técnicas y succión

Contamos con un dispositivo ampliamente desarrollado, no le falta prácticamente de nada, sorprendente teniendo en cuenta el rango de precio. En cuanto a la potencia de succión disponemos de un máximo de 2.500 pascales, eso sí, se modificarán en función de los tres niveles de potencia que hay disponibles que podremos ir manejando en función de los ajustes.

En la parte superior se sitúa la cámara Visual-SLAM, mientras que en la parte inferior tenemos sensores de nivel y distancia que ayudan al robot a navegar alrededor de la casa de forma más eficiente.

  • Batería de 5200 mAh para 200 minutos de uso (a potencia media)

La capacidad del depósito de residuos es de 430 ml, mientras que el depósito del agua quedará en 240 ml. A nivel de conectividad disponemos de WiFi, pero únicamente podremos conectarlo a redes de 2,4 GHz por su amplitud de distancias, como suele suceder por norma general en este tipo de dispositivos.

Mientras tanto, si ya te has puesto manos a la obra con el dispositivo te recomendamos que le eches un ojo al manual de instrucciones (disponible en varios idiomas aquí). No obstante, a nivel técnico su manejo es bastante intutitvo.

Configuración y aplicación

En cuanto a la configuración disponemos de la aplicación Yeedi que nos ha sorprendido por su buen diseño y nos ha recordado irremediablemente a la aplicación de Roborock, un buen punto de referencia siendo sinceros.

La aplicación nos permitirá fácilmente sincronizar el robot con los siguientes pasos:

  1. Iniciamos sesión si lo deseamos
  2. Pulsamos en «añadir un robot»
  3. Introducimos la red WiFi y su contraseña
  4. Esperamos a que termine la configuración

El proceso se simplifica con el código QR que hay bajo la tapadera superior. Esta aplicación de Yeedi es bastante sencilla, podemos seguir la limpieza del mapa realizado en tiempo real así como especificar la limpieza únicamente de determinadas habitaciones, restringir las zonas o limpiar por completo la casa. Como era de esperar, en el mapa podremos asignar roles a las habitaciones.

Por su parte sí que echamos en falta la opción de configurar la intensidad de la succión para cada habitación, aunque sí que cuenta con un selector de potencia de aspirado que se puede variar durante la limpieza.

En cuanto al ruido tenemos entre 45 dB y 55 dB dependiendo de la potencia de succión, algo que está dentro de los estándares. Destacamos por último total compatibilidad con Alexa de Amazon para indicarle que comience las labores de aspirado, lo mismo sucede con Google Assistant. En nuestras pruebas el asistente de voz funciona correctamente.

Además, el dispositivo cuenta con un altavoz que nos hará las veces de indicador de estado tanto cuando empieza como cuando acaba, por supuesto cuenta con una llamada de socorro cuando se queda «encallado».

Barrido, aspirado y fregado

En cuanto al fregado, contamos con una serie de mopas desechables que incluiremos en el depósito del agua para mejores resultados en seco, así como la mopa clásica de fregado donde una vez más no obtenemos resultados especialmente reseñables. Aconsejamos tratar de fregar primero zonas de prueba y es que en zonas con suelos cerámicos el nivel máximo de agua puede crear marcas de agua. Este tipo de flujos de agua no son recomendables para la durabilidad de un suelo de tarima o parqué, por lo que hemos optado siempre por la opción de mínimo flujo de agua.

En cuanto al aspirado, una potencia más que suficiente con sus pasadas, si bien es que en una casa de aproximadamente 70m2 se ha llevado algo más de tiempo (aproximadamente 45 minutos) que sus rivales de precio superior, lo ha hecho porque incide en zonas donde ya pasó, algo que le permite su autonomía y que nos asegura un buen barrido. 

Opinión del editor

Este Yeedi Hybrid 2 nos ha ofrecido una experiencia «premium» por debajo de los 300 euros y eso nos ha sorprendido. A nivel de aspiración tenemos buenos resultados, equiparables a productos de precio y gama superior tanto a nivel de succión como de autonomía. Lo mismo sucede con la aplicación que bebe directamente de la de Roborock, una de las más precisas del mercado. El resultado final se beneficia de todos estos apartados y lo convierten en un producto aconsejable en la gama media.

Del mismo modo decimos que la función de fregado es tan poco atractiva como en el resto de productos de estas características, siguen ofreciendo una alternativa de humedecer el suelo que no me termina de convencer y opto por desactivar. Si bien me ha dejado sabor agridulce el rendimiento de la cámara, algo inferior al mapeo por LiDAR, del mismo modo que sólo nos permite guardar un mapa. Si te ha gustado, puedes comprarlo desde 299,99 euros en Amazon.

Pros

  • Materiales y construcción de calidad alta
  • Gran autonomía y precio ajustado
  • Buena capacidad de succión
  • Manejo intuitivo y fácil de configurar

Contras

  • El fregado es un añadido con poco valor
  • Sólo guarda un mapa
 

via Actualidad Gadget https://ift.tt/3wnQU3w

domingo, 16 de mayo de 2021

Roomba i3+: la versión más barata de los mejores robots aspiradores

Roomba no va a rebajar sus precios tanto como para competir con otras marcas, pero el Roomba i3+ bien podría considerarse la versión barata de sus mejores aspiradores Leer

via Tecnología // elmundo https://ift.tt/2RYf5XG

viernes, 14 de mayo de 2021

En Zimbabue están usando deep learning para identificar jirafas y entender por qué su población está disminuyendo

En Zimbabue están usando deep learning para identificar jirafas y entender por qué su población está disminuyendo

Las jirafas son uno de los animales más emblemáticos del continente africano, pero su población no deja de disminuir. Según la Giraffe Conservation Foundation, desde 1980 hasta ahora, la población de jirafas ha disminuido de 155.000 animales a 117.000, un 30%. Hay seis subespecies y todas ellas son consideradas vulnerables.

Muchas de ellas se encuentran en el Parque Nacional de Hwange, sito en Zimbabue. El 20% de las jirafas de Zimbabue se encuentran allí, pero su población lleva 25 años en caída libre, hasta el punto de que donde antes había 14.500 ahora hay 1.600. Monitorizarlas y controlarlas es importantísimo para evitar su extinción. También es una tarea titánica y es precisamente por ello por lo que unos investigadores franceses están apostando por el deep learning.

Deep learning para identificar jirafas

Girafas

Según exponen los investigadores en este artículo publicado en la British Ecological Society, el sistema de aprendizaje profundo ha sido entrenado para distinguir jirafas individuales, es decir, para diferenciar unas jirafas de otras. Esta herramienta tiene como objetivo ayudar a conservar la especie y evitar su extinción, ya que todavía se están investigando las causas que están provocando este decrecimiento de la población.

Es algo que podría hacerse a ojo, claro está, pero no sería algo sencillo. Cada jirafa tiene un patrón de pelaje único (sus manchas marrones sobre un fondo marrón más clarito), por lo que no es sencillo identificarlas a simple vista. Sin embargo, sí podría serlo para un modelo de deep learning y reconocimiento de imágenes bien entrenado.

Para ello, el equipo de investigadores de Vincent Miele, autor principal del estudio, fotografió a 400 jirafas en Hwange entre 2014 y 2018. En conjunto, consiguieron 4.000 fotos con las que se creó una base de datos de entrenamiento. Gracias a una red neuronal convolucional (que analiza imágenes) se desarrolló un sistema de aprendizaje profundo que, de acuerdo a los investigadores, es capaz de identificar a las jirafas con un 90% de precisión.

El modelo fue entrenado con cinco fotografías por jirafa, si bien dichas imágenes luego fueron alteradas en el laboratorio para añadir variabilidad y hacer que el sistema fuera más efectivo. El sistema es capaz de obtener los datos relacionados con la composición de grupos de jirafas, su historial y sus movimientos. Los investigadores señalan, además, que también puede detectar animales no detectados previamente.

Está basado en software libre y los investigadores señalan que podría modificarse para aplicarse a otros animales, como tigres, leopardos, cebras, kudus y ballenas jorobadas.

Vía | CEFE: Centre d’Ecologie Fonctionnelle et Evolutive



via Robótica e IA - Xataka https://ift.tt/33KSpfX

lunes, 10 de mayo de 2021

La Premier quiere hacer equipos de fútbol invencibles: piden ayuda a DeepMind y a sus sistemas de inteligencia artificial

La Premier quiere hacer equipos de fútbol invencibles: piden ayuda a DeepMind y a sus sistemas de inteligencia artificial

¿Puede un algoritmo hacer que un equipo juegue mejor al fútbol y obtenga mejores resultados? En la Premier League inglesa creen que sí, y algunos de los grandes clubes de fútbol sajones ya se han puesto manos a la obra.

Lo han hecho a través de un acuerdo con DeepMind, la empresa que sorprendió al mundo haciendo máquinas perfectas para jugar a Go o a StarCraft. Ahora quieren aplicar la inteligencia artificial al fútbol para ayudar a los entrenadores y hacer equipos perfectos (o casi).

De la ciencia de datos al aprendizaje profundo

El fútbol tiene ya mucho de ciencia. Hay cada vez menos cosas que se dejen al azar, y la enorme cantidad de datos que se recolectan actualmente permiten a entradores y cuerpos técnicos tomar decisiones que de otro modo sería muy complicado tomar.

Todo eso ayuda, sin duda, pero en la Premier quieren ir aún más allá. Equipos como el Liverpool han contratado los servicios de DeepMind para que sus sistemas de inteligencia artificial puedan ayudar al entrenador y permitan tomar decisiones mejor informadas.

¿Qué tipo de decisiones? Pues de todo tipo: ciertos laterales pueden ser más adecuados para jugar según qué contrincantes, y ciertos esquemas y formaciones pueden ser más peligrosos para hacer daño según la forma que tienen de jugar los rivales.

En esencia la propuesta de DeepMind es similar a la que se siguió en sus éxitos con AlphaGo o AlphaZero: entrenar sistemas y hacer que éstos acaben jugando miles de partidos de fútbol simulados y virtuales en los que las condiciones cambien una y otra vez para determinar cuál es el mejor resultado en cada caso.

La idea no es reemplazar a los entrenadores ni mucho menos, y como dicen los responsables del estudio de DeepMind, "se trata de desarrollar una tecnología de asistencia" a esas decisiones.

Deep2 Fuente: DeepMind.

En ese estudio se sacaron conclusiones preliminares estudiando por ejemplo la forma en la que tiran los penalties los jugadores de la Premier, y aunque las conclusiones son basante lógicas (todos los jugadores suelen tirar a su lado natural) pueden ayudar por ejemplo a los porteros a "adivinar" mejor esas opciones.

Lo mismo ocurre con las decisiones que toman los jugadores en ciertos patrones que se repiten: quizás tienden a pasar en una dirección cuando deberían hacerlo en otra según qué rival defienda en cada escenario.

Ahora solo queda por ver si esa colaboración da sus frutos y los equipos de la Premier se vuelven aún más difíciles de batir, cosa que hoy en día ya resulta complicado: lo demuestra la final inglesa de la Champions de este año.

Vía | Wired

Más información | Whitepaper DeepMind/Liverpool (PDF)



via Robótica e IA - Xataka https://ift.tt/3exyZ4w

viernes, 7 de mayo de 2021

Labios y voz perfectamente sincronizados en las películas dobladas: eso prometen los deepfakes de esta compañía

Labios y voz perfectamente sincronizados en las películas dobladas: eso prometen los deepfakes de esta compañía

Aunque normalmente asociamos los deepfakes a cosas un tanto turbias y a los memes, lo cierto es que esta interesante tecnología puede tener usuarios potencialmente interesantes (más allá de poner a Elon Musk a cantar 'Never gonna give you up'). Uno de estos casos de uso es el que propone Flawless AI con su sistema TrueSync, un modelo de deepfakes que promete sustituir los labios de los actores para hacer que su movimiento esté sincronizado con el doblaje.

Según explican desde la compañía, su inteligencia artificial es capaz de crear "visualizaciones perfectamente sincronizadas con los labios en varios idiomas". El resultado final es muy interesante, al menos en los vídeos de prueba que ha publicado la empresa. No solo porque modifica los labios, sino porque la tecnología, aparente, es capaz de conservar las expresiones faciales del actor.

Del inglés al español y sin que se note

Doblaje de 'Forrest Gump' al español.

Doblaje de 'Forrest Gump' al japonés.

Tal y como podemos ver en el vídeo de presentación, lo que TrueSync hace es analizar la cara del actor, detectar el movimiento de la misma, renderizar la cara mediante redes neuronales y aplicarla encima de la cara del actor. Es, digamos, una especie de máscara. El sistema lleva años en desarrollo y no fue hasta hace tres días que la empresa lo lanzó de forma comercial.

En los vídeos sobre estas líneas podemos ver dos clips de la película 'Forrest Gump', donde aparece un muy joven Tom Hanks. La película original está grabada en inglés, pero en los vídeos podemos verla doblada al español y al japonés. El resultado es bastante bueno y convincente, no cabe duda, pero hay algunos aspectos que delatan que es un montaje.

Puede apreciarse en los dientes de Tom Hanks cuando el plano se cierra (a partir del minuto 1:50) y cuando se le cae la lágrima casi al final del vídeo. Aunque esta cae hasta los labios sin problema, cuando Hanks vuelve a hablar, la máscara tiene un pequeño fallo que hace que la lágrima se expanda por todo el labio superior y que el labio inferior se deforme.

Como toda tecnología, cabe esperar que mejore con el paso del tiempo. Ahora tocará esperar para ver si, finalmente, se abre camino en productos comerciales para la gran y pequeña pantalla. Todo sea dicho, esto no es algo estrictamente nuevo, ya que a su manera lo vimos funcionando en 'Cyberpunk 2077'. Dicho juego cuenta con un sistema de IA que sincroniza los labios de los personajes con sus diálogos en diez idiomas distintos.

Vía | Gizmodo



via Robótica e IA - Xataka https://ift.tt/2SA55nN

jueves, 6 de mayo de 2021

En este supermercado el precio de los productos lo cambia automáticamente una IA según se acerque la fecha de caducidad

En este supermercado el precio de los productos lo cambia automáticamente una IA según se acerque la fecha de caducidad

Una de las mayores dificultades a las que se enfrenta cualquier supermercado es el almacenamiento de productos frescos y perecederos. Lidiar con la oferta según la demanda de estos no es sencillo. Ahora, una startup dice tener una inteligencia artificial que se encarga de ajustar los precios de todos los productos a punto de caducar para que el consumidor los compre a tiempo.

Se trata de Wasteless y su nombre deja bastante claro cuál es la idea detrás: gastar menos. Colocando etiquetas de precio electrónicas y haciendo uso de una IA para controlarlo todo, el supermercado puede tener precios de productos siempre actualizados en tiempo real que son más bajos a medida que se acerque la fecha de caducidad.

Según explican, la idea no es nueva, pero sí la forma de llevarla a cabo. A menudo vemos en estantes especiales productos en supermercados que están reducidos de precio por su fecha próxima de caducidad. Esto sin embargo puede crear una sensación de rechazo para comprarlos. Con Wasteless es diferente, los productos a punto de caducar se quedan en su estante, simplemente cambian de precio sin ofertas llamativas u otras cosas.

Supongamos que el supermercado tiene unas botellas de leche fresca que va a caducar el 10 de mayo y el 16 de mayo en la estantería. La etiqueta del precio indicará dos precios con una fecha distinta al lado de cada precio. La fecha del 10 de mayo tendrá un precio de 1,3 euros por ejemplo y la del 16 de mayo un precio de 1,8 euros. De este modo el usuario decide cuál le conviene comprar siendo consciente de ambas fechas.

n

Al final lo que se consigue es ofrecer precios más dinámicos para los productos. Lo interesante aquí es que la IA puede hacer este cambio de precios en cualquier momento y no sólo tomando la fecha de caducidad como variable. Por ejemplo puede subir o bajar los precios a diferentes horas del día o según el día de la semana. A medida que aprende del consumo de los usuarios en cada supermercado, puede optimizar los precios para vender más productos.

Los super inteligentes

En los últimos años hemos visto diferentes soluciones para mejorar los supermercados y hacerlos más inteligentes. El culmen de todo ello quizás sea Amazon Go, donde compras y te vas sin pasar por caja. De Amazon también salen los cajeros para pagar con la mano o el carrito de compra inteligente (no es el único).

Una de las últimas ideas que hemos visto fue el robot que te persigue para que le compres chocolatinas. Walmart, una de las cadenas de supermercados más grande del mundo, está haciendo uso de blockchain para rastrear problemas de calidad en la cadena de suministro.

Vía | MSN
Más información | Wasteless



via Robótica e IA - Xataka https://ift.tt/3f2Yrhp

Chatear con tu yo del pasado como opción de futuro: la inteligencia artificial y sistemas como GPT-3 lo hacen posible

Chatear con tu yo del pasado como opción de futuro: la inteligencia artificial y sistemas como GPT-3 lo hacen posible

Parece sacado de un episodio de Black Mirror, pero lo cierto es que chatear con tu yo del pasado para contarle tus cosas o pedir consejo no está tan lejos de convertirse en una potencial realidad.

Lo demuestra todo el mundo de los deepfakes que permiten crear convincentes recreaciones de cualquier persona (cómo es, cómo habla), y su combinación con sistemas como GPT-3, que parecen plantear una solución para simular conversaciones que podríamos tener en la vida real. Hay quien ya se plantea ese futuro y lo lleva a otros casos posibles.

Mi mejor amigo es mi yo de cuando tenía 25 años

La escena recuerda a la de Joi, el personaje de Blade Runner 2049, que en un momento dado parece tomar forma real para experimentar por primera vez la lluvia. Es una recreación por ordenador, claro, la propia relación del protagonista (K, Ryan Gosling) con Joi (Ana de Armas) y su conversación no está tan lejos de lo que se puede conseguir hoy en día.

Ese concepto explorado en el mundo del cine es también tema central de reflexiones como la de Balaji S. Srinivasan, un inversor y emprendedor que fue también CTO de CoinBase y socio de la consultora Andreessen Horowitz.

Srinivasan compartía en un pequeño hilo en Twitter un vídeo de TikTok en el que una mujer aparecía hablando consigo misma y preguntándole si había tomado esta u otra decisión, contándole a su yo del pasado cómo le había ido tras seguir esos caminos.

Para este emprendedor ese vídeo era una buena forma de entender lo que nos puede esperar en el futuro a corto plazo. La implementación de un "coach personal" sería relativamente sencillo cogiendo fotos, audio y vídeos de esa persona, integrando GPT-3 para una conversación fluida e incluso añadiendo guiones para distintos escenarios.

Es probable que la "calidad" de la conversación o la recreación fuera discutible, pero pulir dichas experiencias también parece totalmente factible.

Eso permitiría que en todo momento tuviéramos acceso a ese yo nuestro del pasado, pero la idea podría ser extensible a todo tipo de personas. Podríamos crearnos un amigo invisible (pero que en realidad fuera visible) con alguna persona que admiremos o a la que sigamos.

Eso daba pie a ideas como la de que celebridades e influencers crearan precisamente sus avatares y los ofreciesen al mundo para que hablaras con ellos como si lo hicieras (un poco) con los de verdad.

Por supuesto hay aquí todo tipo de ramificaciones realmente delicadas. Microsoft ya exploró la idea de crear un chatbot que te permitiera "hablar" con personas muertas, aunque aclararon poco después que no había planes para desarrollar ese proyecto.

La esencia sería idéntica, y nos preguntamos si el que otros estén valorando esa opción no acabará haciendo que alguna empresa ofrezca un servicio de este tipo. Uy, espera, que alguien ya lo intentó en 2015. Inquietante, pero no por ello menos plausible.



via Robótica e IA - Xataka https://ift.tt/3vKCkTB

miércoles, 5 de mayo de 2021

Así es L-Mo, un robot con forma de serpiente que trepa superficies verticales e inspecciona las centrales nucleares

Así es L-Mo, un robot con forma de serpiente que trepa superficies verticales e inspecciona las centrales nucleares

Si bien los drones son dispositivos idóneos para inspeccionar grandes espacios abiertos, las cosas cambian cuando hablamos de espacios cerrados, confinados o de difícil acceso, como tuberías o zanjas. Para ello, Duke Energy ha desarrollado Linear Motorized Observer, apodado L-Mo, un robot con forma de serpiente que trepa superficies verticales magnéticas y se está usando para inspeccionar centrales nucleares.

Dicho robot se ha utilizado recientemente para realizar una inspección a una tubería de drenaje. Cuenta con cámaras y sistemas de retransmisión en vivo, lo que permite a los empleados de la central nuclear observar las posibles averías o deficiencias, así como saber la posición exacta de la misma gracias a un odómetro.

Una serpiente robótica que se desenvuelve en sitios complicados

Según explican desde el Nuclear Information Center, L-Mo es capaz de meterse en espacios pequeños, zanjas, tuberías, escalar vigas o cualquier otro tipo de superficie de acero e inspeccionar áreas de difícil acceso. La parte inferior es magnética, por lo que L-Mo puede acoplarse a una pared y escalarla sin mayor dificultad. También parece ser resistente al agua.

El robot transporta varios sensores, cámaras y cargas útiles para ofrecer a los trabajadores de las centrales nucleares información visual en tiempo real. A través de la interfaz de control, similar al mando de un dron, el usuario puede controlar el robot y ver en directo lo que el robot está viendo, algo que permite realizar inspecciones sin poner en riesgo la seguridad o integridad del operario.

Meet L Mo

Según explica Kevin Martin, Supervisor de Mantenimiento de la Estación Nuclear McGuire, "el uso de L-Mo es una forma más segura y eficiente de realizar inspecciones en muchos casos diferentes en nuestras estaciones nucleares". Jim Louy, jefe del equipo de L-Mo, asegura estar "deseando que sea algo natural sacar L-Mo de la estantería para utilizarlo", es decir, que ante una posible avería en un lugar de difícil acceso, sea normal sacar al robot y echar un vistazo.

Duke Energy opera 11 unidades nucleares repartidas entre Carolina del Norte y Carolina del Sur. En conjunto, estas instalaciones generan unos 10.700 megavatios.

Vía | Operador Nuclear



via Robótica e IA - Xataka https://ift.tt/3xMkQIg

Esta app con IA analiza las parrillas de los restaurantes para que las hamburguesas no se hagan más de la cuenta

Esta app con IA analiza las parrillas de los restaurantes para que las hamburguesas no se hagan más de la cuenta

Si echamos la vista atrás, allá por marzo de 2017, recordaremos a Flippy, el peculiar robot parrillero de Miso Robotics. Este robot era (y es) capaz de preparar hamburguesas por sí solo, darles la vuelta en el momento preciso y determinar cuñando está lista para ponerla en el bollo. Pues hoy volvemos a hablar de Miso Robotics, ya que la compañía ha lanzado una app con inteligencia artificial pensada para que la carne no se haga más de la cuenta (entre otras cosas).

Esta tecnología recibe el nombre de CookRight y nace de Flippy. Cookright usa el mismo sistema de visión y software que el robot parrillero para identificar, clasificar y monitorizar los alimentos puestos sobre una parrilla convencional. De esa forma, el sistema es capaz de saber cuándo una pieza de carne o una hamburguesa está en su punto y de avisar al cocinero para que la retire.

Esto es queso, esto es una hamburguesa poco hecha, esto es pollo...

Tal y como podemos ver en el vídeo sobre estas líneas, el sistema de visión es capaz de detectar en tiempo real los productos que hay sobre la parrilla. No solo eso, sino que gracias a un sistema de inteligencia artificial de cámaras, puede monitorizar los tiempos de cocinado de cada producto en particular y avisar al cocinero para que lleve a cabo acciones, como darle la vuelta o sacarla de la parrilla.

¿Cómo funciona? Lo cierto es que es bastante intuitivo. El cocinero simplemente debe colocar los productos en la parrilla. La inteligencia artificial, que tiene un 96% de precisión, según la empresa, detecta el producto que se ha colocado, le asigna una etiqueta e inicia la cocción. Sin embargo, el cocinero puede establecer el punto de forma individual manualmente, por lo que si hay tres hamburguesas en la parrilla una puede configurarse para que esté hecha, otra poco hecha y otra al punto.

Tablet

Por otro lado, CookRight cuenta con un sistema de machine learning que, tal y como explica la empresa, identifica dónde se ha colocado el producto y aprende cómo es la distribución de calor de la parrilla, de forma que se puede optimizar el proceso de cocción. "El software también puede señalar problemas de rendimiento y mantenimiento al personal de la cocina", afirman desde Miso Robotics.

El sistema en general consta de una serie de cámaras que se colocan sobre la parrilla, una tableta para la interfaz de usuario y un pequeño ordenador. El dueño del restaurante puede instalarlo por sí mismo. Básicamente, es una versión recortada de Flippy, ya que el sistema es similar, solo que si el soporte del brazo robótico. Su precio también es significativamente más bajo, unos 100 dólares al mes, por lo que puede ser más adecuado para pequeños comercios.

Más información | PRNewsWire



via Robótica e IA - Xataka https://ift.tt/3ul3EaL

martes, 4 de mayo de 2021

Robots aprenden a ser más conscientes de sus compañeros de trabajo humanos

Un nuevo sistema sensible al contexto para robots ha demostrado ser más eficiente porque puede reconocer a los compañeros de trabajo y sus formas corporales, e incluso predecir sus movimientos.

El contexto es sumamente importante para trabajar de forma segura. Se entiende como contexto la posibilidad de comprender el entorno laboral y las circunstancias, y poder predecir lo que harán otras personas a continuación. El nuevo sistema de robot tiene la capacidad de comprender este nivel de contexto y está pensado para trabajar en fábricas con movimientos fluidos y sin interrupciones.

Este sistema robótico no solo distingue la distancia entre él y sus compañeros de trabajo humanos, sino que puede identificar a cada trabajador con el que trabaja, así como el modelo de esqueleto de la persona, que es un resumen del volumen corporal, dice Hongyi Liu, investigador del KTH Royal Institute of Technology.

Con toda esta información, el sistema es más sensible al contexto y en consecuencia puede reconocer la pose del trabajador e incluso predecir la siguiente pose. Estas habilidades proporcionan al robot un contexto del que debe ser consciente mientras interactúa.

Este sistema opera con inteligencia artificial y requiere menos potencia computacional y conjuntos de datos más pequeños que los métodos tradicionales de aprendizaje automático. En su lugar utiliza una forma de aprendizaje de transferencia que reutiliza el conocimiento desarrollado a través de la capacitación antes de adaptarse a un modelo operativo.

Este es un diseño de sistema colaborativo en conformidad con los requisitos actuales de la Organización Internacional de Normas (ISO), pensado para las industrias y fábricas.

“Según la norma ISO y la especificación técnica, cuando un humano se acerca a un robot, este se ralentiza y, si se acerca lo suficiente, se detiene. Si la persona se aleja, se reanuda. Ese es un nivel bastante bajo de conciencia del contexto”, dijo Liu.

“Pone en peligro la eficiencia. La producción se ralentiza y los humanos no pueden trabajar en estrecha colaboración con los robots”, agrega.

Liu compara su robot sensible al contexto con un automóvil autónomo que puede leer cuánto tiempo ha estado rojo un semáforo y anticipa moverse nuevamente. En lugar de frenar o reducir la marcha, comienza a ajustar su velocidad navegando hacia la intersección, evitando así un mayor desgaste de los frenos y la transmisión. Así que el objetivo de este tipo de robots es no ralentizar la producción tras la intervención humana.

La investigación fue publicada en la edición reciente de Robotics and Computer-Integrated Manufacturing, que participó en dicha investigación con el profesor de KTH Lihui Wang. Asimismo, esta investigación fue una extensión del proyecto de Ensamblaje Colaborativo del Robot Humano Simbiótico, que se completó en 2019.

La entrada Robots aprenden a ser más conscientes de sus compañeros de trabajo humanos se publicó primero en IntelDig.



via IntelDig https://ift.tt/3nKjXeG

El servicio de reservas de inteligencia artificial de Google, está disponible en 49 estados

El servicio de reservas basado en inteligencia artificial de Google, Duplex, ahora está disponible en 49 estados de los Estados Unidos.

El sistema ha sido adaptado de acuerdo con las leyes de privacidad de cada estado y se espera que se expanda a otros países, en cuyo caso también cumplirá con las normativas de privacidad de cada nación.

El lanzamiento en Estados Unidos demoró porque Google estaba a la espera de cambios en la legislación o la necesidad de agregar funciones por estado. Algunos estados, por ejemplo, requieren un número de devolución de llamada.

El servicio tiene un lenguaje natural tan avanzado que cuando se anunció en 2018 causó mucho conflicto, pues muchas personas consideraron que podría utilizarse para operaciones fraudulentas. Así que se exigió que los robots de inteligencia artificial se identifiquen como tales antes de hablar con un humano. Google oyó esta petición y Duplex ahora se identifica al comenzar la conversación.

Se espera que con el tiempo, Duplex pueda encargarse de las tareas rutinarias y que consumen mucho tiempo, como reservar citas con el peluquero o reservas de mesa en restaurantes. Ahora mismo le hace falta más precisión.

El último estado en el que aún no se ha lanzado Duplex es Louisiana, debido a que algunas leyes locales no especificadas han impuesto algunos obstáculos que Google espera resolver lentamente.

La entrada El servicio de reservas de inteligencia artificial de Google, está disponible en 49 estados se publicó primero en IntelDig.



via IntelDig https://ift.tt/3uksWpl