viernes, 31 de mayo de 2019

Alaka'i está desarrollando el primer taxi volador impulsado por hidrógeno: promete 640 kilómetros de autonomía

Alaka'i está desarrollando el primer taxi volador impulsado por hidrógeno: promete 640 kilómetros de autonomía

Los VTOL (vehículos aéreos capaces de despegar y aterrizar en vertical) comienzan a cobrar cada vez más fuerza. Drones gigantes, taxis voladores o pseudohelicópteros, son algo que hace unos años parecía más bien un sueño, ahora vemos cómo más y más prototipos de taxis voladores que despegan y aterrizan en vertical llevando personas en su interior. Alaka'i quiere irrumpir en este mercado creando el primer taxi volador que funcione con hidrógeno.

Uber es una de las empresas que mas apuestan por este sector, especialmente hemos visto diferentes propuestas tanto de VTOLs como de estaciones de aterrizaje. Pero no es la única, empresas importantes del mundo de la aviación como Airbus ya tienen prototipos funcionales. Algunos son algo más curiosos, como el Hexa con 18 hélices. Mientras que otros nos dan la impresión de que vivimos ya en el futuro, como los hoverbikes utilizados por la policía de Dubai.

En todos los casos anteriores los VTOLs dan la sensación de ser drones gigantes, una extrapolación de la tecnología que ya funciona en drones para conseguir transportar personas en vez de pequeños paquetes o cámaras. El uso de motores eléctricos es desde luego más prometedor que el uso de motores de combustión como ocurre en un helicóptero tradicional por ejemplo, pero según Alaka’i, no tan prometedor como el hidrógeno.

Bird 13 Lowres 190522 Squashed

La startup Alaka'i está constituida por ex empleados de la NASA, de Airbus, de Boeing y del Departamento de Defensa de Estados Unidos entre otros. En colaboración con BMW Designworks han diseñado un VTOL con espacio para cinco pasajeros y ya tienen un prototipo a escala real que hará su primer vuelo “de manera inminenete”.

Skai es el nombre que recibe su VTOL y desde luego lo que más lo diferencia de otros que hemos visto anteriormente es el hecho de que esté impulsado por hidrógeno. Gracias a esto prometen volar hasta cuatro horas y cubrir unos 640 kilómetros con una sola carga de combustible (hidrógeno en este caso). ¿Si se agota? Se puede reponer en 10 minutos en una estación de carga. También auguran velocidades máximas de unos 190 kilómetros por hora. Prometedor.

Bird 08 Lowres 190522 Squashed

Cientos de veces la densidad de energía de la mejor batería de iones de litio

El argumento principal para apostar por el hidrógeno antes que por la electricidad como tal es la densidad de energía. Según indican, una libra (o kilo, lo mismo da) de hidrógeno comprimido tiene 200 veces más energía que una libra de batería normal y corriente. Si bien no han revelado detalles concretos sobre cómo funciona su motor y sistema de hidrógeno, indican que han hecho avances en la tecnología para conseguir el rendimiento y las cifras mencionadas previamente.

Bird 10 Lowres 190522 Squashed

Una de las desventajas será abastecer a estos VTOL impulsados por hidrógeno. Tenemos gasolineras y comenzamos a tener cada vez más estaciones de carga eléctrica, ¿pero de hidrógeno? Alaka'i cuenta con la ventaja de que en principio su VTOL podrá hacer grandes distancias con una sola carga.

La empresa también comenta que las celdas de hidrógeno permiten construir vehículos más simples ya que no deben ahorrar tanta energía como ocurre con un VTOL eléctrico. Como todo, hay que coger estas promesas con pinzas, ya que de momento sólo han mostrado la maqueta y el VTOL no ha alzado el vuelo. Será desde luego sorprendente si cumplen con lo que prometen, pues ni siquiera en tierra firme los coches impulsados por hidrógeno han tenido éxito.

Vía | WIRED
Más información | Alaka'i / Skai



via Magazine - robotica-e-ia http://bit.ly/2KeqmNz

martes, 28 de mayo de 2019

Este robot imita la escritura humana a un nivel que dificulta distinguir si fue escrito por un robot o por una persona

Este robot imita la escritura humana a un nivel que dificulta distinguir si fue escrito por un robot o por una persona

Aprender a escribir a un proceso que no sólo consiste en copiar caracteres, sino también aprender cómo se traza cada uno de esos caracteres, el espacio que hay entre ellos ya sea para formar palabras o frases y por supuesto su significado. Durante siglos, esta tarea ha sido algo exclusivo de los seres humanos, pero ahora los robots, con la ayuda de la inteligencia artificial, podrían estar cerca de igualarnos.

A día de hoy, los robots son capaces de imitar o duplicar lo que dibujamos o escribimos, pero esto lo hace "en bruto", es decir, reconoce la imagen como un todo y la reproduce línea por línea, como una impresora. Ahora, gracias a un proyecto de la Universidad de Brown en Rhode Island, Estados Unidos, podemos ver cómo un robot es capaz de escribir y trazar como un ser humano, incluso en idiomas que no conoce y jamás había visto.

¿Puede un robot imitar un trazo con sólo mirar el resultado?

Atsunobu Kotani, estudiante de la Universidad de Brown, desarrolló un algoritmo de machine learning que hace uso de redes neuronales cuyo trabajo consiste en analizar imágenes de palabras escritas a mano o bocetos, esto con el objetivo de deducir la sucesión de trazos que los originaron.

Stefanie Tellex, especialista en robótica de la Universidad de Brown, fue quien desarrolló el sistema robótico al que se le añadió el algoritmo para que trabajase por sí mismo. El objetivo de esto era poder crear un robot capaz de comunicarse de forma fluida con los seres humanos.

Una vez teniendo el robot y el algoritmo, éste se entrenó usando un conjunto de caracteres japoneses. Después de esto, el robot demostró que era capaz de reproducir dichos caracteres usando los trazos que los crearon con aproximadamente el 93% de precisión. Pero esto no fue lo sorprendente, la sorpresa fue cuando el robot pudo hacer lo mismo con caracteres latinos, incluso en manuscrita y cursiva. Es decir, caracteres que nunca había visto y no conocía.

Robot Escritura 1

El algoritmo

La clave de esta hazaña está en el algoritmo desarrollado por Kotani, el cual ayuda al robot a decidir dónde y cómo colocar cada trazo y su duración, que sirve para distingue cada letra del alfabeto, así como el orden en que debe colocarse cada letra o símbolo para crear la palabra correcta.

El robot se basa en dos modelos de algoritmo que le ayudan a escribir por sí mismo:

  • Modelo Global: éste permite al robot mirar la imagen como un todo, lo que le ayuda a decidir cuál es el más probable punto de partida para la palabra o letra en particular, así como la forma más probable de pasar al siguiente símbolo o letra.

  • Modelo Local: éste ayuda al robot a analizar cada letra de forma especifica, es decir, cómo realizar el movimiento y dirección correcta hasta cómo finalizar la linea de ese carácter, así como su colocación, tamaño y distancia.

Stefanie Tellex señaló que el robot no siempre realiza los trazos exactos y correctos al escribir las letras, pero "se acerca bastante". Lo realmente importante de esto, destaca, es cómo el algoritmo es capaz de generalizar su capacidad de reproducir trazos.

"Mucho del trabajo existente a día de hoy en esta área requiere que el robot tenga información sobre el orden de los trazos por adelantado. Si quieres que el robot escriba algo, alguien tiene que programar el orden de los trazos. Con lo que ha hecho Atsu, puedes dibujar lo que quieras y el robot puede reproducirlo. No siempre imita cada trazo de forma perfecta, pero se acerca bastante".

Escribiendo "hola" en 10 idiomas distintos

Una vez que el robot demostró su capacidad, lo siguiente fue ponerlo a prueba en otras situaciones con el fin de confundirlo. Es así como pidieron a 10 personas del laboratorio 'Humans to Robots', donde trabaja Tellex, que escribieron 'hola' en sus idiomas nativos y usando su propia letra.

Con esto, lograron tener 'hola' escrito en griego, hindú, urdu, chino, yiddish y otros idiomas, y el robot fue capaz de reproducirlos todos con una precisión sobresaliente, lo que hizo difícil que otras personas pudieran determinar cuál fue el trazo hecho por el robot y cuál fue el del humano, según explican.

Lo siguiente fue pedirle a un grupo de niños de 6 años que también escribieran 'hola', cada uno con una letra "accidentada" que en ocasiones fue difícil de entender. Según los responsables del robot, éste fue capaz de copiar la escritura a mano de los niños con aparente facilidad.

La prueba final: un boceto de la Mona Lisa

La prueba definitiva que demostró las capacidades de este robot, que por cierto aún no cuenta con nombre, fue cuando Tellex dibujo un pequeño boceto de la Mona Lisa, usando trazos básicos y personales, para luego dejar que el robot lo mirara e imitará.

Según Tellex, el robot copió el boceto con bastante fidelidad. Kotani lo relató de la siguiente manera:

"Cuando regresé al laboratorio, todos estaban de pie alrededor de la pizarra, mirando a la Mona Lisa y preguntándome si [el robot] había dibujado eso. No podían creerlo."

Para el equipo de desarrollo, ese fue el momento clave en la que el robot demostró que estaba más allá de la mera impresión, ya que el robot fue capaz de crear una imagen con trazos parecidos a los de un ser humano.

Tellex asegura que la imagen de la Mona Lisa se hizo en agosto y a día de hoy la mantienen en la pizarra como una muestra de las capacidades del robot.

"Lo que hace que este trabajo sea único es la capacidad del robot para aprender desde cero."

El equipo responsable del robot espera que las ideas recogidas a través de su investigación puedan ser utilizadas para construir robots capaces de dejar notas, o hacer dictados y bocetos, todo con el objetivo de poderse comunicar con los humanos o bien, que puedan servir como nuevas herramientas de comunicación. Bien podría ser un paso hacia una nueva forma de comunicación entre humanos y máquinas.

Captura De Pantalla 2019 05 27 A La S 21 55 40 Izq. Palabras y boceto hecho por humanos. Der. Palabras y boceto trazados por el robot.


via Magazine - robotica-e-ia http://bit.ly/2EASirc

lunes, 27 de mayo de 2019

Retrato robot de un DevOps

El reclutamiento de DevOps aumenta. Estos profesionales deben dominar habilidades y herramientas específicas.

from RSS de lo último publicado en 'Computing España' http://bit.ly/2HC0Rnw
via IFTTT

Un equipo de escolares españoles conquistan Silicon Valley con su proyecto de Inteligencia Artificial para evitar ahogamientos en piscinas

Tienen solo 12 años pero un futuro prometedor. Y es que, de momento, han sido capaces de cautivar a Silicon Valley. La cuna tecnológica californiana ha caído rendida a los pies de África Fuertes, Irene Aparicio, Aitana Aparicio, Héctor Rivas y Pedro Figuerola después de que el pasado 18 de mayo este equipo de escolares españoles, Pifive Team, fueran premiados durante la final del «AI World Championship» por su proyecto Scoutbot Water Guardian, una especie de «robot socorrista» con el que identificar a posibles víctimas de ahogamiento en piscinas infantiles. «Estamos muy contentos de haber conseguido este logro porque empezamos el proyecto por diversión», explica a este diario Irene Aparicio, quién jamás pensó que viajaría hasta San Francisco para recoger un galardón más que merecido. Pifive Team fue uno de los seis finalistas -y el único español- seleccionados en el «AI World Championship», un certamen infantojuvenil que busca incentivar el desarrollo de la Inteligencia Artificial (IA) entre los más jóvenes. Los participantes, que deben tener vínculos familiares, proponen soluciones tecnológicas para resolver problemas cotidianos. Más de 200 familias de 11 países diferentes han participado en esta primera edición. La organización invitó a los equipos de las seis mejores propuestas a viajar a San Francisco para presentar sus ideas ante un jurado integrado por profesionales de reconocidas empresas como Google, Intel o U.S. Bank. De hecho, fue Jeff Dean, responsable de IA de Google, quien entregó a Pifive Team sus medallas correspondientes. Pero en esta competición, los escolares no han estado solos. Fernando Aparicio, responsable de I+D+i de Nunsys, empresa tecnológica, y padre de dos de las integrantes del grupo, ha guiado y ayudado a sus pupilos durante los casi nueves meses que ha durado el proyecto. La idea del «robot socorrista» surgió tras el trágico suceso personal en la familia Aparicio. «Perdimos a nuestro primo cuando solo tenía 4 años. Se ahogó en una piscina», explica Irene a ABC. Tanto ella como el resto de los integrantes de Pifive Team son conscientes de esta problemática tan generalizada. Según la OMS, los ahogamientos son una amenaza de salud pública grave y desatendida que cada año provoca 372.000 defunciones en el mundo. Los ahogamientos infantiles son la tercera causa de fallecimientos en la infancia en el mundo y la segunda en nuestro país, siendo los menores de 5 años el principal grupo de riesgo. Además, según el Ministerio de Sanidad, un niño tarda apenas treinta segundos en morir, el tiempo equivalente a contestar, por ejemplo, un mensaje de WhatsApp. Gracias al asesoramiento de los expertos en visión artificial de Nunsys, los niños desarrollaron un sencillo software que identifica a las potenciales víctimas en peligro y envía una alerta al socorrista. Cómo funciona «Lo primero que hicimos fue identificar el problema y las causas», explica Fernando Aparicio. «Muchas veces los niños se ahogan por descuidos y los adultos no lo ven», añade. Por ello, Scoutbot Water Guardian se compone, en primer lugar, de un gorro inteligente infantil. «Es divertido, bonito, con dibujos… Para que los niños lo quieran llevar», añade. Este particular accesorio va equipado con una luz «que está verde cuando el niño está encima del agua pero que pasa a rojo si, pasado un tiempo, el niño sigue sumergido». El segundo elemento que compone este «robot socorrista» es una cámara que vigila la piscina «y sigue a todos los niños que llevan el gorro», explica el responsable. «Eso se representa en un monitor -añade-, que puede ser el teléfono móvil del socorrista o el de los padres, quienes saben en todo momento dónde están los niños posicionados». En el momento en el que la luz se torna roja, salta una alerta en el «smartphone». Nunsys y Pifive Team están actualmente estudiando la viabilidad del proyecto para desarrollar un prototipo real que pueda ser testado en piscinas municipales. «Si la administración lo financia, mejor, porque los gorros no son costosos», añade Fernando Aparicio. «Además, si se distribuyeran en una piscina pública, todos los usuarios de la misma sabrán para qué son. Así, podremos salvar más vidas». Una competición internacional El certamen «AI World Championship» forma parte del programa «Curiosity Machine» de la ONG americana Iridescent, en el estudiantes y familias exploran conceptos básicos de la IA y aplican sus herramientas para resolver problemas comunes. En España, este proyecto se desarrolla bajo la asociación «Power to code», de la que forma parte Laura Monferrer. «Lo primero que hacemos es explicar a los chavales qué es la IA», explica, ya que el programa «Curiosity Machine» tiene una duración aproximada de unos nueves meses. «Después, los escolares realizan talleres, aprenden conceptos de programación y, finalmente, desarrollan el proyecto».

via Tecnología http://bit.ly/2W6rz0m

domingo, 26 de mayo de 2019

Roborock S6: probamos el robot aspirador de la familia Xiaomi que planta cara a la Roomba

El nuevo aspirador inteligente de la compañía china Roborock es más silencioso que los e la competencia. Leer

via Tecnología // elmundo http://bit.ly/2HS9ycm

viernes, 24 de mayo de 2019

Facebook cierra más cuentas que nunca en pleno esfuerzo de reconversión

Facebook anunció estre jueves que en el pasado trimestre cerró más cuentas falsas que nunca (2.190 millones), una cifra récord que tiene lugar en un momento en el que la compañía se ha visto envuelta en múltiples escándalos que la han llevado a apostar por reconvertirse. Los 2.190 millones de cuentas que la empresa eliminó entre enero y marzo son una cifra muy cercana a los 2.380 millones de usuarios activos mensuales legítimos que tiene Facebook, algo que sólo se explica porque un porcentaje mayoritario de las cuentas falsas son creadas y gestionadas directamente por robots. «La cantidad de cuentas que eliminamos se incrementó a causa de los ataques automáticos llevados a cabo por actores malignos que buscan crear grandes volúmenes de cuentas al mismo tiempo», indicó al presentar el informe el vicepresidente de Facebook para Integridad, Guy Rosen. Luchar contra la desinformación y la falta de transparencia en la red social, así como aumentar el respeto a la privacidad de los usuarios y reducir la «toxicidad» de los contenidos son los pilares fundamentales sobre los que se asienta la «reconversión» de la plataforma prometida a principios de año por su cofundador y consejero delegado, Mark Zuckerberg. Las cuentas falsas (cuya identidad real no se corresponde con quien dicen ser en Facebook) gestionadas por robots se han convertido en los últimos tiempos en una de las principales herramientas usadas para generar confusión y propagar desinformación online. Se trata en muchas ocasiones de acciones coordinadas dedicadas a influir en un evento específico (como unas elecciones) o sobre una cuestión polémica con origen en países distintos a aquel al que van dirigidas, como por ejemplo los esfuerzos desde Rusia e Irán para influir en la opinión pública de EE.UU. y Europa. Además de informar sobre cuentas y contenido retirado, la red social también publicó por primera vez datos relativos a las apelaciones que realizan los internautas cuya actividad ha sido censurada erróneamente por Facebook, así como cifras sobre ventas ilegales de armas y drogas en la plataforma. Sobre las primeras, los números de la empresa indican que aproximadamente un cuarto de las quejas que se presentan después de que Facebook haya censurado contenidos sexuales o sobre desnudos son avaladas y el contenido es restaurado, mientras que en el caso de los mensajes de odio, esta proporción baja hasta una décima parte. En cuanto a las segundas, Facebook aseguró que elimina un 83% de los mensajes que publicitan drogas antes de que los usuarios los denuncien, y un 69% en el caso de las armas de fuego.

via Tecnología http://bit.ly/2EwF7aG

jueves, 23 de mayo de 2019

Ford muestra su androide repartidor y cómo plantea su sistema de reparto 100% autónomo (sin humanos a la vista)

Ford muestra su androide repartidor y cómo plantea su sistema de reparto 100% autónomo (sin humanos a la vista)

Llevamos un tiempo viendo modelos de robots repartidores, pero de momento eran vehículos y no un androide como ha planteado Ford con Digit. Un robot repartidor con brazos, piernas y componentes que lo hacen capaz de levantar paquetes de hasta casi 20 kilogramos.

Se trata e una asociación con la empresa Agility Robotics, precisamente especializada en la construcción y el diseño de máquinas bípedas. Buscan comprobar si este tipo de robots son idóneos para realizar esta tarea (especialmente el tramo desde el vehículo hasta el portal) y que pueda existir un transporte de mercancías y su reparto 100 autónomos.

Y cuando termina, se pliega, se guarda y a otro lado

Anteriormente hemos visto algunas propuestas de robot repartidor, de hecho hace dos años vimos el programa piloto de un robot repartidor de pizzas, con una autonomía de 20 kilómetros y provisto de sensores para evitar los obstáculos.

En este caso el Digit dispone de un sensor LiDAR, cámaras estéreo y la estructura que le permite caminar y subir y bajar escaleras como un humano. Explican en Ford que ha sido diseñado para caminar erecto sin desperdiciar energía y que además puede plegarse sobre sí mismo, de modo que se "auto-almacena" en el vehículo que lo lleva hasta las casas (que también es autónomo).

El sistema que proponen es que un vehículo autónomo, capaz de crear un mapa detallado del entorno, comparta la información con Digit para que éste no requiera crear toda esta información de nuevo. En esa información, transmitida de manera inalámbrica, es la que permitiría que Digit llegase a los portales teniendo en cuenta los caminos y obstáculos, siendo así el reparto una tarea colaborativa entre ambas máquinas.

De este modo, si Digit encuentra algún obstáculo inesperado puede enviar la imagen al vehículo autónomo de transporte, de modo que éste gestione una solución. El vehículo a su vez puede enviar la información a la nube, de modo que puede recibir la ayuda de los sistemas de soporte externos.

Un robot "muy humano" para realizar tareas de humanos

En las fábricas de Ford los robots son habituales e imprescindibles para según qué tareas, pero de momento hay presencia humana que también sigue siendo necesaria. No obstante, con esta solución lo que plantean es un sistema en el que el componente humano no participaría en ningún momento, lo cual ayuda a incrementar esa relativamente reciente alarma acerca de que los robots vayan quedándose con los empleos.

Sobre esto no se expresa nada en la comunicación de los fabricantes, pero es una iniciativa que como decíamos se suma a otras anteriores que buscan tener repartidores (mecánicos) a tiempo completo y sin descansos, como vimos en el caso de Fedex. Sin olvidar Prime Air, el sistema de reparto de Amazon con drones.

Fedex

Habrá que ver cómo evoluciona esto, pero mientras tanto no dejan de ser maneras de conseguir que haya máquinas capaces de llegar a un destino sin apenas asistencia, lo cual puede valer para tareas que un ser humano no puede realizar por tratarse de sitios inaccesibles o peligrosos. O quizás pueda ser una ayuda para evitar lesiones al cargar paquetes pesados y no tanto una sustitución, habrá que esperar y observar la evolución de estas tecnologías y sobre todo su integración.



via Magazine - robotica-e-ia http://bit.ly/2YFXtOj

Las máquinas de Google Duplex no siempre son máquinas: los operadores humanos siguen haciendo parte del trabajo

Las máquinas de Google Duplex no siempre son máquinas: los operadores humanos siguen haciendo parte del trabajo

Hace un año Google presentaba Duplex, el servicio que automatizaba la petición de reservas en sitios como restaurantes y peluquerías y que era capaz de conversar de forma sorprendentemente normal con seres humanos sin que éstos se dieran cuenta de que quienes les hablaba era una máquina.

El servicio lleva ya tiempo funcionando en una fase preliminar, pero no es oro todo lo que reluce: Google ha confirmado en el New York Times que alrededor del 25% de las llamadas se inician por parte de operadores humanos, y el 15% de todas ellas acaban necesitando intervención humana.

Copilotos humanos en las llamadas

Aunque Google sí admitía que parte del trabajo lo realizan seres humanos, sus datos no coincidían con los de The New York Times: en sus pruebas esa tasa de intervención humana fue mucho mayor, y personas reales completaron tres de las cuatro reservas que se realizaron de forma satisfactoria.

Duplex

Las expectativas generadas por Google con este servicio fueron muchas cuando se presentó el servicio, pero lo cierto es que Duplex aún tiene margen de mejora: es difícil que entienda todos los giros y situaciones que se le presentan, y seguramente son necesarias muchas más llamadas en entornos reales para entrenar a un sistema que pueda enfrentarse a todos los escenarios posibles con garantías.

En Google explican además que su objetivo era el de ir paso a paso con una tecnología que querían cuidar durante su implantación: siendo un tema tan sensible tanto para clientes como para empresas, la transición a un sistema de inteligencia artificial debía ser gradual para que esos sistemas se comportaran cada vez mejor: tener una especie de "copiloto humano" en las llamadas no parece mala idea.

Demasiadas expectativas

Aún así una vez más nos encontramos con un problema de transparencia: hasta la aparición del artículo de The New York Times todos habíamos asumido que Duplex ya era lo suficientemente bueno como para trabajar por sí solo. Se ha demostrado que esto no era así y la empresa lo ha admitido, pero quizás debería haber explicado cómo estaban avanzando en este terreno desde el principio.

Duplex3

De hecho apenas sí mencionaron Duplex en la reciente Google I/O, y cuando lo hicieron no aludieron a su capacidad de conversación, sino que hablaron de su llegada a la web donde podría capturar nuestra información para realizar un alquiler de coche o entradas del cine desde los habituales formularios web. El avance de Duplex es notable, pero su capacidad de conversación aún no es lo que Google pareció prometer en su keynote de 2018.



via Magazine - robotica-e-ia http://bit.ly/2JCeIwf

martes, 21 de mayo de 2019

Silicon Valley no va a destruir el empleo, va a generar una nueva clase superprecaria: la tesis de Mary Gray, investigadora de Microsoft

Silicon Valley no va a destruir el empleo, va a generar una nueva clase superprecaria: la tesis de Mary Gray, investigadora de Microsoft

Mary Gray no es una antropóloga al uso. Trabaja en Microsoft Research como investigadora principal y preside su Comité Asesor de Ética. También es miembro del Centro Berkman Klein para Internet y la Sociedad de la Universidad de Harvard, profesora y miembro del Comité Permanente de la Universidad de Stanford para su proyecto AI100, encargado de reflexionar sobre el futuro de la inteligencia artificial (IA).

Antes de unirse a Microsoft, Gray, criada en la California rural más profunda, se dedicaba a estudiar la antropología estadounidense y las formas de organización política, en plena efervescencia del movimiento contra la represión homosexual. El colectivo reclamaba una identidad propia y a Gray le interesaba especialmente saber cómo el mundo online podría servir como vía de escape en aquellos años (comienzos de los 90) en los que empezaba generalizarse internet.

Eso llevó a la investigadora a adentrarse en el mundo de la tecnología y de los sistemas de redes como modeladores sociales. "Damos sentido a muchas de las cosas que hacemos como sociedad a través de una mirada a las tecnologías, que terminan ejerciendo como columna vertebral", asegura Gray durante una entrevista en su despacho en el Social Media Collective de Microsoft en Boston (EE.UU.), un laboratorio interdisciplinar orientado por cuestiones sociales del que no se espera que salga ninguna idea para un producto o negocio. Ciencia pura. Una isla dentro del gigante tecnológico.

"Damos sentido a muchas de las cosas que hacemos como sociedad a través de una mirada a las tecnologías"

La compañía comenzó a hace unos años a reclutar a investigadores como ella que vienen del mundo de las ciencias sociales con un foco de análisis cultural y crítico respecto al impacto de las tecnologías. "Se dieron cuenta de que los productos y entornos que estaban construyendo tenían que ver más con la sociedad que con el individuo. Cuando te dedicas a desarrollar software empaquetado es muy fácil pensar que estás creando algo para una persona pero cuando tu foco es construir cosas como un buscador, juegos de red o la Xbox, entras involuntariamente en el mundo de lo social", asegura.

La investigadora cree que si desde un tiempo a esta parte se están planteando desde la ingeniería preguntas sociales, tal vez es porque las ciencias sociales no se estaban haciendo preguntas sobre la tecnología. "No han prestado atención a estas cuestiones, yo misma tuve que abandonar la antropología porque desde ese campo no podía estudiar lo que quería. Eso es lo que me trajo aquí", asegura.

Trabajo fantasma

Gray sigue estudiando cómo la carencia de oportunidades económicas restringe la movilidad de algunas personas, pero ahora desde otra perspectiva. Concretamente, la de quienes se ganan la vida mediante empleos esporádicos que encuentran en plataformas de trabajo bajo demanda como Amazon Mechanical Turk. Es lo que lleva estudiando los últimos seis años, que ha dado lugar al libro que Gray publica este mismo mes: Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass (Trabajo fantasma: cómo evitar que Silicon Valley construya una nueva subclase global).

Ghost Work Portada de libro 'Ghost Whork'

La idea del libro surgió apenas unos meses después de que Gray llegara a Microsoft en 2012. "Estaba hablando con varios investigadores que usaban Amazon Mechanical Turk para cualquier cosa desde entrenar sistemas de aprendizaje automático a etiquetado para reconocimiento de imágenes. Entonces descubrí que era así como funcionaba la inteligencia artificial, mediante plataformas como esta que asignan a las personas disponibles online este tipo de tareas a la sombra", afirma.

Lo que captó su atención es la gran dependencia en esos trabajadores alrededor del mundo. Y también que, a pesar de ello, los investigadores no tengan ni idea de quiénes son, ni les importe. Sorprendida por ello, Gray quería saber más acerca de cómo funcionaba todo el ecosistema de lo que ella denomina "trabajo fantasma" y comenzó a investigar con su compañero Siddharth Suri, un 'informático social' que también trabaja en Microsoft Research.

En el libro, los autores examinan el impacto de la automatización en el futuro del trabajo a través de las experiencias de los trabajadores de la economía online bajo demanda (la gig econonomy), a menudo caracterizado por largas jornadas de trabajo mal pagadas, que carece de leyes laborales asociadas y de beneficios sociales. Más allá del debate sobre los repartidores de Deliveroo, los recaderos de Glovo o los conductores de Uber -que Gray sostiene que son apenas la punta del iceberg- los investigadores se refieren a lo que se conoce como 'computación humana': trabajos que empiezan y terminan online y que realizan cualquier tipo de tarea que pueda ser administrada, procesada, efectuada y pagada en línea.

Solo las tareas de etiquetado relacionadas con la IA supondrán un mercado global de más de 1.000 millones de dólares a finales de 2023, según un informe de Cognilytica. Estos trabajos potencian los sistemas, sitios web y aplicaciones de IA que todos usamos y damos por sentado. TripAdvisor, Match.com, Google, Twitter, Facebook o la propia Microsoft son algunas de las empresas más conocidas que generan tareas bajo demanda en estas plataformas. "Cada día surgen nuevas compañías con modelos de negocio que dependen de ellas. Este tipo de trabajo no solo está aumentando sino que se traduce, de facto, en una reorganización más amplia y profunda del empleo en sí", aseguran los investigadores.

Según los autores, esta forma de trabajo aún por clasificar no es intrínsecamente buena ni mala. El problema es que podría hacer invisible la labor de cientos de millones de personas. "Mientras siga a la sombra, sin definición y oculta a los consumidores que se benefician de ella, los trabajadores carecerán de derechos", escriben. Cuando se presta poca atención a las personas detrás de estos trabajos, pueden convertirse rápidamente en alienantes, degradantes, precarios y aislados.

"Mientras este tipo de trabajo siga a la sombra, sin definición y oculto a los consumidores que se benefician de él, los trabajadores carecerán de derechos"

Siglos de reformas globales, desde las leyes de trabajo infantil hasta las pautas de seguridad laboral, quedan diluidas en las transacciones laborales online. "Dado que este trabajo no se ajusta a ninguna clasificación contemplada en la legislación laboral, los acuerdos de términos de servicio para plataformas como Mechanical Turk -y otras como CrowdFlower- son casi indistinguibles de los cuadros de diálogo en los que todos hacemos clic para actualizar nuestro software, eliminando así las protecciones que los trabajadores tradicionales disfrutan", sostienen.

"Hay pocas dudas de que la economía bajo demanda genera valor y ahorra costes para las empresas. En el proceso, elimina las formas tradicionales de estabilidad y seguridad asociadas a los gastos generales del empleo a tiempo completo. La agitación social que viene con tal inestabilidad conlleva su propio precio. ¿Es ese el futuro que queremos para nosotros y para nuestros seres queridos?", afirman los autores.

Más trabajo, pero peor

El libro rompe con la línea de pensamiento que asegura que las máquinas reemplazarán a los humanos en el trabajo y que la automatización destruirá el empleo. Es lo que llaman 'la paradoja de la última milla de automatización';

"Si bien es innegable que los robots están aumentando, la mayoría de los trabajos automatizados aún requieren que los humanos trabajen las 24 horas del día, a menudo a tiempo parcial o por contrato, afinando y cuidando los procesos automatizados cuando las máquinas se atascan o se rompen. El trabajo de fábrica, el trabajo a destajo y la subcontratación fueron todos precursores de las tareas distribuidas online. Estos trabajos venían con poca estabilidad o apoyo. Fueron realizadas, en su mayoría, por personas a las que los economistas podrían considerar prescindibles o de bajo valor", comparan los investigadores.

Dado que las tareas que se demandan son dinámicas, no meramente mecánicas, es difícil sacar a los humanos del círculo. Identificar discursos de odio, clasificar un alquiler como un lugar ideal para una boda en primavera, o enmendar correctamente una declaración de impuestos requiere discernimiento humano. "La gran paradoja de la automatización es que el deseo de eliminar el trabajo humano siempre genera nuevas tareas para los humanos", señalan.

Tareas que, como explicaba Gray, precarizan las condiciones de trabajo. Por ello, los investigadores proponen en el libro soluciones "para garantizar que este nuevo tipo de trabajo cree oportunidades, en lugar de miserias, para quienes los realizan". Dichas recomendaciones provienen de la información que han obtenido a lo largo de seis años de investigación en los que han realizado más de 200 entrevistas, decenas de miles de encuestas en Estados Unidos y la India, docenas de experimentos de comportamiento y análisis de conexiones personales y grupos creadas en esas plataformas, además de investigar a otros actores clave como las personas que las han puesto en marcha o quienes contratan trabajadores en ellas.

Desde el lado de las empresas, consideran necesario que estas establezcan un 'Código de buen trabajo' que incluya también a las compañías que formen parte de su cadena de suministro que contratan online trabajo bajo demanda a granel. "Las empresas deben poder garantizar a sus clientes y a sus propios empleados que sus productos han sido desarrollados bajo buenas condiciones y prácticas de trabajo".

Del lado de los poderes públicos, reclaman una clasificación de empleo adecuada para este colectivo como paso necesario para ponerse al día con un cambio hacia una economía de servicio que no puede hacerse sin contingencia y respuesta rápida a la demanda de los consumidores. Creen que la tradicional lógica de trabajo 'a tiempo completo' o 'a tiempo parcial" no se ajusta a la actualidad y en el contexto de la economía bajo demanda no tiene sentido. "Las personas trabajan cuando pueden y como pueden, y no son menos valiosas por ello", escriben.

"La tradicional lógica de trabajo 'a tiempo completo' o 'a tiempo parcial' no se ajusta a la actualidad y en el contexto de la economía bajo demanda no tiene sentido"

Otro de los aspectos a abordar es el de las coberturas sociales. Proponen una red de seguridad que puede ir desde la asistencia sanitaria universal o coberturas básicas hasta garantizar bajas pagadas, permisos para cuidados familiares o el acceso a espacios de trabajo compartido. "Si nuestras entrevistas sugieren algo sobre el futuro del trabajo, es que nos dirigimos a una crisis de salud pública provocada por personas que trabajan no ya en pésimas condiciones sino de forma no ergonómica. Las empresas necesitan trabajadores sanos, y una atención preventiva e integral para todos es la forma más rentable de garantizarlo".

Algunas de estas medidas se contemplan en las nuevas normas sobre los nuevos derechos mínimos de los trabajadores más vulnerables con contratos atípicos o con empleos puntuales aprobadas por los eurodiputados el pasado 16 de abril. En febrero, la empresa de reparto Hermes fue noticia por llegar a un acuerdo con el sindicato GMB de Reino Unido para dar sus 15.000 trabajadores por cuenta propia la posibilidad de actualizar su contrato a la modalidad 'plus', lo que les proporcionaría hasta 28 días de vacaciones pagadas por año y un salario mínimo garantizado de cerca de 10 euros por hora (algo más que el salario mínimo actual en Inglaterra).

Protecciones sociales aparte, Gray y Suri mencionan en Ghost Work otras muchas soluciones orientadas necesidades identificadas durante su investigación, como la de colaborar o trabajar en grupo. "Contrariamente a lo que se cree, obtener ingresos no es su única preocupación. La gente que opta por estos trabajos quiere tener flexibilidad, controlar su tiempo, con quién trabaja y en qué trabaja. Para acceder a esa forma de control que no pueden obtener mediante un empleo formal, trabajan una media de 12 a 15 horas diarias. Una vía para sentir cierta sensación de agencia es ser capaces de conectar con otras personas que también están realizando este tipo de trabajo. Están colaborando de forma espontánea en cuestiones como facturar correctamente, manejar el tiempo, o simplemente para obtener una validación sobre su trabajo profesionales", explica Gray durante la entrevista.

La posibilidad de defenderse ante situaciones precarias también es algo que contempla en su libro. Propone un registro de terceros que permita a las personas que trabajan bajo demanda construir sus currículos y acumular valoraciones independientemente de la plataforma que usen. Es decir, que puedan llevar consigo su registro de logros que autentifique su identidad y reputación. Con ello se podría exigir a las empresas que registren suspensiones y expulsiones de trabajadores, con lo que los trabajadores tendrían una manera de apelar públicamente estas acciones si sienten que han sido injustas.

En el libro se destacan también aspectos positivos asociados al trabajo online bajo demanda, además de los obvios como la flexibilidad, el control del tiempo o la elección de proyectos (siempre que la situación económica lo permita, claro). "El trabajo en plataformas puede evitar los dictados culturales de quién puede y quién no puede trabajar y en qué debido a su raza, género, religión o sus diferentes capacidades o condicionantes físicos. También pueden usar estas plataformas para adquirir experiencia y acceder posteriormente a un trabajo más cualificado", escriben Gray y Suri.

Mary Gray y Siddharth Suri Mary Gray y Siddharth Suri, autores de 'Ghost Work'

IA con justicia, respeto y beneficencia

En relación con la inteligencia artificial, Gray asegura que estamos realmente en el comienzo del desarrollo de esta tecnología y eso nos hace aún más dependientes del conocimiento y comprensión humanas para ser capaces de programar mejores algoritmos. "La creación de estos nuevos mercados no es sostenible sin garantías para los trabajadores y si el entorno de trabajo es hostil", asegura.

La investigadora también cree que es un error atribuir capacidades mágicas a la IA. "No es que AlphaGo juegue al ajedrez mejor que los humanos, es que AlphaGo ha aprendido de los humanos para jugar mejor", afirma. En cuanto a sus límites, asegura que no todo es posible. "Si preguntas a un tecnólogo si va a ser capaz de resolver el problema al completo te dirá que sí sin haber siquiera evaluado la escala del problema. Yo sin embargo te diré que no, que un ordenador no puede hacerlo todo. La forma en la que miramos al problema que pensamos que estamos resolviendo es muy diferente. Es un diálogo de sordos y no nos damos cuenta", sostiene.

En cuanto al abordaje ético del desarrollo tecnológico, cree que más que pasar horas discutiendo sobre conceptos filosóficos hay que centrarse en desarrollar un método práctico y aplicable. "Abrir la mente y pensar en qué necesita la persona que usará o consumirá tu producto; reorientar la formación y el trabajo los informáticos y tecnólogos para que se den cuenta de que están interactuando con personas", asegura. Ya no vale -dice- el lema [acuñado por Mark Zuckerberg] de "muévete rápido y rompe cosas".

Gray cree que es un error que el trabajo técnico esté orientado a resolver problemas pensando en datos porque entonces la única preocupación ética es cómo asegurar y proteger esos datos. En su opinión, es una vía paternalista y muy limitada que, en lugar de mostrar al usuario cómo proteger su privacidad, lo hace a su manera y sin preguntarte. "Es una forma muy estúpida de romper la confianza. ¿Por qué no le incluyes en el proceso y le preguntas qué le parece eso que estás pensando hacer con sus datos?. Es imprescindible implicar a las personas y obtener sus comentarios", señala.

Gray cree que la IA solo avanzará si hay un profundo compromiso con la gente, ya que es necesario entender por qué los humanos hacemos las cosas que hacemos, especialmente si lo que se pretende es modelar la toma de decisiones humanas. "No veo una forma de proceder sin reproducir todas las ventajas que la ciencia ha obtenido gracias al acceso a la gente, a la posibilidad de participar libremente y a pensar tanto en los beneficios como en el riesgo social y de grupo".

"La IA solo avanzará si hay un profundo compromiso con la gente"

Hay tres términos básicos para el análisis ético en investigación EEUU que, en mayor o menor medida, son aceptados globalmente y que Gray propone usar como guía para el desarrollo de tecnologías éticas. Son la justicia, el respeto y la beneficencia. Justicia se traduce en tener una muestra diversa e inclusiva; pensar en primer lugar a quién estás dejando fuera cuando estás innovando o construyendo algo. En segundo lugar, el respeto es un proceso de aprobación: ¿tienes posibilidad como consumidor de decir no, de abandonar un proyecto?

Por último, la investigadora considera que, si hay un modo en el que podemos hablar colectivamente sobre ello y devolver el liderazgo de la conversación a la sociedad va a ser mediante la beneficencia, que requerirá valorar los riesgos y beneficios para todos los actores implicados y exigirá a los informáticos e ingenieros una mejor evaluación del impacto de su trabajo, teniendo esto en cuenta.

Para ello deberán reconocer que no tienen experiencia en ciertos dominios y que necesitan hacer trabajo de campo e involucrar a los participantes para construir algo realmente robusto. "Si algo implica un riesgo de concentración de poder y de ofrecer beneficios a costa de otras personas, no lo construyas. La bomba nuclear dejó claro que no merece la pena. Ya no está permitida la lógica utilitaria de hacer cosas simplemente porque puedes hacerlas. No: hay que hacerlas solo si es bueno para la humanidad", concluye.



via Magazine - robotica-e-ia http://bit.ly/2HEnGWy

Robot Kuri

Robot Kuri

Robot Kuri: el robot nunca saldrá al mercado.

Hace algún tiempo la empresa Mayfield Robotics anunció el lanzamiento de un robot para el hogar llamado Kuri. La utilidad del robot era simplemente la de acompañar a la persona. Respondía a gestos o caricias. También realizaba una serie de grabaciones en distintos momentos. Por lo que según decías podrías guardar recuerdos del hogar sin tener que estar pendiente de realizar ninguna grabación.

El robot mapeaba la casa y podía moverse por ella. Podía ir correctamente su zona de recarga y también llevaba incluidos unos altavoces con los que se podía escuchar música o podcasts.

Finalmente la empresa ha cerrado y el robot no se seguirá produciendo. Lo ha anunciado en un comunicado que se puede leer en la web del robot Kuri. Una pena para la gente que estaba esperando uno (que recibirá el reembolso de su dinero).

El problema principal del robot era su elevado coste, unos 700 dólares. Esto junto con la poca utilidad del robot llevó a que no hubiera demanda suficiente para mantener el proyecto y producir los robots.

La robótica para el hogar está empezando ahora a desarrollarse y ya tenemos grandes éxitos, como el robot Roomba. Seguro que poco a poco se irán creando otros robots que estén en todos los hogares. Pero hasta entonces también veremos a muchos fracasar por el camino.

La página del robot sigue funcionando por si quieres echarle un vistazo.

La entrada Robot Kuri aparece primero en Robotica.es.



via Robotica.es http://bit.ly/30zogNV

La política de Groucho Marx

Cambiar de opinión no es ninguna aberración política cuando se argumenta y se está dispuesto a afrontar las consecuencias de un rechazo. Un tipo de político que hoy escasea o ha desaparecido

via Robótica http://bit.ly/2Hrv2xz

lunes, 20 de mayo de 2019

Llegan los robots agricultores: recogen la fruta directamente del árbol como un granjero humano

La automatización de los procesos industriales no es un fenómeno nuevo. Desde hace décadas, los sectores más arraigados en las sociedades avanzadas y las nuevas empresas han basado su crecimiento en la robotización y mecanización de algunas de sus tareas. Y ello ha permitido un ahorro importante de costes al tiempo que se contribuía al bienestar del trabajador. Con la implosión de los nuevos avances en inteligencia artificial, el futuro de la economía empieza a emerger en la figura de robots de todo tipo. La agricultura, además, ha sido uno de los sectores donde más impacto ha tenido estos avances. El campo ha venido incorporando numerosos avances tecnológicos, al que deben sumarse la nueva hornada de robots capaces de recoger la fruta directamente del árbol con la misma precisión y sensibilidad de la mano humana. Un interesante proyecto del Centro Australiano de Robots del Campo de la Universidad de Sydney (Australia) ha puesto, precisamente, ese enfoque en este sector tan tradicional. Y disponen de varias propuestas curiosas que tienen como misión recolectar productos alimenticios de manera rápida y efectiva. Y con el añadido de estar permanentemente trabajando. Algunos de sus robots, por ejemplo, funcionan por alimentación solar. Unas células fotovoltaicas permiten hacerlos funcionar en campos agrícolas y cultivos de árboles. Así, prototipos llamados Rippa o Ladybird permiten emplear tecnologías autónomas para tomar decisiones rápidamente en fincas de alta densidad. Robots granjeros de gran precisión.Uno de los más curiosos es una máquina que puede coger una pieza de fruta de un árbol y, sin dañarla, depositarla directamente en una caja para su almacenaje. Pero, además de esta tarea, está programado para «aprender» del estado de los productos, distinguiendo, incluso, si está o no madura. Además de recolectar, el centro dispone de robots preparados para fugimar, arar la tierra o gestionar el ganado. El centro pretende lanzar el próximo año versiones comerciales de sus robots. Es un proyecto muy ambicioso y más teniendo en cuenta que el mercado global de Robotics e Inteligencia Artificial crece globalmente a 7 billones de dólares en 2018 y está previsto que llegue a más de 26 billones de dólares en el año 2023. Son muchas las empresas implicadas en este sector. Una de ellas, Small Robot Company, ha empezado a distribuir máquinas más productivas y autónomas que podrían decir adiós en los próximos años a los clásicos tractores. Ante el escaso interés de los trabajadores en desempeñar tareas propias de la agricultura en las últimas décadas, hay iniciativas, incluso, que han conseguido cultivar y cuidar lechugas por robots. Un escenario que se irá repitiendo en un futuro muy cercano.

via Tecnología http://bit.ly/2Ejb86i

viernes, 17 de mayo de 2019

Proyecto Roborder: Europa quiere crear un enjambre de drones para vigilar sus fronteras

Las políticas migratorias no han encontrado salvaguarda en los últimos años en Europa. Las legislaciones locales y las dificultades de controlar la entrada de personas es un cóctel difícil de gestionar. La tecnología puede ser parte de la solución para la Unión Europea, que ha empezado a estudiar un ambicioso proyecto a escala global que pretende desarrollar una flota de vehículos aéreos no tripulados (drones) controlados por inteligencia artificial capaces de patrullar las fronteras. Este proyecto, bautizado como Roborder, pretende detectar la presencia de migrantes en los accesos a las fronteras de los países de la Unión Europea. Estos robots pueden ser capaces de enviar la información geográfica obtenidas de sus cámaras y sensores a un servidor central gestionado por equipos de seguridad pública fronteriza. La idea es buscar «amenazas» de forma autónoma basadas en información proporcionada por operadores humanos. Según esta iniciativa a la que ha tenido acceso el medio «The Intercept» concibe enjambres de drones para lograr su cometido, controlar las fronteras europeas. Está contemplado el despliegue de cuadricópteros y, por medio de los últimos avances tecnológicos, pueden avisar a un ser humano. Los datos recopilados, sin embargo, podrán servir a la policía a detectar si puede resultar una amenaza. A su vez, según consta en los documentos, estarán coordinados y pueden corroborar información entre flotas de cuadricópteros, pequeños aviones de ala fija, vehículos terrestres, submarinos y barcos gubernamentales. El proyecto, sin embargo, presenta varias dudas sobre sus posibles implicaciones en la privacidad de los ciudadanos y preocupaciones éticas. Lo que ha trascendido es que los responsables de Roborder se han propuesto desarrollar prototipos comerciales para mediados de 2020. De hecho, ha recibido fondos del programa de investigación e innovación Horizonte 2020 de la Unión Europea en virtud del acuerdo de subvención número 740593 obtenido en 2017, aunque no está claro si finalmente se integrará en las políticas sobre migraciones. Los drones emplearán cámaras ópticas, infrarrojas y térmicas, además de una red de sensores de radiofrecuencia para determinar amenazas a lo largo de las fronteras. Las frecuencias de los teléfonos se usarán para triangular la ubicación de las personas sospechosas de actividades delictivas, mientras que las cámaras se emplearán para identificar a humanos, armas, vehículos y otros objetos. «El objetivo principal es tener tantos sensores en el campo como sea posible para ayudar a la policía fronteriza», apunta en un comunicado Kostas Ioannidis, gerente técnico de Roborder. «Nuestra intención es implementar un sistema de robot heterogéneo y mejorarlo con capacidades de detección para la identificación temprana de actividades delictivas en las zonas fronterizas y costeras», detallan los creadores del proyecto en su página oficial.

via Tecnología http://bit.ly/2VLEQeH

lunes, 13 de mayo de 2019

Amazon está usando nuevas máquinas que empaquetan productos de forma automática y reemplazan el trabajo de 24 personas, según Reuters

Amazon está usando nuevas máquinas que empaquetan productos de forma automática y reemplazan el trabajo de 24 personas, según Reuters

Sabemos bien que Amazon ha sido uno de los pioneros en apostar por tecnología automatizada para aumentar su ritmo de producción, aunque esto signifique eliminar puestos de trabajo. Ahora, según Reuters, Amazon está implementando nuevas máquinas en sus almacenes, las cuales se encargan de meter los productos en cajas hechas a medida.

Según la información, Amazon lleva algunos años probando esta tecnología que consiste en una gran máquina que escanea los productos sobre una banda transportadora, para posteriormente envolverlos en carton, creando una caja de tamaño justo, y dejarlos listos para su entrega.

Máquinas que son hasta cinco veces más rápidas que los humanos

De acuerdo a las fuentes de Reuters, Amazon está contemplando al menos dos máquinas empacadoras en una docena de sus almacenes en Estados Unidos. Cada máquina reemplazaría el trabajo de 24 personas, las cuales a día de encargan de empacar los productos, sellar las cajas y colocar la etiqueta correspondiente para que posteriormente sean enviados.

Según la estimación de Reuters, el instalar estas máquinas en 55 de los centros logísticos de "tamaño estándar" de Amazon en Estados Unidos representaría 1.300 despidos. Amazon espera recuperar los costes de cada máquina, cuyo precio es de un millón de dólares, en menos de dos años.

Las máquinas, bautizadas como CartonWrap, serían fabricadas por la compañía italiana CMC y ofrecerían una capacidad de empaquetado de entre 600 y 700 cajas por hora, es decir, de cuatro a cinco veces más en comparación de un humano.

La máquina no es 100% automática, ya que aún requiere a tres personas para su operación: una que meta y acomode los artículos en la banda transportadora; otra que este pendiente de cargar el cartón y el pegamento; y la tercera sería un técnico que estaría para resolver los posibles atascos.

En declaraciones a Reuters, Amazon mencionó:

"Estamos probando esta nueva tecnología con el objetivo de aumentar la seguridad, acelerar los plazos de entrega y aumentar la eficiencia en toda nuestra red. Esperamos que los ahorros en eficiencia se reinviertan en nuevos servicios para los clientes, donde se seguirán creando nuevos puestos de trabajo".

Hasta el momento, CMC no ha confirmado que esté colaborando con Amazon para la instalación de sus máquinas. Por otro lado, personas familiarizadas con este tema aseguran que, este tipo de máquinas ya están siendo usadas por compañías como JD.com Inc., Shutterfly Inc. y hasta Walmart. De hecho, afirman que Walmart lleva usándolas desde hace más de tres años.



via Magazine - robotica-e-ia http://bit.ly/2VAuxKv

¿Robots contra la «esclavitud» hostelera?

Liberar a la plantilla de un restaurante de tareas peligrosas y repetitivas para que se pueda centrar en la creatividad culinaria y la relación con el comensal puede ser el principal trabajo de los robots especializados en hostelería. Así lo considera Marius Robles, cofundador de Food By Robots, con la que busca acelerar los beneficios de la robótica para «revolucionar la forma en que comemos» a través de alianzas con empresas de robots colaborativos, marcas de alimentación, grupos de restauración y cadenas hoteleras. Robles, que ha participado la semana pasada en el congreso WeAreCobots en Madrid, explica a Efe que la hostelería es un sector «con alta rotación y un nivel de vacantes preocupante» y que hay «una creciente crisis laboral en la industria de los restaurantes, donde existen grandes dificultades para encontrar fórmulas para retener el talento», problemas que puede paliar la robótica de forma escalonada. De los «torpes» robots humanoides que debutaron como camareros en Asia a finales de los 90 y que eran objeto de selfis, se pasará a «un boom de robots baristas, cocteleros, para el servicio de habitaciones de los hoteles y que asumirán tareas peligrosas y sumamente repetitivas en las cocinas» para llegar entre 2023 y 2030 a la entrada de la inteligencia artificial, lo que implicaría además «reformular el acto de comer». Para esa época, augura, la combinación del 5G con la robótica permitirá «a un jefe de cocina a 2.000 kilómetros de su restaurante, con su equipo completamente repartido por el mundo, que cada uno ejecute sus funciones en casa y los robots colaborativos sigan sus pasos a distancia: nacerán los avatares digitales de los chefs». En un momento en el que numerosas voces del mundo gastronómico reclaman una «revolución humanística» de la hostelería para reducir las largas jornadas laborales, los robots se presentan como posibles aliados. A los humanos y su sentido del gusto se les reservaría la cocina elaborada -más allá de ensamblar ensaladas, hamburguesas y pizzas o preparar cafés, tareas que ya ejercen máquinas sin riesgo de cortarse o quemarse- y los emplatados delicados que requieren mucha destreza. O no, cuestiona el experto arguyendo los robots de prueba de sabores con los que experimenta China, que imitan los sentidos de los humanos a través de la inteligencia artificial. Según sus datos, existen unos 500 restaurantes con el mundo con algún tipo de automatización y Madrid tendrá antes de fin de año el primero de España manejado íntegramente por robots, como ya ocurre en Japón, China y Estados Unidos. El creador de Food by Robots sostiene que la robótica permitirá crear nuevos modelos de negocio, como restaurantes automatizados en los que «se produzca y manipule comida 24 horas al día, 7 días a la semana». Aunque Robles imagina incluso la posibilidad de que la industria alimentaria sea el primer sector que tenga toda su cadena de valor automatizada, desde granjas y fábricas a distribución y reparto de comida al comensal, no prevé que sea en menos de 20 años. «No va tan rápido como prevemos», advierte Robles, quien también muestra su preocupación por cómo reaccionarán trabajadores y clientes ante la convivencia con estas máquinas. «Ya estamos viendo en algunas zonas de Estados Unidos cómo reaccionan los ciudadanos ante robots que llevan comida a casa: son pisoteados y sufren intentos de robo». Prevé que habrá una respuesta muy variada de los comensales ante la automatización de los restaurantes: «escépticos, proactivos y los que harán una adopción masiva». Cita una reciente encuesta de Plan Day según la cual el 52% de los milenials cenarían en un restaurante con pedidos y pagos totalmente automatizados en comparación con el 39 por ciento de los comensales de la Generación X. En cambio, más del 71% dice que no se opondría a que un robot les sirviese la comida. No es tan optimista en cuanto a la reacción de los trabajadores de hostelería en función de estudios previos en otros sectores en los que en general los humanos se sienten «muy estresados, menos competentes y desmotivados al ver reflejada su inferioridad».

via Tecnología http://bit.ly/2WMkxdP

Todo Noticias - Mañana - Te presentamos la Feria Global Robot Expo

Hace ya tiempo que los robots han dejado de ser el futuro para formar parte activa de nuestro presente. Y los últimos avances en robótica e innovación en la industria, tanto en España como en el resto del mundo, tienen su espacio en Ifema, en Madrid, en la feria Global Robot Expo donde se dan cita más de 200 empresas líderes en robótica, logística, industria, inteligencia artificial e innovación aeroespacial. Una feria que ha crecido un 30% respecto al año anterior.

Allí está Noemí Martínez. Hablamos con Patrick Cyrus, de Global Robot Expo y Jordi Pelegrí, Country Manager de Universal Robots España y Portugal. También con una sorpresa.


Escuchar Audio

via Ciencia y tecnología en rtve.es http://bit.ly/2VkJ6wz

Ya están aquí las primeras lechugas cultivadas por robots granjeros

La robótica y la inteligencia artificial son los dos ingredientes clave con los que algunas startups pretenden revolucionar la agricultura. La compañía T&G Global de Nueva Zelanda utiliza una cosechadora robótica para recolectar sus manzanas, diferenciando incluso si la fruta está o no madura y distinguiendo las variedades para coger solo un tipo. Iron Ox es otra pequeña empresa dispuesta a hacer historia con sus lechugas cultivadas por robots y que acaban de empezar a comercializar. Esta startup californiana inauguró el pasado mes de octubre su primer huerto robotizado, en el que las máquinas han sido las encargadas de realizar las labores que tradicionalmente han desempeñado los humanos. Ahora, ocho meses más tarde, las huerta ha empezado a dar sus «frutos». En concreto, tres variedades de hortalizas: lechuga, acedera y albahaca, que se comercializan ya como ensaladas preparadas y listas para consumir, tal y como recoge «The Verge». De momento, la venta solo se lleva a cabo en una única tienda situada en San Carlos, California, a tan solo un kilómetro de este huerto robótico. Así, aseguran la frescura de sus productos a buen precio, ya que no tienen costes elevados por el transporte. El precio de estas ensaladas oscila entre los 2,50 y 5 dólares (2-4,5 euros). Iron Ox ideó esta particular huerta de cultivo hidropónico, es decir, sin tierra. Las hortalizas se cultivan en soportes y tienen las raíces en suspensión, de tal manera que los brazos robóticos pueden moverlas de un sitio a otro, en función de su crecimiento y necesidades. Este tipo de agricultura tiene ciertas ventajas frente a la tradicional. Requiere de una menor cantidad de agua y puede llevarse a cabo en espacios pequeños. Pero también requiere más mano de obra. En el invernadero diseñado por la compañía, los ingenieros usan sistemas de robots patentados para cultivar aproximadamente 26.000 cabezas de lechuga, hojas verdes y hierbas alojadas en recipientes hidropónicos automatizados. Sin embargo, aunque la compañía insiste en que se trata de un cultivo «autónomo», los humanos aún son necesarios para desarrollar una gran parte del trabajo, tal y como explica Brandon Alexander, cofundador y CEO de Iron Ox a «The Verge». Los trabajadores siembran las plántulas y empaquetan las plantas cuando están listas para comer. La labor de los robots se limita a su cuidado diario mientras crecen, en el que Angus, un robot que rueda, se dedica a trasladar en conjunto una plantación dentro del invernadero. Llegar a este nivel de automatización llevó años de trabajo, reconoce el responsable, que trabajó anteriormente para Google X. «Existe una gran diferencia» en el hecho de que los robots «funcionen todos los días» a que lo hagan en un momento puntual. «La mayoría de las personas fuera de la robótica subestiman lo grande que es esa brecha», explica al medio. De hecho, la simple tarea de mover las plantas ha sido el foco en el que la compañía ha invertido todos sus esfuerzos por conseguir una verdadera automatización de los brazos robóticos. Todo ello es supervisado por un programa, apodado «Cerebro», que monitoriza las condiciones de crecimiento de cada plantación, que ajusta el balance de gases y nutrientes que necesitan las hortalizas para que se desarrollen en un entorno óptimo. La robotización de la agricultura avanza a un ritmo muy lento. Aunque sus defensores apuestan por automatizar el campo para incrementar la productividad y solucionar la cada vez mayor escasa mano de obra, la realidad es que, de momento, los seres humanos siguen siendo más baratos.

via Tecnología http://bit.ly/2vTeS9E

sábado, 11 de mayo de 2019

Almacenes ‘inteligentes’ que gestionan pedidos, última novedad en robótica

La feria de tecnología e innovación Global Robot Expo (GR-EX), que se ha celebrado esta semana en Madrid, ha presentado novedosos ejemplares de logística, como envolvedoras conectadas a una web, robots que detectan obstáculos a treinta metros vía láser y módulos ‘picking’ (selección de artículos) con inteligencia artificial.


En la economía global, el negocio de robótica ha alcanzado los 7.000 millones de euros, una cifra que aumentará hasta los 26.000 en 2023, debido a la demanda de software, hardware y servicios que generará este sector, explica a Efe el socio responsable de robótica de Deloitte, Luis González.

Según este experto, “los sectores manufacturero y logístico son los más avanzados en robótica porque fueron los primeros en automatizar sus procesos” y, por tanto, “conviven habitualmente” con los robots.

Los autómatas expuestos en la feria pasan la jornada a pleno rendimiento, mostrando a los asistentes cómo colocan, sujetan, ordenan, administran y envuelven paquetes, algunas de sus funciones.

César Nosti, gerente de ventas en España y Portugal de Dematic, una empresa que ofrece soluciones tecnológicas para la cadena de suministro, señala a EFE que la inversión empresarial en estas nuevas tecnologías no solo se entiende por su retorno, sino porque es clave para el crecimiento, la flexibilidad y para seguir “el ritmo de su competencia”.

La robótica no es ya un componente sino algo que “está intrincado en lo que hacemos”, añade Nosti.

Las máquinas inteligentes, además de gestionar entradas y salidas de producto, aportan el valor de la información, comunicando al cliente datos productivos y técnicos, como el ritmo al que trabajan sus aparatos o su estado de mantenimiento, datos que se utilizan en las naves industriales de una compañía para tomar decisiones.

Almacenes como “entes vivos”


Quien no sea eficiente “muere”, advierte una portavoz de Schaefer, empresa que aplica inteligencia artificial a la logística.


Es Yolanda Núñez, la directora de marketing de la compañía, quien sostiene que las empresas no solo compiten en su sector, “sino con otros nuevos actores, que es Amazon, que es ‘e-commerce'” (comercio electrónico), puntualiza.

La clave para liderar la innovación está en la robótica colaborativa, los “cobots”, la fórmula que más se ha escuchado durante la feria.

Se trata de la última tendencia en robótica y, según los expertos, es el trabajo conjunto entre autómatas y trabajadores humanos que busca liberar a estos últimos de las tareas monótonas y repetitivas para que pasen a realizar otras funciones.

Los clientes de Aranco, empresa que se dedica al embalaje industrial, acceden a una web para vigilar el trabajo que hacen sus robots.

El director de marketing de esa firma, Gari Lara, explica a EFE que antes las máquinas solo estaban conectadas para el servicio técnico, pero que ahora sus envolvedoras comunicadas por 4G aportan datos precisos e “información fiable”.

Estas innovaciones crean valor en la sociedad, como considera el experto en robótica de Deloitte, porque “sustituyen tareas de bajo valor y no empleos”.

Dice González que un buen ejemplo es la imprenta de Gutenberg, que, hace casi seis siglos, “generó un crecimiento y transformó la humanidad”. EFEfuturo

 

La entrada Almacenes ‘inteligentes’ que gestionan pedidos, última novedad en robótica aparece primero en EFE futuro.



via EFE futuro http://bit.ly/2WAIzZ7

La inteligencia artificial le 'devuelve la vida' a Salvador Dalí por medio de un alucinante 'deepfake' que hasta saca selfies

La inteligencia artificial le 'devuelve la vida' a Salvador Dalí por medio de un alucinante 'deepfake' que hasta saca selfies

En 1989, en su última declaración pública, Salvador Dalí mencionó: "cuando se es un genio, no tenemos derecho a morirnos, porque hacemos falta para el progreso de la humanidad". Qué razón tenía. Y hoy nos damos cuenta de ello gracias a que la tecnología está "resucitando" al genio de Figueras de una forma nunca antes vista: por medio de un deepfake.

A inicios de año nos enteramos que el Museo Dalí de San Petersburgo, Florida, en Estados Unidos, estaba colaborando con la agencia Goodby Silverstein & Partners (GS&P) para usar inteligencia artificial en la creación de una nueva experiencia con Salvador Dalí. Hoy esa experiencia cobra vida, literalmente.

¡Dalí vive! Una experiencia surrealista

Como parte de la conmemoración de los 30 años de la muerte de Salvador Dalí y su cumpleaños número 115, el Museo Dalí estrena este 11 de mayo la exposición permanente 'Dalí Lives', con la que ha sido posible crear una recreación a tamaño real de Dalí, la cual fue posible a las famosas técnicas de vídeo de machine learning usadas en los deepfakes.

Según explican, para esta recreación se usaron más de 6.000 fotogramas de Dalí, extraídos de entrevistas y apariciones públicas, los cuales se usaron para entrenar un algoritmo de machine learning y así crear una gran base de datos de sus rasgos, movimientos de ojos y cejas, así como otros detalles únicos del pintor.

El trabajo representó más de 1000 horas de entrenamiento del algoritmo. Una vez listo, todos estos rasgos se colocaron sobre el cuerpo de un actor real, con las características físicas de Dalí y quien estudió sus movimientos para representarlo de la forma más fiel posible. Este proceso es similar al que se uso para "dar vida" a la Princesa Leia y al Gobernador Tarkin en 'Rogue One'.

También se empleó un actor de voz quien fue capaz de imitar el acento único de Dalí. Con todo esto, se crearon 45 minutos de metraje para un total de 125 vídeos interactivos, con resultados por demás destacados que sirven para dar vida a una de las experiencias interactivas más alucinantes que se han visto.

Todo este material se colocó en pantalla interactivas a tamaño real, una especie de quiosco con un botón que permite dar inicio a esta experiencia. Como bien mencionan los encargados de GS&P "no se trata de un actor maquillado interpretando a alguien, se trata de ese alguien en vivo y en directo".

Según los responsables del museo, el objetivo de esto es tener un nuevo tipo de acercamiento al arte de Dalí, el cual es compartido por el mismo Dalí, creando así, por un momento, la sensación de que el genio está charlando con nosotros. De hecho, al final de la experiencia, existe la opción de tomarse una selfie con Dalí, tomada por el mismo Dalí, la cual recibiremos en su smartphone.

Hay 190.512 posibles combinaciones, por lo que cada personas recibirá una experiencia distinta. Desde Dalí leyendo el periódico hasta una charla acerca del tiempo, donde por supuesto se incluyeron famosas frases del artista:

"Creo en la muerte en general, pero en la muerte de Dalí, absolutamente no."

Nathan Shipley, director técnico de GS&P, explicó que el código para entrenar este algoritmo lo consiguió en GitHub, donde lo complicado fue reunir todo el material y lidiar con el permisos en el caso de algunas cadenas internacionales. Dalí no cuenta con familiares vivos, en su testamento nombró al Reino de España como su único heredero, por lo que al final todo se pudo usar con la autorización de la Fundación Dalí, quien también colaboró para reunir el material.



via Magazine - robotica-e-ia http://bit.ly/2VURnM5

jueves, 9 de mayo de 2019

‘Cobots’: cuando los humanos ya no mueven cajas

Un congreso en Madrid reúne a más de 40 expertos en la colaboración entre humanos y robots

via Robótica http://bit.ly/2V9gvKQ

miércoles, 8 de mayo de 2019

Robótica colaborativa, un versátil compañero de trabajo

Robots que colaboran con los trabajadores durante la producción industrial, exoesqueletos para volver a caminar o inteligencia visual para detectar hasta el más mínimo fallo en una pieza conviven en los pasillos de Global Robot Expo.

Una feria internacional de tecnología e innovación que hoy y mañana reúne en Madrid a empresas del sector y en la que se celebra además el primer congreso europeo de robótica colaborativa.

La robótica es mucho más que androides -aunque también haya alguno aquí- y en Global Robot Expo (GR-EX) tiene cabida la innovación aeroespacial, la industria logística, la inteligencia artificial y los robots colaborativos.

Así, por los pasillos se ven, sobre todo, vehículos AGV -una especie de pequeñas plataformas autónomas que se afanan en llevar cosas mientras esquivan a los congresistas-, drones o impresoras 3D, pero sobre todo brazos robóticos.

Los “cobots”


Y es que en el GR-EX tiene también cabida la robótica colaborativa, los llamados “cobots”, brazos robóticos con diferentes aplicaciones en el extremo (una pinza, una ventosa, un sensor o una cámara) que les permite acometer las más variadas tareas en una industria.

Para un observador poco experto, estos brazos robóticos se diferencian poco de los que desde hace años operan en cadenas de producción, pero el director de marketing de GR-EX, Patrick Cyrus, desmiente esta falsa idea.
Begoña Gerbolés camina con un exoesqueleto bajo la supervisión de su fisioterapetuta. EFE.


El concepto de robótica colaborativa surgió hace unos diez años y se fundamenta, sobre todo, en la facilidad de uso y en que se puede trabajar junto a ellos sin peligro. “Pueden parecer las misma pinzas, pero es mucho más fácil interactuar con ellos”, explica.

En España la mayor parte de su tejido empresarial está formado por pymes que todavía no saben que pueden usar “cobots” para un gran número de tareas.

El futuro de las pymes industriales -señala Cyrus- pasa “sin lugar a dudas” por los “cobots”, una robótica “mucho más cercana de lo que nos creemos. No hace falta ser ingeniero para programar estos robots” especializados en movimientos repetitivos.

“Se trata de que el factor humano pase a ser la inteligencia del trabajo y el robot la fuerza bruta”, resume Cyrus.

Empresas presentan en la feria sus “cobots”, que apoyados en una mesa son capaces de coger y trasladar objetos, apilar cajas, clasificar pequeños objetos.

Y otras compañías, como Robotmaster, les ofrecen soluciones para reducir el tiempo de programación robótica para tareas de precisión, como realizar un troquelado sobre un metal, según su gerente de ventas, Javier Llorens.

Visión artificial


“Cobots” que trabajan sin descanso, pero también tecnologías preparadas para detectar posibles fallos de producción, como hace la firma CIN Systems con el uso de la visión artificial.

Una tecnología que, como detalla su director general, Txema Gallego, digitaliza en tres dimensiones cualquier componente para detectar hasta el más mínimo defecto.

Mientras un gran brazo robótico escanea y analiza una y otra vez una puerta de automóvil, Gallego indica que esta técnica se usa para componentes que “no pueden fallar”, por ejemplo en la industria de la automoción o la aeronáutica.

Por uno de los pasillos se acerca Begoña Gerbolés, camina con dos muletas, lleva una mochila y un dispositivo que abraza sus caderas y recorre sus piernas por detrás. Es un exoesqueleto y sin él no podría levantarse de la silla de ruedas.

La robótica se aplica así a la rehabilitación. Gerbolés sufre una lesión medular desde hace 15 años y los últimos cuatro usa este dispositivo en sus sesiones de fisioterapia.

Exoesqueletos, un cambio radical


“Es un cambio radical. Ponerse de pie y poder desplazarte, no solo caminar por una cinta”, dice mientas Eva Blanquin controla la mochila de la espalda, en ella están las baterías y el software.

Blanquin trabaja con Rebiotex responsable del exoesqueleto dedicado a la rehabilitación y que no puede usarse de forma autónoma.

“Es como si fuera un traje”, con motores y articulaciones para las rodillas y las caderas, además de sensores de movimiento en el tronco y la caderas, “un aparato inteligente que se adapta a lo que el paciente va necesitando” y que mejora su rehabilitación.

Aplicaciones en ambiente hospitalario donde también desarrolla algunos de su proyectos la firma Robotnik, indica su director de proyectos de I+D, Miquel Cantero, quien destaca una silla con brazo robótico para la ducha que ayuda en su higiene a las personas con movilidad reducida. EFEfuturo

La entrada Robótica colaborativa, un versátil compañero de trabajo aparece primero en EFE futuro.



via EFE futuro http://bit.ly/2Vmwbzm

Cariño, he encogido al asistente de Google: ahora reside en tu teléfono, no en la nube, y eso es importante para la privacidad

Cariño, he encogido al asistente de Google: ahora reside en tu teléfono, no en la nube, y eso es importante para la privacidad

El asistente de Google ha encogido. Los modelos que se utilizaban para su funcionamiento ocupaban 100 GB y residían en la nube, pero Google ha logrado reducirlos a apenas medio gigabyte, algo sencillamente fantástico que permitirá algo mucho más importante de lo que parece: podremos usar el asistente y sus prestaciones en local, sin que haya conexión con la nube de Google.

El nuevo asistente de Google es en esencia el mismo de siempre, pero esa capacidad de funcionar en local hará que todo sea mucho más rápido. Muchísimo. Lo vimos en la demo de ayer de Google I/O en una interacción mucho más fluida y que ahora permite nuevos y sorprendentes hitos que tienen un efecto colateral prometedor: Google cuida (al menos un poco más) nuestra privacidad.

Más rápido, más local, más inteligente

Las implicaciones para la interacción con el asistente de Google son claras, sobre todo porque esa velocidad de funcionamiento que demostraron en escena da pie a que utilicemos mucho más y mucho mejor esta plataforma que ahora se hace más atractiva que nunca.

Algunos analistas comentaban por ejemplo cómo esto podría ser toda una revolución para que el control por voz (por ejemplo a través de auriculares conectados) se convirtiera en una opción mucho más potente que antes, y ciertamente esto podría impulsar esos escenarios.

Ese funcionamiento en local se une a la mejora del reconocimiento del lenguaje natural que permite que una vez más el asistente destaque en esas búsquedas por contexto que nos permiten enlazar órdenes relacionadas por el contexto sin dar demasiados detalles que ya se asumen de las primeras consultas.

El ejemplo del vídeo mostraba esos avances. En él podemos ver a una mujer interactuando con el asistente y diciendo: "Muéstrame imágenes de Yelloswtone" y a continuación, sin decir nada más, decir "las que tienen animales" para cerrar con un "Envíaselas a Justin".

La cosa no acababa ahí, porque cuando su interlocutor le preguntaba cuándo volvía de un viaje, ella primer consultaba el dato en el asistente para luego contestar (siempre con la voz) en la aplicación de mensajería y dar el dato. El salto entre aplicaciones era transparente y muy rápido, algo que hace pensar que usar el móvil con la voz podría llegar a ser pronto más cómodo y rápido que hacerlo con los dedos (si uno se acostumbra y tiene soltura al hacerlo).

Google mostró cómo funcionaba esa capacidad del asistente, y prometió que todas esas mejoras -había varias más que describían en un post en su blog oficial- llegarían a los móviles de la gama Pixel este año (probablemente en otoño). Pero... ¿cómo funciona todo por debajo?

Asistente, responde de una vez

La velocidad con la que funciona el asistente es otro factor fundamental para que nos relacionemos más y mejor con esta plataforma automatizada: la latencia es crítica al conversar con máquinas (y con humanos, claro), y uno se pone rápidamente nervioso si hace una pregunta y la respuesta tarda en llegar más de lo que espera.

Assit4

Para mejorar esa latencia Google anunciaba en marzo sus avances en el reconocimiento del habla, que ahora está implementado en local gracias al uso de un modelo entrenado con el llamado "transductor de redes neuronales recurrentes" (RNN transducer).

Este modelo es una evolución de técnicas que Google había usado antes como las redes neuronales profundas (DNNs), redes neuronales recurrentes (RNNs), redes de memoria de corto y largo plazo (LSTMs) o redes neuronales convolucionales (CNNs).

El logro de este modelo es el de su eficiencia. El llamado grafo de búsqueda que se utilizaba para los modelos de producción que Google usaba y usa en el reconocimiento del habla ocupaba 2 GB aproximadamente, pero lograron reducir ese tamaño a 450 MB gracias a este modelo. Una serie de técnicas adicionales permitieron comprimir esos datos y hacerlos accesibles a la misma velocidad en tan solo 80 MB.

Eso, añdían en Google, hace que esa capacidad del asistente lo haga "lo suficientemente compacto como para poder residir en un móvil". Google describía esta tecnología en profundidad tanto en ese post como en este estudio (PDF), y sus resultados cristalizaron ayer. Parece que esas capacidades solo estarán disponibles a pleno rendimiento en los dispositivos más potentes, pero habrá que esperar a su despliegue definitivo, probablemente en otoño de 2019.

La privacidad (o la sensación de privacidad) gana enteros

Una consecuencia fundamental de este cambio en el funcionamiento del asistente de Google puede ser aún más importante para el mercado actual: se trata de la percepción de privacidad que tendremos al usar el servicio.

Asistentes

Hasta ahora al usar el asistente nos conectábamos con la nube, y eran los servidores de Google los que procesaban la información para que el asistente nos contestara. Ahora todo funciona en local y podremos usar buena parte de las funciones de ese asistente sin necesidad de tener una conexión de datos activa.

Solo por eso la sensación de usar el asistente de Google será para muchos mucho más inocua que antes. Esto es más importante de lo que parece, sobre todo teniendo en cuenta los recientes escándalos de privacidad en empresas como Facebook y los que Amazon ha sufrido en su familia de asistentes de voz Echo.

Google hace lo mismo, claro, y uno de sus ejecutivos admitía cómo "una pequeña fracción" de peticiones de voz del asistente se comparten con un equipo humano en Google que trabaja en la mejora de sus sistemas de inteligencia artificial.

Hace tiempo que Apple se había postulado como defensora de la privacidad pero puede que este movimiento ayude a Google a ganar enteros en este terreno. Será difícil teniendo en cuenta cómo ganan dinero una y otra empresa, pero desde luego que las cosas se ejecuten en local sin conexión a la nube es un elemento fundamental para que nuestra percepción de cómo protege Google nuestra privacidad cambie.

Pichai de hecho incidía en este apartado también durante su participación en Google I/O, pero fue más allá con un artículo editorial escrito por él y publicado en The New York Times en el que sin mencionar a Apple directamente sí que afirmaba que "la privacidad no puede ser un producto de lujo" que solo esté disponible para "gente que se puede permitir comprar productos y servicios premium".

Queda por ver si el asistente logra funcionar de esta manera no solo en sus Pixel, sino en todo tipo de dispositivos Android y, por supuesto, en los altavoces inteligentes que poco a poco están conquistando nuestros hogares. Cale hondo o no ese mensaje, lo cierto es que el asistente de Google ha dado un paso importante para ayudar a que confiemos más en él.



via Magazine - robotica-e-ia http://bit.ly/2H8FSbJ