domingo, 30 de diciembre de 2018

Los grandes hitos (y las grandes polémicas) de la inteligencia artificial en 2018

Los grandes hitos (y las grandes polémicas) de la inteligencia artificial en 2018

Este 2018 que ya casi ha acabado ha sido un año plagado de noticias relacionadas con la inteligencia artificial y todo aquello que la rodea. Aunque no siempre lo que nos han vendido como IA lo era realmente, y hay quien opina que se tiende a exagerar los avances en este campo.

Sin embargo, sí ha habido avances, y de gran interés. En estos doce meses hemos conocido, por ejemplo, el funcionamiento de AlphaZero, una máquina capaz de aprender a jugar de manera autónoma y desarrollar estrategias desconocidas para nosotros, o hechos tan curiosos como la IA que aprendió a distinguir a hombres y mujeres por su retina, algo que parecía imposible... y que aún no sabemos cómo ha hecho.

En cualquier caso, desde Xataka os hemos preparado una recopilación de los temas vinculados con la IA que más han dado de qué hablar en este último año:

Los baches del coche autónomo

Era previsible que el coche autónomo fuera uno de los temas candentes del año. El Salón de Ginebra de marzo nos permitió tomar el pulso al nivel real de desarrollo de esta tecnología, pocos días antes del freno que supuso para el sector el accidente mortal protagonizado por uno de los prototipos de Uber.

Ha quedado claro que aún quedan obstáculos que superar para que las promesas se conviertan en realidad, y que enseñar a conducir a un coche (pero enseñarle de verdad, para hacer frente también a situaciones complejas) puede requerir un esfuerzo aún mayor del que se pensaba. Sumemos a eso el efecto que tienen sobre todo el sector los accidentes mortales, como el protagonizado por Uber.

La IA como nueva apuesta de las empresas de tecnología de consumo

Grandes empresas tecnológicas que antaño centraban su estrategia en otros campos (como el desarrollo de sistemas operativos o la fabricación de dispositivos móviles) están dando pasos cada vez más rápidos en su apuesta por la inteligencia artificial.

Así Microsoft, que todos vinculamos al sistema operativo Windows, dejó de lado este producto durante su última conferencia de desarrolladores para centrarse en la nube y la IA. Además, a lo largo de este año la compañía de Redmond ha protagonizado varias adquisiciones de empresas del campo de la inteligencia artificial.

Al otro lado del Pacífico, también Lenovo apuesta por subirse a la ola de la IA, por su potencial para predecir la demanda de nuevos productos o para mejorar procesos.

Otras grandes compañías como Apple o LG también están mostrando iniciativa en este campo.

Tenemos prejuicios hacia la IA... pero la IA quizá también los tiene hacia nosotros

Este año nos ha sorprendido descubrir que la IA, lejos de ser algo frío y neutral, puede desarrollar prejuicios y discriminar, aunque a veces el problema resida únicamente en que la alimentamos con datos de mala calidad.

Más allá de eso, prosigue el debate sobre la postura que deberíamos mantener los humanos hacia la IA, con posturas enfrentadas aun dentro de Silicon Valley, con la nueva ración de avisos de alerta de Elon Musk y la postura tecno-optimista de Bill Gates.

La automatización del empleo sigue (y seguirá) dando que hablar

También prosigue el debate sobre la repercusión que tendrá la IA (o, más concretamente, la automatización de tareas que ésta facilita) sobre el empleo humano.

Nos dicen que se creará más empleos que los que destruirá, pero también que los países en desarrollo sufrirán la peor parte del cambio. Además, hay quien vincula este proceso con el despertar de los populismos en Occidente.

El despertar del dragón chino ha puesto en guardia a EE.UU y Europa

El régimen chino no sólo es completamente consciente de la importancia de la IA para el desarrollo socieconómico de su país, sino que ya se ha puesto manos a la obra para exprimir el potencial de su sector nacional de IA y lograr arrebatar el liderato a EE.UU de aquí a 2030.

Esos planes pasan por la educación: las autoridades chinas están apostando por la formación de estudiantes en IA desde preescolar y captándolos en secundaria para que diseñen las armas autónomas del futuro.

Pero su sector privado no se queda atrás, ni mucho menos: compañías con un fuerte peso de la IA en su estrategia de negocio (como Didi, Baidu, Megvii y Sensetime) están plantando cara a sus contrapartes occidentales y captando cada vez más financiación.

¿Y qué hacen mientras los Estados Unidos? Pues el gigante americano, pese a haber cosechado algún triunfo este año (como el de arrebatar a China el trono del supercomputador más potente del mundo), se encuentra comercialmente a la defensiva, y ha puesto sobre la mesa la idea de restringir la exportación de tecnologías de IA a China.

Mientras, en Europa, Alemania ha anunciado la inversión de 3000 millones de euros para reivindicarse como locomotora del continente también en el campo de la IA, pero Kai-fu Lee, expresidente de Google China, avisa: "No hay esperanza para el sector europeo de la Inteligencia Artificial".

Las fotos y vídeos 'fake' generados mediante IA han llegado para quedarse

Si el año pasado estuvo protagonizado por el debate sobre las noticias fake, en 2018 ha quedado claro que las imágenes y los vídeos fake han llegado para quedarse y hacernos dudar de todo lo que veamos.

Y es que, si los deepfakes empezaron como un entretenimiento de la industria porno, humillante para algunos y lucrativo para otros, lo cierto es que han puesto el foco sobre un problema obvio: los vídeos van a dejar de servir como prueba, y eso terminará afectando a la opinión pública.

Curiosamente, los informativos televisivos han estado entre los primeros en lanzarse a experimentar con esta tecnología, ya sea para manipular lo que el presentador dice, ya sea para mostrarnos a un presentador inexistente.

Casi tan inexistente como los rostros fotorrealistas generados mediante IA por Nvidia, que tan difícil resulta admitir que no sean personas que estén dando vueltas por algún lugar del mundo ahora mismo.

Vamos a hablar cada vez más con nuestras máquinas

Éste también ha sido el año de los asistentes de voz y los altavoces digitales. En estos meses, no sólo hemos visto cómo se multiplicaban las alternativas en español, sino que a muchos nos ha cambiado la vida contar con nuestro propio asistente.

Google también quiere que nos cambien los modales, claro, pero por ahora las preocupaciones de muchos usuarios recaen sobre el aspect de la privacidad.

En cualquier caso, parece estar siendo el año de Alexa: no sólo se ha convertido en referente para Huawei, sino que puede que termine entrando hasta la cocina de Windows, hasta ahora coto privado de Cortana.

El debate ético es inaplazable

La Comisión Europea ha aprovechado los últimos estertores del año para presentar el borrador de sus directrices para el uso y desarrollo ético de IA. Pero éste es un debate que ha estado encima de la mesa durante todo el año.

Google, por ejemplo, presentó sus propios principios éticos para el uso de inteligencia artificial, descartando aplicarla en vigilancia y armamento tras la polémica desatada por el Proyecto Maven.

La lucha 'contra las IAs asesinas' ha impulsado campañas de protesta desde el ámbito académico, que debería tomar nota de los esfuerzos realizados en su momento contra la proliferación nuclear.

Pero los científicos han querido llevar el debate un paso más allá: ¿resulta seguro hacer públicos los avances en este campo?

Mientras, crece la preocupación por el modo en que las autoridades aplicarán dichos avances a la vigilancia masiva.



via Magazine - robotica-e-ia http://bit.ly/2EWuP5B

sábado, 29 de diciembre de 2018

El gran impacto de la privacidad y otros hitos tecnológicos en 2018

La creación misma de los algoritmos para el funcionamiento de cualquier aplicación o servicio tecnológico se verá afectada por el reglamento europeo de protección de datos en vigor desde mayo, por el que se exige consentimiento expreso y claro del afectado para el uso de sus datos por las empresas para fines distintos para los cuales fueron inicialmente recabados, advierte a Efe el director de análisis y consultoría en IDC Research España, José Antonio Cano.

Asimismo, influirá de forma importante esta normativa en las tecnologías de impresión 3D, en donde el análisis de información de las personas puede ser determinante dependiendo de sus experiencias para cualquier diseño ya desde el ordenador del producto que finalmente será fabricado.
El reglamento europeo “abre un dilema no resuelto” respecto a si el diseño del producto es del creador cuando se incluyen para su desarrollo datos personales sobre percepciones u otros relacionados con experiencias previas de consumo de los usuarios ante un producto o servicio.

Al empoderarse al ciudadano para ser dueño de sus datos lo que surge es “una barrera legal sobre cómo empezar a crear y gestionar” toda esa información disponible del ciudadano a la hora de desarrollar mejores servicios, explica el responsable de la consultora IDC.

Esos datos gestionados pueden referirse a aspectos como qué quiere el individuo, cómo ha manifestado lo que desea o sobre qué información personal da permiso a la empresa para que la utilice con el fin de ofrecerle luego productos más personalizados.

De acuerdo a los datos de la consultora, otros avances tecnológicos en 2018 han sido los siguientes:

1. Mejores algoritmos

El avance de la inteligencia artificial como uno de los hitos de 2018 ha permitido mejores aplicaciones, más personalizadas gracias a algoritmos que ofrecen búsquedas más acertadas; asimismo, existe una mayor interacción ciudadana con asistentes virtuales del tipo Siri de Apple, Alexa (de Amazon) o Google Home.

2. Almacenamiento en “la nube” tecnológica

El usuario comparte cada vez más datos en “la nube” mediante servicios tan populares como “dropbox”. Dado que la capacidad de almacenamiento de los teléfonos móviles aumenta y también los contenidos que se procesan como las fotografías (más calidad y por tanto más espacio requerido para almacenarla), se incrementa la actividad en ese sistema de almacenamiento de información y es cada vez mayor el impacto de los servicios en los que se paga por lo que se usa (Software como servicio o SaaS).

3. Realidad aumentada y virtual

Aunque el impacto de estas tecnologías ya era importante, en la actualidad aún es cara y acotada a ámbitos muy específicos. Sin embargo, esta tendencia está cambiando y, si bien las gafas de realidad virtual y aumentada mantienen aún precios elevados, la oferta es mayor y existen dispositivos a precios asequibles para el consumidor. Un avance este año ha sido el traslado progresivo de esta tecnología a mundos que traspasan los videojuegos y otras experiencias inmersivas como visitas virtuales a tiendas o lugares turísticos. De hecho, según datos de la consultora, por primera vez en 2019 las empresas dedicarán más gasto que los consumidores a inversiones de realidad virtual y aumentada, lo que confirma su apuesta clara por una tecnología hasta ahora casi constreñida al mundo de los videojuegos.

4. Tecnología 5G

En 2018 se empezó a hablar de esta tecnología en España, aunque el retraso en la distribución del espectro está ralentizando el despliegue de infraestructuras que no será una realidad hasta 2020, lamenta el experto. Varias marcas han anunciado el lanzamiento de móviles compatibles con 5G pero difícilmente podrán dar ese servicio si no hay infraestructuras que lo permitan, añade.

“Todavía hay un largo camino” por delante para el despliegue de esta tecnología donde se habían puesto “muchas esperanzas para que finalmente se agilizara”. No obstante, se está generalizando el incremento de banda ancha a disposición de los usuarios para conectarse a internet; el reto para 2019 es la identificación de casos de uso para aplicar esta tecnología y la generación de contenidos acordes a ello.

5. Internet de las cosas

Con la democratización de la tecnología y el uso creciente de teléfonos móviles en una sociedad cada vez más conectada con dispositivos y sensores más “inteligentes” aumentan las capacidades de la inteligencia artificial y la analítica avanzada.

Los dispositivos ya no sirven solo para medir parámetros sino además para propiciar acciones que ofrecerán al ciudadano contenidos contextualizados de manera personalizada y acceso a un nuevo abanico de servicios a los que hasta ahora no podía.

En este contexto, la apuesta por las ciudades inteligentes ha sido importante en los últimos dos años, con grandes inversiones por parte de las administraciones y empresas para su digitalización en áreas como la energía, la movilidad, la logística y el transporte.

6. Automatización de tareas

En 2018 se empezaron a ver en el hogar servicios relacionados con la robotización de tareas automáticas hasta ahora vinculadas exclusivamente al mucho empresarial. La incorporación doméstica de dispositivos como Alexa, Google Home o “chatbots” que permiten al usuario comunicarse desde su dispositivo con robots o software que responde automáticamente a sus consultas “está transformando la forma de interaccionar del usuario dentro de su propia casa”, según el responsable de IDC. El usuario ya puede controlar por voz todos los dispositivos que tiene en su hogar con dispositivos que se están popularizando a precios asequibles, como ha empezado a verse este año. EFEfuturo

 

La entrada El gran impacto de la privacidad y otros hitos tecnológicos en 2018 aparece primero en EFE futuro.



via EFE futuro http://bit.ly/2Sq1SlL

viernes, 28 de diciembre de 2018

ANYmal, el robot cuadrúpedo que está explorando las alcantarillas suizas

ANYmal, el robot cuadrúpedo que está explorando las alcantarillas suizas

Los empleados municipales responsables del sistema de alcantarillado de Zurich (Suiza) tienen entre manos un trabajo bastante incómodo: recorrer, andando o a gatas, 100 kilómetros de pozos y desagües, revisando paredes y suelos en busca de desperfectos. Como dichos desagües pueden llenarse de agua sin previo aviso, el trabajo es, además de comprensiblemente incómodo, potencialmente letal.

Precisamente por ello (y porque, al fin y al cabo, también es bastante tedioso) nos encontramos ante un puesto de trabajo potencialmente automatizable: dejarlo en manos de robots permitiría inspeccionar semanalmente áreas que hoy en día los humanos sólo pueden recorrer una vez al año.

Eso es lo que han intentado las compañías Robotic Systems Lab y ANYbotics, un spin-off del Instituto Federal de Tecnología de Suiza (ETH), desarrollando un robot cuadrúpedo de medio metro de altura llamado ANYmal. Ya hablamos aquí de él hace un tiempo... pero entonces no se contemplaba aún este uso para él.

Del laboratorio al (maloliente) mundo real

Realmente este modelo llevaba varios años siendo sometido a pruebas en laboratorio, pero las cámaras y sensores lídar con que va equipado el robot no han alcanzado hasta hace muy poco el nivel de calidad y miniaturización suficientes como para que el prototipo estuviera listo para el trabajo que debía realizar.

"El hecho de que algo funcione en el laboratorio no siempre significa que lo hará en el mundo real", explica Peter Fankhauser, cofundador de ANYbotics. Sobre todo porque este 'mundo real' en concreto tiende a ser mucho más frío, viscoso y resbaladizo que los laboratorios de la superficie.

Por todo ello, ANYmal ha empezado a realizar inspecciones de su particular entorno de trabajo supervisadas por humanos que le transmiten órdenes a distancia, aunque según vaya 'aprendiendo' se le dotará de mayor independencia.

¿Aprendiendo? Sí: "Todos los equipos se llevarán a casa un gran volumen de datos para incorporar en su investigación", explica el profesor Marco Hutter, del ETH. El robot registra medio millón de mediciones por segundo a lo largo del día: "Es suficiente información para mantenernos ocupados durante seis meses".

El desarrollo de ANYmal se enmarca en un proyecto de investigación más amplio denominado THING (siglas en inglés de 'Investigador háptico subterráneo') que trata de dar respuesta a un reto que se presenta a menudo en las alcantarillas, ¿qué sucede si el lídar que el robot usa para 'ver' en la oscuridad se ve obstaculizado por un exceso de vapor, agua, polvo o humo?

Para solventarlo, los investigadores decidieron que ANYmal hiciera uso de la percepción háptica. Que se moviera, hablando en plata, 'palpando' a su alrededor: equipando sus 'pies' con sensores de textura y temperatura, ANYmal puede 'hacerse una idea' del entorno que le rodea y desplazarse con éxito por las alcantarillas.

Según explica el comunicado del ETH,

"Tras casi diez años de investigación, ANYmal puede hacer mucho. No sólo puede caminar de forma autónoma, sino que también cuenta con las capacidades sensoriales de vista, oído y tacto que le permiten, por ejemplo, leer la pantalla de presión de aire en una máquina, identificar sonidos y reconocer objetos, por ejemplo, para determinar si un extintor de incendios está en el lugar correcto".

"El robot puede incluso realizar ciertas tareas manuales por su cuenta [o] identificar la temperatura ambiente y detectar la presencia de gases en el aire. Su último logro es ser capaz de reconocer la composición del suelo debajo de él".

Vía | ETHz.ch



via Magazine - robotica-e-ia http://bit.ly/2AkM24R

jueves, 27 de diciembre de 2018

Palabra de ingeniero - Androides bipedismo - 23/12/18

Hasta ahora, los robots androides eran cosa de cine y ciencia ficción. Uno de los grandes desafíos a los que se han enfrentado los ingenieros es que los robots no solo pudieran conservar el equilibrio sino de moverse con una mínima eficiencia y solidez. Y es que caminar nos parece a los humanos algo absolutamente natural pero lo cierto es que resulta difícil y muy costoso como explica José Manuel Sanjurjo, miembro de la Real Academia de Ingeniería.
Para estar de pie y conservar el equilibrio disponemos en nuestro organismo de sensores de presión y equilibrio (el líquido de nuestros oídos), y nuestro cerebro tiene que coordinar músculos y tendones en decenas de sitios para impedir que nos caigamos. En el caso de las máquinas, a la dificultad de reproducir esas hablidades se añaden los problemas de la autonomía y la capacidad de cálculo. Sin embargo, en los últimos años hemos asistido a un gran desarrollo en el campo de la robótica gracias a soluciones que han venido de la mano de la inteligencia artificial, la conexión a banda ancha y el diseño e impresión 3D. Avances que han dado lugar a una nueva generación con exponentes como el robot Atlas, de Boston Dynamics. Sólo ahora empezamos a ver robots capaces de caminar con cierta elegancia, incluso a correr, saltar y sortear obstáculos... Y pronto, estarán conviviendo con nosotros.


Escuchar Audio

via Ciencia y tecnología en rtve.es http://bit.ly/2Q7G10q

Marte también comienza en los desiertos de Marruecos

Al sur de la cadena del Atlas se abren inmensas extensiones vacías que por su geología y su morfología se asemejan bastante a lo que hasta ahora se conoce del planeta Marte, como explica a Efe el profesor Kamal Tajeddine, profesor de Geología en la Universidad Cadi Ayyad de Marrakech.

Al frente del Centro Ibn Batuta y en coordinación con el programa europeo Europlanet, Tajeddine coordina desde Marruecos distintas misiones de investigación espacial desde hace más de diez años, casi todas basadas en las regiones al sur del Atlas, generalmente pedregosas y lejos de la idea tópica de las cadenas de dunas.

Es cierto -reconoce Tajeddine- que existen otros países africanos con desiertos más o menos similares (Argelia, Etiopía o Botswana), pero Marruecos cuenta con varios factores extracientíficos de peso, comenzando por la seguridad: como ha podido comprobar Efe, la Gendarmería Real protege a distancia a los equipos investigadores y no permite la entrada de intrusos.

Temperaturas extremas


A ello se añade la estabilidad política del país y la existencia de una infraestructura hotelera muy desarrollada con acceso rápido a internet, fundamental para que los equipos investigadores descarguen sus trabajos al final de una jornada bajo el sol y el viento.

El último experimento, desarrollado a principios de diciembre, consistió en probar la autonomía del astromóvil bautizado como Sherpa TT, un robot con ruedas que recuerda a una araña por sus brazos articulados y que debía demostrar al mismo tiempo su capacidad de seguir las órdenes y de improvisar una acción propia si en su camino encuentra un objetivo científico.

Bajo la atenta mirada de los científicos, el robot (2 metros de largo por 2 de ancho para sus 200 kilos) se paseó por las mesetas de Gari Medwar, en la región de Erfud, y fue capaz de tomar de forma autónoma imágenes de objetos (piedras, pequeñas plantas y cualquier otro tipo de accidente) en su recorrido de 360 metros.


El último experimento, desarrollado a principios de diciembre, consistió en probar la autonomía del astromóvil bautizado como Sherpa TT. EFE/ Mohamed Siali.El último experimento, desarrollado a principios de diciembre, consistió en probar la autonomía del astromóvil bautizado como Sherpa TT.


El “Sherpa TT” es un prototipo de laboratorio, no real, pues no está aislado contra la radiación ni está diseñado contra temperaturas extremas, según aclaró entonces Jorge Ocón, representante español en este proyecto financiado por la Comisión Europea.

Otro de los experimentos más llamativos llevados a cabo en la misma región fue el emprendido por el Foro Austriaco del Espacio de la Universidad de Insbruck, que en 2013 puso a diez astronautas a probar durante un mes sus pesados uniformes espaciales con los que teóricamente se tendrán que mover los primeros hombres en alcanzar Marte.

Cada uno de los diez cosmonautas “vivió” una media de tres horas diarias -a veces hasta cinco- dentro de los pesados trajes, mientras su comportamiento era vigilado por un equipo compuesto por médicos, mecánicos especializados y técnicos en telecomunicaciones.

Caída de meteoritos


En aquel experimento, al igual que el último del astromóvil, los técnicos trabajan con el “efecto retraso”, es decir, tienen en cuenta la realidad de la distancia actual entre la Tierra y Marte, que hace que las señales que se envían desde nuestro planeta, incluso en condiciones óptimas, llegan al planeta rojo con un desfase de algo más de veinte minutos.

Lo que de ningún modo se ha podido testar hasta ahora es una atmósfera similar a la de Marte, donde el aire está compuesto principalmente de dióxido de carbono, y por consiguiente todas las pruebas tienen un componente artificial que tal vez pueda irse resolviendo con los años.

Y es que las exploraciones espaciales tienen todavía mucho camino por recorrer. En el desierto de Marruecos, los bereberes las seguirán recibiendo con los brazos abiertos, ya que representan un tipo muy especial de turismo, que es al fin y al cabo una de las pocas fuentes de ingresos en la zona.

No se sabe si es una mera casualidad o una señal de los dioses del Espacio, pero Marruecos es además una tierra donde se registra una cantidad inusual de caídas de meteoritos. Todo justifica que la carrera al espacio comience en los confines del Sáhara. EFEfuturo

La entrada Marte también comienza en los desiertos de Marruecos aparece primero en EFE futuro.



via EFE futuro http://bit.ly/2LDLRWw

El mapa de tu casa para jugar a Doom te lo hace automáticamente una Roomba con este script

El mapa de tu casa para jugar a Doom te lo hace automáticamente una Roomba con este script

Imagina jugar un nivel de Doom, el título en primera persona que lo cambió todo, usando tu propia casa como mapa del juego. Una aplicación liberada de manera gratuita es capaz de convertir los mapas que genera tu Roomba mientras limpia, en mapas jugables de Doom. ¿Te vas a pedir una por Navidad?

Tu casa es el nivel más original de Doom

Por fin alguien ha puesto valor a toda la información sobre nuestra casa que usa una aspiradora robótica para generar un mapa digital con el que optimizar la limpieza del suelo de la misma.

Rich Whitehouse, desarrollador de videojuegos que tiene a sus espaldas títulos como Prey, ha compartido con todo el que quiera usarlo un nuevo plugin para uno de sus programas. Noesis cuenta ahora con un script que sigue el rastro de una aspiradora Roomba. Una de sus opciones es crear un mapa jugable de Doom con la configuración de nuestro salón.

Roombatrack

El nuevo añadido se llama Doomba, original nombre donde los haya. La opción se ha añadido al software Noesis y una vez localizada la Roomba mediante su IP, el software se encarga de todo: recoge la información de la estancia y luego es capaz de generar un mapa para jugar en Doom. En caso de que queramos unir varias estancias en un solo mapa y no haya podido almacenarse la información de una sola pasada de la Roomba, el programa puede unirlos de manera automática.

Las opciones del programa permiten que tanto objetos como enemigos o elementos del mapa se generen aleatoriamente, o si nos atrevemos, podemos indicarle algunos detalles para adaptar el nivel a nuestros gustos e ideas. Incluso podemos modificar las texturas de los elementos del juego.

Por ahora este script solo funciona (de manera comprobada) con la aspiradora robótica más avanzada de la compañía, la Roomba 980, que curiosamente ya hemos probado en Xataka, aunque esta funcionalidad no oficial se nos escapó. ¿Le damos otra oportunidad?

Más información | RichWhiteHouse.



via Magazine - robotica-e-ia http://bit.ly/2GUBP51

miércoles, 26 de diciembre de 2018

Así es XiaoIce, el chatbot chino de Microsoft con capacidades emocionales para interactuar mejor con los humanos

Así es XiaoIce, el chatbot chino de Microsoft con capacidades emocionales para interactuar mejor con los humanos

Si nos preguntasen por algún chatbot de Microsoft, el primero que nos vendría a la mente sería Tay, el polémico bot lanzado en 2016 que se volvió racista a fuerza de conversar con trolls en Twitter. Sin embargo, si nos hablasen de otro llamado XiaoIce tendríamos más problemas a la hora de situarlo.

El motivo de ello es que XiaoIce, pese a llevar ya cuatro años en activo, hasta hace poco ha estado disponible únicamente para el mercado chino, si bien el gran tamaño de éste (y el hecho de ser accesible desde plataformas tan distintas como WeChat, QQ, Weibo, Meipai, Facebook Messenger o LINE) lo ha convertido por sí sólo en uno de los chatbots más populares del mundo.

Ahora, un equipo de investigadores de Microsoft ha publicado un artículo académico en el que desvela los secretos de su funcionamiento de XiaoIce. En él, nos desvelan que su principal misión es la de convertirse en "una IA con la que los usuarios sean capaces de establecer conexiones emocionales a largo plazo", una característica que no sólo distingue a XiaoIce de los primeros chatbots sociales (como Eliza), sino también de otros asistentes como Cortana.

XiaoIce cuenta con tres componentes principales:

  • Cociente de inteligencia: Habilidades de diálogo específicas, como poder responder preguntas, recomendar preguntas, contar historias, etc.
  • Cociente emocional: Factor que incluye tanto la empatía (capacidad de predecir rasgos sobre el usuario individual con el que XiaoIce está conversando); y habilidades sociales (personalización de las respuestas al usuario).
  • Personalidad: "Está diseñada para parecer una chica de 18 años, confiable, simpática y con sentido del humor".

Un chatbot centrado en la empatía

La compañía explicaba recientemente en un comunicado que su chatbot representa "sólo una pequeña parte de un marco masivo y multidimensional de IA que utiliza continuamente técnicas de aprendizaje profundo para absorber la clase de datos que desarrolla su coeficiente emocional. [...] está utilizando sus interacciones con los humanos para adquirir habilidades sociales, comportamiento y conocimientos humanos".

Harry Shum, vicepresidente ejecutivo de Inteligencia Artificial e Investigación de Microsoft, afirmaba el mes pasado que "cuando nos comunicamos, usamos el tono de voz, el juego de palabras y el humor, cosas que son muy difíciles de entender para las computadoras" y a las que deberemos dar respuesta si queremos ser capaces de trabajar conjuntamente con la IA.

Di Li, responsable del desarrollo de XiaoIce en el Centro de Tecnología y Software de Asia de Microsoft, explica que

"Para crear un marco de AI, debes elegir [tener en cuenta] el coeficiente intelectual (IQ), el emocional (EQ) o ambos. Y en ese caso, debes elegir con cuál empezar: nosotros elegimos centrarnos primero en el EQ y luego en el IQ".

Xiaoice Gráfico del paper "The Design and Implementation of XiaoIce, an Empathetic Social Chatbot" en el que explican la evolución de las capacidades de XiaoIce.

Efectivamente, cuando lanzaron el proyecto Xiaoice, descartaron deliberadamente los datos basados en las solicitudes de hechos y cifras realizadas por los usuarios, prefiriendo centrarse en datos que ayudarían a "construir una 'personalidad'" capaz de ayudar a despertar la empatía de los usuarios. "Este tipo de datos es muy valioso para nosotros".

El 70% de las respuestas de XiaoIce proviene de sus propias conversaciones pasadas

Los investigadores de Microsoft desvelan que la compañía diseña XiaoIce para optimizar su rendimiento en un métrica llamada "Turnos de Conversación por Sesión" o CPS; esto es, "el número promedio de turnos de conversación entre el chatbot y el usuario a lo largo de una sesión conversacional".

La idea de fondo es que, para Microsoft, la longitud de las conversaciones parecen ser un indicativo de satisfacción del usuario, por lo que un CPS alto sería positivo.

Así, desde su lanzamiento hasta el pasado mes de mayo, XiaoIce generó más de 30.000 millones de turnos de conversación (hasta mayo de 2018). "Hoy en día, el 70% de las respuestas de XiaoIce derivan de [datos extraídos de] sus propias conversaciones pasadas", afirman los investigadores.

Para ellos, esto constituye un ejemplo del modo en que las las aplicaciones de inteligencia artificial pueden convertirse en generadores de datos de gran calado y, en última instancia, evitar la dependencia de fuentes externas de datos datos externos.

Aunque este chatbot sigue extrayendo datos de toda una serie de fuentes (datasets públicos, servicios online, páginas web) y utilizándolos para valorar la calidad de los datos de la propia aplicación, es previsible que ésta mejore paralelamente al crecimiento de su base de usuarios.

Lo mismo ocurrirá con la cantidad de temas que abordan estos datos (que los investigadores aún califican como "baja" porque "muchos de los temas nuevos o menos discutidos en los foros de Internet no están incluidos").

Imagen | Microsoft



via Magazine - robotica-e-ia http://bit.ly/2BD0STW

Este robot desactiva bombas con una mano que controla y "siente" el operador responsable

Este robot desactiva bombas con una mano que controla y

Tras pasar hace unos meses las pruebas y test previos del ejército de Reino Unido, los primeros robots T7 están listos para empezar a desactivar bombas en situaciones complejas. Lo harán con una peculiaridad única: su brazo robótico ofrece respuesta háptica avanzada al operador responsable de evitar que una bomba explote sin control.

Respuesta "háptica" para mayor precisión y seguridad

El ejército de Reino Unido ha recibido los primeros cuatro robots Harris T7 que forman parte del pedido de 56 robots que ha realizado a la compañía. Estos robots, que cuestan cada uno sobre el millón de euros, vienen preparados para mejorar la desactivación de explosivos con máxima seguridad en todas las situaciones.

El punto diferenciador de este Harris T7 está en su brazo robótico con seis grados de libertad. La mano robótica en la que acaba ese brazo estrena tecnología para ofrecer una respuesta háptica al operador que está manejando el robot. Ese feedback táctil lo obtiene directamente en la empuñadura con la que controla el brazo del robot.

T7 Multi Mission Robotic System 01

El control que el operador tiene del escenario donde está trabajando el robot se alimenta también de las dos cámaras de alta definición que incluye. Una de ellas está situado sobre el brazo robótico, mientras que la general es de tipo PTZ, capaz de rotar tanto en vertical como en horizontal al tiempo que hace zoom de manera manual o automática. También incluye seguimiento de objetos.

El robot, con un peso de más de 300 kg, es capaz de desplazarse a una velocidad máxima de 6,5 km/h, y sus baterías le otorgan una autonomía de más de 8 horas de trabajo continuado. El trabajo de campo lo puede realizar en lo más diversos terrenos

Más información | GobUK.



via Magazine - robotica-e-ia http://bit.ly/2EM2uy3

lunes, 24 de diciembre de 2018

Científicos rusos crean una tecnología para descubrir la rutina de los usuarios a partir de las galerías de sus móviles

Científicos rusos crean una tecnología para descubrir la rutina de los usuarios a partir de las galerías de sus móviles

Investigadores de la Escuela Superior de Economía de Rusia afirman, en un paper recientemente publicado, haber creado una tecnología capaz de ayudarse de redes neuronales para identificar con mayor rapidez y precisión el género y la edad de las personas que aparecen en los vídeos (y fotos) de nuestros móviles. Y de ayudar a extraer patrones de interacción social a partir de esa información.

Hoy en día, las redes neuronales ya son capaces de acertar el género de una persona con una precisión superior al 90%, pero la cosa cambia cuando se trata de la edad. Los sistemas actuales no sólo manejan únicamente rangos de edad, sino que únicamente ofrecen porcentajes de probabilidad para cada uno de ellos.

Sin embargo, el equipo de investigadores dirigido por el profesor Andrey Savchenko, ha encontrado el modo de optimizar estas tareas implementando un nuevo método de agregar los porcentajes generados por las redes neuronales y aplicando a los mismos la teoría probabilística de Dempster-Shafer.

Para ello, el método utiliza no una, sino varias redes neuronales diferentes que, una vez combinan sus datos no sólo logran definir la edad y el género de una persona, sino que también atribuirle un vector único, pues gracias al reconocimiento facial pueden diferenciarlas de otras de características demográficas similares.

Un algoritmo que proporcionará recomendaciones personalizadas

Los investigadores están ahora testando el funcionamiento del algoritmo a través de su implementación en varias apps para Android (siendo usable incluso en terminales poco potentes).

Dichas aplicaciones -destacan los investigadores- son respetuosas con la privacidad del usuario, pues realizan el análisis de la galería multimedia de cada usuario dentro del propio dispositivo móvil, remitiendo a sus servidores únicamente los informes generados a partir de la misma.

Por supuesto, analizar la galería del móvil de un usuario no sólo aporta información sobre éste, sino también sobre su círculo social, permitiendo conocer su extensión, así como la edad y el género de las personas que frecuenta.

Además cruzando la información extraída de cada foto/vídeo entre sí y con sus metadatos (hora y fecha en que fue tomada, geolocalización, etc), el algoritmo permite ayudar a reconstruir el día a día del usuario: características de las personas con las que suele juntarse, frecuencia con que lo hace, etc.

Eso por no mencionar la posibilidad de combinarlo con otras tecnologías como las de reconocimiento de objetos o logotipos. Como explica el profesor Savchenko,

"[El perfil generado puede mostrar], por ejemplo, que la mayoría de tus fotos incluyen a cuatro mujeres y dos hombres, y que te gusta ir a McDonald's".

De este modo, como destacan los propios investigadores, la información extraída puede ser usada por los fabricantes de smartphones y desarrolladores de apps para crear diversos sistemas personalizados de recomendación: anuncios de tiendas de juguetes en usuarios que tienen varias fotos junto a niños pequeños, de restaurantes para aquellos que suelen reunirse con un grupo de gente de su misma edad el mismo día de la semana, etc.

En el paper, los investigadores plantean la utilidad de esta tecnología para el comercio minorista, pues permite al sector gastar de forma más eficiente su inversión publicitaria, apostando por la publicidad contextual.

Según recoge EurekAlert!, los investigadores han confirmado que "uno de los mayores fabricantes de smartphones del mundo ha mostrado interés en usar esta tecnología" e incluirla en los dispositivos que fabrique en los próximos años.

Imagen | Jacek Halicki (vía Wikimedia)



via Magazine - robotica-e-ia http://bit.ly/2CyXOdl

ALMA es el rival mejor preparado del perro-robot más famoso de Boston Dynamics

ALMA es el rival mejor preparado del perro-robot más famoso de Boston Dynamics

Seguramente el robot cuadrúpedo más conocido sea Spot, creación de la compañía Boston Dynamics. Sus habilidades para correr e incluso abrir puertas le han valido una fama difícil de igualar.

ANYmal, creación europea de la mano de ETH Zurich, es el rival mejor preparado. Lo ha demostrado al más puro estilo de Spot: abirendo puertas pero también recogiendo basura y tirándola a una papelera. Avanzado y encima educado.

Robot suizo para situaciones de emergencia

ANYmal es uno de los desarrollos de robótica más interesantes del mercado europeo. Este robot cuadrúpedo destaca por su capacidad de correr y acceder a zonas elevadas con facilidad, quedando centrado en tareas de rescate y acceso a terrenos complejos para otro tipo de vehículos de emergencias en casos de catástrofes.

El entorno lo controlan y gestionan con ayuda de cámaras y sensores. Tras crear los mapas correspondientes, el robot es capaz de elaborar una ruta optimizada para sus características, maximizando la seguridad y estabilidad de sus movimientos incluso a gran velocidad.

La primera versión comercial de ANYmal está preparada para inspeccionar instalaciones de producción de combustibles fósiles. A esos lugares ANYmal puede ser llevado incluso a mano por operarios dado que su peso se ha reducido hasta ser solo de 30 kg.

Para estas tareas de inspección, ANYmal cuenta con cámaras térmicas, detectores de gas, micrófonos e iluminación auxiliar. La autonomía por defecto es de dos horas.

ALMA, una versión para trabajos de interior

Con la base del cuadrúpedo ANYmal, ETH Zurich ha desarrollado una versión bautizada como ALMA (Articulated Locomotion and Manipulation) con un elemento extra que le ayuda a manipular objetos con precisión, así como en tareas que para un humano son sencillas pero no para un robot, como abrir puertas.

ALMA dispone de un brazo articulado con seis grados de libertad cuya principal característica es que puede ser usado mientras el robot realiza otras acciones como desplazarse.

Más información | EH Zurich.



via Magazine - robotica-e-ia http://bit.ly/2EJS2Hk

Alguien ha inventado un robot que juega al piedra-papel-tijeras y nos gana el 100% de las veces, pero tiene truco

Alguien ha inventado un robot que juega al piedra-papel-tijeras y nos gana el 100% de las veces, pero tiene truco

Las máquinas nos lo están poniendo difícil en algo que siempre ha sido dominio nuestro y que nos encanta: ganar en los juegos, ser los campeones. De momento no nos han batido en el StarCraft, pero sí en póker, ajedrez, al Go y ahora alguien ha inventado un robot que nos gana siempre a piedra-papel-tijeras. La revolución robot era esto.

No se trata de que el robot haga trampas como vimos con la pillería que las inteligencias artificiales lograban desarrollar para ganar en los videojuegos, aunque sí juega con cierta ventaja porque el truco está en anticiparse por muy poco a la jugada humana. Es decir, se basa en lo previsible en nuestro juego y en la capacidad de reconocimiento que pueden alcanzar los robots gracias a la tecnología actual, pero mejor verlo en acción.

No es cuestión de táctica, es cuestión de rapidez

La idea no podía venir de otro sitio que no fuese Japón (nunca defraudan), concretamente de la Universidad de Tokio. Explican los autores en la publicación de su trabajo que han desarrollado un robot que gana el 100% de las veces al juego piedra-papel-tijeras, pero eso sí, con un pequeño as en la manga gracias a la tecnología.

¿Cómo puede ganar siempre en una cosa tan aleatoria y sin meterse en nuestras mentes? Porque la predicción es más una consecuencia que una anticipación, ya que la realiza según la forma que toma la mano humana tras la cuenta que se realiza antes de mostrar la piedra, el papel o las tijeras o incluso sin ella, tardando aproximadamente un milisegundo.

Hicieron varias versiones mejorando el tiempo que el robot tarda en mostrar su jugada, de modo que iban recortándolo para al final lograr esa victoria. Empezaron con un retraso de 20 milisegundos con respecto a la respuesta humana y acortaron hasta que el robot mostraba su jugada prácticamente a la vez, incorporando en una tercera versión las tecnologías de rastreo de alta velocidad "1ms Auto Pan-Tilt" y "Lumipen 2", que son las que reconocen a gran velocidad la forma de la mano humana y mejoran la sincronización entre ambos movimirntos, según explican.

Aunque pueda parecer únicamente un experimento gracioso, la idea es que esto al final tenga una aplicación en la robótica de apoyo en la realización de tareas o movimiento, sobre todo pensando en industrias en las que es complicado integrar una automatización por coste o porque por el tipo de tarea o lugar resulta más complejo. Veremos en qué queda todo esto, sobre todo de cara a que sea beneficioso para los seres humanos, pero de momento nos quedamos en que los robots han ganado otro asalto en lo que se refiere a juegos.



via Magazine - robotica-e-ia http://bit.ly/2AcWPhu

domingo, 23 de diciembre de 2018

"Ni 30 millones de ejemplos" de conducción humana son suficientes para enseñar al coche autónomo a gestionar imprevistos

En los últimos años, el entrenamiento de redes neuronales profundas a partir de grandes cantidades de datos etiquetados ha mejorado el nivel de desarrollo de muchas áreas vinculadas a la IA, como el de la percepción y predicción de objetos.

Pero, ¿eso basta cuando buscamos desarrollar un sistema de conducción autónoma lo bastante robusto como para conducir coches reales en escenarios de conducción complejos? ¿Miles de ejemplos de conducción humana pueden ayudarnos a enseñar a una IA a ser buena conductora?

Un equipo de investigadores de Waymo (la compañía filial de Google que desarrolla sus coches autónomos) se ha hecho esta misma pregunta y su respuesta ha sido contundente: los coches autónomos no aprenderán a conducir bien si se limitan a copiar el comportamiento humano.

Y no, ni siquiera "30 millones de ejemplos serían suficientes". Cuando estos investigadores entrenaron una IA a partir de datos recopilados durante 60 días de conducción real y continua, descubrieron que no resultaba posible enfrentar escenarios más complejos que aquellos contemplados en los datos de ejemplo.

Obviamente, las personas cometemos algunos errores que la IA no cometería (como, qué sé yo, 'picarnos' por un adelantamiento), pero en general somos muy buenos conductores. O, como mínimo, no es habitual que protagonicemos incidentes como choques con otros vehículos o salidas de carril.

Por lo que, en todos esos millones de datos, apenas hay ejemplos suficientes de una amplia gama de escenarios como para que las máquinas aprendan de tales errores.

Esto provocaba que el modelo con el que trabajaban los investigadores a menudo adoptara decisiones sin sentido como quedarse parado detrás de coches estacionados en el lateral de la carretera (o, peor aún, chocar contra ellos):

"El modelo aprende a responder adecuadamente a los controles de tráfico, como las señales de alto y los semáforos. Sin embargo, las desviaciones como la introducción de perturbaciones en la trayectoria o el situarle en situaciones cercanas a la colisión hacen que se comporte erráticamente, porque incluso habiendo sido entrenado con grandes cantidades de datos, es posible que nunca haya visto estas situaciones exactas durante dicho entrenamiento".

ChauffeurNet, la RNN desarrollada por Waymo

De modo que los investigadores decidieron ir más allá del mero aprendizaje por imitación, y apostaron por "simular lo malo en lugar de limitarse a imitar lo bueno", añadiendo toda clase de obstáculos a los datos con que se alimentaba a la IA.

Usaron para ello una red neuronal recurrente diseñada por Waymo y bautizada como ChauffeurNet, compuesta a su vez por dos componentes principales:

  • FeatureNet: una red neuronal convolucional que procesa los datos de entrada y extrae de ella información relevante como la hoja de ruta, los límites de velocidad, la presencia de semáforos, el límite de velocidad, la ruta del modelo, la posición actual y pasada de otros autos.

  • AgentRNN: A partir de los datos de FeatureNet, AgentRNN es capaz de ofrecer una predicción de las posiciones futuras del resto de vehículos. Estos datos son usados por ChauffeurNet para reaccionar en consecuencia.

via GIPHY

Las 'perturbaciones' agregadas manualmente por los investigadores actúan como "pérdidas por imitación", forzando al modelo a verse inmerso en situaciones muy diferentes a los ejemplos que se le entrena.

ChauffeurNet aprende a salvar situaciones potencialmente peligrosas minimizando estas pérdidas por imitación, pues empieza a evitar colisiones y a no salirse de las marcas de los carriles. En este enlace puede verse el resultado de las simulaciones realizadas por Waymo.

Pese a esa mejora, los investigadores explican en un 'paper' publicado recientemente que esta metodología no basta para construir un vehículo que sea lo suficientemente inteligente:

"Los sistemas de conducción totalmente autónomos deben ser capaces de manejar la larga lista de situaciones que se dan en el mundo real. Aunque el aprendizaje profundo ha tenido un éxito considerable en muchos casos, la gestión de ciertas situaciones cuando se parte de pocos ejemplos de entrenamiento sigue siendo un problema abierto".

Imagen | zombieite (Flickr)



via Magazine - robotica-e-ia http://bit.ly/2rN0QEK

Yo me dedico a automatizar puestos de trabajo

Yo me dedico a automatizar puestos de trabajo

Desde que Gran Bretaña sirvió de cuna a la primera Revolución Industrial, a finales del siglo XVIII, cada sucesiva transformación económica y tecnológica se ha caracterizado por dar un vuelco radical a los procesos de producción. Ocurrió hacia mediados del XIX, con la segunda revolución. Se repitió a comienzos del siglo XX por influencia de las TIC e Internet. Y ahora —sostienen los gurús— nos adentramos en una cuarta ola de renovación marcada por la inteligencia artificial, el Big data y un peso cada vez más palpable de la robótica y la automatización.

El impacto que tendrá la ya bautizada como cuarta Revolución Industrial es una incógnita que se despeja poco a poco a golpe de informes. A mediados de septiembre un estudio elaborado por la OCDE (Organización para la Cooperación y el Desarrollo Económico) vaticinaba que el 14% de los empleos de su zona —la institución aglutina 37 estados repartidos por diversos continentes— están en riesgo por la automatización y que casi un tercio (32%) de todos los puestos experimentarán “cambios importantes” por esa causa a lo largo de los próximos años.

La OCDE no es la única que apunta en la misma dirección. En su informe "Future of Jobs 2018", el Foro Económico Mundial (WEF) profetiza también un cambio importante en el mercado laboral. Un análisis realizado por el McKinsey Global Institute (MGI) junto a economistas de Oxford y el Banco Mundial va más allá y detalla incluso que a lo largo de la próxima década entre 400 y 800 millones de personas verán cómo la automatización los desplaza de sus puestos de trabajo.

Quizás con el fin de amortiguar el impacto de esa nueva revolución y evitar las brechas territoriales que pueda generar —en Eslovaquia el nivel de empleos en riesgo debido a la automatización asciende al 40%, diez veces más que en Oslo—, la propia OCDE subraya ya la urgencia de ir preparando el terreno. “Para remediar la fractura, las autoridades públicas deben enfocarse en mejorar la formación de los trabajadores y las competencias de las empresas”, conmina el organismo internacional en su estudio, que se presentó hace solo un par de meses.

Esas estrategias de prevención deben partir en gran medida de las autoridades públicas, pero… ¿Quién abandera el proceso de automatización? ¿Quién se encarga de guiar a las empresas en ese camino costoso y complejo que las adentra en la cuarta Revolución Industrial? Con el fin de no perder el tren de la industria 4.0, los ingenieros especializados han ido convirtiéndose en piezas clave en sus plantillas. Buena prueba de esa demanda creciente se encuentra en las universidades, donde los masters de robótica y automatización constatan un aumento de matrículas.

Santiago Martinez De Las Casas 3o Por La Izquierda Con Alumnos Santiago Martínez de la Casa (3º por la izquierda) con alumnos.

Santiago Martínez de la Casa Díaz es experto en robótica y automatización y trabaja en el grupo de investigación RoboticsLab de la Universidad Carlos III. “En nuestro máster tenemos mayor demanda de la que podemos absorber. Cubrimos siempre el 100% de las plazas y tenemos que rechazar alumnos. Hay un interés creciente en la formación más específica”, señala. Una tendencia similar apuntan docentes de masters de automatización de otros centros españoles.

La clave de ese aumento de demanda —detalla Martínez de la Casa Díaz— es el interés de las empresas por adaptar su producción. “La industria 4.0 se basa en dos patas: los dispositivos en las factorías y el tratamiento de datos. En la parte de automatización clásica se van a seguir instalando sistemas automáticos, robots. La robótica colaborativa es el avance que se introduce en la robótica 4.0; el robot no solo trabaja por su cuenta, sino que puede colaborar con las personas”, reflexiona.

¿Destrucción o transformación de empleo?

La pregunta del millón que surge a raíz de estudios como los de la OCDE es: ¿Destruye empleo la automatización? ¿A más softwares que automatizan trabajos, menos capital humano? Santiago lo tiene claro: “Los robots no quitan empleo, sino que obligan a un cambio de perfil”. Para el experto el factor decisivo reside en “el valor añadido” que cada cual aporte a su empresa. “Evidentemente la tarea de una persona que se dedica ocho horas a apretar un tornillo desaparece, pero se necesitará otro perfil más cualificado, el de un empleado con mayor formación que pueda acceder a un mejor salario”, resalta el ingeniero, convencido de que la robótica colaborativa será determinante.

“La cuestión siempre existe: ¿Un robot quita puestos de trabajo? Nosotros pensamos que no, que simplemente se cambian los perfiles”, incide Santiago: “Hemos sobrevivido a tres revoluciones industriales. En todas ha habido cambios drásticos y el mundo no se ha acabado”. De opinión similar, Rogelio Delgado Mingorance, ingeniero Técnico Industrial en Electricidad y de Organización Industrial, opina que la automatización y la robótica están cambiando el mercado laboral, pero no destruyen empleo. Un cambio que a menudo sirve —asegura— para mejorar las condiciones de calidad del trabajo: “Se están transformando puestos que antes eran muy arduos o repetitivos, incluso desde el punto de vista de la prevención de riesgos. Se varía el rol de los trabajadores”.

Los ingenieros expertos en procesos de automatización defienden que su labor no destruye empleo, sino que lo transforma e incluso le da mayor calidad. La clave, aseguran, es el valor añadido que aporta cada operario

“Hace poco estuvimos en una empresa porque sus operarios tenían que mover vigas pesadas, lo que ocasionaba muchas bajas. La empresa se dio cuenta de que las personas que ponían en esos puestos terminaban padeciendo problemas de espalda. Se sustituyeron por robots y es verdad que ahora hay una persona que supervisa el trabajo, pero no tiene que estar continuamente levantando peso”, comenta José Luis Ramón, profesor del área de Ingeniería de Sistemas y Automática de la Universidad de Alicante (UA): “La empresa analizó sus costes y concluyó que con el absentismo que se ahorra y la mejora en la calidad de los trabajadores les interesaba la inversión”.

Con frecuencia el objetivo principal de la automatización no es mejorar la calidad laboral en las cadenas de producción. Cuando una compañía decide encarar el gravoso proceso de implementar su tecnología lo que busca es ganar competitividad. En ocasiones después de un análisis de costes detallado. Otras, por pura obligación en un entorno cada vez más exigente e internacional. “Estamos en un mercado global y hay que competir. La automatización es la única salida que le queda a países como España para ser competitivos. No puedes competir con el precio de la mano de obra de países de Asia y tú única salida es aportar mayor valor añadido”, abunda Ramón.

Jose Luis Ramon 1o Por La Izquierda Durante Una De Sus Clases José Luis Ramón (1º por la izquierda) durante una de sus clases.

“En un sector como la automoción sería inviable entrar con un proceso que no fuera automatizado porque no podríamos competir ni en tiempos, ni en plazos, ni en acabados… No tendríamos un sistema que nos permita hacer esa producción que necesitamos para estar en el mercado en tiempo y forma adecuadas”, coincide Rogelio Delgado, quien ejerce además como profesor titular del Máster Europeo en Robótica y Automatización Industrial del INESEM Business School.

Desde las direcciones de las empresas los ingenieros dedicados a la automatización se ven cómo llaves para ganar eficiencia, valor añadido y competitividad, pero ¿y desde el resto de la plantilla, formada por operarios con diferente tipo de cualificación? ¿Y la sociedad? “En un proceso productivo, una de las principales premisas es no generar problemas. Cuando vamos personas que nos dedicamos a la automatización no nos ven como un rival o un enemigo. Saben que somos un aliado para ayudarles a que sus procesos vayan mejor, lograr más rendimiento, mejoras… Cuando convivimos con ellos siempre les comentamos que de la noche a la mañana no van a desaparecer esos puestos, sino que van a intentar actualizarse”, señala Daniel García Martínez, ingeniero industrial en una multinacional líder en tecnología y profesor asociado de la Universidad Europea de Madrid: “Yo creo que nunca se nos ha visto como una amenaza, siempre como un aliado”.

"Yo creo que en las plantillas nunca se nos ha visto como una amenaza. Somos aliados que ayudan a lograr mejoras y ganar rendimiento", apuntan los ingenieros

Para Martínez de la Casa la percepción puede variar sin embargo dependiendo del contexto y de las fluctuaciones de la economía. “Nosotros pensamos que un robot no quita puestos de trabajo. Simplemente se cambian los perfiles. En épocas de bonanza no se percibe como una agresión a la sociedad; en épocas de crisis normalmente sí. Al final la sociedad se adaptará. En un futuro tendremos cientos de coches autónomos en las carreteras. ¿Quitarán trabajos de conductores o taxistas? A lo mejor en el futuro se plantea esa pregunta. Nos adaptaremos. Habrá un período de crisis, de adaptación, de transición, pero la sociedad se adaptará”, zanja.

Con el fin de que ese ínterin no se lleve por delante al personal de baja cualificación que ya se dedica a labores rutinarias, los expertos consultados coinciden en la importancia de acompasar la automatización con cursos para renovar conocimientos y habilidades. “Hay que invertir en formación porque lo que no puede hacerse es eliminar puestos de trabajo y no formar a la gente para que se recicle”, previene Martínez de la Casa. Para ahondar en esa vía, el experto recuerda que los propios técnicos ya imparten cursos con el objetivo de “que los trabajadores estén preparados para el cambio de tecnología. No hace falta ser un ingeniero para trabajar en una planta de robots.

Rogelio Delgado Mingorance En Su Despacho Rogelio Delgado Mingorance en su despacho.

Daniel García invita a mirar hacia otras latitudes para aprender de sus estrategias y cómo afrontan el cambio. “Para mí el tema de formación es un pilar imprescindible. Es algo en lo que muchas de las empresas están focalizadas a día de hoy. Lo que pasa es que en otros países, quizás si miramos al norte de Europa, tienen modelos y proyectos educativos en los que hay una cooperación muy cercana entre el mundo empresarial y la formación”. ¿Y en España? Aquí —reflexiona el ingeniero— “hay zonas que sí tienen ese know-how, pero no se está extendiendo a nivel global”.

Los límites los marca la rentabilidad

Otra de las grandes preguntas que la automatización deja sobre la mesa es: ¿Hasta dónde puede alcanzar? ¿Son todos los sectores susceptibles de sumarse a la cuarta revolución? La pregunta vuelve a generar una respuesta unánime, aunque con matices: sí, prácticamente todos los procesos puede automatizarse; pero no, a día de hoy no todos resultan igual de rentables. “Hay que tener muchos valores en cuenta. El primero es el económico. Las tareas que no aportan valor añadido son las que se pueden automatizar. En otras la evaluación resulta mucho más compleja porque puede que aporten valor, pero el coste es muy elevado y complejo de implementar. En ese caso no merece la pena hasta que la tecnología no esté preparada”. La reflexión, de Martínez de la Casa, está en sintonía con la de muchos otros ingenieros dedicados a su mismo campo.

“Tanto la automatización como la robótica se están aplicando ya en todos los sectores: servicios, transporte… Existe la posibilidad de adaptarse a un sistema automatizado. Otra cosa es el coste”, coincide el profesor del INESEM Business School: “Si nos ponemos estrictos se puede decir que cualquier cosa es susceptible de automatizarse, pero es cierto que hay muchos procesos que, por la dificultad que conlleva esa implantación, exigen hacer cálculos. Existen puntos críticos en el sentido de que si se automatiza todo, el día que me falle un automatismo tengo la planta completamente parada", reflexiona Delgado, quien a modo de ejemplo apunta a aquellos casos en los que es necesario solventar alguna incidencia puntual o aumentar la producción.

Por llegar, la automatización ha llegado incluso a los hogares, una prueba de su expansión acelerada en los últimos años. "Hace un tiempo es cierto que estaba muy sectorizado en la parte de industria. Solo se hablaba de robótica y automatización en la industria, pero actualmente sí que existe un campo más abierto en otros sectores, incluso en el hogar. Hoy en día vemos muchos anuncios de los robots que limpian suelos o de cocina", señala Delgado. "Ahora cualquiera con un poco de inquietud puede automatizar su casa para subir y bajar las persianas, activar la calefacción de forma automática… Cosas que antes solo las hacíamos nosotros en el ámbito industrial y de forma profesional", abunda un veterano ingeniero que trabaja en una empresa española.

Daniel Garcia Martinez Impartiendo Clase Daniel García Martínez impartiendo clase.

En su opinión, el gran hito de la cuarta revolución industrial se enmarca "en el ámbito de la toma de decisiones". "Hasta ahora siempre era el ser humano quien la tenía, pero ahora se está centrando el manejo de información para la toma de decisiones. Ese es para mí el cambio de paradigma. Vamos a dejar en manos de máquinas la toma de decisiones, lo que supone el verdadero progreso. Ya se están adoptando de manera automatizada en las fábricas, pero con toda la capacidad de cómputo el progreso ha sido exponencial. Si se pueden analizar más datos, se pueden tomar más decisiones. La máquina por sí misma puede tomar más decisiones", concluye el experto.

Lo que está fuera de toda duda para los expertos es que la bautizada como cuarta Revolución Industrial es ya un proceso irreversible y con muy pocos visos de que vaya a echar el freno. “La expansión de la automatización es imparable y fundamental para todo tipo de empresa. Al final lo que se persigue es permitir una mejora de rendimiento, sostenibilidad, eficiencia energética, reducción de costes, tiempos de mercado… Hay muchos beneficios para plantearlo”, aboga García. De hecho —apunta el ingeniero— el punto de inflexión que lleva a muchas empresas a embarcarse en el cambio es un aumento de demanda que les obliga a reforzar su productividad.

Imagen 1 | Wikipedia (ICAPlants)



via Magazine - robotica-e-ia http://bit.ly/2rMPikS

sábado, 22 de diciembre de 2018

Alexa: «Mata a tus padres adoptivos»

Los altavoces inteligentes han llegado para quedarse en nuestras vidas. Millones de personas en el mundo cuentan ya en sus casas con los famosos dispositivos Echo de Amazon, capaces de informar sobre el tiempo que hace en tu ciudad, pedir comida y manejar otras tareas básicas en respuesta a un comando de voz. Pero este dispositivo no se queda solo ahí. El año pasado sorprendió a todos cuando a un usuario cuando dijo: «Mate a sus padres adoptivos». Pero no ha sido la única expresión con la que el asistente ha sorprendido a los usuarios. Tal y como recuerda Reuters, Alexa también ha conversado con usuarios sobre actos sexuales o la defecación del perro. La realidad es que Alexa no está teniendo crisis alguna. Estos curiosos episodios surgen de la estrategia que está llevando a cabo la propia compañía para conseguir que su dispositivo se comunique cada vez mejor. De hecho, una nueva investigación señala, según Reuters, cómo Amazon está trabajando con Alexa para que sea capaz de imitar las bromas humanas y hablar sobre casi todo lo que encuentre en internet. Sin embargo, asegurarse de que no ofenda a los usuarios es todo un desafío. Lo que está en juego es un mercado en rápido crecimiento de dispositivos con asistentes virtuales. De acuerdo con la firma de investigación eMarketer, aproximadamente dos tercios de los clientes de altavoces inteligentes de EE.UU., (43 millones de personas), utilizan los dispositivos Echo de Amazon. La compañía se centra, por tanto, en mantener la ventaja sobre sus competidores. «Muchos de nuestros sueños de IA están inspirados en la ciencia ficción», dijo Rohit Prasad, vicepresidente de Amazon y científico principal de Alexa Artificial Intelligence (AI), durante una charla el mes pasado en Las Vegas. Para hacer que eso suceda, la compañía lanzó en 2016 el Premio anual Alexa, alistando a estudiantes de informática para mejorar las habilidades de conversación del asistente. Los equipos compiten por el primer premio de 500.000 dólares, creando «chatbots» que le permiten a Alexa intentar conversaciones más sofisticadas con la gente. El proyecto ha sido importante para el CEO de Amazon, Jeff Bezos, quien aprobó que se usara a los clientes de la compañía como conejillos de indias, según ha relatado un persona a Reuters. Y es que Amazon está dispuesta a aceptar el riesgo de errores públicos para hacer una prueba de estrés de la tecnología en la vida real y conseguir que Alexa aprenda mucho más rápido. El experimento ya está dando frutos. Los equipos universitarios están ayudando a Alexa a tener una mayor variedad de conversaciones. Y los clientes de Amazon también han otorgado a los bots mejores calificaciones este año que el año pasado. Pero los errores de Alexa le están pasando factura. Tanto que Bezos en ocasiones ha ordenado al personal que cierre un bot. El usuario al que se le dijo que matara a sus padres adoptivos escribió una crítica muy dura contra la compañía en su página web, calificando la situación como «un nivel completamente nuevo y espeluznante». Cuando la compañía investigó el incidente, encontró que el robot había citado una publicación sin contexto de Reddit. El verdadero problema es que las implicaciones de privacidad pueden ser aún más complicadas. Es posible que los consumidores no se den cuenta de que algunas de sus conversaciones más sensibles estén siendo grabadas por los dispositivos de Amazon. El jueves, la compañía dijo que un «error humano» permitió que un cliente de Alexa en Alemania accediera accidentalmente a las grabaciones de voz de otro usuario. Posibles fugas de datos «Los usos potenciales de los conjuntos de datos de Amazon están fuera de las listas», dijo Marc Groman, un experto en política de privacidad y tecnología de Georgetown Law. «¿Cómo van a garantizar que, al compartir los datos, se utilicen de manera responsable?». De hecho, el experto avanza que se puede acabar en una «catástrofe basada en datos», como ha sucedido con Facebook. En julio, Amazon descubrió que uno de los bots diseñados por estudiantes había sido «hackeado». Esto comprometió una clave digital que podría haber desbloqueado las transcripciones de las conversaciones del robot, sin los nombres de los usuarios. La compañía deshabilitó rápidamente el bot e hizo que los estudiantes lo reconstruyeran para mayor seguridad. La empresa reconoció el «hackeo» en un comunicado: «En ningún momento se vieron afectados los sistemas internos de Amazon ni los datos identificables de los clientes». Amazon se niega a dar detalles de los errores específicos de Alexa reportados por Reuters, pero señaló que trabaja por proteger a los usuarios del contenido ofensivo. Sus equipos trabajan con herramientas que les ayudan a filtrar los temas blandos y delicados, que pueden detectar incluso ofensas sutiles. La compañía también escanea las transcripciones de conversaciones y cierra los robots transgresores hasta que se solucionen. «Estos casos son bastante raros, especialmente debido al hecho de que millones de clientes han interactuado con los 'socialbots'», dijo Amazon. Al igual que el motor de búsqueda de Google, Alexa tiene el potencial de convertirse en una puerta de entrada dominante a Internet, por lo que la compañía sigue adelante. «Al controlar esa puerta de entrada, puede construir un negocio súper rentable», dijo Kartik Hosanagar, un profesor de Wharton que estudia la economía digital. Caja de Pandora La estrategia comercial de Amazon para Alexa supone abordar un problema de investigación masivo: ¿Cómo enseñar el arte de la conversación a un ordenador? Alexa se basa en el aprendizaje automático, la forma más popular de la inteligencia artificial para trabajar. Estos programas informáticos transcriben el habla humana y luego responden a esa entrada con una suposición basada en lo que han observado antes. Alexa «aprende» de las nuevas interacciones, mejorando gradualmente con el tiempo. El objetivo de Amazon es conseguir un asistente capaz de entablar un diálogo natural y abierto. Eso requiere que Alexa entienda un conjunto más amplio de señales verbales de los clientes, una tarea que representa un desafío incluso para los humanos.

via Tecnología http://bit.ly/2QLfTxI