viernes, 30 de noviembre de 2018

Hacer públicos o no los avances en inteligencia artificial: los científicos no se ponen de acuerdo

Hacer públicos o no los avances en inteligencia artificial: los científicos no se ponen de acuerdo

El Machine Intelligence Research Institute (MIRI) de Berkeley, una destacada institutción científica en el campo de la inteligencia artificial, se ha convertido en la primera en dejar de publicar todos sus hallazgos y en optar por una política de "investigación no revelada por defecto":

"La mayoría de los hallazgos realizados dentro del MIRI permancerán a nivel interno, a menos que haya una decisión explícita de publicar esos resultados".

Hoy en día, se suele asumir que la publicación de los resultados de las investigaciones científicas -con el objetivo de que puedan ser consultados, citados y reproducidos por otros expertos- es uno de los pilares básicos de la ampliación del conocimiento humano.

En ocasiones, se promulga incluso que el acceso a los mismos sea totalmente abierto, desde la convicción de que todo conocimiento es un bien común que debe ser puesto al servicio de la sociedad.

Pero, ¿y si el bien común de la sociedad exigiera, precisamente, que dichos resultados jamás se hicieran públicos? Actualmente ya existen diversos campos del saber, como la investigación nuclear, militar y de inteligencia, que mantienen sus conclusiones en secreto.

¿Empezará, acaso, a sumarse el sector de la inteligencia artificial a esta selecta lista?

"Los ingenieros no son filósofos"

Brent Hecht, profesor de computación en la Univ. Northwestern, es coautor de un documento de la Association of Computer Machinery, que propone reflexionar acerca del modo en que los investigadores deberían enfrentarse a las consecuencias negativas de sus investigaciones; y resume así la situación actual del debate:

"Un principio muy importante de la comunidad informática es que la apertura constituye un bien fundamental. [Pero] los acontecimientos recientes han hecho que mis colegas y yo empecemos a cuestionar dicho principio".

Según los autores del documento de la ACM, existe "un grave y vergonzoso lapso intelectual" entre las perspectivas positivas de los investigadores sobre su propio trabajo y la realidad. Esta última nos recuerda constantemente que muchos de los grandes avances en el campo de la inteligencia artificial pueden ser utilizados con fines poco éticos por gobiernos, grandes compañías o terroristas.

Hetch defiende, pese a todo, que todo trabajo científico potencialmente negativo debería publicarse, siempre y cuando el mismo aborde soluciones a los posibles efectos dañinos.

Pero cuando su documento se debatió en Hacker News, hubo quien defendió que "los ingenieros no son filósofos y no se debe esperar que lo sean, no tenemos las herramientas para hacerlo".

Jack Clark, director de estrategia e investigaciones de OpenAI, reconoce que implantar la apertura selectiva de hallazgos en IA retrasaría el ritmo de los mismos, pero que no puede anteponerse por sistema el progreso científico a la estabilidad social. La propia OpenAI ya indica en su carta de constitución que confían en "que las preocupaciones de seguridad y protección reduzcan nuestra publicación tradicional en el futuro".

Además, en palabras de Clark, "es útil que una organización de investigación de IA haya dado este paso, aunque sólo sea para que proporcione datos a la comunidad sobre cuáles son las consecuencias de dar dicho paso".

La investigación en IA entendida como 'notas en sucio'

Writing 1209121 1280

En los últimos años, el MIRI ha recibido financiación por parte de magnates como Elon Musk o Peter Thiel, que se han destacado por denunciar el lado oscuro de la inteligencia artificial, lo que puede haber influido en su decisión.

Nate Soares, director ejecutivo del MIRI, trata de justificar su nueva política en el documento "Nuestras nuevas direcciones de investigación". En el mismo expone la "versión breve" de su explicación, afirmando lo siguiente:

"Del mismo modo en que los diarios de Faraday no son tan útiles [para el investigador promedio] como las ecuaciones de Maxwell, no creemos que sea útil intentar compartir un gran número de pensamientos medio confusos con un grupo amplio de personas".

Maxwell siempre atribuyó sus fundamentales avances en el estudio del electromagnetismo al estudio de los diarios de Faraday, extensos escritos a veces confusamente redactados por no haber estado en ningún momento más que al uso personal.

Quizá la investigación en inteligencia artificial necesite también unos años de 'notas en sucio' antes de poder ofrecer conclusiones seguras al público.



via Magazine - robotica-e-ia https://ift.tt/2BIIJW5

Google quiere que le digamos "gracias" y "por favor" a su Asistente

Google quiere que le digamos

¿Le pedirías "por favor" tu dinero a un cajero automático? ¿O quizá le darías las gracias a una simple tostadora por el par de tostadas que te prepara por las mañanas? Si la respuesta es "no"... ¿por qué habrías de plantearte actuar así con tu asistente del móvil?

Bueno, hay quien piensa que la diferencia es que con este último sí hablamos, posiblemente varias veces al día, y que acostumbrarnos a pedir las cosas con rudeza puede terminar afectando a la forma en que nos dirigimos a otras personas.

Por ello, para quien esté de acuerdo con esa postura, Google anunció ayer la introducción en su Asistente de una función opcional llamada 'Pretty Please'. ¿Su objetivo, según Google? incentivar el "comportamiento cortés" en los usuarios: nuestro asistente responderá a nuestros "por favor" y "gracias" con lo que Google denomina como "respuestas encantadoras":

-Google, por favor, establece un temporizador para dentro de 5 minutos.

-Gracias por pedirlo tan amablemente. Muy bien, 5 minutos. Empezando desde ahora.

Que quede claro: esto es totalmente opcional y Google reconoce tu derecho a ser todo lo brusco y borde que quieras con tu asistente. Pero la postura de Google de buscar incentivar la actitud contraria no es un mero capricho.

En enero, ChildWise (una agencia de investigación de mercados especializada en el público infantil) publicó un informe en el que se afirmaba que los menores que crecieran ladrando órdenes a los asistentes virtuales podrían convertirse en el futuro en individuos con talante agresivo.

Así que, tan sólo tres meses después, Amazon lanzaba una nueva función llamada 'Magic Words', que busca precisamente recompensar (usando un mecanismo similar al que ahora presenta 'Pretty Please') a aquellos niños que tratan educadamente a Alexa.

El mecanismo usado para ello es bastante similar al que ahora presenta 'Pretty Please'y, de hecho, posiblemente la decisión de crear ambas funciones se tomó más o menos al mismo tiempo, pues Google ya ofreció un adelanto durante el pasado I/O de mayo.

Karaoke y funciones navideñas

Google Home

Pero "Pretty please" no es la única función introducida recientemente en el Google Assistant:

  • Podemos pedirle que reproduzca una canción a través de Google Play Music y la letra de la misma aparecerá sincronizada en la pantalla, lo que convierte al Asistente de Google en toda una máquina de karaoke portátil.

  • Google ha introducido 50 nuevos audiolibros (todos relacionados con las fiestas navideñas) a su servicio de lectura directa para niños.

  • También ha añadido clásicos de Disney a la función de "lectura conjunta", que permite a los padres leer libros a sus hijos mientras Google Home añade efectos de sonido.

Imágenes | Maurizio Pesce & NDB Photos



via Magazine - robotica-e-ia https://ift.tt/2rfEnzC

Tecnología ‘Edge Computing’ crecerá un 41 % anual hasta 2025, prevén expertos

“Cada vez hay más aparatos conectados y mayor cantidad de datos en red, lo que hace necesario el desarrollo de nuevas tecnologías” para gestionarlos, han explicado hoy en un desayuno informativo los expertos de Vertiv, compañía norteamericana encargada de potenciar aplicaciones del mundo digital, como asegurar el mantenimiento de la conexión evitando fallos en la ‘nube’.

Las mayores ventajas del ‘Edge Computing’ son el incremento de rapidez de respuesta con tiempos más cortos y el consiguiente aumento de la seguridad ya que, cuanto más breve es el camino entre el productor de datos y el centro de tratamiento y almacenamiento, menos posibilidades hay de que se pierdan en el recorrido.

Las cifras

Según las cifras de esta empresa, el tráfico IP global se triplicará para el próximo 2021 mientras que el de los móviles telefónicos, se multiplicará por 7, lo que equivaldría al procesamiento de hasta 18 quintillones de datos al día.

El 90 % de los datos que existen actualmente han sido generados entre 2016 y 2018 y a día de hoy existen al menos diez veces más que hace sólo dos años, según los expertos de Vertiv.

Aún así, “estamos en una fase muy incipiente del ‘Edge Computing’, por lo que todavía podemos subirnos al tren y encontrar nuevas formas de mercado”, han indicado.

Nichos de mercado

Entre los principales nichos de mercado, han señalado cuatro sectores en los que “esta tecnología se volverá fundamental en pocos años”: aplicaciones de uso intensivo de datos, otras sensibles a la latencia humana, las sensibles a la latencia máquina-máquina y las consideradas cruciales para la vida.

Entre sus principales usos, los expertos han destacado la futura importancia del ‘Edge Computing’ para la salud digital -a la hora de operar mediante telecirugía, por ejemplo-, la movilidad -en coches conectados que “sepan a tiempo real qué dirección debe tomar el vehículo”- y los drones y robots autónomos.

Además, esta tecnología es ya “esencial” para el comercio en Internet, puesto que, según datos de Amazon facilitados por Vertiv, un retraso de 10 milisegundos durante el proceso de pago puede suponer un 1 % de facturación perdida, que ascendería a 4.000 millones de dólares al año.

También destaca su uso actual en plataformas como Netflix y YouTube, que incorporan esta tecnología gracias a pequeños servidores donde almacenan el contenido más visto en cada región, lo que ayuda a evitar interrupciones en su servicio. EFEfuturo

La entrada Tecnología ‘Edge Computing’ crecerá un 41 % anual hasta 2025, prevén expertos aparece primero en EFE futuro.



via EFE futuro https://ift.tt/2rezcjx

Robots inspirados en origami

Jamie Paik, directora del Reconfigurable Robotics Lab de Lausana, desarrolla máquinas adaptables a múltiples tareas y entornos desconocidos

via Robótica https://ift.tt/2zxSpBe

Qué es lo que realmente escuchan, almacenan y procesan Alexa, Assistant y Siri

Qué es lo que realmente escuchan, almacenan y procesan Alexa, Assistant y Siri

Los asistentes de voz están de moda. Los altavoces inteligentes de Amazon o de Google se han convertido en uno de los potenciales regalos estrella de estas navidades, y ahora tanto el asistente de Google como Alexa o Siri hablan español es conveniente hacerse una pregunta: ¿qué escuchan y guardan de todo lo que hablamos alrededor de ellos?

La privacidad vuelve a estar en tela de juicio ante unas soluciones que algunos podrían pensar que nos "espían", pero como veremos a continuación todas las empresas responsables del desarrollo de asistentes de voz han tenido muy en cuenta este apartado y cuidan muy mucho los datos que se manejan y cómo se manejan.

Las máquinas quieren hablar con nosotros

Los altavoces inteligentes dan un poquito de miedo. No ya por errores anecdóticos que provocaron aquellas risas siniestras sino porque al utilizarlos no queda claro qué tipo de efectos colaterales tiene esa interacción con estos dispositivos.

Estamos rodeados de tecnología que nos escucha, pero no contentos con llevar el móvil en todas partes ahora los altavoces inteligentes también nos acompañan en el hogar, y no es el único elemento en el que los asistentes de voz está presente. Los relojes inteligentes y diversas soluciones que podríamos englobar dentro del segmento de la internet de las cosas también pueden hacer uso de estos desarrollos.

El problema (si es que lo consideramos así) está en esa sensación de que estos productos siempre están escuchándonos, lo que amenaza la seguridad de nuestros datos y nuestra privacidad. Ocurrió por ejemplo con aquella conversación privada que un Amazon Echo acabó compartiendo con un contacto aleatorio por error, pero este tipo de situaciones son la excepción, no la regla.

En cierta forma es como si los asistentes de voz estuvieran siempre vigilándonos, aunque en realidad los fabricantes ponen a nuestra disposición bastante información para entender qué hacen estos asistentes con esos datos.

Así funcionan los asistentes de voz

Tanto los altavoces inteligentes como el resto de productos que aprovechan la capacidad de los asistentes de voz funcionan de una forma similar: se activan a través de una palabra que los despierta, lo que significa que dichos asistentes están en espera activa: siempre escuchan, pero solo prestan atención a partir del momento en el que escuchan esa palabra esoecial ("Hey Siri", "OK Google", etc) o pequeña frase de activación.

Asistente Google Al preguntarle al asistente de Google en mi móvil Android si estaba espiándome (no recoge la interrogación, pero responde igualmente como si fuera una pregunta) su contestación fue esta.

Para poder realizar esa función de espera activa estos asistentes no paran de escucharnos y realizar pequeñas grabaciones con esas palabras que escuchan y que tratan de reconocer. Si se detecta esa palabra o frase de activación, el dispositivo mantiene la grabación para procesarla, pero si no lo es esa grabación se elimina.

Una vez activamos el asistente de voz, eso sí, empieza la transferencia de datos, y aquí es importante señalar que una vez más dependemos de la nube: esa conversación y esas preguntas u órdenes no se procesan en el dispositivo como tal, sino que se transfieren a un servidor que las interpreta, las procesa y da la respuesta que nuestro asistente simplemente se encarga de ofrecernos de viva voz (sintetizada, claro).

Por lo tanto nuestra voz no se almacena en local en el dispositivo, sino que acaba en los servidores que los fabricantes de estos dispositivos y desarrolladores de estos asistentes (Google, Apple, Amazon, Microsoft) tienen preparados para toda esa ingente labor de reconocimiento del lenguaje.

Pero ¿qué datos se transfieren realmente a esos servidores? ¿Qué hacen esas empresas con esos datos? ¿Qué podemos hacer nosotros al respecto? Eso es lo que creemos importante aclarar, y lo haremos por separado para cada uno de los cuatro grandes asistentes de voz del mercado actual.

Asistente de Google

¿Qué recolecta, y con qué fin?

Es importante destacar que el asistente de voz presente por ejemplo en Google Home no graba todas nuestras conversaciones. En lugar de uso el asistente "escucha pequeños fragmentos" de pocos segundos para detectar si se ha pronunciado la frase de activación. Si no es así, esos fragmentos se eliminan "y nada de esa información abandona tu dispositivo hasta que se escucha la frase de activación".

Google Home

La ayuda de Google Home nos informa sobre la información que se recoge los dispositivos de la familia Google Home. De hecho existe un apartado específico que muestra los datos recolectados, y que se dividen en tres grupos.

En el primero están los datos destinados a mejorar el rendimiento y fiabilidad del dispositivo como la estabilidad de la red-WiFi, el porcentaje de éxito de la detección o la latencia, entre otros.

El segundo grupo es el que engloba las estadísticas de uso, como por ejemplo el número de interaciones en el dispositivo y qué botones pulsamos en los asistentes También se recolectan la duración de las sesiones multimedia y qué aplicaciones utilizamos en esas sesiones, pero aquí es importante destacar que en Google "no recogemos información sobre el contenido que se reproduce, pero es posible que el proveedor de servicios multimedia nos lo indique".

En el tercer grupo de datos recolectados están la información sobre el modelo del hardware y la versión del software que utilizamos, pero también los procesos activos para poder establecer las posibles causas de fallos en los informes de error.

En esa ayuda también se explica cómo el asistente de Google integrado en Google Home puede acceder al historial de búsqueda "para ofrecerte respuestas mejores y más útiles", y aunque puedes darle tu dirección a Google, puedes no hacerlo, en cuyo caso el sistema "averiguará tu ubicación aproximada según tu dirección IP y otras señales para definir las alarmas en la zona horaria correcta y ofrecerte información meteorológica y sobre el tráfico relevante".

La empresa recolecta datos con el objetivo de hacer sus servicios "más rápidos, más inteligentes, más relevantes y más útiles para los usuarios", y por lo visto esa actividad con estos asistentes permite que Google Home aprenda "con el paso del tiempo, a ofrecer respuestas y sugerencias mejores y más personalizadas".

¿Dónde se guardan esos datos y qué control tenemos sobre esos datos?

Esos datos que se transfieren a los servidores de Google pasan por tanto a sus centros de datos, donde se guardan de forma indefinida a no ser que los eliminemos manualmente.

Google Audio

Precisamente ahí es donde entran las herramientas que Google ofrece para controlar esa actividad y esa gestión de datos. En Mi Actividad contamos con un panel de control completo en el que podremos consultar la información que Google guarda sobre nuestro uso de sus servicios, incluyendo por supuesto a los relacionados con su asistente de voz.

Es en ese panel en el que podremos encontrar todos los clips de audio que se han grabado con nuestras peticiones a estos asistentes filtrando los resultados por los que solo coincidan con "Voz y Audio". Será allí donde encontrarmeos las grabaciones de nuestras frases, que podremos eliminar junto a cualquier otra información que no queramos que se almacene en esos servidores.

Alexa en Amazon

¿Qué recolecta, y con qué fin?

Como sucede con el resto de asistentes, Alexa recolecta nuestras conversaciones, peticiones y órdenes de voz. Amazon las registra y procesa esa información que además puede en algunos casos ser compartida con terceras partes.

Alexa

Este asistente de voz en realidad empieza a grabar "una fracción de segundo del audio" antes de que se pronuncie la palabra o frase de activación (o pulsamos un botón que active el asistente), y es entonces cuando emite esa grabación a los servidores de Amazon.

En Amazon indican que cuando usamos un dispositivo basado en Alexa, se quedan con esas grabaciones "para mejorar la precisión de los resultados proporcionados y para mejorar nuestros servicios". Como en el resto de los servicios, "eliminar esas grabaciones puede degradar tu experiencia al usar el dispositivo".

¿Dónde se guardan esos datos y qué control tenemos sobre esos datos?

Amazon cuenta con una de las infraestructuras más importantes en todo el mundo a nivel de servidores y centros de datos: no en vano su división de Amazon Web Services es una de las claves de su negocio.

Amazon

Cualquier usuario de Alexa puede acceder a esas grabaciones de voz desde la aplicación de Alexa (en el apartado de privacidad) o bien en la dirección web que ofrece Amazon. Desde allí es posible eliminar esas grabaciones, aunque mientras se procesan esas peticiones podremos seguir revisando las grabaciones de voz y reproducirlas.

Una de las peculiaridades de este panel de control es que podremos también controlar los permisos que hemos concedido a otros servicios y aplicaciones que se conectan a Alexa. Es aquí donde entran en juego los "Skills", esas capacidades extra que Amazon lleva impulsando desde hace tiempo para dar más versatilidad a este asistente de voz.

En esas preferencias también podremos establecer más restricciones al uso del asistente. Dado que los dispositivos pueden confundir alguna de las palabras que decimos mientras hablamos y activarse al detectarlas sin tener en cuenta el contexto, podremos obligar a Alexa a activarse solo cuando pulsamos un botón físico de activación.

También podremos activar un tono de aviso que nos permita saber cuándo comienza y termina esa grabación e incluso "silenciar" el dispositivo, aunque obviamente eso hará que no podamos disfrutar de sus prestaciones.

Siri en Apple

¿Qué recolecta, y con qué fin?

Siri fue el primer asistente de voz en aparecer en el mercado de forma masiva en 2015 gracias a su integración en el iPhone. El asistente recolecta y utiliza información que tenemos en el móvil tal y como nuestro nombre o nuestros contactos.

Homepod

Si además tenemos habilitados los servicios de localización, dicha información puede ser enviada con la petición que le hacemos al asistente para que la respuesta sea más precisa.

En Apple especifican además que algunas características de Siri hacen necesaria "la entrada de datos en tiempo real desde los servidores de Apple", lo que por ejemplo Siri recolectaría tanto nuestra ubicación actual como nuestro destino si le estamos pidiendo la ruta entre dos puntos en Apple Maps, por ejemplo.

¿Dónde se guardan esos datos y qué control tenemos sobre esos datos?

Cuando hablamos con Siri, esos comandos se envían a los servidores de Apple para el análisis. En ese proceso Apple asigna un número aleatorio con esa grabación, que asocia a nuestros ficheros de voz.

Apple Privacidad

Tras seis meses desde esa grabación o si desactivamos Siri, Apple "desconecta" ese número aleatorio de nuestro registro de grabaciones, lo que hace que básicamente elimine la asociación quee existía. Esos ficheros se almacenan durante otros 18 meses desde ese momento porque Apple puede usarlos para potenciales pruebas y mejora de sus productos.

Ese tratamiento de las grabaciones hace que el caso de Apple sea también distinto a la hora de permitir qué puede controlar el usuario. Podremos desactivar los servicios de localización desactivar Siri o desconectar la espera activa para que el asistente solo opere con un comando físico.

Sin embargo no hay un acceso a esas grabaciones como ocurre por ejemplo con Google Assistant o Amazon Echo. Podremos, eso sí, borrar todo el historial de esa interacción de voz de los servidores de Apple, pero para ellos tendremos que desactivar el dictado de voz desde los ajustes de nuestro dispositivo.

Es posible no obstante reclamar a Apple todos los datos que tiene sobre nosotros, algo que se hace desde la página de ID de Apple. Si iniciamos sesión —nos pedirá responder a dos preguntas de seguridad— podremos acceder en la parte baja de la página a la sección "Gestiona tus datos y tu privacidad", lo que nos llevará a la página específica de Apple para este apartado.

Desde allí ya podremos solicitar una copia de nuestros datos, aunque en ellos no se incluyen como tales los ficheros de audio que podríamos esperar recuperar: el citado procesamiento de esos ficheros hace que por lo visto no sea posible recuperar dichas grabaciones.

Cortana en Microsoft

¿Qué recolecta, y con qué fin?

El desarrollo de Microsoft comenzó su andadura en dispositivos móviles, pero el fracaso de Windows Mobile y Windows 10 en smartphones ha hecho que Cortana haya dado el salto a equipos de escritorio —está integrado en Windows 10— y en algunos altavoces inteligentes.

Cortana2

Al utilizar Cortana se recolectará información sobre nuestro dispositivo, los servicios de Microsoft que utilicemos y también servicios de terceras partes con los que conectemos usando Cortana. En Microsoft aseguran que "Cortana no usa los datos que comparta con ella para dirigirte publicidad"

Como indican los términos de privacidad de Cortana, entre los datos recolectados está el historial de navegación, el calendario, los contactos, el historial de ubicación o incluso —y esto es algo preocupante— "el historial de contenidos y comunicaciones de mensajes, aplicaciones y notificaciones".

Si utilizamos Cortana como parte de una sesión en Windows con nuestra cuenta en dicha plataforma, esas grabaciones que se realicen quedarán asociadas a dicha cuenta, y es a partir de ahí que podremos controlar dichos datos recolectados.

¿Dónde se guardan esos datos y qué control tenemos sobre esos datos?

En Microsoft cuentan también con una amplia infraestructura de servidores —Azure es una plataforma cada vez más importante para la empresa de Redmond— en los que almacenan todos esos datos recolectados.

Cortana1

Si queremos acceder a la descarga de los datos que Microsoft tiene almacenados sobre nosotros al usar Cortana, podremos hacerlo desde nuestro equipo basado en Windows. En la Configuración podremos ir a "Cortana->Permisos e historial", lo que nos permitirá —si usamos Cortana regularmente y hemos iniciado sesión, no es mi caso— "cambiar lo que Cortana sabe de mí en la nube".

También podremos tener acceso a todos esos datos de voz almacenados por Microsoft yendo al panel de privacidad de nuestra cuenta, lo que nos llevará a una serie de opciones entre las que estarán las búsquedas e interacciones de voz.

En Microsoft explican que en el panel "no se muestran todos tus datos", ya que la empresa "elimina rutinariamente datos que nuestros sistemas ya no necesitan". Desde ese panel también podremos controlar a qué servicios de terceras partes damos acceso a conectar con Cortana, por ejemplo.

El panel de control que Microsoft ofrece para Cortana es más completo que el del resto de alternativas, y hasta cierto punto permite mantener cierto equilibrio entre las capacidades del asistente de voz y los datos que recolecta durante nuestro uso del mismo.

Conclusiones: los asistentes escuchan, pero el usuario tiene el control (si quiere)

La avalancha de servicios y productos relacionados con los asistentes de voz hace que las suspicacias sobre la seguridad y privacidad que ofrecen estos dispositivos sean inevitables.

Spy

Como ya ocurre con otros muchos servicios que recolectan datos mientras navegamos por internet, esa ambición por recoger más y más información sobre los usuarios se extiende también a estos asistentes de voz.

Aquí, como en otros muchos escenarios que afectan a nuestro uso rutinario de la tecnología, es importante tener estar informados de lo que se recolecta con esos servicios, pero también ser conscientes de que disfrutar de esas prestaciones conlleva ciertos compromisos. Cada uno elige si el sacrificio le compensa y si esa recolección de datos no le resulta problemática.

Lo sea o no, afortunadamente estamos en un momento en el que las empresas tecnológicas se han visto obligadas a mejorar de forma notable las herramientas que dan acceso a los usuarios a sus datos recolectados, y eso no es excepción para los asistentes.

Apple no ofrece un control tan directo pero su enfoque es válido, y precisamente son las otras tres —Google, Microsoft y Amazon— las que más sospechas podrían levantar por ese "hambre de datos" que muestran en muchos de sus productos y servicios. Lo hacen porque ciertamente de esos datos depende tener cierta ventaja competitiva —una publicidad más efectiva, por ejemplo— pero esto no es nuevo en un segmento exageradamente ávido de esa recolección.

La transparencia de estos servicios es cada vez mayor, aunque como siempre depende del usuario controlar con mayor o menor acierto esa recolección de datos. Unos datos que, no lo olvidemos, salvo en el caso de Apple permanecen de forma indefinida en los servidores de estas tecnológicas. Podremos borrarlos cuando lo deseemos, pero para eso debemos mostrarnos proactivos. Esa es otra guerra muy distinta, pero saber hasta qué punto estamos expuestos es un buen punto de partida.



via Magazine - robotica-e-ia https://ift.tt/2Q4geLz

jueves, 29 de noviembre de 2018

LG dibuja su futuro: la robótica y los vehículos autónomos son las estrellas de sus nuevas divisiones

LG dibuja su futuro: la robótica y los vehículos autónomos son las estrellas de sus nuevas divisiones

Ante la inminente reestructuración de fin de año de LG Electronics, la compañía ha anunciado la inminente creación de dos nuevas divisiones, situadas bajo supervisión directa del CEO y enfocadas hacia sectores "estratégicamente relevantes": robótica y vehículos autónomos.

En el caso de la división de vehículos autónomos, su labor se centrará en investigar e invertir a medio y largo plazo, según el anuncio realizado por la compañía.

La última gran novedad de LG en este campo tuvo lugar hace un año, tras la firma una alianza con HERE Maps para el desarrollo de tecnologías dirigidas a vehículos sin conductor, presentándolo en su momento como "una sólida línea de apoyo a la industria automovilística".

Robótica e Inteligencia Artificial

Roboticalg

En lo que respecta a la robótica, LG mantenía hasta ahora esta área dividida entre varios grupos supervisados por el CTO de la compañía (Entretenimiento para el hogar, Investigación de materiales y producción, etc).

Todo el personal dedicado hasta ahora a estas tareas ha sido agrupado en la nueva división, y tendrá entre sus primeras tareas el lanzamiento de los robots presentados por los surcoreanos en el último CES, así como el desarrollo de un carrito de la compra inteligente, en colaboración con la cadena de supermercados E-mart de Corea del Sur.

Dicho producto ha sido desarrollado en el Laboratorio de Robótica Avanzada que LG posee en Corea del Sur, creado en su momento para desarrollar Deep ThinQ, la plataforma de desarrollo de IA con capacidades de aprendizaje profundo. Esta plataforma está resultando clave para que LG logre integrar la IA en una amplia gama de productos.

A comienzos de este año, la compañía lanzó al mercado su marca CLOi, que agrupa varios tipos de productos (como guías de aeropuertos, cortacésped, un exoesqueleto robótico, etc) y hasta ahora ha realizado varias pruebas para su robot CLOi Home, equipado con inteligencia artificial.

La también han anunciado la creación de un Centro de Investigación y Desarrollo de Inteligencia Artificial para América del Norte, que tendrá sede en Montreal y se centrará en la investigación de varias áreas tecnológicas (entre ellas, la imagen médica) para los Estados Unidos y Canadá. Se convertirá así, a nivel global, en el séptimo centro de estas características para LG.

Imágenes | LG



via Magazine - robotica-e-ia https://ift.tt/2zsAzQc

Políticas 4.0 para la cuarta revolución industrial

El autor explica cinco claves para que América Latina pueda aprovechar las oportunidades de la economía 4.0

via Robótica https://ift.tt/2BEwA4o

miércoles, 28 de noviembre de 2018

Google Duplex inicia su andadura, pero no queda del todo claro si quien te habla es una máquina o un humano

Google Duplex inicia su andadura, pero no queda del todo claro si quien te habla es una máquina o un humano

La presentación de Google Duplex fue probablemente una de las innovaciones más llamativas de todo 2018. Este sistema basado en inteligencia artificial demostraba cómo era posible automatizar la realización de llamadas para reservar citas en restaurantes y peluquerías durante el Google I/O del pasado mes de mayo, y ahora ha comenzado su despliegue en Estados Unidos.

Un reducido número de usuarios ya está probando la característica en sus Pixel 3, pero en las primeras llamadas automatizadas hay un problema potencial: el despliegue del sistema está por ahora combinando llamadas totalmente automatizadas con otras en las que hay un operador humano detrás. Google aclaró que Duplex confirmaría que era una máquina quien hablaba para hacer la reserva, pero en las llamadas de prueba eso no está quedando tan claro.

¿Google Duplex, eres tú?

Lo explican en The Verge tras descubrir las llamadas que periodistas de VentureBeat han podido realizar para probar este sistema. En dichas llamadas se podía ver como el proceso de establecer la llamada con el Asistente de Google ya era un poco engorroso —casi dan ganas de coger el teléfono y hacer la reserva tú mismo— pero más allá de eso, el problema está en que el sistema no se identificaba de forma tan clara como hubiéramos podido esperar.

De hecho hubo dos casos diferenciados: si el sistema hace la llamada de forma totalmente automatizada lo avisa de ese modo, pero si hay un operador humano "asistiendo" en el proceso el mensaje de aviso inicial no es del todo claro.

Así, tenemos las diferencias entre lo que Google publicitó que haría hace unos meses para evitar confusiones y lo que hace actualmente para avisar de que en la llamada hay un operador humano asistiendo al sistema:

  • Versión publicitada: "¡Hola! Soy el Asistente de Google y llamo para hacer la reserva para un cliente. Esta llamada automatizada será grabada.
  • Versión actual con un operador humano asistiendo: "Hola, llamo para hacer una reserva para un cliente. Llamo desde Google, de modo que la llamada podría ser grabada".

Como explicaban en VentureBeat, el despliegue del sistema combina ambos tipos de llamadas y eso es lo que provoca confusión y hasta cierto punto inquietud en los usuarios: la diferencia entre la voz humana real y la sintetizada es tan reducida que es difícil identificar una u otra, lo que hace que aclarar quién está llamando es importante para que la confianza en este sistema no se vea erosionada.

El despliegue de esta característica acaba de empezar y probablemente Google esté tratando de pulir los posibles problemas que plantea un sistema tan llamativo como este, pero ya apuntábamos en nuestro repaso a esta tecnología que la empresa debe tener mucho cuidado a la hora de implementar esta opción: la transparencia y la "honestidad" del sistema conversacional deben ser dos pilares de su puesta en marcha.

Vía | The Verge



via Magazine - robotica-e-ia https://ift.tt/2DP1o47

Elon Musk dice que su compañía Neuralink tendrá la tecnología para fusionar cerebros humanos con máquinas en una década

Elon Musk dice que su compañía Neuralink tendrá la tecnología para fusionar cerebros humanos con máquinas en una década

"Si no puedes vencer a tu enemigo, únete a él" es una frase hecha que probablemente resulte polémica para muchos estrategas militares y estudiosos de la Ética. Sin embargo, parece ser la apuesta de Elon Musk, CEO de Tesla y SpaceX, para luchar contra la amenaza que según él constituyee la inteligencia artificial para la existencia de la especie humana.

Y es que, si hemos de creer en las afirmaciones de Musk, nuestra supervivencia pasaeía precisamente por fusionarnos con las máquinas ("establecer una simbiosis con ellas", utilizando sus propias palabras). "La IA es sólo inteligencia digital. Y a medida que los algoritmos y el hardware mejoren, la inteligencia digital superará la inteligencia biológica por un amplio margen, eso es obvio".

Y, ¿cómo piensa lograr Musk esa fusión exitosa con las máquinas? A través de otra de sus compañías: Neuralink, donde tiene trabajando a 85 ingenieros en una misión muy concreta: construir un disco duro para el cerebro humano (y una interfaz para interactuar con el mismo) y lograr, así, "una especie de democratización de la inteligencia, de manera tal que no sea sostenida monopolísticamente en forma puramente digital por los gobiernos y las grandes corporaciones".

Musk trata de quitar hierro a su propuesta señalando que, al fin y al cabo, no difiere demasiado de nuestra situación actual en la que nuestros ordenadores y smartphones nos ofrecen un nivel cognitivo complementario. Aunque, claro, él quiere trabajar a un nivel algo más pequeño: tan pequeño como para hacer trabajar juntos al electrodo y la neurona, implantando "un chip y un montón de diminutos cables [...] en tu cráneo". "Creo que esto puede hacerse... Probablemente dentro de una década".

Seremos como monos viviendo en una simulación (o algo así)

Gorila Vía | Postdlf (Wikipedia)

Musk nos llama (al resto de la humanidad) "niños en el patio de recreo" por no estar valorando y debatiendo la posibilidad de que la inteligencia artificial nos destruya. "Mi fe en la humanidad se ha visto un poco sacudida este año. Pero todavía soy pro-humanidad".

Pero nos advierte de que la humanidad podría sufrir, al fin y al cabo, el mismo destino al que ésta condenó a sus parientes más cercanos:

"Cuando una especie de primate, el Homo Sapiens, se volvió mucho más inteligente que los otros primates, empujó a todos los demás a un hábitat muy pequeño. Así que ahora hay muy pocos gorilas de montaña, y orangutanes, y chimpancés... Ocupan pequeños rincones del mundo: jaulas, zoos... incluso las selvas en las que se encuentran [son] una especie de jaulas grandes".

Sin embargo, Musk no cree que la IA pueda ser una amenaza para nosotros únicamente por un futuro Skynet, sino que se suma a aquella frase de "el hombre es lobo para el hombre" y nos recuerda que la IA también puede ser ya ("sin ninguna tecnología nueva") un arma que el Homo sapiens emplee para atacar a sus propios congéneres. Habla, por ejemplo, de enjambres de drones asesinos... o de una optimización y proliferación masiva de fake news.

Y denuncia que los poderes públicos están perdiendo la guerra para controlar la inteligencia artificial: "La forma en que se implementa la regulación es lenta y lineal. Y nos enfrentamos a una amenaza exponencial. Si respondes linealmente a una amenaza exponencial, es bastante es probable que la amenaza exponencial gane".

Y llegados a este punto, cuando Musk nos ha convencido de la inminencia de nuestra posible destrucción, va y le suelta al entrevistador de Axios que, "probablemente", vivamos "en una simulación". "Hablo en serio", insiste y, claro, nosotros empezamos a dudar de todo lo anterior.

Imagen principal | Danor Shtruzman



via Magazine - robotica-e-ia https://ift.tt/2FJ7Fkg

InSight ya está en casa

Te siento, Marte. Y pronto conoceré tu corazón. Con este aterrizaje a salvo, estoy aquí. Estoy en casa, declaró hoy en Twitter, con un romanticismo poco propio de la tecnología más avanzada, el módulo InSight, que ha ido retransmitiendo en directo y en esta red social su aventura por el espacio.

Tras una larga espera de morderse las uñas y mirar sin parpadear a las pantallas de la sala de control, los técnicos y científicos del Laboratorio de Propulsión de la NASA en Pasadena (California, EE.UU.) recibieron con una enorme alegría a las 11.53 hora local (19.53 GMT) la señal de que InSight se había posado en Marte según lo planeado.

Los abrazos colectivos y los aplausos sin parar tomaron entonces el protagonismo de una sala en la que el personal de la NASA, siguiendo una singular superstición, comió cacahuetes para soportar mejor la antesala del amartizaje y para desear la mejor suerte a InSight.

Los miembros del equipo de InSight Kris Bruvold (i) y Sandy Krasner (d), celebran el amartizaje. EFE/Bill Ingalls/NASA

Un día increíble. Una experiencia única

El administrador de la NASA, Jim Bridenstine, señaló muy satisfecho que es “un día increíble” para la agencia y reconoció también la contribución de los socios internacionales de EE.UU. en esta misión.

“Y lo que es fascinante es que, mientras lo ves, piensas: ‘Cada logro es algo que ha pasado ocho minutos antes (por lo que tarda en viajar una señal de Marte a la Tierra)’. Así que es emocionante pero también tienes que dar un paso atrás y darte cuenta de que lo que ves ya ha ocurrido. Es una experiencia única, increíble”, apuntó.

En los días previos, los expertos de la NASA hablaron constantemente de los “siete minutos de terror”, la delicada y brevísima fase en la que el módulo tenía que pasar de atravesar la atmósfera marciana a casi 20.000 kilómetros por hora a reducir su velocidad bruscamente hasta unos cinco km/h justo antes de posarse.

InSight no solo superó con nota su aterrizaje, que involucraba un proceso combinado de paracaídas y “retrocohetes”, sino que envió casi de inmediato su primera fotografía desde Marte, que llegó a la sala de control de la NASA a las 11.58 hora local (19.58 GMT).

Frente a misiones anteriores al planeta rojo, que se habían centrado en estudiar su superficie o su atmósfera, la gran novedad y particularidad de InSight es que su principal propósito es estudiar el interior de Marte: sus entrañas y su composición.

Los científicos creen que averiguar más datos acerca del interior de Marte contribuirá a saber más acerca de su formación hace 4.500 millones de años así como a ampliar el conocimiento de los otros tres planetas internos del Sistema Solar (Mercurio, Venus y la Tierra).

La primera imagen tomada desde el módulo espacial InSight tras su exitoso aterrizaje en el planeta Marte. EFE/ Cortesía NASA

Para llegar hasta “el corazón” de Marte, InSight cuenta, entre otros instrumentos, con un sismógrafo y una sonda que medirán la actividad y la temperatura internas del planeta, respectivamente.

En este aspecto será crucial la labor de una excavadora mecánica que perforará hasta unos cinco metros de profundidad en la superficie marciana.

InSight se ha posado en una zona plana de Marte conocida como Elysium Planitia, una área considerada por los expertos como relativamente segura para un aterrizaje sin incidentes.

A diferencia de otras misiones de la NASA protagonizadas por robots que se desplazaban sobre Marte, InSight se ha instalado definitivamente y realizará su labor investigadora sin moverse.

Dos años de trabajo

InSight despegó el pasado 5 de mayo desde la Base Aérea Vandenberg en California (EE.UU.) y ha recorrido 485 millones de kilómetros entre la Tierra y Marte.

Está previsto que la misión científica de InSight dure en torno a dos años.

El vicepresidente de EE.UU., Mike Pence, felicitó hoy a la NASA y a todos los que contribuyeron a la llegada de InSight a la superficie marciana.

“Esta es la octava vez que EE.UU. aterriza en Marte y la primera para estudiar su interior. ¡Un hito increíble!”, afirmó Pence en Twitter.

Numerosos apasionados de la exploración espacial se reunieron hoy para seguir la etapa final del viaje de InSight en diferentes partes del mundo, desde Times Square en Nueva York a la Ciudad de las Ciencias y la Industria de París. EFE

La entrada InSight ya está en casa aparece primero en EFE futuro.



via EFE futuro https://ift.tt/2BDIw6F

InSight, el módulo espacial que hurgará en los interiores de Marte

Este módulo estacionario, que despegó el pasado 5 de mayo desde la Base Aérea Vandenberg, en California, usará una excavadora mecánica para perforar hasta unos 5 metros (16 pies) de profundidad y medir su temperatura interna, además de cualquier movimiento interno con ayuda de un sismógrafo.

“Es la primera misión que va a estudiar el interior profundo de Marte”, dijo a Efe el español Fernando Abilleira, subdirector de diseño y navegación del InSight y parte del equipo multidisciplinar e internacional que conforma la misión.

“Al estudiar la propagación de las ondas bajo la superficie de Marte, a través de su sismómetro, vamos a tener más información sobre como el planeta ha evolucionado” en los últimos 3.000 millones de años, agregó.

Abilleira, con 17 años de servicio en proyectos espaciales de NASA, es parte de los ingenieros y científicos que desde hoy  estudiarán en el Laboratorio de Propulsión de esta agencia (JPL-NASA), en Pasadena (California), los “signos vitales” del vecino planeta, como sus “pulsaciones, temperatura”.

Ahondó el español que a través de un “seguimiento de precisión” observarán “hasta los reflejos” durante los dos años de “experimentos primarios” que implicará la misión.

Para ampliar el conocimiento sobre la formación de Marte y de otros planetas rocosos, como la Tierra, se usará el Experimento Sísmico para la Estructura Interior (SEIS), un sismómetro fabricado por el Centro Nacional de Estudios Aeroespaciales de Francia (CNES) y que detectará “cualquier movimiento en la superficie de Marte”, explicó Abilleira.

Las vibraciones que serán registradas por el SEIS podrían ser ocasionadas por el impacto de un meteorito o por un pequeño terremoto, si bien la actividad sísmica del “planeta rojo” es menor a la de la Tierra.

“Al estudiar el movimiento de las ondas que se propagan bajo la superficie de Marte, podremos tener una mejor comprensión de la composición, la estructura del núcleo, el manto y la corteza del planeta”, agregó.

La otra herramienta que adquiere protagonismo es la Sonda de Propiedades Físicas y Flujo de Calor (HP3), construida por el Centro Aeroespacial de Alemania (DLR), que será implantado en suelo marciano a unos 5 metros de profundidad.

“Este instrumento lleva unos sensores térmicos que van a recoger información sobre la actividad termal del planeta rojo”, señaló Abilleira, quien destacó que España ha aportado a esta misión una estación ambiental (REMS, por sus siglas en inglés) dotada de sensores meteorológicos para el entorno marciano.

Imagen del Curiosity, situado en el cráter Gale desde 2012. @NASA/JPL

Este especialista en trayectoria de vehículos espaciales y que trazó la ruta del robot Curiosity, el cual llegó al planeta rojo en agosto de 2012, señala que “aterrizar en Marte es muy complicado”.

“La velocidad de entrada atmosférica es de aproximadamente unos 20.000 kilómetros por hora y en menos de 7 minutos tenemos que reducir esa velocidad a 5 kilómetros por hora”, dijo Abilleira, graduado de la Saint Louis University, en Missouri.

El viaje concluye hoy

Al cabo de una viaje de más de 6 meses, la misión InSight atravesará sobre las tres de la tarde de hoy, hora del este en EEUU, la atmósfera marciana y se posará en la superficie. Un brazo robótico desembarcará los instrumentos científicos que serán instalados en suelo marciano.

Forman parte de la misión, dos vehículos Mars Cube One (MarCO), que por primera vez serán probadas en el “espacio profundo”, como dijo Abilleira, y que con el soporte de componentes miniatura probarán un nuevo método de retransmitir información a la Tierra.

La misión Insight (Interior Exploration using Seismic Investigations, Geodesy and Heat Transport) se abocará a una investigación inédita que se espera arroje pistas sobre cómo se originó el Sistema Solar hace aproximadamente 4.600 millones años, y de paso cómo se distribuyó la vida en él. EFE

La entrada InSight, el módulo espacial que hurgará en los interiores de Marte aparece primero en EFE futuro.



via EFE futuro https://ift.tt/2KBD72K

InSight se prepara para sus siete minutos de terror

“Mañana es el gran día”, “en una 24 horas estaré en casa, en #Marte” escribió anoche Insigh a sus alrededor de 80.000 seguidores, a los que invitó a seguir el último informe de su equipo terrestre sobre lo que esperan “aprender en Marte” y cómo se está preparando el ingenio ante el inminente amartizaje.

Está previsto que la misión Insight de la NASA llegue a Marte hoy hacia las 19.00 horas GMT, momento en el que habrá recorrido en seis meses los más de 90 millones de kilómetros que le separan de la Tierra.

Los “siete minutos de terror” son los más delicados de la misión, cuando atraviese la atmósfera a casi 20.000 kilómetros por hora y en ese tiempo tenga que reducir su velocidad a solo cinco kilómetros para poder posarse con seguridad en la superficie marciana.

“Es una de las partes más intensas de mi misión. Empieza cuando llegue a la zona alta de la atmósfera marciana y dura unos seis minutos y medio, hasta que aterrice con seguridad”, explicó hace unas horas InSight junto a una de las muchas recreaciones del momento que ha subido a su Twitter.

Se trata de un proceso que puede calificarse de cualquier cosa menos fácil. De hecho, el módulo Schiaparelli del proyecto ExoMars no superó esa complicada fase y acabó hecho pedazos contra el planeta rojo en octubre de 2017.

Amartizaje en directo desde Times Square

La Nasa ha querido dar vida propia al módulo espacial en las redes sociales, una manera de acercar su misión y la ciencia al gran público, que podrá seguir el arriesgado amartizaje en directo incluso en la neoyorquina plaza de Times Square.

InSight se ha revelado como un ingenio con sentido del humor. “Es bueno que los robots no puedan sudar. Solo dos días más en el maratón para llegar a Marte”.

Pero también con ganas de llegar a su destino final: “#Marte voy hacia ti. Dejé la Tierra hace 200 días y ahora estoy a solo cinco días de aterrizaje en Marte”, tuiteó el aparato el pasado día 21, junto a un GIF en el que se veía un recreación de su amartizaje.

Una vez en Marte, si todo va bien, InSight tiene un largo trabajo por delante para analizar “el corazón” del segundo planeta más pequeño del Sistema Solar, después de Mercurio.

Imagen de la parte sur del cañón Valles Marineris en Marte, llamada Eos Chasma. EFE/ESA

Hasta ahora las misiones a Marte han capturado imágenes de la superficie, estudiado rocas, excavado en la tierra y buscado pistas sobre el agua que alguna vez fluyó, pero nunca se ha indagado en su interior.

El módulo espacial auscultará así el interior del planeta para lo que usará una excavadora mecánica que perforará a cinco metros de profundidad, donde medirá la temperatura interna y seguirá cualquier movimiento interno con ayuda de un sismógrafo.

Pero antes todas las miradas estarán fijas en las pantallas de control de la NASA para saber si InSight logra el aterrizaje, para lo que, según sus propias palabras, hay que saber cinco cosas.

“Aterrizar en Marte es difícil. Usaré tecnología de probada eficacia. Aterrizaré en el aparcamiento más grande de Marte. Estoy fabricado para aterrizar en medio de una tormenta de arena. Descubriré cómo se forman los planetas rocosos”. EFE

La entrada InSight se prepara para sus siete minutos de terror aparece primero en EFE futuro.



via EFE futuro https://ift.tt/2BBMRaz

Un 17% menos de accidentes en Las Vegas gracias a un programa piloto para aplicar la IA a la seguridad vial

Un 17% menos de accidentes en Las Vegas gracias a un programa piloto para aplicar la IA a la seguridad vial

Un programa piloto puesto en marcha por la startup israelí WayCare y varias agencias públicas estado de Nevada (EE.UU) con el objetivo de aplicar la inteligencia artificial a la seguridad vial ha ayudado, en este último año, a reducir en un 17% los accidentes en la concurrida Interestatal 15 a su paso por Las Vegas.

WayCare ha creado un sistema homónimo de prevención del tráfico que es capaz de pronosticar con dos horas de antelación cuándo va a producirse una colisión, gracias a su capacidad para encontrar interacciones que a veces pasan desapercibidas a los especialistas.

Dicho pronóstico se realiza en base a un conjunto de datos procedentes de fuentes diversas: cámaras de tráfico, automóviles conectados y centros de gestión del tráfico, de datos históricos y meteorológicos e, incluso (tras llegar a un acuerdo con Google a comienzos de año) procedentes de la aplicación Waze.

Los datos recopilados por WayCare, así como los análisis predictivos realizados en base a los mismos, han estado proporcionando a las autoridades la capacidad de tomar medidas preventivas en áreas calificadas como "de alto riesgo", en las que el 91% de los conductores terminaron reduciendo su velocidad a menos de 105 kilómetros/hora.

Un sistema que permite a las autoridades ser proactivas a la hora de evitar accidentes

Esas medidas preventivas consistían en que, durante aquellos momentos y lugares evaluados como vulnerables por el algoritmo de WayCare, los paneles de mensajes de la Interestatal 15 recomendaban a los conductores que redujesen la velocidad, y la Patrulla de Carreteras reforzaba su presencia en la zona.

Los agentes de tráfico ya saben que ciertas circustancias en la vía pueden generar un accidente, pero como explica el teniente coronel Daniel Slow, de la Patrulla de Carreteras de Nevada, "tradicionalmente, la aplicación de la ley se ha basado en evidencias anecdóticas para determinar dónde desplegar los recursos para responder a los problemas relacionados con el tráfico".

Slow se felicita de que la aplicación de la inteligencia artificial permita a la Patrulla ser proactiva en situaciones de vulnerabilidad: "Esto se traduce en poder tratar mucho más rápido a los heridos en accidentes, en restaurar prontamente el flujo normal de tráfico y en evitar millones de dólares en retrasos relacionados con el comercio".

Ahora, terminado el periodo de programa piloto en Las Vegas, WayCare aspira a implantar su tecnología en otras ciudades del mundo; y se muestran convencidos de que cuanto mayor sea el número de vehículos autónomos/conectados en las carreteras, mayor será el flujo de datos y mayor será su capacidad para anticiparse a los problemas del tráfico (y para reducir, así, las cifras de víctimas en la carretera).

Y sí, en España la Dirección General de Tráfico ya tiene en mente algo similar.

Fuente | ZDNet Imagen | Moyan Brenn (Wikipedia)



via Magazine - robotica-e-ia https://ift.tt/2DSq9N1

martes, 27 de noviembre de 2018

Así es como Didi, desde China, lleva años de ventaja a Uber en inteligencia artificial

Así es como Didi, desde China, lleva años de ventaja a Uber en inteligencia artificial

A veces nos encontramos con algunos grandes mercados que, por razones culturales y/o geoestratégicas, cuentan con un conjunto de empresas destacadas en determinados sectores tecnológicos que difieren de las grandes compañías que dominan dichos sectores en Occidente (Yandex y Baidu, alternativas rusa y china -respectivamente- a Google, son grandes ejemplos).

El problema es que, a veces, esto dificulta que estemos al día de los grandes avances logrados por esas 'alternativas' que no están presentes en EEUU y/o España: lo que está logrando Didi Chuxing entra de lleno en dicha categoría.

Mucho más que "el Uber chino"

Didi Chuxing es la mayor compañía de viajes compartidos del mundo, aunque muchas veces oigamos hablar de ella únicamente como "el Uber chino". Sin que parezca preocuparle lo más mínimo nuestro desconocimiento, Didi Chuxing afirma que su ambición es "convertirse en líder mundial de la revolución del transporte y la automoción".

La compañía, valorada en 56.000 millones de dólares, cuenta en China cuenta con 550 millones de clientes y ofrece 30 millones de viajes por día. Didi no tiene presencia en Estados Unidos, pero sí en Australia, Brasil, Japón y Méjico (y en muchos otros lugares, a través de acuerdos).

En China, sencillamente, carece de rivales relevantes: Uber desembarcó allí en 2013 (cuando Didi contaba sólo con un año de vida) e intentó hacerse un hueco pero los inversores hicieron desistir a la compañía tras comprobar que los miles de millones gastados en el mercado chino no habían dado demasiado fruto.

Finalmente Didi y Uber llegaron a un acuerdo en 2016 para que la primera se hiciera con el control de las operaciones de Uber China. Casi al mismo tiempo, Apple anunciaba una inversión de 1.000 millones de dólares en la compañía china.

Hacia el liderazgo a través de la IA

DIDI

Globalmente, cuenta con 7000 empleados, siendo prácticamente la mitad de ellos ingenieros y científicos de datos que contribuyen a mejorar la tecnología que desarrollan en el campo de los vehículos autónomos y la inteligencia artificial.

Si este es tu campo, quizá te interese saber que siguen contratando gente y que, en palabras del director de Didi Labs, Fengmin Gong, su "prioridad es continuar atrayendo y reteniendo a la próxima generación de líderes de la tecnología de todos los orígenes, para resolver algunos de los problemas más difíciles del mundo".

Animada por esa búsqueda de resolución de retos, Didi ha fundado ya tres centros de investigación de inteligencia artificial (uno en Silicon Valley y otros dos en Pekín) en los que experimenta con tecnologías como el procesamiento del lenguaje natural, la visión por ordenador y el aprendizaje profundo.

La información es poder, y Didi recopila diariamente una enorme cantidad de datos que le sitúa en un puesto destacado a la hora de lograr avances en campos como la congestión del tráfico y la optimización de rutas.

¿Que está desarrollando Didi en estos momentos?

  • La plataforma Didi Smart Transportation Brain, que permite combinar datos procedentes de sensores de su propia flota de vehículos, de cámaras de tráfico y de otras fuentes públicas y privadas, con el objetivo de gestionar el tráfico de las ciudades gracias a la nube y a la inteligencia artificial (permitiendo, por ejemplo, crear redes de semáforos inteligentes).

  • Un asistente digital para vehículos activado por voz que facilitaría al conductor servicios como el acceso a contenido multimedia o la localización de gasolineras, talleres o servicios de recarga.

  • Un servicio de navegación de realidad aumentada, basado en apps móviles, que permite al usuario encontrar una ruta (visualizada en 3D) a través de grandes edificios como aeropuertos, estaciones de tren y centros comercales, hasta la ubicación del punto de recogida de uno de sus vehículos.



via Magazine - robotica-e-ia https://ift.tt/2TOY66x

Científicos de Berkeley logran enseñar movimientos realistas a inteligencias artificiales usando vídeos de Youtube

Científicos de Berkeley logran enseñar movimientos realistas a inteligencias artificiales usando vídeos de Youtube

A cada minuto, 300 horas de vídeo nuevas pasan a engrosar ese almacén de información que es Youtube: gameplays, tutoriales, videoclips, documentales, etc. Por desgracia, todavía resulta difícil para las inteligencias artificiales aprender nuevas habilidades a través del análisis de todos esos vídeos.

Pero un grupo de investigadores de Berkeley se han propuesto usar precisamente usar esos vídeos como fuente de datos para enseñar a una IA a moverse como los humanos: han desarrollado un framework que incorpora tecnología de visión por computadora y técnicas de aprendizaje por refuerzo que permitieron a los investigadores entrenar a la IA en más de 20 tareas acrobáticas.

La captura de movimiento: lenta y cara (hasta ahora)

Hasta ahora, las técnicas para enseñar movimiento a las máquinas se apoyaban mayoritariamente en el uso de estructuras de control creadas manualmente, que limitan tanto la gama de habilidades que permiten aprender como la naturalidad de los movimientos aprendidos.

De modo que, si tenemos entre manos una película de animación o un videojuego y deseamos que los personajes cuenten con animaciones realistas, lo más probable es que nos veamos obligados a recurrir a tecnología de captura del movimiento (como la que permitió a Andy Serkis 'dar vida' a Gollum en El Señor de los Anillos o a César en El Planeta de los Simios).

Eso requiere de un actor que, trabajando en un estudio, proporcione al software sus parámetros de movimiento. Un proceso que suele proporcionar un buen resultado, pero que resulta laborioso y caro. Así que, ¿no sería genial usar todos esos datos contenidos en los millones de horas de vídeos de Youtube como forma de sustituir a los actores?

El Gangnam Style como reto para la inteligencia artificial

Eso es lo que permite realizar el framework desarrollado en Berkeley."La clave está en descomponer el problema en componentes más manejables, elegir los métodos correctos para esos componentes e integrarlos de manera efectiva", afirman los investigadores Jason Peng y Angjoo Kanazawa.

El funcionamiento es el siguiente:

  • En primer lugar, se proporciona un vídeo para captar las posturas mostradas en cada frame.

  • Se entrena, mediante aprendizaje por refuerzo, a un personaje simulado para imitar el movimiento.

  • Esto permite que el sustema termine siendo capaz de predecir de manera plausible a partir de un único frame cómo se llevará a cabo un movimiento.

"Sin embargo, imitar las habilidades de los videos sigue siendo un problema extremadamente desafiante, y hay muchos clips de video que aún no podemos reproducir: los pasos de baile ágiles, como el de un clip estilo Gangnam, todavía pueden ser difíciles de imitar".



via Magazine - robotica-e-ia https://ift.tt/2RgQAQh