lunes, 30 de julio de 2018

Probamos el nuevo iLife A7, es nuevo robot aspiradora de la firma china

Ahora las inteligencias artificiales también "ven" tráilers: es el nuevo sistema de la Fox para predecir audiencias

Cine

Aunque parece que cada vez va normalizándose más, aún queda por ver en cuanto a las aplicaciones de la inteligencia artificial. La hemos visto poniendo a prueba las habilidades del ser humano, siendo "artista" o en dispositivos de consumo, y ahora los de la Fox recurren a la inteligencia artificial para predecir la audiencia de una película según el tráiler.

Al fin y al cabo, los tráilers y teasers de un contenido es la manera principal de presentárnoslo, siendo en muchas ocasiones la primera toma de contacto con la trama y los personajes (y elenco) y puede que nuestro particular sistema para elegir si ver o no ese producto. De ahí que la productora haya pensado en un sistema que aproveche lo registrado hasta el momento en cuanto al efecto de estos anticipos, recurriendo a las redes neuronales para tener una ayuda basada en éstos.

El entrenamiento que todo cinéfilo desearía

Como ocurre también con la inteligencia natural, para que este sistema funcione lo han "entrenado" con una extensa base de datos, con el fin de que el deep learning pueda ser de ayuda en lo que es la promoción de una película. Para ello, han recurrido a los cerebros electrónicos de NVIDIA, concretamente las GPUs Tesla P100 y el framework TensorFlow de deep learning, como comenta el fabricante en una comunicación.

Ese entrenamiento consistió en algo que a muchos nos encantaría: ver películas, muchas películas. Explican en NVIDIA que se usaron cientos de películas lanzadas en los últimos años, así como los registros de audiencia. Y lo que usa el sistema como referencia o fuente para su cálculo son aspectos como el color, la iluminación, las caras, los paisajes o ciertos objetos.

Nvidia Un esquema de cómo funciona la red neuronal de predicción de audiencia. (Fuente:NVIDIA)

La Fox considera, según el estudio que hay tras este desarrollo, que "el trailer es la parte más crítica de la campaña de marketing de una nueva película", al presentar el argumento, los personajes principales y algunos puntos esenciales de la trama (a veces demasiados). De ahí que pensasen en buscar asociaciones entre sus elementos y las audiencias posteriores, y según explican los investigadores la red neuronal obtenida "tiene potencial para ayudar a productores y ejecutivos a tomar decisiones en las distintas etapas de las campañas de marketing".

Una pitonisa artificial

En NVIDIA explican que el sistema creado les da una predicción bastante acertada de la audiencia de películas que van a ser lanzadas con la previsualización del tráiler por parte del sistema, aunque no dan detalles que acompañen esta afirmación más allá de un ejemplo con un vídeo. Como decíamos, la idea es que más allá de lo curioso del sistema sea algo que pueda ayudar a medir la calidad del tráiler y sobre todo el alcance de cara a que sea lo que va a vender la película en un primer momento.

La intención es seguir perfeccionando este sistema para que vaya siendo más preciso y dé mejores predicciones. No han hablado de los costes, pero cabe pensar que recurrir a este sistema puede conllevar un ahorro en la estimación de la audiencia por sistemas tradicionales, quizás también en tiempo, aunque faltará ver si el sistema es lo eficaz que dicen. Veremos si algo cambia en los tráilers de la productora, y esperemos que la AI no indique que los spoilers favorecen la acogida.

Vía | Engadget
En Xataka | Si 'Doom' se te quedó corto, no te preocupes: este motor de inteligencia artificial genera infinitos niveles



via Magazine - robotica-e-ia https://ift.tt/2Lwc7FD

domingo, 29 de julio de 2018

Así es la creación de fantásticas criaturas como el temible tiranosaurio que invadió las calles de Londres

T Rex Ojo

Según lo sumergidos que estemos en las redes sociales, puede que estos días haya aparecido todo un Tyrannosaurus rex rugiendo en nuestra pantalla. Una bestia con una apariencia totalmente realista tanto a nivel de movimientos como de "piel" y demás elementos, fruto de lo que se ha evolucionado en los dinosaurios animatrónicos.

La animatrónica define las técnicas mediante las cuales se logra reproducir el comportamiento y el aspecto de seres vivos empleando mecanismos robóticos y/o electrónicos. Pueden no ser todo el animal o ser completo y quedar en una parte o fracción, pero suelen controlarse remotamente o programarse para aumentar esa sensación de realismo, y en el caso del dinosaurio que citamos lo consigue a un nivel superior (pese a que hay partes que lo delatan).

Son criaturas de "carne y hueso" (a su manera)

La BBC bromeaba desde su perfil de Facebook con el vídeo que acabó viralizándose: hablaban de "un nuevo empleado en la compañía" en referencia al T-Rex que asomaba por las oficinas de la cadena en Londres.

En el vídeo se aprecia bastante el realismo de la criatura artificial (aunque suene a oxímoron), pero en este otro vídeo de la misma escena (y algo más largo puede apreciarse algo mejor. Como decíamos al principio, no se trata sólo de emular los rasgos físicos del animal, sino de imitar (o en este caso tratar de emular) los movimientos del ser vivo, lo cual logran a un nivel de detalle que llega a los movimientos oculares y parpadeos del dinosaurio.

El T-Rey (el animatrónico, porque el "hijo" tiene más parte humana) es el que se creó para la exhibición "Jurassic World", siendo obra y milagro de la compañía Creature Technology. Una compañía dedicada a este mundo desde hace años (2006) y que, como muestran en su web, han llevado a cabo los animatrónicos tanto de éste como de otros espectáculos que traen a la realidad las criaturas del Jurásico, King Kong o algún dragón al que entrenar.

Sobre su crecimiento se habla en un reportaje que hizo Bloomberg (e incluimos a continuación), metiéndose literalmente en este taller tan particular. Explican que entre el personal encargado de "dar vida" a estas criaturas hay artistas especializados en efectos especiales en el cine, así como los desarrolladores y programadores que crean las rutinas de movimiento para las extremidades y las distintas partes de cada animatrónico.

Explicaba Sonny Tilders, co-fundador y director creativo de Creature Tecnology, que los animatrónicos son un organismo natural a nivel estructural al tener también (a su manera) huesos, músculos y piel. Resumía que la verdadera clave o truco es que todo esto trabaje junto, de modo que se logre el mayor realismo.

Los animatrónicos son un organismo natural a nivel estructural

El trabajo se ve parcialmente en el vídeo, donde vemos varias de estas criaturas y cómo se trabajan las distintas partes, desde ese "esqueleto" (hidráulico) hasta la "piel", compuesta por distintos tejidos. También se ve cómo son los mandos para controlar su movimiento de manera remota, los cuales son sistemas articulados con una estructura pareja a la del animatrónico en cuestión, de modo que al moverlos de una manera u otra el robot reproduce dicho movimiento a tiempo real, apoyados por algunos sistemas como joysticks.

Este mando, el Parasaurolophus que sale en el vídeo (al que el reportero acaricia) y algunos más se ven también en la sesión de fotografías de entre bambalinas que la compañía compartió sobre este espectáculo de dinosaurios. Y en este otro reportaje de Discovery UK logran mostrar y trasladar el trabajo que implica cada parte, tanto a nivel de piel y órganos como de mecánica y electrónica. En las articulaciones cada cilindro que une los "huesos" tiene su importancia y el trabajo para lograr el realismo de estructuras como la mandíbula es totalmente artesanal, limando y encajando cada diente.

T Rex 02

En cuanto al software que permite crear esas rutinas de movimiento, se trata de C-Tech. Un software personalizado que incluye herramientas propias diseñadas para el control de los animatrónicos, con una interfaz personalizada que permite ajustar los ejes de los mismos de manera eficiente y con una serie de plug-ins que facilitan los distintos tipos de manejo, tanto directos como con automatización.

Decía Sonny de Creature Tecnology que se tarda aproximadamente un año en construir un dinosaurio animatrónico por todos esos detalles que hay que cuidar. Otro ejemplo de estas creaciones son al menos parte de los dinosaurios que se ven en la tercera parte de 'Jurassic World', la que según sus creadores es la película con más animatrónicos de toda la saga.

La fusión de animación y robótica

Una de las compañías que contribuyó al desarrollo de la animatrónica fue Disney, cuando en 1955 Walt y sus ingenieros pensaron en que los robots podrían formar parte de las atracciones de sus parques. De hecho, empezaron a denominarlos "audio-animatronics" (acuñándose el término a posteriori), y aquí hemos hablado en repetidas ocasiones de cómo están beneficiándose de avances tecnológicos como la inteligencia artificial o las ideas que parece estar teniendo la compañía (robots "abrazables").

Dinosaurio 01

Así, no todo son efectos especiales y CGI en cuestión de dinosaurios y parece que queda mucho por ver, al menos en lo que respecta a estos referentes de los animatrónicos. El primer proyecto de Creature Tecnology fue un espectáculo llamado "Caminando entre dinosaurios", como la serie de la BBC, y posteriormente trabajaron en variedad de criaturas gigantes animadas, como un King Kong de tamaño real y otros animales, como las mascotas de los Juegos Olímpicos.



via Magazine - robotica-e-ia https://ift.tt/2NUJApR

viernes, 27 de julio de 2018

Este diminuto chip es la nueva arma secreta de Google para dominar el mercado de la inteligencia artificial

Google Edge Tpu

Google es una de las compañías con una participación activa en proyectos de inteligencia artificial, de hecho, muchos de sus servicios dirigidos a usuario final son potenciados por su propia plataforma de inteligencia artificial. En 2016, Google nos presentó al cerebro de todo esto: el chip TPU (Tensor Processing Unit), el cual alimenta los centros de datos de la compañía y se encarga de diversas tareas de inteligencia artificial.

Este 2018, Google salió a decir que su chip TPU había sido un éxito y ahora era momento de abrirlo a otros fabricantes, con lo que dejaba la puerta abierta para que otros lo usaran en sus proyectos de inteligencia artificial. Y hoy, Google está dando un paso importante en este segmento, ya que están buscando cerrar el círculo al presentar su nuevo y diminuto chip Edge TPU.

Google Edge TPU

Mientras que el TPU está destinado a vivir en los centros de datos y trabajar en tiempo real sobre información en la nube, el Edge TPU es un pequeño acelerador de inteligencia artificial, cuyo objetivo es llevar a cabo trabajos de machine learning de forma local en dispositivos IoT y otro tipo de productos conectados.

El Edge TPU está diseñado exclusivamente para realizar 'inferencias', es decir, el trabajo de machine learning que permite que el algoritmo lleve a cabo la tarea para la que fue programado. A forma de comparativa, los TPU están optimizados para llevar a cabo la tarea de entrenamiento, mientras que los Edge TPU se harán cargo de ejecutar todas estas órdenes.

Al igual que los TPU, estos nuevos chips están dirigidos al mercado empresarial y servirán para dar vida a una amplia gama de dispositivos, donde su tarea podrá ir desde automatizaciones hasta controles básicos muy específicos. Su ventaja, según explica Google, es que no necesitaría estar conectado a internet, ya que todo lo ejecutaría en local de acuerdo a su configuración, lo que haría que los datos fuesen más seguros y más rápidos.

Tpu 2 Google TPU

Hay que recordar que Google no es la primera con chips aceleradores de inteligencia artificial, ya tenemos a Qualcomm, MediaTek y ARM desarrollando esta tecnología desde hace varios meses. La clave del nuevo Edge TPU está en la estrategia de Google, ya que con esto ahora tienen disponibles todos los productos necesarios para crear un ecosistema de inteligencia artificial, con lo que buscará que sus clientes se queden con ellos y no recurran a otra compañía donde se enfrenten a posibles problemas de compatibilidad.

Con esto, Google ahora tiene y ofrece la posibilidad de guardar los datos en su nube; entrenar algoritmos usando su TPU; realizar inferencias por medio del Edge TPU; y controlar y desarrollar todo el proceso usando TensorFlow, el software de Google para tareas de inteligencia artificial. Es decir, Google ya tiene el paquete completo que "obliga", de cierta forma, a los clientes a permanecer en su ecosistema.

Y como Google quiere que sus clientes adopten esta tecnología y se sumen a su ecosistema IA, la compañía ofrecerá su Edge TPU como parte de un kit de desarrollo con el que buscan que sus clientes prueben las capacidades y posibilidades. El kit se ofrece en versión beta e incluye un SoM, donde está el Edge TPU, una CPU NXP, un Microchip secure element y soporte Wi-Fi. Todo esto es compatible con interfaces USB y PCI Express.

En Xataka | Google establece siete principios éticos para usar inteligencia artificial: promete no emplearla en armas



via Magazine - robotica-e-ia https://ift.tt/2Ltsz9B

jueves, 26 de julio de 2018

Crean los robots más pequeños del mundo: son del tamaño de un óvulo humano

Los avances en medicina han estado, en muchas ocasiones, supeditados a la tecnología de la época. La innovación ha sido, sin lugar a dudas, un gran aliado a la hora de curar enfermedades y resolver problemas de salud. Los robots, la nanotecnología y las máquinas pueden contribuir a este objetivo. Un grupo de investigadores del MIT (Instituto Tecnológico de Massachusetts) ha desarrollado un minúsculo dispositivo electrónico del tamaño de un óvulo humano (unos 0.14 milímetros) capaz de «detectar su entorno, almacenar datos e, incluso, llevar a cabo tareas de computación». Los expertos creen que estos diminutos circuitos electrónicos, diseñados con materiales bidimensionales capaces de transportarse en unas partículas llamadas coloides, pueden fluir a través de instestinos o el sistema digestivo humano para detectar posibles patologías en diagnósticos médicos dado que pueden permanecer suspendidas de manera indefinida en líquido. Pero también a través del aire, de ahí que es posible emplearlos para analizar otros compuestos en el interior de una refinería de gas o petróleo. «El objetivo era descubrir métodos para hacer un injerto de circuitos electrónicos completos en partículas coloidales», explica en un comunicado Michael Strano, profesor de ingeniería química en el MIT y autor principal del estudio, que se publicó en la revista «Nature Nanotechnology». Para enterlo es necesario, sin embargo, acudir a qué son los «coloides», una sustancia que al entrar en contacto con un líquido se dispersa lentamente. La espuma de la cerveza o la espuma de afeitar es un sistema coloidal. Tomando de base este comportamiento, los investigadores han logrado crear un minirrobot de soplo 100 micrómetros ancho (0,01 centímetro) sobre un material de sustrato que, posteriormente, se disolvió para lograr que los dispositivos individuales pudieran flotar libremente en una solución. Los expertos aseguran que mientras otros grupos han investigado dispositivos robóticos de pequeñas dimensiones, este proyecto con coloides se ha enfocado en el desarrollo de formas de controlar el movimiento, aunque este ha sido uno de los grandes desafíos: les ha obligado a desarrollar flagelos similares a las colas de un espermatozoide para poder propulsarse. Un enfoque que los investigadores asumen que no es el «más idóneo» dado que para que este tipo de dispositivos sean «más funcionales» se requiere de una mayor movilidad por un entorno en particular. Estos minúsculos robots fabricados por el MIT están autoalimentados y no requieren de una fuente de alimentación externa. Tampoco emplean baterías internas, recoge el estudio. Tan solo necesitan de un simple fotodiodo para recibir la escasa electricidad que los circuitos necesitan para gestionar los circuitos de computación y la memoria. «Eso es suficiente para permitirles recoger la información de su entorno, almacenar esos datos en su memoria y luego poder analizarlos», añade.

via Tecnología https://ift.tt/2JUAes3

miércoles, 25 de julio de 2018

El lago escondido de Marte incrementa las posibilidades de hallar vida

Investigadores italianos han anunciado hoy que por primera vez se tienen pruebas de la presencia en Marte de agua líquida, además de salada, en un lago subterráneo bajo una capa de hielo, gracias a los resultados del radar instalado en la sonda Mars Express de la Agencia Espacial Europea (ESA).

El importante descubrimiento concluye que en una región llamada Plamun Australe, localizada en la capa de hielo del polo sur de Marte, el perfil que dibuja el radar es muy similar al de los grandes lagos de agua líquida encontrados bajo la Antártida y Groenlandia en la Tierra.
Para Alberto González Fairén, del Centro de Astrobiología (CAB), en Madrid, este es “el descubrimiento científico del año” y el hallazgo de esta agua líquida hace mucho más posible que haya vida en Marte”.

Esta opinión que ha sido compartida por José Antonio Rodríguez Manfredi, también del CAB: “Esto aumenta las posibilidades de encontrar vida; antes se sospechaba, pero no había evidencias empíricas”.

Para González Fairén, con este descubrimiento y con el hallazgo de compuestos orgánicos que hizo el rover Curiosity hace un mes, “ahora sabemos que Marte tiene los ingredientes básicos de los que estamos hechos todos los seres vivos: agua líquida y compuestos orgánicos”.

¿Quizás barros muy húmedos?


Este científico ha indicado a Efe que, en todo caso, podría ser que lo que ha detectado Mars Express no sea un lago en el sentido estricto de ser una masa de agua limpia, como los lagos subantárticos, sino tan sólo sedimentos saturados de agua, es decir, barros muy húmedos.

Esto, no obstante, no restaría importancia al hallazgo: cualquier interfase entre partículas de roca o suelo y agua líquida, aunque sean gotas minúsculas, es un hábitat ideal para microorganismos.

Se trata de un primer resultado, ha dicho este investigador del CAB -centro del Consejo Superior de Investigaciones Científicas e Instituto Nacional de Técnica Aeroespacial-, quien ha apuntado que “podría ser que hubiera otras zonas en Marte con lagos subterráneos, incluso zonas más accesibles para nuestros robots (los polos son lugares de difícil acceso)”.
Imágenes facilitadas por la ESA que mostró el complejo pasado volcánico y tectónico de Marte, así como nuevos signos de interacción de hielo y agua, gracias a la difusión de fotografías tomadas por la sonda Mars Express.Imágenes facilitadas por la ESA de Marte tomadas por la sonda Mars Express.


Por lo tanto, buscar evidencias de vida o de sus restos bajo la superficie “es el siguiente objetivo indiscutible en la exploración de Marte”.

En este sentido, ha explicado que los próximos dos rovers que se enviarán al planeta rojo en 2020 (ExoMars de la ESA y Mars2020 de la NASA) comparten esa meta prioritaria: “Este es un momento extraordinario en la exploración planetaria”.

El astrónomo y director del planetario de Pamplona, Javier Armentia, ha coincidido en que se trata de uno de los descubrimientos “relevantes” de Marte y del año, y ha declarado que el radar MARSIS instalado en la sonda Mars Expres ha dado una confirmación de que existe un fenómeno que se da en la Tierra, que en las grandes masas de hielo hay lagos.

“La detección con este radar es bastante fiable y si hay agua a kilómetro y pico bajo el hielo significa que los mecanismos están ahí y son posibles. ¿Pueden darse entonces las condiciones para la vida? Ahora sí es lícito preguntárselo”, ha agregado. EFEfuturo

La entrada El lago escondido de Marte incrementa las posibilidades de hallar vida aparece primero en EFE futuro.



via EFE futuro https://ift.tt/2LO97AG

Los coches autónomos de Uber vuelven a las calles con nuevas medidas seguridad... aunque ahora son conducidos por un humano

Uber Automomo Volvo

Han pasado cuatro meses desde que un coche autónomo de Uber atropelló y mató a una mujer en Tempe, Arizona. Desde entonces, la compañía se ha enfrentado a todo tipo de problemas que la obligaron a detener la operación de todos sus vehículos, además de perder la licencia de operación en Arizona, lo que llevó al despido de sus 300 conductores en aquel estado, así como 100 conductores más en San Francisco y Pittsburgh.

Hoy, después de esos cuatro meses y cuando aún estamos a al espera de la resolución final por parte de la Junta Nacional de Seguridad en el Transporte de Estados Unidos (NTSB), Uber ha decidido que es buen momento para volver a las calles, en este caso de Pittsburgh, para continuar con su programa de conducción autónoma. Aunque tendremos varios cambios en cuanto a la seguridad, ya que, por ejemplo, ahora los coches "autónomos" serán conducidos por un humano en todo momento.

Una reactivación gradual y "más estricta"

Eric Meyhofer, director del Grupo de Tecnologías Avanzadas de Uber, explicó que esta vuelta a las calles contempla varios cambios y estándares de seguridad, con lo que buscan que no vuelva a ocurrir un accidente fatal como el de marzo pasado.

El primer cambio, y tal vez el más importante, es que los coches no recorrerán las calles en modo autónomo, sino que el conductor se hará cargo de conducir en todo momento. Es decir, durante un tiempo aún no definido, estos coches "autónomos" no funcionarán como tal, sino que servirán únicamente para actualizar su servicio de mapas en alta definición, en este caso de Pittsburgh.

En los próximos días, Uber comenzará con el reclutamiento para un nuevo puesto de "especialista de misión", que no es otra cosa que el viejo puesto de conductor que ahora contempla, según la compañía, un control y capacitación más estrictos. Los primeros en tener oportunidad de postularse, serán los conductores despedidos por Uber, y posteriormente se abrirán al resto de las personas interesadas.

Uber autónomo

Uber también confirmó que a partir de ahora, todos sus coches autónomos tendrán dos personas en su interior, estos sin importar que se conduzcan de forma manual o autónoma. Uno de ellos se encargará de estar detrás del volante y será el responsable de estar atento al camino y reaccionar en caso de emergencia. El otro "especialista de misión", que estará en el asiento del copiloto, se encargará de documentar todo lo que sucede tanto afuera como adentro del vehículo.

Como sabemos, después del accidente fatal nos enteramos que el conductor del coche autónomo de Uber estaba mirando un programa de televisión en su smartphone, además de que Uber había eliminado la necesidad de tener una segunda persona dentro del vehículo, esto con el fin de ahorrar costes de operación.

La compañía también estará implementando un sistema de monitorización para sus empleados a bordo del vehículo, el cual será independiente del sistema autónomo y estará conectado de forma directa a las oficinas de mando y operación de Uber. El objetivo de este sistema será detectar cualquier distracción en el conductor o conducta sospechosa, como mirar su smartphone. Si se detecta alguna falta, el sistema emitirá una alerta sonora e informará a sus superiores para que evalúen la situación.

Otro cambio importante será volver a activar los sistemas de seguridad de fabrica de Volvo, el frenado de emergencia automático y la prevención de colisiones, los cuales habían sido desactivados por Uber para dar preferencia a sus propios sistemas, ya que, según explican, se temía la presencia de fallos al estar conviviendo ambos sistemas al mismo tiempo.

Uber accidente

Aquí hay que recordar que el coche de Uber sí que habría detectado al peatón durante al accidente fatal, pero "decidió" no detenerse ya que la compañía había configurado al mínimo el umbral de sensibilidad para evitar falsos-positivos. Uber buscaba que los sistemas reaccionaran ante "objetos sólidos de gran tamaño que representaran una amenaza real" y no ante bolsas u otros objetos.

El informe preliminar de la NTSB determinó que el LIDAR del coche sí detectó un objeto seis segundos antes del impacto, y 1,3 segundos antes, el sistema determinó que se necesitaba una maniobra de frenado de emergencia para evitar la colisión. Ante esto, se especula que si el coche hubiese tenido activos sus sistemas de fabrica, entonces no hubiera ocurrido el accidente.

Uber no dio detalles del sistema de monitorización de los pasajeros de sus coches ni se sabe cuándo se volverán a activar los sistemas de conducción autónoma. Aquí se cree que la compañía está esperando la resolución completa por parte de la NTSB, donde se determinarán culpables y se emitirán recomendaciones. Este informe se espera que llegue a inicios de 2019, mientras tanto parece que Uber ya se está preparando.

Más acerca del accidente fatal de Uber



via Magazine - robotica-e-ia https://ift.tt/2OcnwIB

martes, 24 de julio de 2018

Google democratiza sus herramientas de aprendizaje automático

AutoML Vision de Google entrará en beta pública mientras nuevas herramientas de traducción y lenguaje natural están disponibles.

Google tiene una serie de anuncios de inteligencia artificial que está haciendo esta semana en su conferencia Cloud Next, que comienza hoy en San Francisco, y muchos se centran en la democratización de las herramientas de aprendizaje automático de la compañía. A partir de hoy, la herramienta AutoML Vision de Google ahora estará disponible en versión beta pública después de un período alfa que comenzó en enero con el lanzamiento de su iniciativa Cloud AutoML.

Cloud AutoML es básicamente una forma de permitir que los no expertos, aquellos sin experiencia en el aprendizaje automático o incluso la fluidez en programación, entrenen sus propios modelos de aprendizaje, todos usando herramientas que existen como parte de la oferta de computación en la nube de Google.

La primera de estas herramientas fue AutoML Vision, que le permite crear un modelo de aprendizaje automático para el reconocimiento de imágenes y objetos. Google hace que estas herramientas sean legibles para aquellos que están fuera de los campos de ingeniería de software y de inteligencia artificial mediante una interfaz gráfica simple y toques de UI universalmente entendidos como arrastrar y soltar.

Ahora que AutoML Vision está ingresando en versión beta pública, está disponible para cualquier cantidad de organizaciones, empresas e investigadores que puedan encontrar útil este tipo de inteligencia artificial, pero que no cuentan con los recursos ni el conocimiento para desarrollar sus propios modelos de capacitación.

En la mayoría de los casos, las empresas podrían simplemente utilizar el software de IA a través de una API, como la API de Cloud Vision que Google proporciona a terceros. Pero la compañía está diseñando sus herramientas Cloud AutoML para servir a las empresas, principalmente fuera del sector tecnológico, que pueden tener necesidades específicas que requieren capacitación en datos personalizados.

Un ejemplo que Google notó cuando se lanzó por primera vez fue Urban Outfitters construyendo un modelo que lo ayudaría a identificar patrones y otras similitudes entre productos, para poder ofrecer a los clientes en línea opciones de filtrado y búsqueda más detalladas basadas en las características de la ropa.

También se anunciaron hoy dos nuevos dominios Cloud AutoML: uno para el lenguaje natural y otro para la traducción. La capacidad de Google para analizar palabras habladas y escritas con software forma la base de su producto Google Assistant, y la competencia de sus algoritmos de traducción capacitados en AI es lo que ha hecho que Google Translate sea tan exitoso en muchos tipos diferentes de idiomas.

Por supuesto, no podrás desarrollar modelos sofisticados y software como Google sin la experiencia, los recursos y los conjuntos de datos adecuados. Pero la compañía está facilitando el inicio de la capacitación básica de modelos personalizados con estos nuevos dominios.

Además de sus nuevos dominios Cloud AutoML, Google también está desarrollando un agente de servicio al cliente de IA que puede actuar como una voz que suena humana con la cual interactuar.

Google llama al producto Contact Center AI, y se integra con su paquete existente Dialogflow que proporciona herramientas a las empresas para desarrollar agentes conversacionales. Si bien la compañía no menciona el nombre, es claro que Contact Center AI es similar al trabajo que Google está haciendo en Duplex.

Duplex es el proyecto presentado en Google I / O a principios de este año que brinda a las personas su propio asistente de inteligencia conversacional para hacer citas y completar otras tareas mundanas pretendiendo ser un ser humano por teléfono. Este proyecto le dió problemas a Google cuando se descubrió que no podía hacerse sin el consentimiento humano en el otro extremo.

Con Contact Center AI, Google se está desplazando a un territorio donde las personas que llaman están más familiarizadas con la idea de interactuar con un robot y lo hacen por su propia voluntad contactando al servicio al cliente de manera proactiva.

Debido a ese contexto, parece que esta tecnología será más que probable que domine cómo operan los centros de llamadas en el futuro. Call Center AI pone primero a la persona que llama en contacto con un agente de inteligencia artificial, que intenta resolver el problema al igual que lo haría un robot de servicio al cliente estándar, pero con capacidades y conocimiento del lenguaje natural mucho más sofisticado.

Si la persona que llama necesita o prefiere hablar con un ser humano, la IA cambia a un rol de soporte y ayuda a un trabajador humano del centro de llamadas a resolver el problema presentando información y soluciones relevantes para la conversación en tiempo real.

Hasta ahora estos proyectos son  en inglés, pero existen alternativas como Chatcompose que también ofrecen servicios similares para el público hispanohablante.



via IntelDig https://ift.tt/2ObdaZc

La robótica se asoma a la perspectiva de género

Los robots se destinan a tareas que requieren esfuerzo físico y las robots son sociales y serviciales

via Robótica https://ift.tt/2uM88dz

lunes, 23 de julio de 2018

Vida inteligente en el jardín cíborg

Una pareja de artistas en Gijón y un centro de investigadores en Copenhague trabajan juntos en el análisis del lenguaje secreto de las plantas y su aplicación en otros ámbitos gracias a la robótica

via Robótica https://ift.tt/2zXBx9Z

domingo, 22 de julio de 2018

Los retos legales de la robotización

Los juristas estudian cómo regular los efectos de la sustitución de trabajadores por máquinas inteligentes

via Robótica https://ift.tt/2JKH6YR

sábado, 21 de julio de 2018

Move Mirror, el nuevo experimento de Google que compara tus movimientos con miles de imágenes en tiempo real

Google Move Mirror

¿Alguna vez te has puesto a bailar frente al espejo? El último experimento de Google con inteligencia artificial, Move Mirror, te propone hacer eso mismo pero frente a la cámara de tu ordenador. Accede a la web, inicia el experimento y comienza a moverte a tu libre albedrío.

Mientras a un lado de la pantalla aparecerás tú, en tiempo real, moviéndote y siendo identificado en cada pose por Move Mirror, al otro la inteligencia artificial te mostrará imágenes que coinciden con la postura que estás adoptando. El efecto flipbook que se crea es curioso.

Las instantáneas mostradas se extraen de una base de datos compuesta por más de 80.000 archivos en los que aparecen personas bailando, practicando artes marciales, cocinando o simplemente dando un paseo.

La primera vez que accedas a la web de Move Mirror te saltará un tutorial y una vez des permisos para que el experimento pueda acceder a tu webcam podrás probarlo y, además, llevar parte de tus movimientos y su particular espejo en formato gif. Quedarán para la posteridad.

PoseNet, la tecnología tras el experimento

En una publicación que cuenta lo que se esconde tras las bambalinas de este divertido experimento, Google explica que la estimación de la postura o la capacidad de detectar a los humanos y sus poses a partir de datos de imágenes es "uno de los temas más emocionantes y difíciles del aprendizaje automático y la visión artificial".

Diecisiete puntos de pose detectados por PoseNet Diecisiete puntos de pose detectados por PoseNet. (Google)

En este caso, la compañía y los socios con los que ha desarrollado Move Mirror ha empleado PoseNet, un modelo de estimación de movimientos que proporciona datos de posición de alta precisión a partir de datos de imagen. Incluso, aseguran y así lo podemos comprobar, incluso cuando esas imágenes no tienen toda la calidad deseable.

Esta herramienta portada a TensorFlow.js, además, es de código abierto y permite que cualquier desarrollador web pueda jugar con interacciones corporales sin cámaras especiales ni bibliotecas de visión artificial más complejas de implementar. Porque sí, todo tiene lugar en el navegador, procesándose las imágenes en tiempo real en el propio equipo. Esa es una de las virtudes de esta tecnología en continuo desarrollo.

Move Mirror forma parte de los AI Experiments de Google, una forma de mostrar mediante aplicaciones simples cuáles son las capacidades del aprendizaje automático y la inteligencoa artificial.



via Magazine - robotica-e-ia https://ift.tt/2LuNfx6

jueves, 19 de julio de 2018

Récord para Amazon con más de 100 millones de productos vendidos durante Prime Day

Elon Musk promete no crear «Terminators»: «No se debe dejar a las máquinas tomar decisiones vitales»

Elon Musk, los fundadores de Deep Mind y miles de expertos del sector tecnológico han firmado un documento en el que se comprometen a no participar ni apoyar el desarrollo, fabricación, comercio o uso de armas letales autónomas, es decir, basadas en inteligencia artificial. Algo así como los robots de la película «Terminator», cuyo fin era el exterminio de los seres humanos. Future of Life Institute, un instituto de investigación sobre el futuro de la humanidad en relación con las nuevas tecnologías, ha presentado en el marco de la Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI), celebrada en Estocolmo, un documento firmado por 164 organizaciones y 2.410 personas en el que se comprometen a no desarrollar sistemas letales de armas basados en Inteligencia Artificial (IA). La entidad relata que la inteligencia artificial (IA) está preparada para ocupar un papel cada vez más importante en los sistemas militares, pero existe la «necesidad urgente» de distinguir entre los usos «aceptables e inaceptables» de la IA. De este modo, líderes relevantes del sector tecnológico como Elon Musk o los fundadores de Deep Mind (Demis Hassabis, Shane Legg y Mustafa Suleyman) han firmado el documento, apoyando que la decisión de «acabar con una vida humana nunca» debería pertenecer a una máquina, añadiendo que no se debe permitir que las máquinas tomen «decisiones vitales». La carta relata que las armas letales autónomas que atacan objetivos sin intervención humana podrían ser «peligrosamente destabilizadoras» para los países y sus ciudadanos. En este sentido, se hace alusión a que miles de investigadores de IA coinciden en que este tipo de armamentos podrían convertirse en poderosos «instrumentos de violencia y opresión», situación agudizada si están relacionados con sistemas de vigilancia y datos. El documento explica que las características de las armas autónomas letales difieren mucho de las que poseen las armas nucleares, químicas y biológicas, puesto que las acciones individuales de un solo grupo de las primeras podrían desencadenar «fácilmente una carrera armamentística», que no podría ser controlada por la comunidad internacional. En la publicación de Future of Life Institute se hace un llamamiento a los gobiernos y sus líderes para desarrollar regulaciones y leyes en lo relativo a las armas letales autónomas. Los firmantes de la carta, entre los que se encuentran el fundador de Skype, Jaan Tallinn, o el líder de Google Research and Machine Intelligence, Jeffrey Dean, se comprometen a no participar ni apoyar el desarrollo, fabricación, comercio o uso de armas letales autónomas, además de solicitar a los líderes y responsables políticos repartidos por el globo que se unan a la iniciativa.

via Tecnología https://ift.tt/2uNADad

Acuerdo entre expertos para no desarrollar 'robots asesinos'

 Leer

via Tecnología // elmundo https://ift.tt/2LktLvc

miércoles, 18 de julio de 2018

Ya hemos intentado frenar la proliferación de "nuevas tecnologías" militares: esto es lo que pueden aprender Musk y compañía

Slaughterbots Screen Shot

Elon Musk y otro nutrido grupo de “líderes tecnológicos” (los tres cofundadores de DeepMind, el fundador de Skype y algunos de los investigadores de IA más respetados del mundo) se acaban de comprometer a no desarrollar “armas letales autónomas”. Es el último paso de una coalición informal de investigadores y empresarios que llevan años alertando sobre los peligros de la llegada de la inteligencia artificial al mundo de las armas.

Es una preocupación legítima (quizás algo exagerada, pero legítima sin lugar a dudas). Como dice Max Tegmark, profesor del MIT y firmante del compromiso, "las armas autónomamente son tan repugnantes y desestabilizadoras como las armas biológicas y deben tratarse de la misma manera". Lo que no está claro es cómo podemos impedir un futuro en el que las armas autónomas sean una realidad. La buena noticia es que no es la primera vez que nos enfrentamos a este problema.

El complejo mundo de las tecnologías duales

guerra química

Cuando se pidió que la ONU lanzara una moratoria sobre las "armas autónomas" muchos especialistas denunciaron que, en esos términos, la prohibición no tenía sentido. Sobre todo, porque es muy difícil determinar qué prohibir y qué no en un mundo tan fuertemente informatizado como el bélico.

Lo hemos discutido muchas veces, las decisiones no las toman los sistemas autónomos. En realidad, esas decisiones están dadas ya en el código del sistema (y en las regulaciones fundamentales del mismo). No tendría sentido ni táctico ni estratégico poner en marcha tecnologías que no estuvieran controladas (milimétricamente) por los mandos militares. Por ello, como es habitual, la clave del asunto no está en lo tecnológico, sino en lo ético.

Y, en la misma declaración de Tegmark que citaba antes, está la clave del asunto. No es la primera vez que tenemos armas problemáticas. Es lo que llamamos “tecnología dual”: tecnologías capaces de usarse tanto con fines civiles como con fines militares. Es decir, por ser más claros, tecnologías cuyos beneficios civiles impiden la prohibición total de la tecnología. Ese es el caso de la inteligencia artificial.

Las armas químicas o las armas biológicas son ejemplos de este tipo de tecnologías. Pero quizás la tecnología dual que más quebraderos de cabeza nos ha causado ha sido la energía nuclear. Se cumplen ahora 50 años de la firma del Tratado de No Proliferación de Armas Nucleares, ¿Hay algo que podamos aprender de medio siglo de intentos por impedir la proliferación de las tecnologías duales?

La lucha contra la proliferación

Atomic Bomb Beach Black And White 73909

Los primeros esfuerzos para evitar la proliferación nuclear se hicieron en secreto con medidas que iban desde el control efectivo de toda la producción de uranio del mundo al sabotaje directo. No fue algo causal. Desde el mismo momento en que se supo que la bomba nuclear era algo posible la tarea fue doble: desarrollar la bomba antes que nadie e impedir que el resto la tuviera.

Esa lógica siguió después de la guerra. En 1946, el presidente Truman puso en marcha el Baruch Plan que, bajo el pretexto de frenar la proliferación nuclear, ofrecía desmantelar el arsenal estadounidense a cambio de parar el resto de programas nucleares. Aunque estuvo encima de la mesa hasta 1953, lo cierto es que fue imposible de llevarlo adelante.

En términos estratégicos, el Baruch Plan dejaba a Estados Unidos en una situación de ventaja: ellos serían los únicos que habrían completado el desarrollo de una bomba efectiva. Y, evidentemente, era algo que en la incipiente Guerra Fría no se podía permitir. Tres años después, la Unión Soviética detonaba la RDS-1 en Semipalatinsk.

Reino Unido se convirtió en potencia nuclear en 1952, Francia en 1960 y China en 1964. Las bombas ya estaban aquí y se necesitaba otra forma de frenar la proliferación. Después de muchísimas negociaciones, el uno de julio de 1968 se firmó el Tratado de No proliferación de Armas Nucleares.

Tim Mossholder 191483 Unsplash

Entró en vigor en 1970 y desde entonces, sin contar el caso israelí, al menos tres países se han convertido en potencias nucleares: La India, Pakistan y Corea del Norte. E Irán ha estado a punto de hacerlo. Y muchos países que iniciaron programas de este tipo solo los frenaron tras muchas presiones de las grandes potencias internacionales.

Esto nos da una idea de la dificultad que tiene implementar una prohibición de este tipo. Un programa nuclear requiere una cantidad ingente de recursos, instalaciones e investigadores; y pese a eso (aún teniendo a las mejores agencias de información trabajando en su contra) países como Corea del Norte ha conseguido llevarlo a cabo.

Más allá del alarmismo, necesitamos herramientas

Scott Rodgerson 371852 Unsplash

Y eso que las pruebas de armas nucleares, por sus características, son "fáciles" de identificar. Si nos vamos a tecnologías más "discretas", la capacidad de la comunidad internacional para controlarlas es virtualmente inexistente. Sólo tenemos que recordar las famosas armas químicas de Irak o la dificultad para determinar si en Siria hubo (o no) ataques químicos.

Si reflexionamos sobre el asunto, las propuestas de Musk y el resto de expertos se parecen mucho al Baruch Plan. Y como en aquel caso, las posibilidades de éxito son muy limitadas. Nadie va a ceder una baza militar estratégica por una cuestión ética. Solo hay que ver los firmantes del Tratado de Ottawa contra las minas antipersona. Más aún en un contexto real de guerra cibernética constante. A día de hoy, la regulación de esa tecnología solo parece viable a posteriori.

Por eso, aunque es necesario discutir públicamente sobre estos temas, la mayor contribución que podría hacerse desde el ámbito de los líderes tecnológicos es desarrollar metodologías para identificar, monitorizar y controlar el desarrollo de estas "armas autónomas". Soy consciente de la dificultad, pero más allá del alarmismo, necesitamos herramientas. Ni las buenas intenciones, ni el autocontrol han funcionado bien en el pasado, no hay razones para pensar que eso cambiará en el futuro.



via Magazine - robotica-e-ia https://ift.tt/2L1AKtw

Rolls-Royce trabaja en un diminuto robot "cucaracha" para revisar y reparar los motores de los aviones

Motor Rolls Royce

Imagínate un pequeño robot en miniatura capaz de adentrarse en el interior de un avión para revisarlo y repararlo. Pues eso es precisamente en lo que está trabajando Rolls-Royce, la firma británica especialista en motores aeronáuticos. Tal y como le han contado a CNBC, se trata de robots en miniatura con los que aspiran a mejorar y acelerar las inspecciones de sus ingenieros.

Tal y como han explicado, actualmente hay que quitarle los motores a los aviones y abrirlos para proceder a inspeccionarlos y repararlos, lo cual lleva su tiempo. Pero con estos robots, la empresa quiere ser capaz de realizar las revisiones sin tener que desmontar nada a no ser que sea estrictamente necesario, algo que podría ahorrarles mucho tiempo en las reparaciones.

"Podrían recorrer y alcanzar las diferentes partes de la cámara de combustión", explica James Kell, especialista tecnológico de Rolls-Royce. "Si lo hiciéramos de forma convencional, nos llevaría cinco horas; con estos diminutos robots, quién sabe, podría tomarnos cinco minutos".

No se trata de robots autónomos, sino de unos que estarían controlados directamente por los propios ingenieros. Para ello, se les equiparía unas cámaras con ópticas que permitan el escaneado en 3D, y todo ello en unas máquinas de un tamaño de apenas 15 milímetros con sólo algunas decenas de gramos (onzas) de peso.

Los robots también podrían ser rediseñados sobre la marcha para realizar diferentes tareas, lo que permitiría trabajar en equipo con varios de ellos. Por ejemplo, un primer ingeniero sin demasiados conocimientos podría adentrarse en la cámara de combustión de uno de los motores para hacer un primer diagnóstico y reparar algunos pequeños problemas con una herramienta integrada. Mientras, otro más experimentado podría preparar otro de los robots para solucionar problemas más complejos.

El diseño ha sido desarrollado junto a las universidades de Harvard y Nottingham, en Estados Unidos y Reino Unido, y se inspiraron en los robots con forma de insectos que llevan desarrollándose desde hace unos años. Con esta unión no sólo esperan poder sacar adelante sus robots-cucaracha, sino que también planean diseñar otros con forma de serpiente que puedan reptar y adentrarse a través del motor como si fueran un endoscopio.

De momento no hay fechas para su puesta en marcha

La empresa británica de momento no ha hablado sobre una posible fecha en la que pudieran tener listos estos robots con forma de insecto. Sin embargo, actualmente ya están preparando un concepto parecido con un robot capaz de reparar el daño de las palas del compresor de un motor, y este sí que quieren poder empezar a utilizarlo en dos años.

Se trataría de un robot de un tamaño menor que se podría atornillar al motor, de manera que el ingeniero pudiera revisarlo a distancia también con un sistema de escaneo en 3D. De esta manera se podría diagnosticar un problema primero, y luego equipar el robot para poder realizar las reparaciones necesarias.

Además, estos tampoco son los únicos proyectos en los que está embarcada Rolls-Royce. Sin ir más lejos, hace dos días también anunció hace dos días su proyecto para crear un "coche volador" en 2020, el cual tendría volar a velocidades de 400 km/h con una autonomía de 800 kilómetros.

Imagen | Joao Carlos Medau
En Xataka | Rolls-Royce anuncia su concepto de coche volador: 400 km/h, autonomía de 800 km, y posible llegada en 2020



via Magazine - robotica-e-ia https://ift.tt/2mrbi25

Esta obra de arte fue pintada por un robot y es la ganadora del concurso RobotArt 2018

Cloudpainter

Sí, lo sabemos, los robots cada día están más presentes en diversos campos que por años fueron exclusivos de los humanos. Hoy se apuntan un nuevo tanto al participar en una nueva disciplina: el arte.

El concurso RobotArt tiene como objetivo combinar el arte y la tecnología a través de proyectos robóticos que sean capaces, precisamente, de crear piezas de arte. En esta, su tercera edición, se presentaron 100 pinturas pertenecientes a 19 equipos de todo el mundo, cada uno mostrando diversas técnicas, algoritmos, sistemas y enfoques, donde la inteligencia artificial fue la gran ganadora.

Los ganadores fueron seleccionados por una combinación de votación pública en Facebook, así como la opinión de artistas, críticos de arte y tecnólogos. Se repartieron 100.000 dólares entre los diez primeros lugares, siendo el primer puesto el ganador de 40.000 dólares.

Conozcamos a los tres primeros puestos:

Tercer puesto: 'CMIT ReART' de la Universidad Kasetsart, Tailandia

Este robot consiste en un brazo que es capaz de imitar el trazo de un ser humano, incluso el tipo de pincelada y la fuerza ejercida sobre el lienzo. Se basa en un sistema de grabación táctil que registra todos los datos con respecto a la técnica del artista, para así posteriormente generar una reproducción exacta del original.

Paradise On Earth 'Paradise On Earth' - Kasetsart University

Segundo puesto: 'PIX18' de la Universidad de Columbia, EEUU

El 'PIX18' fue el ganador de la edición 2017 de RobotArt, y para este año regresa, aunque no se lleva la victoria, con su brazo robótico programado con algoritmos, el cual es capaz de hacer pinceladas de una manera tan asombrosa que es difícil creer que lo ha hecho un robot y no un ser humano. Su enfoque está centrado en el arte impresionista.

Still Life 'Still Life' - Columbia Univeristy

Primer puesto: 'CloudPainter' – Estados Unidos

El ganador de la edición de este año de RobotArt no ha sido para una universidad, sino por primera vez ha sido para una persona, que se ha dedicado los últimos años a desarrollar y fabricar un "robot artista" basado en inteligencia artificial. Se hace llamar CloudPainter y es una creación del estadounidense Pindar Van Arman.

Van Arman desarrolló algo que bautizó como "sistema de arte generativo autónomo", el cual permite que el robot use uno o más brazos, así como redes neuronales y machine learning, para que sea capaz de crear obras de arte de acuerdo a las técnicas con las que ha sido entrenado.

Gracias a esto, CloudPainter es capaz de dibujar obras con diversos grados de abstracción, todo de forma autónoma. Para aquellos interesados, tanto el código fuente como los modelos 3D para CloudPainter están disponibles en la web de proyecto, y su creador es todo un entusiasta enfocado en hacer crecer este proyecto a través de charlas donde explica su filosofía y metodología.

Cloudpainter 1 'Retrato imaginado por IA' - CloudPainter

El resto de los ganadores y sus obras pueden ser consultadas en la web de RobotArt.

En Xataka | Cómo educar y preparar para un futuro en el que los robots hagan la mayor parte del trabajo



via Magazine - robotica-e-ia https://ift.tt/2uIoyTL

martes, 17 de julio de 2018

IA falsa: Cómo las empresas usan silenciosamente a humanos para actuar como chatbots

Usando lo que un experto llama una ‘técnica del Mago de Oz’, algunas compañías mantienen su dependencia de los humanos como un secreto a sus inversionistas.

Es difícil construir un servicio impulsado por inteligencia artificial. Tan difícil, de hecho, que algunas startups hayan descubierto que es más barato y más fácil hacer que los humanos se comporten como robots que de hacer que las máquinas se comporten como humanos.

Usar a un humano para hacer el trabajo de un chatbot le permite esquivar una gran cantidad de desafíos de desarrollo técnico y comercial. No se escala, obviamente, pero les permite construir algo y omitir la parte difícil desde el principio. Se trata esencialmente de crear prototipos de la IA con seres humanos.

Esta práctica salió a la luz esta semana en un artículo del Wall Street Journal que destaca a los cientos de desarrolladores de aplicaciones a los que Google permite acceder a las bandejas de entrada de las personas.

En el caso de Edison Software, empresa con sede en San José, los ingenieros de inteligencia artificial revisaron los mensajes de correo electrónico personales de cientos de usuarios, con sus identidades eliminadas, para mejorar una función de “respuestas inteligentes”.

La compañía no mencionó que los humanos verían los correos electrónicos de los usuarios en su política de privacidad.

Los mencionados en el artículo de WSJ están lejos de ser los primeros en hacerlo. En 2008, Spinvox, una empresa que convirtió mensajes de voz en mensajes de texto, fue acusada de utilizar humanos en centros de llamadas en el extranjero en lugar de utilizar máquinas para hacer su trabajo.

En 2016, Bloomberg destacó la difícil situación de los humanos que pasan 12 horas al día fingiendo ser chatbots para servicios de calendario como X.ai y Clara. El trabajo fue tan abrumador que los empleados humanos dijeron que esperaban ser reemplazados por bots.

En 2017, la aplicación de gestión de gastos comerciales Expensify admitió que había estado utilizando seres humanos para transcribir al menos algunos de los recibos que afirmaba procesar utilizando su “tecnología smartscan”. Los escaneos de los recibos se publicaron en la herramienta de mano de obra de crowdsourcing de Mechanical Turk, donde los trabajadores mal pagados los leían y transcribían.

Incluso Facebook, que ha invertido mucho en IA, confió en los humanos para su asistente virtual para Messenger, M.

En algunos casos, los humanos se utilizan para entrenar el sistema de IA y mejorar su precisión. Una compañía llamada Scale ofrece un banco de trabajadores humanos para proporcionar datos de entrenamiento para autos que conducen uno mismo y otros sistemas alimentados con inteligencia artificial. Los “Scalers” verán, por ejemplo, la alimentación de la cámara o del sensor y etiquetarán los automóviles, los peatones y los ciclistas en el cuadro. Con suficiente de esta calibración humana, la IA aprenderá a reconocer estos objetos por sí misma.

También esta el caso del marketing conversacional, donde el servicio ChatCompose – Chatbots para marketing se usa y se entrena con conversaciones humanas para poder mejorar la precisión de la respuesta y convencer al usuario de comprar un producto.

Estos servicios necesitan un aprendizaje supervisado, el cuál después actúa de forma inteligente.

En otros casos, las empresas lo simulan hasta que lo logran, y le dicen a los inversores y usuarios que han desarrollado una tecnología escalable de inteligencia artificial mientras que confían secretamente en la inteligencia humana.

Alison Darcy, una psicóloga y fundadora de Woebot, un chatbot de apoyo a la salud mental, describe esto como la “técnica de diseño de Wizard of Oz”.

“Simula lo que la última experiencia de algo va a ser. Y mucho tiempo cuando se trata de AI, hay una persona detrás del telón en lugar de un algoritmo “, dijo, y agregó que construir un buen sistema de inteligencia artificial requería una tonelada de datos y que a veces los diseñadores querían saber si era suficiente la demanda de un servicio antes de realizar la inversión.””

Este enfoque no era apropiado en el caso de un servicio de apoyo psicológico como Woebot, dijo.

“Como psicólogos nos guiamos por un código de ética. No engañar a la gente es claramente uno de esos principios éticos”.

La investigación ha demostrado que las personas tienden a divulgar más cuando creen que están hablando con una máquina, en lugar de una persona, debido al estigma asociado con la búsqueda de ayuda para la salud mental.

IA falsa: Cómo las empresas usan silenciosamente a humanos para actuar como chatbotsUn equipo de la Universidad del Sur de California probó esto con un terapeuta virtual llamado Ellie. Descubrieron que los veteranos con trastorno de estrés postraumático tenían más probabilidades de divulgar sus síntomas cuando sabían que Ellie era un sistema de inteligencia artificial que cuando les dijeron que había un ser humano operando la máquina.



via IntelDig https://ift.tt/2Nkn1Ld

Ofertas del Prime Day para el 17 de julio de 2018

Amazon Prime Day 218: Las mejores 'chollos' en aparatos de cocina

Ahorra hasta 300 euros en la compra de robots, freidoras o cafeteras

Amazon Prime Day 218: Las mejores "chollos" en aparatos de cocina



from INFORMACION - Tecnología https://ift.tt/2NjJisy
via IFTTT

lunes, 16 de julio de 2018

Analizamos el robot aspirador iLife V8S uno de los más completos al menor precio

Movistar Home, primeras impresiones: qué se puede (y qué no) con Aura de Telefónica

Mh2

Imagínate tener un altavoz inteligente con el que poder hacer cualquier consulta sobre los productos contratados con tu operadora. Eso es lo que quiere Telefónica con Movistar Home, el primer dispositivo de la empresa que va a utilizar Aura, el asistente virtual con inteligencia artificial que poco a poco van desplegando

Hace unos días la empresa lanzó Aura en Movistar+, y ahora nos han dejado probar cómo se defiende con el altavoz con pantalla integrada Movistar Home. Por eso, después de verlo en funcionamiento y hablar con algunos de sus responsables, aquí tenéis nuestras primeras impresiones con lo que puede y no puede hacer.

Movistar Home saldrá al mercado a finales de octubre en España. Aunque se trata de una especie de altavoz inteligente con pantalla al más puro estilo del Amazon Echo Show, Telefónica dice que no busca competir con Google Amazon y compañía. En su lugar, lo que pretenden es ofrecerles a los clientes de Movistar, y sólo a ellos, una manera para gestionar sus servicios.

El dispositivo tiene una pestaña física para bloquear la cámara cuidando la privacidad, así como un botón "mute". Además, nos han asegurado que no graban ninguna conversación, y que los datos que guardarán de los usuarios serán desagregados y respetuosos con la privacidad. Los usuarios también podrán acceder a estos datos, aunque todavía no sabemos cómo ni a cuántos.

Mh

Telefónica quiere que Aura y este dispositivo se puedan integrar todo el portfolio de servicios de Movistar, desde la tarifa de datos hasta Movistar TV, para poder gestionarlo todo con la voz. Y este es sólo el primer paso, porque Telefónica también quiere trabajar con terceros para que su asistente pueda interactuar con servicios como Spotify y similares, o permitir que los usuarios puedan consultar información como las noticias.

En cuanto a su integración con otros dispositivos, no quiere hacerla con todos y cada uno de los proveedores. Prefieren simplificar, y para ello primero validarán qué áreas de IoT van a tener más demanda. Sin esa demanda o un valor diferencial no entrarán en una alianza. Tampoco tienen pensado utilizar agregadores como IFTTT, aunque según Óscar Mancebo, responsable del desarrollo de Movistar Home, se se lo plantearían si ven un espectro muy amplio en la demanda de dispositivos.

Al final, lo que quieren conseguir es una ventana más para acercarse al usuario para, a parte de conseguir más datos suyos, irle restando peso a unas líneas de atención al cliente que deberían recibir menos volumen de llamadas cuando parte de las consultas se puedan hacer con Aura. También han empezado a hablar con otros países para llevar Aura, marcándose como objetivo los países convergentes donde haya banda ancha y televisión, aunque por ahora no están confirmados.

Qué puedes hacer con Aura y Movistar Home

Mh4

El Movistar Home es un híbrido de altavoz conectado con pantalla, muy del estilo al [Amazon Echo Show]. Funciona con Aura, el asistente con Inteligencia Artificial de Telefónica. Para activarlo sólo tenemos que decir el comando de voz Ok, Aura, momento en el que el asistente nos responde con la misma voz que encontramos en otros servicios como Google Maps.

En su estado actual de desarrollo nos ofrece dos casos de uso. El primero es la gestión domótica, haciendo que podamos realizar acciones como encender las luces con sólo pedírselo. Y el segundo es hacer de mando a distancia, no sólo para permitirnos cambiar los canales, sino también para recibir sugerencias de contenido mediante la IA.

En la prueba hemos visto la utilización de los comandos "OK, Aura, recomiéndame una película" y "OK, Aura, qué ver en la tele". En estas consultas es donde entra en juego la pantalla extendida del propio Home, donde se ofrece información complementaria a la programación de televisión como horarios o sinopsis.

Tal y como nos han contado desde Telefónica, estas visualizaciones de información les abre un canal para llegar a los usuarios, pero también para ofrecer alicientes a posibles socios o terceros que quieran estar presentes en estas pantallas. También hemos visto utilizar otros comandos como "Ok, Aura, qué hay en la tele esta noche" o "OK, Aura, quiero ver una película de Alfredo Landa".

Mh3

La impresión que hemos tenido después de la demostración ofrecida por Telefónica es que Aura todavía está muy verde, ya que a parte de no funcionar siempre como debería aún le faltan algunas funciones básicas como las de otros asistentes. Pero como acercamiento es interesante, ya que es una vía para que la operadora hable directamente con el usuario.

Además, también nos han asegurado que cuanto más interactúe con el usuario más acertará el asistente, y que con Movistar Home podrá te permitirá revisar contactos, marcar números de teléfono, mostrar notificaciones y llamadas perdidas, o hacer llamadas y videoconferencias que vayan por Internet. Telefónica también quiere entrenar a Aura para que entienda a todos, desde niños hasta mayores, e incluso diferentes acentos.

Todo este entrenamiento lo quiere realizar Telefónica a través de demos con personas reales. En lo que queda hasta el lanzamiento oficial de Movistar Home a finales de octubre, Mancebo nos ha dicho que van a estar haciendo una prueba piloto en seis tiendas, tres en Barcelona y tres en Madrid. Se hará en estas ciudades porque es en ellas donde tienen sus equipos de desarrollo, y su idea es la de ir incluyendo mejoras prácticamente cada semana.

"El feedback nos permite el entrenamiento y perfeccionar el dispositivo", nos cuenta Óscar Mancebo, responsable del desarrollo de Movistar Home, sobre esta prueba piloto en la que la gente podrá acercarse a probarlo. "Tendremos en cuenta comentarios, opiniones y sugerencias".

Ni es un altavoz inteligente ni tiene skills

Mh5

Una vez hablado de lo que quiere ofrecer Telefónica con Movistar Home y Aura, toca hablar de lo que no quieren. Para empezar, no piensan en el dispositivo como un altavoz inteligente lleno de funciones como los de Google o Amazon. De todas maneras, sí están trabajando con la integración de algunos servicios como los de música.

"Por ahora no tenemos claro si entraremos en casos de uso de shopping, aunque tiene sentido sobre todo para el tema de segunda pantalla que comentábamos". nos han explicado. "Ves una serie y te quieres comprar la prenda que lleva uno de los protagonistas".

Lo mismo pasa con las "skills", la apertura de la plataforma para que terceros puedan añadir nuevas funcionalidades a Aura. Antonio Guzmán, responsable de desarrollo de Aura, nos dice que por ahora no lo tienen claro, y quieren ver qué clase de demanda tienen los usuarios, pero seguramente sí acaben utilizando un sistema de esquemas parecido al de Amazon.

"La creación de un canal requiere saber cómo los usuarios interactuarán con la tecnología", nos dice Guzmán. "Esto es tecnología cognitiva que va a estar en constante aprendizaje".

Y ese constante aprendizaje es una de las claves del desarrollo del asistente, ya que se irán añadiendo funciones dependiendo de lo que pidan los usuarios. Por eso, puede que ahora no se puedan hacer cosas como comprar o hacer pedidos online con ese altavoz, pero quizá en unas semanas eso cambie, y así con muchas otras funciones que podríamos echar en falta.

Con esta flexibilidad, las posibilidades que tiene Telefónica con Movistar Home son muchas, aunque a día de hoy sus aplicaciones son más bien pocas. Por lo tanto tocará esperar a ver cómo va evolucionando la plataforma, y qué nuevas implementaciones van añadiendo en los próximos meses. De momento, la intención es lanzar Movistar Home en octubre.



via Magazine - robotica-e-ia https://ift.tt/2NSaX4R

Las mejores ofertas del Amazon Prime Day 2018

sábado, 14 de julio de 2018

Este robot quiere ser el mejor amigo de tus plantas: las lleva al sol o a la sobra de forma autónoma y avisa cuando necesitan agua

Robot Maceta

Robots y plantas, la combinación que nos faltaba. Sun Tianqi, un empresario chino especialista en robótica, adaptó un robot de juguete para una instalación de arte y de paso, fuese capaz de ayudarle con el cuidado de sus plantas. Una idea por demás interesante ya que parece que la planta puede moverse por sí sola y así satisfacer sus necesidades de sol o sombra.

El proyecto se basa en el robot HEXA, fabricado por la compañía Vincross, el cual consiste en una especie de cangrejo de seis patas al que se le adaptó una maceta en la parte superior. Además, se le añadieron sensores y se le programó para cumplir ciertas órdenes de acuerdo a las necesidades de la planta.

Tecnología humana para el cuidado de las plantas

Debido a estas modificaciones, aseguran que el robot es capaz de moverse por toda la casa, o zona donde se encuentre, para encontrar ya sea la luz del sol o una sombra para descansar. Aunque no se dan los detalles de cómo se realiza esto, supuestamente de forma autónoma, todo apunta a que se trata de sensores de iluminación.

Asimismo, se dice que contaría con un sensor adicional cuya tarea sería monitorizar la humedad de la tierra, por lo que sabría cuando es necesario regar la planta, algo que nos avisaría por medio de un curioso baile.

Incluso asegura que ha sido programado para interctuar con los seres humanos, ya que, según explica, podremos tocar su caparazón para que el robot levante las patas y reaccione a nuestros movimientos.

Tianqi también explicó que este proyecto es una actualización de una instalación de arte que hizo en 2014, sólo que en esta ocasión está centrada en el cuidado de las plantas buscando concienciar acerca de su dependencia a nosotros y nuestra responsabilidad como seres humanos.

Se trata de una apuesta por la tecnología al servicio de la naturaleza, donde hasta el momento se queda en eso, en un proyecto que no se comercializará. Una pena, porque sin duda nos gustaría tener toda la casa llena de este tipo de robots/maceta.



via Magazine - robotica-e-ia https://ift.tt/2Lkc2k4

viernes, 13 de julio de 2018

Esta maceta robótica busca siempre la mejor luz para su planta

 Leer

via Tecnología // elmundo https://ift.tt/2KT3dlo

No es solo porno: los Deep Fakes y su potencial uso para manipulación política

Deep Fakes

Vídeos manipulados por Inteligencia Aritificial en los que vemos a personas hacer cosas que nunca hicieron en realidad. Eso son los Deep Fakes, que empezaron a saltar a los titulares a finales del año pasado por utilizarse para fabricar vídeos pornográficos de celebridades. Pero ¿y si el futuro de estos vídeos falseados estuviera también en la manipulación política?

Así lo afirma al menos el estudio que ha publicado esta semana el Center for a New American Security (CNAS), una organización bipartidista estadounidense sin ánimo de lucro que busca promover temas de seguridad entre los políticos. En el documento, la organización advierte de que los Deep Fakes políticos podrían ser tan reales como para engañarnos, y todo en un plazo de cinco años.

El estudio mete a este tipo de vídeos de contenidos falsificados en la categoría de la propaganda computacional, que se aprovecha de las pocas barreras que tienen las redes sociales para "difundir contenido falso, engañoso o hiperpartidista". Sobre los Deep Fakes en concreto, el informe dice lo siguiente:

"Los sistemas de IA son capaces de generar grabaciones de voz sintéticas realistas de cualquier individuo para quien hay un conjunto de datos de entrenamiento de voz lo suficientemente grande. Lo mismo pasa cada vez más también con el vídeo. Al escribir estas líneas, el audio y el video falsificados "Deep Fakes" se ven y suenan notablemente incorrectos, incluso para las personas no entrenadas. Sin embargo, al ritmo que estas tecnologías están progresando, es probable que estén a menos de cinco años de poder engañar al oído y los ojos no entrenados".

Es decir, en los Deep Fakes actuales existen ciertas limitaciones tecnológicas relacionadas con el vídeo y el audio que hacen que los vídeos puedan identificarse como falsos, incluso por personas no expertas. Según el estudio, los avances dentro de este tipo de tecnologías harán que, en cinco años, sea imposible distinguir si un vídeo falso de este tipo es impostado o es real.

Otros avisos sobre el peligro de los Deep Fakes

El estudio de CNAS no es el único que contempla el uso de los Deep Fakes en política con fines manipulativos. Hany Farid, experto en tecnología forense del Dartmouth College, explicaba la semana pasada a AP News que seguramente en las próximas elecciones de Estados Unidos se empezarían a ver Deep Fakes para intentar manipular a los votantes. "La tecnología, por supuesto, no conoce fronteras, por lo que espero que el impacto se propague por todo el mundo", declaró asegurando que sería un problema global.

Hasta Marco Rubio, senador de EEUU, también se ha mostrado preocupado y no ha descartado que las agencias extranjeras podrían aprovecharse de ellos para crear inestabilidad. Una tesis apoyada por Andrew Grotto en el mismo artículo de AP News, experto en seguridad del Centro para la Seguridad y la Cooperación Internacional en la Universidad de Stanford en California, quien ha asegurado que en uno o dos años va a ser realmente difícil para una persona distinguir entre un vídeo real y uno falso.

"Esta tecnología, creo, será irresistible para que los estados naciones la utilicen en campañas de desinformación para manipular la opinión pública, engañar a las poblaciones y socavar la confianza en nuestras instituciones", ha asegurado Grotto.

El pasado febrero, en Oxford se reunió un grupo de 26 investigadores de 14 instituciones académicas, de sociedad civil y relacionadas con la industria precisamente para analizar cómo la Inteligencia Artificial puede ser desplegada con fines maliciosos. Se reunieron para discutir el tema en una conferencia de dos días, y de ella salió un informe de 100 páginas en el que brevemente también se mencionan los Deep Fakes.

Sobre ellos, aseguran que su realismo es un ejemplo del principio del declive de la máxima "ver para creer", y se congratulan sobre cómo algunas plataformas sociales están empezando a bloquear este tipo de contenido. Además, también recomendaron a desarrolladores e ingenieros de IA que se tomen en serio el doble uso que se le puede dar a su trabajo, y que esta consideración influencie en sus prioridades.

Manipulando las palabras de políticos y famosos

Los Deep Fakes empezaron a hacerse populares en la red a finales del año pasado. La tecnología que los hace posibles nació a partir de una librería de machine learning llamada TensorFlow, que había sido creada por ingenieros de Google y era de código abierto. Consisten en entrenar a una IA lo suficiente como para que sea capaz de ponerle a las personas que aparecen en un vídeo las caras de otros famosos realizando los mismos gestos.

A los pocos meses, apareció una variante llamada Deep Video Portrait, con la que se pueden manipular vídeos para hacer que las personas que aparezcan en ellos digan lo que sus creadores quieran. Un ejemplo lo vimos en este vídeo manipulado de Obama, en el que hacen que el ex-presidente de Estados Unidos explique precisamente los peligros de los vídeos manipulados.

En este vídeo se notaba bastante que había habido un tratamiento digital, aunque según el informe de CNAS o el aviso de Grotto, en pocos años este tipo de tecnologías y algoritmos podrían hacerse mucho más eficaces a la hora de engañarnos y hacernos creer lo que sus creadores quieran. Sobre todo porque también hay una variante llamada Deep Voice en la que se usa el mismo aprendizaje profundo para que las IA puedan imitar voces.

En Magnet | No te creerás (y haces bien) lo que dice Obama en este vídeo



via Magazine - robotica-e-ia https://ift.tt/2KRMfUz

Los robots invaden CosmoCaixa

El museo invita a reflexionar sobre las máquinas con capacidades humanas

via Robótica https://ift.tt/2NcIipU

jueves, 12 de julio de 2018

Walmart quiere implementar un sistema de vigilancia basado en audio para medir el rendimiento de sus empleados

Walmart Empleados

Walmart, quien a día de hoy posee la fuerza de trabajo más grande de todo Estados Unidos, se encuentra ante una situación complicada debido al crecimiento y avance de Amazon, lo que está provocando que cada vez menos personas acudan a las tiendas de autoservicio y supermercados. Walmart lo sabe y ya está buscando la manera de que su operación sea lo más eficiente posible.

Desde hace tiempo hemos visto proyectos donde Walmart busca cambiar y mejorar su operación, como aquellos robots que escanean y informan de la falta de inventario en los pasillos, así como dejarte la compra directo en la nevera, o ese rumoreado sistema de tienda automatizada que supuestamente está desarrollando junto a Microsoft. Pues ahora Walmart va contra la productividad de sus empleados, ya que buscaría implementar un sistema de vigilancia basado en audio.

Escuchando conversaciones para conocer el entorno de trabajo

De acuerdo a la información de la patente que se le acaba de otorgar a Walmart, bautizada como "escuchando de frente", la compañía buscaría implementar tecnología de vigilancia de audio que mediría el rendimiento de sus empleados, e incluso sería capaz de escuchar sus conversaciones con los clientes en la cajas de cobro.

La patente no detalla en qué consiste esta tecnología, pero por medio de la descripción y los objetivos podemos deducir que se trataría de varios micrófonos colocados en la zona de cajas, los cuales recopilarían todos los sonidos del entorno. Es decir, desde los ruidos de la caja registradora, el movimiento y pase de los productos al momento del cobro, hasta las conversaciones.

Según se explica, toda está información se analizaría en tiempo real para así calcular "varias métricas de rendimiento" para cada empleado. Esto ayudaría a determinar la longitud de las colas y así saber cuán rápido es un cajero, o si se necesita abrir nuevas cajas de cobro para reducir los tiempos de espera.

Sub Buzz 9381 1531345211 2 Png

Así lo mencionan en la patente:

"La eficiencia y el rendimiento de los empleados pueden ayudar a reducir los costes en una tienda o supermercado, así como a aumentar la satisfacción de los clientes. El seguimiento a las métricas de desempeño de los empleados es para garantizar que realicen su trabajo de manera eficiente y correcta, lo que puede ayudar a lograr estos ahorros en los costes y así aumentar la satisfacción de los clientes."

De acuerdo a los detalles de la patente, el sistema de vigilancia en audio también sería capaz de medir la distancia de los clientes y los empleados con sólo capturar el sonido de la voz. Asimismo, sería capaz de medir la "eficiencia de embolsado, como la cantidad de artículos por bolsa, el número de bolsas usadas por transacción, entre otras cosas", sólo capturando el sonido de los artículos.

Pero eso no es todo, ya que también se explica que el sistema podría analizar las voces de los clientes y los empleados, esto para conocer el contenido de las conversaciones y así saber si el empleado fue amable e incluso si uso el saludo descrito en el guión de entrenamiento. De hecho se menciona que el sistema contaría con reconocimiento de voz, lo que ayudaría a motorizar a varios empleados a la vez.

Walmart

A pesar de sus aparentes ventajas, no se menciona nada acerca de la privacidad con respecto a la escucha de conversaciones privadas, pero al tratase de Estados Unidos, sabemos que esto no es necesario al tratarse de una compañía que se ampara en la protección de sus fines comerciales. Como hoy día se hace con sistemas de circuito cerrado, los cuales no necesitan ningún tipo de consentimiento de los empleados para estar implementados en varias zonas de la tienda.

Por otro lado, será interesante saber la respuesta de los empleados ante este tipo de vigilancia invasiva, lo que podría desatar una nueva polémica entre Walmart y sus trabajadores. Aquí hay que recordar que ambos bandos se han enfrentado en repetidas ocasiones por cuestiones de salarios bajos, discriminación y falta de acuerdos ante días libres por enfermedad, así como un grupo de empleados que busca organizar un sindicato, los cuales están en la mira de la compañía.

Aquí hay que mencionar que Walmart no es la única con estos problemas y este tipo de ideas, con las que busca tener mayor control, mejorar la operación y reducir los costes. Sólo basta ver el caso de Amazon, quien se ha enfrentado a huelgas e incluso buscaría implementar una pulsera para saber si sus empleados en realidad están trabajando, así como el despliegue de cada vez más robots en sus almacenes.

En Xataka | La legalidad, sindicatos y monitorización extrema en el entorno del trabajo



via Magazine - robotica-e-ia https://ift.tt/2uqlsnc