jueves, 31 de enero de 2019

No creas todo lo que veas: deepfakes y la inteligencia artificial aplicada al arte del engaño (Despeja la X, 1x34)

El colchón inteligente que mide tu actividad sexual (y te puntúa)

El colchón inteligente de Pikolin y Geeksme, SmartPik, ha sido protagonista en la 39º edición de Fitur, celebrada la pasada semana en Madrid, y dedicó un espacio exclusivo a aquellas empresas que promueven servicios tecnológicos dedicados a hacer el turismo más cómodo para el viajero. Junto al robot Pepper, que permite al viajero solicitar información sobre destinos, rutas, hoteles, vuelos o incluso utilizar su interlocución para realizar el «check in» o «check out» del hotel, la novedosa cama ha cautivado a todos los asistentes. Y es que el colchón es un elemento fundamental en la habitación. Incluso, en la de cualquier hogar, donde toda persona que así lo desee puede contar con este curioso «gadget». La tecnología SmartP, desarrollada por la compañía española Geeksme e integrada por Pikolin en su gama de colchones, permite a los usuarios analizar y mejorar la calidad de su descanso. Pero también, evaluar su actividad sexual. La solución se compone del colchón, una pulsera y una aplicación. Al descargar la aplicación SmartPik, disponible tanto para iOS como para Android, el colchón se sincroniza con la pulsera para poder comenzar a proyectar toda la información, ya sea sobre el descanso del usuario o de la actividad que realice sobre él. Y es que cuenta con cuatro modos diferentes. El modo amor, totalmente opcional, hace un análisis del consumo calórico y el ritmo cardíaco durante el acto sexual. Al igual que activas tu pulsera cuando corres o vas al gimnasio para controlar tu actividad, la compañía invita al usuario a hacer lo mismo cuando hace el amor con su pareja. Se trata de analizar, de una manera muy divertida, la actividad sexual. Que además es puntuada aunque no con un resultado numérico, sino animal Es decir, el acto sexual se puntúa con el tiburón, el más fogoso, el tucán o el flamenco. Hay 12 en total. «De manera totalmente opcional y privada puedes medir tu actividad sexual y obtener datos de la misma para conocerte mejor. Información como la duración, hora de inicio y final, calorías y grasas quemadas, intensidad media, ritmo cardíaco y temperatura de la habitación estará disponible en tu aplicación SmartPik cuando sincronices tu pulsera con tu 'smartphone' o tableta», informa Pikolín. La «app» también cuenta con el modo actividad, que muestra toda la actividad física del usuario fuera del colchón; el modo sueño, que permite monitorizar las diferentes etapas de éste; y el modo «coach», que proporciona al usuario retos y consejos para un mejor descanso basados en su estilo de vida.

via Tecnología http://bit.ly/2Sjyukc

El vídeo que pone el rostro de Steve Buscemi en el cuerpo de Jennifer Lawrence es un recordatorio del peligro de los deepfakes

El vídeo que pone el rostro de Steve Buscemi en el cuerpo de Jennifer Lawrence es un recordatorio del peligro de los deepfakes

Vídeos manipulados usando herramientas de inteligencia artificial para mostrar algo que no es real. De eso se tratan los 'deepfakes', esa tendencia que surgió en un inicio para crear vídeos porno falsos, donde se ponía el rostro de actrices famosas en los de actrices porno, y que con el tiempo ha saltado a diversas áreas que van desde el simple entretenimiento hasta cosas más serias y preocupantes, como la manipulación política.

A pesar de los intentos por prohibirlos, con subeddits cerrados, prohibiciones en redes sociales y webs porno y hasta demandas por parte de algunas actrices afectadas, los 'deepfakes' están aquí y sus efectos podrían ser desastrosos, ya que dan fuerza a 'fake news' y son ideales para intervenir en asuntos políticos. Hoy tenemos una nueva muestra de sus capacidades, y como veremos a continuación es algo realmente impresionante y aterrador.

No, Jennifer Buscemi no existe, aunque parezca real

El siguiente vídeo fue creado por el usuario de Reddit conocido como VillainGuy, quien lo publicó a inicios de este año. El vídeo nos muestra al actor Steve Buscemi en el cuerpo de la actriz Jennifer Lawrence durante una conferencia en los premios Golden Globe de 2016. Lo impresionante del vídeo es el nivel de sincronía entre ambos actores, llegando a un punto que incluso podríamos pensar que es real si no supiéramos que estamos viendo algo físicamente imposible.

Según la información, VillainGuy habría creado el vídeo usando la herramienta gratuita 'faceswap' y se habría dedicado a entrenar la inteligencia artificial con contenido multimedia en alta resolución de Buscemi. Después de varias horas de codificación y renderizado en un ordenador con GPU y procesador de gama alta, nació 'Jennifer Lawrence-Buscemi'.

El vídeo estalló hoy en redes sociales tras algunos señalamientos por parte de legisladores de los Estados Unidos, quienes alertaron sobre el peligro de los vídeos deepfakes ahora que se acercan las elecciones de 2020. De hecho, hay informes que apuntan a que el Departamento de Defensa de los Estados Unidos ya está trabajando con investigadores con el fin de encontrar la forma de detectar cuando un vídeo es falso o ha sido manipulado con herramientas como 'faceswap'.

Hoy día, se dice que un grupo de investigadores ya han desarrollado una herramienta que detecta cuando se trata de un vídeo deepfake, la cual se basa en el conteo, frecuencia y ritmo de los parpadeos que tiene la persona del vídeo, lo cual aseguran se ha convertido en la técnica más eficiente hasta el momento con un 95% de efectividad.

Siwei Lyu, profesor asociado de ciencias de la computación de la Universidad de Albany, comentó: "Un ser humanos adulto y sano parpadea de forma regular entre cada 2 y 10 segundos, y un solo parpadeo toma entre una décima y cuatro décimas de segundo. Eso es lo que sería normal ver en un vídeo de una persona que habla, pero no es lo que sucede en muchos videos 'deepfake'". Lyu también señala que con el paso del tiempo los vídeos deepfake perfeccionarán sus técnicas y cada vez será más difícil identificarlos.

Otro de los aspectos que preocupan de esta tecnología, más allá de los vídeos porno y las fake news, es que son posibles herramientas de chantaje para gente inocente, gente que no tiene los recursos para frenar la difusión de estos vídeos y que pueden desde dañar su imagen hasta convertirse en posibles sospechosos de un crimen.

Los políticos y los personajes famosos tienen la posibilidad de contratar un equipo que se haga cargo ante casos de difamación a través de vídeos deepfake, pero un ciudadano común no. Por ello, ahora mismo son la parte más vulnerable ante la explosión de esta tecnología. Sí, estamos ante una aterradora forma de dañar a personas inocentes por medio de vídeos falsos, los cuales tienen la capacidad de mostrarlos participando en actos violentos y criminales que nunca han cometido.



via Magazine - robotica-e-ia http://bit.ly/2FWddrf

miércoles, 30 de enero de 2019

Llegó el "Roomba para el jardín": iRobot nos presenta a 'Terra', su primer robot autónomo para cortar el césped

Llegó el

iRobot, el fabricante de los famosos robots aspiradores Roomba, está ampliando su línea de negocios llevando su tecnología fuera del hogar, concretamente al jardín. La compañía está haciendo oficial a 'Terra', un robot cortacésped autónomo, que funciona casi como los Roombas pero que en vez de aspirar corta el césped.

Terra emplea la misma tecnología de mapeo y movimiento autónomo que los Roomba, lo que cambia es el objetivo, además de algunas pequeñas modificaciones tanto en el diseño como en la forma de operar, esto para garantizar una buena operación al aire libre.

Por el momento sólo en beta para Alemania

Otra de las diferencias respecto a los Roomba, es que para delimitar el espacio a podar necesitaremos colocar unos beacons inalámbricos, los cuales emitirían una señal que se traducirá como una barrera para el robot Terra.

La operación de Terra también se hará a través de una aplicación móvil y conexión WiFi. Desde la app podremos monitorizar la actividad, conocer el estatus de la batería, las zonas podadas, programar rutinas e incluso definir la altura del césped para ajustar las cuchillas.

Según iRobot, la autonomía de Terra es de apenas una hora, mientras que el tiempo de recarga sería aproximadamente dos horas. Tal y como ocurre con los Roomba, Terra volverá a su base de carga cuando esté por descargarse su batería y volverá al trabajo cuando se haya recargado.

Irobot Terra Mower 3

Su diseño lo hace completamente impermeable, ya que la idea es que viva al aire libre. Cuenta con un sistema de doble cuchilla modular con un sistema de muelles, que sirven para proteger el sistema en caso de que las cuchillas golpeen una roca u otro objeto. Además, en la parte frontal, Terra cuenta con una especie de parachoques que lo protege en caso de impactos no previstos.

iRobot está lanzando a Terra por el momento sólo en Alemania como parte de una beta para unos cuantos usuarios, pero la idea es lanzarlo de forma oficial tanto en Alemania como en Estados Unidos más adelante durante este año. Eso sí, la compañía no ha querido anunciar el precio, y los pronósticos apuntan a que no será muy barato.

Irobot Terra Mower 4
Irobot Terra Mower 1


via Magazine - robotica-e-ia http://bit.ly/2SeNAHD

Análisis de los productos SmartHome de SPC, Sirius 1050 y Clever Plug

domingo, 27 de enero de 2019

Los robots invaden el aula, pero todavía no sabemos para qué

La inteligencia artificial ha venido para quedarse, y poco a poco está llenando más aspectos de nuestra vida cotidiana, prácticamente sin que nos demos cuenta. Netflix, Microsoft, Google o Amazon lo utilizan en sus productos con los que interactuamos constantemente. Y los «chatbots», pequeños programas automatizados para seguir una conversación, están entrando en el aula. Y no sólo está afectando sólo al mundo digital, sino que también lo hace en otros ámbitos más tradicionales como la enseñanza. Y no estamos hablando sólo de que la robótica, la programación o la inteligencia artificial se hayan convertido en asignaturas comunes en los colegios y universidades, sino que estas tecnologías están afectando al propio sistema educativo. Hace unos meses hablábamos de Lola, el «chatbot» de la universidad de Murcia que ayuda a los nuevos alumnos. Fue capaz de responder más de 38.000 dudas de 4.000 alumnos en sus primeros días activo, sobretodo relacionadas con las notas y procesos de inscripción. Ahora el foco recae en el propio aula, sobre la utilidad de la Inteligencia Artificial y los «chatbots» situados entre profesor y alumno. Si hace unos meses hablábamos del «skill» de Alexa de ABA English para practicar inglés conversacional desde cualquier altavoz equipado con el asistente de Amazon, por qué no puede ocurrir algo parecido dentro de una clase, donde los estudiantes pueden interactuar con una inteligencia artificial para repasar, consultar dudas, igual que ocurría en la película de Steven Spielberg «Ready Player One». La pregunta es si los robots podrán sustituir a los profesor es a medio plazo. Lluís Pastor y Guillem García Brustenga, directores del eLearn Center de la Universidad Oberta de Cataluña, afirman que no existirá una sustitución en su informe «Los chatbots en la educación», sino que se complementarán. Es cierto que estos chatbots irán asumiendo cada vez más tareas dentro del aula, pero serán todas aquellas tareas repetitivas que aporten poco valor en la clase. Algo positivo tanto para el alumno como para profesor. Imagínese que el alumno que está estudiando matemáticas, tenga siempre un compañero 24 x 7 para resolver dudas, repetir alguna lección o practicar con él. Es el sueño de cualquier estudiante y el futuro de la enseñanza a distancia. «No hay que tener miedo a la incorporación de la IA en los procesos de aprendizaje», explica Pastor. «Es algo que va a ocurrir y que beneficia a todos: al docente y, sobre todo, al estudiante, que debe ser el centro del aprendizaje y que va a disfrutar de acompañamiento permanente». El profesor va a volverse indispensable para entrenar y formar al robot, y podrá dedicarle más tiempo a la parte creativa de la formación. Un «chatbot» necesita de un entrenamiento ininterrumpido, dotándole de información y ejemplos de forma continuada. Nadie quiere que ocurra como con Tay, el «bot» de Twitter de Microsoft que prácticamente en 24 horas se convirtió en sexista y xenófobo gracias a lo que aprendió de las conversaciones en la red social. No se trata de hablar de futuro, es algo que ya está ocurriendo, en 2015 Jill Watson impartió un curso de postgrado en la universidad de Georgia, donde durante todo el semestre un «chatbot» respondió dudas, planteó preguntas a los alumnos y las evaluó sin que los alumnos ni siquiera se dieran cuenta de ello. Los chatbots van a llegar al aula en los próximos años, es inevitable, al principio será de forma tímida, sólo ocupándose de temas administrativos, pero poco a poco serán el perfecto asistente de los profesores, aportando contenido, resolviendo dudas, incluso haciendo exámenes. La razón de que no ocurra de forma masiva es que todavía entrenar esos chatbots con el conocimiento equivalente al de un profesor, sería un proceso largo y arduo, casi al mismo nivel de enseñar a una persona desde cero. La UOC, al igual que otras universidades, se están preparando para que poco a poco estos compañeros virtuales lleguen a las clases.

via Tecnología http://bit.ly/2CMnfqF

sábado, 26 de enero de 2019

El aeropuerto de Gatwick tendrá un nuevo empleado: 'Stan', un robot autónomo que se encargará de aparcar coches

El aeropuerto de Gatwick tendrá un nuevo empleado: 'Stan', un robot autónomo que se encargará de aparcar coches

Los aparcamientos suelen ser un infierno, ya que primero debemos encontrar lugar, después calcular si el espacio es suficiente para nuestro coche, y finalmente esperar a que los dueños de los coches contiguos tengan el suficiente cuidado para que no golpeen tu coche. Y bueno, si hablamos de los servicios de valet parking entonces la cosa se complica, ya que no todas las personas están a favor de que un extraño conduzca sus vehículos.

Pues todo esto podría cambiar en un futuro y ya tenemos la primera solución. Se llama 'Stan' y es un robot autónomo "aparcacoches", con el cual todo pinta a beneficios, al menos sobre el papel. Conozcamos sus detalles.

Su uso permitirá ampliar las plazas de 170 a 270

'Stan' fue construido por una compañía francesa Stanley Robotics, que curiosamente inició desarrollando coches con sistemas de aparcado autónomo, pero se dieron cuenta que tenía más sentido usar la tecnología para mover los coches que tratar de implementar este sistema en todos los coches. Además de que también es mucho más barato.

La idea de 'Stan' es sencilla, se trata de un robot equipado con una plataforma que se encarga de levantar y mover los coches para llevarlos a un sitio dentro de un aparcamiento, donde lo mejor de todo es que no se necesita dejar las llaves o que el coche esté encendido. Veámoslo en funcionamiento.

Este robot ya ha sido usado en pruebas piloto tanto en el aeropuerto Charles de Gaulle de París, en 2016, como en el aeropuerto de Lyon, Francia, en 2017, donde por primera vez se implementó una versión diseñada para operar al aire libre y a gran escala.

Según la compañía, 'Stan' excedió las expectativas, ya que, según la compañía, su mayor ventaja es que se amplía la capacidad de los aparcamientos al no necesitar que los coches abran las puertas o se necesiten carriles o espacio adicional que permitan el movimiento de los vehículos durante todo el día.

Stanley Robotics Stan Robot Parking Valet 9

Pero 'Stan' no puede operar solo, se necesitan instalaciones acondicionadas especialmente para su operación y un sistema automatizado de aparcamiento para los clientes. En primer lugar, sólo está diseñado para aeropuertos, donde el cliente tendrá que llegar y dejar su coche en una cochera donde encontrará una especie de quiosco, donde tendrá que capturar sus datos personales y de su vuelo, así como realizar el pago correspondiente.

Una vez con la información, el coche es etiquetado para que 'Stan' lo lleve hasta su sitio dentro del vasto aparcamiento, el cual dependerá de cuándo vuelva el cliente y así se pueda tener el coche listo para ser recogido. Por cierto, dentro del aparcamiento está prohibido el acceso a las personas, tanto por seguridad de ellas como de los vehículos.

Stanley Robotics Stan Robot Parking Valet 8

Stan es capaz de mover coches de hasta 5,5 metros de largo y con un peso de hasta tres toneladas. El robot tiene la capacidad para recoger el coche por la parte delantera o por la trasera, lo que hace que no requiera realizar muchas maniobras dentro del aparcamiento.

Ahora, el aeropuerto de Gatwick, en Londres, acaba de cerrar un contrato para que 'Stan' empiece a operar en agosto de este año, lo que marca la primera vez que el robot sale de su país natal. El robot estará en la terminal sur donde operará las 24 horas como parte de una prueba piloto de tres meses. Una de las primeras ventajas, es que la llegada de 'Stan' permitirá ampliar la capacidad del aparcamiento de 170 a 270 plazas, además de la comodidad para los usuarios de aeropuerto.

Stanley Robotics Stan Robot Parking Valet 5 Png
Stanley Robotics Stan Robot Parking Valet 2
Stanley Robotics Stan Robot Parking Valet 1


via Magazine - robotica-e-ia http://bit.ly/2RRKOsq

viernes, 25 de enero de 2019

Para McLaren, conducir coches de F1 ya no será cosa sólo de humanos en 2050: deberán compartir cabina con las inteligencias artificiales

Para McLaren, conducir coches de F1 ya no será cosa sólo de humanos en 2050: deberán compartir cabina con las inteligencias artificiales

El fabricante de coches británico McLaren (propietario de la escudería de Fórmula 1 homónima) ha puesto en marcha un proyecto de investigación denominado 'MCLextreme' para reflexionar sobre cómo cómo serán las carreras de F1 en el año 2050.

En palabras del fabricante, su propuesta se basa en una investigación en la que han tenido en cuenta elementos como la velocidad y las tendencias actuales del desarrollo tecnológico, las previsibles circunstancias sociales y medioambientales, y los gustos y demandas de los aficionados a este deporte.

Del videojuego a la realidad

Circuito

Lo que MCLExtreme plantea es un campeonato transformado por tecnologías como la inteligencia artificial, la electrificación y la realidad mixta. No todo habrá cambiado, claro:

"Esperamos que el coche del Gran Premio del futuro todavía conste de cuatro ruedas, tracción trasera y un humano en la cabina. Pero ahí terminan las similitudes".

Y es que, si las previsiones de McLaren se cumplen, muchos aficionados a los videojuegos verán materializarse sus más salvajes fantasías: coches convertibles (para añadir aerodinámica activa, hoy prohibida en la F1) que harán girar sus ruedas de "compuestos autorreparables" a 500 km/h por ## circuitos que parecerán sacados de Hot Wheels (más amplios y largos, con subidas, bajadas y curvas imposibles)...

Además, como serán coches eléctricos, no necesitarán parar en boxes para repostar, sino dar vueltas por "carriles de carga", que agregarán (mediante inducción) más o menos potencia según la velocidad del vehículo, permitiendo así conservar la relevancia de la estrategia de equipo.

¡Trata de arrancarlo, HAL!

F1

Pero prácticamente todos los cambios citados no harán sino aumentar la complejidad (y, con ella, la peligrosidad) de las carreras, por lo que se proporcionará a los conductores una ayuda en forma de una inteligencia artificial que actúe como copiloto, y con la que pueda permanecer conectado en todo momento a través de un "enlace simbiótico" en su casco y de sensores en su traje.

Esta IA será capaz de aprender de su conductor, prediciendo sus preferencias, decisiones y estado de ánimo. Esto último permitirá iluminar la carrocería semitransparente de los coches de acuerdo al estado de ánimo del piloto. Pero más importante será la posibilidad de que la IA vaya diseñando una estrategia en tiempo real y mostrándola al conductor a través realidad aumentada en una pantalla holográfica. Según el informe:

"Las carreras podrían convertirse en una incubadora para el desarrollo de la inteligencia artificial, tal como lo ha sido para los simuladores, la tecnología de Big Data y la ciencia de materiales".

"El conductor del futuro recibirá menos información del pit y, en cambio, confiará en un copiloto de inteligencia artificial. Contar con una IA cada vez más potente e intuitiva será un elemento clave para el rendimiento en las carreras de Gran Premio hacia el año 2050".



via Magazine - robotica-e-ia http://bit.ly/2DxjGqb

El día en que Zuckerberg mató una cabra y se la sirvió fría al fundador de Twitter

Mark Zuckerberg es una persona excéntrica. Gurú de los servicios digitales, vive por y para sus «hijos» virtuales, Facebook (su primer invento), Instagram y WhatsApp. Pero el empresario también tiene sus momentos extraños. Cada año se hace un propósito de año, como construir su propio robot doméstico, aprender chino o arreglar los fallos técnicos de su empresa. Y uno que tuvo gran repercusión se produjo en 2011 cuando decidió comer sólo la carne de animales que hubiese matado él mismo. «Acabo de matar un cerdo y una cabra» llegó a publicar incluso en su perfil. Esa curiosa historia ha vuelto al plano actual después de que el fundador y máximo responsable de Twitter, Jack Dorsey, en plena campaña para limpiar la imagen de la compañía, haya recordado un momento embarazoso. Fue en una extraña cita con Zuckerberg, quien le sirvió a su colega un plato de carne de cabra que él mismo había matado previamente. La situación fue, en cualquier caso, descabellada, surrealista. Durante la cena, Zuckerberg se giró, cogió una pistola láser (más conocida como táser) y se puso a cortar trozos de carne. Luego se lo entregaba al cocinero para prepararlo con un cuchillo. Dorsey asegura que le sirvió un trozo de carne de cabra fría, aunque solamente comió una ensalada. Así lo ha recordado en una entrevista para la revista «Rolling Stone», en donde define al creador de Facebook de un «hombre de negocios muy inteligente». Sus palabras, textuales, son cuanto menos curiosas: «Hubo un año en el que solo comía lo que mataba. Me hizo una cabra para la cena que había matado». Y no era para menos, puesto que la regulación en Palo Alto (California) establece que una persona puede disponer de un máximo de seis animales de corral en un terreno particular. «Por lo que sé, tenía seis cabras en ese momento». La conversación fue como en una comedia. «Entonces le dije, "¿nos estamos comiendo la cabra que mataste?". Él respondió que "sí". Y le pregunté si había comido cabra anteriormente, a lo que contestó que por supuesto, que le encantaba», añade Dorsey. Pero aún hubo más, porque incluso llega a dudar de que Zuckerberg le sirviera frío el plato a propósito. «Esperamos unos 30 minutos hasta que dijo "creo que ya está hecho" con lo que entramos en el salón. Sirvió la cabra. Estaba fría. Fue memorable. No sé si volvió a pasarse por el horno. Yo me comí la ensalada», describe. Además de esta anécdota, Dorsey desveló su intención de «regalar» todo su dinero antes de morir y consideró que «las personas que están liderando el camino del futuro es gente como Elon Musk». También habló sobre la lucha contra el acoso, las noticias falsas y lo adictivas que son las redes sociales.

via Tecnología http://bit.ly/2FOXOsC

AlphaStar es la inteligencia artificial de DeepMind que ha logrado ganar 10-1 a los profesionales de 'StarCraft II'

AlphaStar es la inteligencia artificial de DeepMind que ha logrado ganar 10-1 a los profesionales de 'StarCraft II'

Lo hizo al Go, lo hizo al ajedrez y ahora lo está haciendo en 'StarCraft II'. El sistema de inteligencia artificial AlphaStar desarrollado por DeepMind jugó en diciembre un torneo contra dos jugadores profesionales de este videojuego y ganó casi todas las partidas.

Lo hizo en condiciones algo especiales, pero aún así logró aplastarles por 5 partidas a 0 y solo hubo una ocasión en la que uno de esos jugadores logró superar a una versión nueva de AlphaStar que aún estaba en desarrollo. Las cosas pintan mal para los profesionales de 'StarCraf II', uno juego que planteaba un reto importante a los ingenieros de DeepMind y que una vez más se ha logrado superar con la llamada red neuronal de convolución.

'StarCraft II' también parece ya dominio de máquinas

La dificultad de este videojuego residía en que la máquina no tiene toda la información antes de realizar la jugada puesto que en Starcraft II el mapa se va desvelando a medida que las unidades van avanzando. La intuición y tratar de adivinar qué estará haciendo el oponente es muy importante, pero aún así la IA de DeepMind ha logrado ofrecer un nivel excepcional.

Ese resumen en vídeo solo ofrece algunas repeticiones del torneo que se celebró en diciembre y que enfrentó a AlphaStar con dos jugadores profesionales humanos, Grzegorz “MaNa” Komincz y Dario “TLO” Wünsch, de Team Liquid. Los jugadores humanos tenían confianza en lograr superar a la máquina, pero se encontraron con cinco derrotas consecutivas.

Las condiciones para el encuentro fueron algo especiales para los profesionales humanos. TLO normalmente juega con la raza Zerg, pero tuvo que jugar con Protoss, la única de las tres razas con la que de momento entrena AlphaGo. Perdió las cinco partidas y llegó el turno de su compañero, MaNa, que sí jugaba con Protoss y por tanto parecía más preparado para competir en igualdad de condiciones. No sirvió de nada, porque AlphaStar también le derrotó por cinco partidas a cero.

Alphastar

En estas partidas AlphaStar demostró tener una gestión excepcional de sus unidades, retirándolas cuando estaban dañadas y sustituyéndolas por unidades más fuertes al frente de cada batalla. Minimizaba daños propios y maximizaba los daños de los rivales, algo que iba más allá de la relevancia de las acciones por minuto (APM) que se pueden llegar a lograr en este juego, y que de hecho sorprendentemente eran superiores en el caso de los humanos. Las elecciones de AlphaStar, simplemente, eran mejores.

Los jugadores humanos se enfrentaron a un único sistema de inteligencia artificial, pero en realidad AlphaStar hizo uso de cinco agentes diferentes que habían sido entrenados con distintos objetivos, lo que revela que incluso esa variación del motor específico de IA era superior con esas variaciones. Para entrenarlos los sistemas jugaron anteriormente la llamada "AlphaStar League", una competición en la que los agentes jugaron una y otra vez durante una semana y "absorbieron" el equivalente a 200 años de partidas de StarCraft II entre humanos.

Para Komincz el resultado fue sorprendente: "me impresionó ver cómo AlphaStar hacía movimientos avanzados y estrategias distintas en todas las partidas, usando una forma de jugar muy humana que no me esperaba. Me he dado cuenta de cómo mi forma de jugar depende de forzar al contrincante a cometer errores y ser capaz de sacar partido de las reacciones humanas, así que esto le ha dado una nueva perspectiva al juego para mí".

Vía | Kotaku



via Magazine - robotica-e-ia http://bit.ly/2UeYYAD

jueves, 24 de enero de 2019

Huawei también se suma al «smartphone» plegable: lo presentará en el MWC de Barcelona y será 5G

La compañía tecnológica china Huawei confirmó este jueves que presentará su primer teléfono inteligente con capacidad para operar con redes de quinta generación (5G) en el próximo Mobile World Congress (MWC) de Barcelona. El consejero delegado del grupo de negocios de consumo de Huawei, Richard Yu, hizo oficial la noticia, que ya se rumoreaba en publicaciones especializadas, en una presentación celebrada este jueves en Pekín. A pesar de que no ofreció apenas detalles sobre este terminal, sí que reveló que contará con pantalla plegable -una tendencia a la que parecen apuntarse las principales compañías del sector- y que su precio estará por encima de los 1.000 euros (1.135 dólares). La compañía también lanzará en el futuro otros móviles con capacidad 5G por debajo de ese precio. Huawei ya anunció que la fecha de comercialización prevista para su primer móvil 5G es el próximo mes de junio. Yu aseguró que su empresa «lleva mucha ventaja» a sus competidoras en tecnología 5G y predijo que este tipo de redes estarán listas «como muy pronto, en marzo o abril». La compañía ha presentado en Pekín varias innovaciones como el Balong 5000, del que aseguran que es el módem 5G más potente del mundo pese a su tamaño, «más pequeño que una uña». Huawei, que trata de abanderar la introducción de las redes 5G, ha asegurado a este respecto que ya cuenta con más de 30 contratos a nivel internacional, 18 de ellos en Europa. De hecho, el presidente de la sección de productos 5G de Huawei, Yang Chaobin, aseguró: «Ya estamos desplegando la red 5G en Barcelona, y creo que cuando visitéis la ciudad podréis comprobar la experiencia por vosotros mismos». Entre las mejoras que promete el 5G de Huawei destaca que la velocidad de conexión multiplica por 100 a la de las redes de cuarta generación y que la latencia podría reducirse a menos de un milisegundo. Así pues, las redes 5G podrían aplicarse a cirugías remotas -ya se han realizado pruebas con éxito en operaciones a animales-, trabajo con robots en entornos peligrosos para los humanos o juegos en la nube. «El 5G va a llegar, es una era de conectividad ubicua», celebró Yu, quien reveló que la inversión en investigación y desarrollo de Huawei alcanzó los 11.300 millones de euros (12.834 millones de dólares) en 2017, solo por detrás de Samsung, Alphabet -la matriz de Google-, Volkswagen o Microsoft. En 2018 Huawei vendió 206 millones de teléfonos inteligentes y más de 100 millones de otros dispositivos -como tabletas u ordenadores-, ayudando a la compañía a elevar su facturación en cerca de un 45 % hasta más de 52.000 millones de dólares (45.788 millones de euros).

via Tecnología http://bit.ly/2UcV0bK

Olvídate de planchar y limpiar: estas máquinas nos hacen las tareas domésticas

El electrodoméstico es el gran olvidado de la revolución tecnológica. Es esa máquina programada para realizar una sola tarea ha formado parque de robots y utensilios electrónicos de los hogares desde hace décadas. Frigoríficos, lavadoras, cocinas. Inventos que apenas han notado el paso del tiempo. Únicamente con la llegada de un nuevo planteamiento, el llamado «Internet de las Cosas», han empezado a ganar funciones alternativas. Pero cumplen su papel. Y lo hacen porque logran su objetivo: ayudar a las personas. Los avances tecnológicos, en ocasiones, pierden el norte al desarrollar dispositivos y máquinas que, con el tiempo, demuestran su ineficacia. La gran base de los avances ha sido, y posiblemente lo será en el futuro, resolver problemas cotidianos. Mejorar y hacer más cómodo un uso actual. Son productos que en las grandes superficies se almacenan y solo atraen a los consumidores por obligación, cuando se le ha estropeado el casa. La robotización impulsada por los nuevos modelos basados en Inteligencia Artificial está allanando ese camino. Y va a más porque van apareciendo multitud de propuestas para todos los gustos y necesidades, pero la higiene y la limpieza se lleva la palma. Es fácil limpiar las cocinas, cocinar, dejar como una patena los cristales, higienizar la piscina o fregar. Tareas que poco a poco van a ir sustituyendolas los robots. Surgen proyectos interesantes en cada feria de tecnología. En muchos de sus estand se agolpan dispositivos y máquinas asombrosas que responden a una necesidad básica, pero a veces su interés se ve contrarrestado por el creciente interés de otros aparatos como los móviles. Aspiradores para olvidarte de la escoba Estar eclipsados por la telefonía y las nuevas tendencias que «venden» los fabricantes es ser totalmente invisibles a ojos del consumidor. Pero rascando por ciertos ambientes se encuentran verdaderas máquinas que son revolucionarias. No están demasiado extendidos, pero los robots aspiradores aspiran -valga la redundancia- a que las personas aparquen la escoba y el recogedor. Lo que pueda automatizar una máquina, mejor. La firma iRobot fue una de las pioneras en este segmento con varios modelos, pero muchas empresas le han seguido como LG, Cecotec, Dyson, Ecovacs, Rowenta, Vileda, Taurus, AEG, Neato. En el mercado existen muchos modelos que, con el tiempo, incluso han ganado en funciones gracias a su conectividad a internet. Recogen el polvo y limpian el suelo, aunque algunos de ellos incluso se pueden activar en remoto mediante una simple aplicación. Otros, incluso, pueden fregar. Es decir, vas a tener un equipo con funciones automatizadas para llevar el mantenimiento higiénico doméstico a rajatabla, pero cabe saber que para la basura de mayor tamaño hay que seguir haciéndola a mano. El objetivo es que las personas se olviden la escoba. Y no por razones, puesto que la mayoría dan buenos resultados. A la hora de comprarse uno hay que ver detenidamente la capacidad de succión y el tipo de palas para recoger los enseres, porque no todos actúan de la misma manera. Tampoco todos pueden acotar superficies concretas, mientras que otros van calibrándose (y «aprendiendo») a partir de un mapa de la vivienda. Adiós a la terrible plancha Lo que tal vez casi nadie había pensado era cómo también se podía llevar esta experiencia a una de las tareas que suscitan más odio en muchas personas, la plancha. No es únicamente el lavado, sino que dejar las camisas, camisetas o vestidos como una patena y bien lisos era cuestión de dedicarte tiempo a ese electrodoméstico que, con el paso del tiempo, tan solo han presentado evoluciones en nuevos materiales y consumos energéticos más eficientes. Pero si una máquina es capaz de hacerlo, ¿por qué no? Recientemente, en la última edición de la feria de electrónica de consumo CES, que se celebra cada año en la espectacular Las Vegas (EE.UU.), se pudo ver un invento revolucionario: una máquina que puede planchar, doblar y perfumar la ropa en tan solo cuatro segundos. No es la primera vez que se ve; hace dos ediciones, en 2017, su fabricante, FoldiMate, ya presentó entonces sus potenciales usos, pero su travesía ya está a punto de llegar a puerto: se lanzará en octubre de este año. Aunque no será a un precio para todos los bolsillos (970 dólares). Esta máquina, en cualquier caso, responde a una necesidad; ser útil. Puede utilizarse tanto para prendas de ropa como camisetas y pantalones, con tallas superiores a niños de seis años y menores que la XXL de adulto, como para almohadas y toallas de tamaño pequeño, mediano y grande. El resultado es impecable. Otra alternativa es la lavadora Effie, que tiene la capacidad de cuidar hasta 12 prendas de ropa al mismo tiempo. Colocadas sobre una hilera de perchas, el sistema va limpiándose cada cierto tiempo. El proceso es rápido. Al igual que otros productos similares, esta máquina tiene unas dimensiones algo ostentosas y no aptas para una vivienda pequeña. En este caso, pesa unos 35 kilogramos. Cuidar de niños y ancianos Una de las habilidades de los robots de última generación son sus capacidades asistenciales. Máquinas pensadas para el hogar que pueden ayudar y entretener a los usuarios, sobre todo los perfiles más exigentes, niños y ancianos. Hace años que muchos fabricantes han pensado en este negocio como una de las líneas comerciales más interesantes. Es un nuevo enfoque que tiene visos de ser una verdadera revolución gracias, en parte, a los nuevos modelos de «aprendizaje automático» para adaptarse a los tipos de usuario. Y empieza a haber de todo, desde robots que cuentan cuentos a los pequeños, que les cantan canciones y avisan a sus progenitores si tienen algún problema. Pero, además, resuelven otras problemáticas como la que sufren personas en la tercera edad o con problemas de movilidad. Son aparatos de metal y cables que pueden hacerles más fáciles la vida diaria, levantarles de la silla por medio de sus futuristas brazos mecánicos. Humanoides, como TMSUK, en Japón, que lleva años dando buenos resultados en hospitales. Un entorno, por otro lado, en donde la irrupción de otras propuestas como Medi, diseñado por la firma española Macco Robotics, permite ayudar a los más pequeños a vivir el momento de recibir un pinchazo de una inyección de una manera más liviana. Sparky, por ejemplo, es un pequeño robot-mascota pensado para personas que sufren soledad, así como Aibo, fabricado por Sony, que desde hace veinte años, que se dice pronto, se ha ofrecido para ser una compañía en los hogares. En otras ferias también se ha podido conocer una extravagante foca-robot llamada «Amparo», diseñada a tratar a pacientes con Alzhéimer.

via Tecnología http://bit.ly/2T8yfpq

En la mente de la máquina

Los sistemas de ‘deep learning’ son cajas negras cerradas a nuestra curiosidad bajo cuatro llaves

via Robótica http://bit.ly/2AY7BIT

miércoles, 23 de enero de 2019

Amazon inicia las pruebas de 'Scout', su primer robot mensajero autónomo en salir a las calles para entregar paquetes

Amazon inicia las pruebas de 'Scout', su primer robot mensajero autónomo en salir a las calles para entregar paquetes

Después de que Amazon estuvo muy activo probando drones para mensajería, cuyo proyecto sigue en pruebas e impulsando el tema regulatorio, hoy Amazon nos da la sorpresa al anunciar que esta sacando a las calles por primer vez a 'Scout', un robot autónomo pensado para hacer entregas Prime en pequeños vecindarios.

Bienvenidos a la era de los robots mensajeros y autónomos

A partir de hoy, seis robots Amazon Scout están disponibles para hacer entregas en el condado de Snohomish, Washington, como mencionaba, para entregas Prime ese mismo día. De acuerdo a la compañía, los robots son autónomos, eléctricos, funcionan con baterías recargables y cuentan con sensores para desplazarse por las calles y evitar obstáculos, cruzar las calles e identificar personas y animales.

Según Amazon, los nuevos robots Scout son del tamaño medio de una hielera y se mueven a muy baja velocidad, sin embargo, no especifican cómo es funcionamiento al momento de las entregas, y tampoco se habla de que si el robot será capaz de llevar paquetes para más de una persona.

Aquí suponemos que el funcionamiento será algo como lo implementado en sus Amazon Lockers, donde envían un código a nuestro móvil para recoger nuestro paquete. Aquí estaremos atentos a mayor información por parte de Amazon.

Amazon asegura que estos robots son completamente autónomos, pero durante este periodo de pruebas serán acompañados por empleado de Amazon que estará ahí para verificar que todo salga bien y no haya problemas.

Se cree que este proyecto es una nueva implementación que llegará a ampliar las capacidades de entrega de Amazon, y el cual en un futuro sería compatible con otras soluciones como Amazon Key, o la entrega de paquetes en el maletero de nuestro coche.



via Magazine - robotica-e-ia http://bit.ly/2RdEZRe

La nueva versión ‘policía’ del perro robot Aibo de Sony

El nuevo servicio, bautizado con el nombre de “Aibo Policía”, estará disponible para los propietarios de este perro inteligente a mediados de febrero con la próxima actualización del software, especificó la firma japonesa en un comunicado.

Hace un año, Sony lanzó una versión del pionero perro-robot creado en 1999 que incluía la capacidad de dar afecto a sus dueños, aprender nuevas palabras, gestos, órdenes y responder a éstas a través de un sistema de inteligencia artificial en la nube.

Con la función anunciada para 2019, la empresa nipona busca añadir una “sensación de seguridad” a la experiencia de “disfrute” de las personas que conviven con el animal.

En el marco de este servicio, Sony también anunció que comenzará una colaboración con la empresa de seguridad japonesa Secom con el objetivo de “proporcionar nuevas funciones y servicios” de vigilancia.

La próxima actualización de su software permitirá a Aibo elaborar un mapa de la casa, “patrullar” por sus espacios y mantener un registro de 10 personas, con nombres y caras, a las que será capaz de realizar un seguimiento.

A través de varios sensores y sus dos cámaras, en la nariz y por encima de su cola, el perro inteligente podrá cumplir tareas de “vigilancia” del hogar, que los dueños podrán programar a través de sus teléfonos inteligentes.

El gigante tecnológico informó también que a partir del 1 de febrero pondrá a la venta un modelo marrón y blanco del robot, que hasta ahora solo estaba disponible en blanco.

En su página web, la compañía precisó que la nueva función “no está pensada para el cuidado de enfermos, niños y ancianos” ni la “prevención de crímenes” e indicó que no se “responsabiliza” de los incidentes que puedan resultar de tal uso.

La mascota artificial tiene un precio de 198.000 yenes (1.481 euros), sin incluir los 90.000 yenes (673 euros) que los usuarios deben pagar cada tres años para que el robot pueda almacenar conocimiento en la nube y desarrollar así su personalidad. EFE

La entrada La nueva versión ‘policía’ del perro robot Aibo de Sony aparece primero en EFE futuro.



via EFE futuro http://bit.ly/2sFEqph

martes, 22 de enero de 2019

Este podría ser el invento del siglo: el robot que plancha, dobla y perfuma ropa en cuatro segundos

Este nuevo invento facilitará la vida de muchísimas personas. Se trata de una máquina que plancha la ropa sola, la dobla y también le da un ligero perfume en tan solo cuatro segundos. El robot fue presentado en el año 2017 en la feria tecnológica CES de Las Vegas y ahora ha sido mejorado para poder ser lanzado a la venta. Según informan desde la compañía estadounidense FoldiMate, el dispositivo saldrá al mercado a finales de 2019 y las primeras unidades que estarán a la venta ya pueden reservarse. Con un funcionamiento que se limita a tan solo cuatro segundos por prenda, FoldiMate puede utilizarse tanto para prendas de ropa como camisetas y pantalones, con tallas superiores a niños de seis años y menores que la XXL de adulto, como para almohadas y toallas de tamaño pequeño, mediano y grande. Para utilizar FoldiMate es necesario introducir la prenda por la parte superior, y en su interior esta se plancha, se perfuma y se dobla, depositándose en una cesta en su parte inferior. FoldiMate no tiene límite de prendas, siempre que se vayan recogiendo del cajón, como explica la empresa. Quizá el mayor inconveniente del dispositivo sea la gran cantidad de espacio que ocupa, ya que se trata de una máquina de un metro y 25 centímetros de altura, 70 centímetros de profundidad y 60cm de ancho, mayor incluso que algunos electrodomésticos. Antes del lanzamiento oficial de FoldiMate a finales de 2019, ya es posible reservarlo por un precio de 980 dólares. Este precio incluye un 10% de descuento sobre el precio final, aunque hay que sumarle impuestos, gastos envío y un depósito de 85 dólares, y la empresa solo garantiza el envío dentro de Estados Unidos de momento.

via Tecnología http://bit.ly/2sHcPEm

lunes, 21 de enero de 2019

domingo, 20 de enero de 2019

Google ficha a un profesor de la Universidad de Alicante experto en visión robótica y en 3D

Sergio Orts se integra en un equipo en la sede central de San Francisco del gigante tecnológico

Google ficha a un profesor de la Universidad de Alicante experto en visión robótica y en 3D



from INFORMACION - Tecnología http://bit.ly/2sB5zcV
via IFTTT

viernes, 18 de enero de 2019

A hombros de gigantes - Las TIC's consumirán el 20% de la energía mundial en 2025 - 21/01/19

La Inteligencia Artificial esta cada vez más presente en nuestras vidas. Se encuentra en las búsquedas de Google, en las plataformas de ocio y redes sociales; en las cámaras que reconocen las caras de la gente; en los asistentes personales como Siri, Alexa o Cortana; en los sistemas de toma de decisiones en empresas y mercados financieros; en robots industriales, equipos médicos, vehículos autónomos o en la predicción del tiempo que va a hacer mañana, por citar tan solo algunos ejemplos. Gracias a la capacidad de procesamiento de ingentes cantidades de datos, la Inteligencia Artificial nos facilita la vida y nos puede ayudar a afrontar grandes retos de la humanidad, como el calentamiento global, el envejecimiento de la población o las enfermedades crónicas. Pero todavía quedan asignaturas pendientes: el control de los datos, algoritmos sesgados, un consumo excesivo de energía y una brecha digital cada vez más profunda. De ello hemos hablado con Nuria Oliver, ingeniera de Telecomunicaciones, doctora por el MIT, directora de Investigación en Ciencias de Datos de Vodafone y miembro de la Real Academia de Ingeniería.
José Antonio López Guerrero nos ha informado del hallazgo en Polonia de un antepasado gigante de los mamíferos (un sinápsido) que rivalizó en tamaño con los dinosaurios. Nuria Martínez Medina ha dedicado un capítulo de nuestra Historia de la Ciencia al médico anatomista alemán Franciscus Sylvius, considerado el fundador de la escuela de medicina Iatroquímica del siglo XVII. Consideró que todos los fenómenos de la vida y la enfermedad se basaban en reacciones químicas y sus estudios ayudaron a una aplicación racional de las leyes universales de la Física y de la Química. En el Año Internacional de la Tabla Periódica, Bernardo Herradón nos ha comentado los libros “Nature's Building Blocks: An A-Z Guide to the Elements”, de John Emsley; y “La tabla periódica: Una breve introducción”, de Eric Scerri. Y Javier Cacho nos ha recordado como fue la primera vez que un ser humano puso el pie en el continente antártico, hazaña protagonizada por la expedición de Henry Johan Bull el 24 de enero de 1895.
 


Escuchar Audio

via Ciencia y tecnología en rtve.es http://bit.ly/2REKXzG

jueves, 17 de enero de 2019

Los robots pasan a la acción: pueden dejar de imitar y empezar a «pensar»

«Eso no está en mi programación». A menudo las dudas sobre los avances en materia de inteligencia artificial sirven en bandeja la incapacidad de realizar tareas por las cuales no han sido diseñadas previamente. «Entrenar» sus algoritmos para que sean capaces de «aprender» al tiempo que realizan nuevas tareas implica un gran desafío. En esa pelea se encuentra la industria, que comienza a asumir un nuevo escenario: las máquinas pueden ya dejar de imitar comportamientos prefijados para plantar la semilla de la reflexión. Una investigación publicada en la revista «Science Robotics» desvela las capacidades para articular el sentido común y desarrollar un proceso cognitivo de los modelos de aprendizaje automático aplicados a los robots. El cerebro humano puede inferir conceptos a partir de imágenes y aplicarlos en el mundo físico en un entorno completamente diferente. Ello le permite, por ejemplo, completar tareas como el ensamblaje de un mueble de IKEA a partir de un simple libro de instrucciones con diagramas y bocetos del producto. Se trata de un difícil desafío al que se enfrenta el sector de la ingeniería robótica por el cual se deben implementar una especie de reflexión, de proceso cognitivo al alcance de un ser humano. Aplicar esos principios es una tarea difícil, pero empieza a estar cada vez más cerca. En el informe, investigadores de la empresa de inteligencia artificial Vicarious AI, se establece la manera en que los robots pueden aprender, interpretar y reflexionar a partir de observar imágenes de pares de objetos. Una nueva forma por la cual las máquinas pueden mejorar sus interacciones con un entorno real. El ser humanos suele estar bastante preparado para desenvolverse de manera ágil y precisa en un ambiente de múltiples piezas y herramientas, sabiendo cuál tiene que coger para avanzar en, por ejemplo, una tarea de ensamblaje. Los robots, en cambio, suelen tener ciertas limitaciones para superar este desafío. Para demostrarlo, los expertos desarrollaron un marco computacional capaz de replicar aspectos del aprendizaje humano. «Los conceptos se representan como programas en una arquitectura informática que consiste en un sistema de percepción visual, memoria de trabajo y acción. El conjunto de instrucciones de esta máquina cognitiva tiene comandos para analizar una escena visual, dirigir la mirada y la atención, imaginar objetos y situaciones nuevas, así como intentar manipular el contenido a partir de un trabajo visual para controlar el movimiento del brazo robótico», explican en el artículo los investigadores, entre los que se encuentra un español, Miguel Lázaro-Gredilla. Los robots actuales no tienen esa capacidad para discernir en tiempo real qué tipo de herramienta es necesaria para un determinado trabajo de montaje. Los expertos creen que la clave para resolver el problema es aplicar la manera en que aprende el ser humano. Un nuevo sistema informático permite, de tal forma, clasificar los objetos por peso, dimensiones y otras formas para que una máquina pueda «interpretar» cuál debe ser el camino correcto. Los expertos han demostrado cómo un robot puede usar «abstracciones» para interpretar conceptos novedosos presentados como imágenes esquemáticas y luego aplicar esos aprendizajes en situaciones muy diferentes. «Al llevar las ideas de la ciencia cognitiva sobre imágenes mentales, símbolos, percepción visual y representaciones deícticas al ámbito del aprendizaje automático, nuestro trabajo nos acerca al objetivo de construir robots que tengan sentido común», apuntan.

via Tecnología http://bit.ly/2RxHrqz

Así caminaban los primeros animales de cuatro patas


La investigación, liderada por John Nyakatura, de la Universidad Humboldt de Berlín, y Kamilo Melo, de la Escuela Politécnica Federal de Lausana (Suiza), revela que el desarrollo de la locomoción eficiente en tierra precedió a la evolución y diversificación de los amniotes (reptiles, aves y mamíferos).

Los tetrápodos o animales de cuatro patas desarrollaron varias adaptaciones que les facilitaron el movimiento y pudieron pasar de vivir en el agua a caminar sobre la tierra.

Dentro de los tetrápodos, el grupo de los amniotes se diversificó rápidamente y se ha asociado con el desarrollo de una caminata más eficiente y vertical, aunque los investigadores no han podido precisar el momento en que se produjo esta locomoción más avanzada.

Los expertos estudiaron distintos fósiles de Orobates pabsti, un género extinto de grandes reptiles similares a anfibios que fueron los primeros tetrápodos herbívoros y también los primeros animales exclusivamente terrestres de gran tamaño.

Vivieron hace unos 290 millones de años y se cree que están estrechamente relacionados con los amniotes.

Recreación robótica del movimiento


Los restos fósiles de Orobates pabsti permitieron revelar conocimientos sobre su movimiento y marcha, según la investigación.

Al combinar análisis de fósiles y rastreos de Orobates con mediciones de cuatro especies de anfibios y reptiles actuales, los autores elaboraron una reconstrucción digital de Orobates y una simulación robótica a la que llamaron “OroBOT”.

Con ella exploraron la plausibilidad y la efectividad de los posibles estilos de caminata y llegaron a la conclusión de que los Orobates eran probablemente capaces de caminar más erguidos, pudiendo haber evolucionado antes de lo que se pensaba hasta ahora. EFE

La entrada Así caminaban los primeros animales de cuatro patas aparece primero en EFE futuro.



via EFE futuro http://bit.ly/2svmn52

Este curioso robot fósil ha permitido saber cómo andaba un animal extinto hace 300 millones de años a partir de huesos y huellas

Este curioso robot fósil ha permitido saber cómo andaba un animal extinto hace 300 millones de años a partir de huesos y huellas

En ocasiones hemos mostrado robots que, de no ser por el amasijo de cables y metales cuya estructura muestra, podrían pasar por animales de carne y hueso. Y justamente esa fidelidad que la robótica y su mecánica han alcanzado es lo que ha servido para que esta especie de fusión entre robot y fósil muestre cómo andaba un animal que existió hace 300 millones de años.

Es algo así como un animatronic al que sólo le falta una capa de piel y músculo para que pase por reptil, pero más allá de la sensación de realidad que da lo que han conseguido estos investigadores es reproducir una pauta de movimiento a partir de huellas y huesos. Y tiene nombre: OroBOT.

Un robot que es "oro" para conocer el pasado

Se trata de una investigación realizada por unos ingenieros del EPFL y la Universidad Humboldt de Berlín. La intención era deducir cómo andaba el Orobates nabsti solamente a partir de sus fósiles y las huellas que se conxervan, un animal que fue algo así como un tatarabuelo muy antiguo de las salamandras y lagartos actuales.

El interés por conocer al máximo este animal extinto está en que figura en un punto de la evolución que aún relaciona reptiles, anfibios y mamíferos y a que es la criatura más antigua cuyos fósiles han podido relacionarse con unas huellas. De ahí que fuese un excelente candidato para llevar a cabo este estudio publicado ya en Nature.

Como veremos en el vídeo, lo que hicieron para mimetizar el movimiento es estudiar los andares de salamandras, caimanes, iguanas y eslizones con rayos X, de modo que atendían al grado de flexión de las articulaciones (codo, hombro y espalda) y cómo de efectos están. Con ello ya tenían la información para digitalizar los andares, creando distintas posibles pautas, y ahí es donde entra el OroBOT, ya que con él se puede hacer un estudio aproximado de la física de los andares del animal extinto.

Lo que hicieron con OroBOT es medir cuánta energía sería necesaria para el andando, su estabilidad, si encajaba con los rastros de huella y comparar la alineación de las fuerzas de las piernas con los animales actuales más parecidos. Y viendo que sus andares parecen más atléticos que los de algunos animales modernos, los investigadores concluyen que los andares del Orobates estaban en un estado de mayor evolución de lo que se creía.

Cada vez nos recuerdan menos a robots

El aparato locomotor es cuestión de física, además de todas las variables fisiológicas que integra como el metabolismo energético o la recuperación en caso de lesión. Teniendo en cuenta esto, la robótica representa un área de aproximación muy adecuada por la fidelidad que robots como éste o como el que vimos de imitación al salto de las ranas consiguen, y esa suavidad de los movimientos puede aprovecharse para dispositivos como prótesis electrónicas.

Robot

Otro robot que vimos que destacaba por cómo se mimetizaba era el robot pez autónomo del MIT, orientado a estudiar la vida marina de la manera menos intrusiva posible. Y bueno, luego está lo de la gente de Boston Dynamics, pero lo suyo ya roza lo espeluznante.



via Magazine - robotica-e-ia http://bit.ly/2CrrVCa

Foxconn cuenta ya con 100.000 robots que ensamblan sin parar millones de iPhones para que puedas comprarlos

Terry Gou es el fundador y presidente de Foxconn. Este magnate taiwanés no ha ocultado nunca sus intenciones de ir sustituyendo a sus empleados por robots capaces de hacer de forma mucho más rápida y precisa el mismo trabajo. Recientemente, Terry Gou ha asegurado que tiene ya 100.00 robots trabajando en sus plantas de producción en China como parte de sus esfuerzos por formar parte de lo que considera la era de la producción inteligente, tal y como ha asegurado en un evento económico celebrado recientemente en el país y del que se ha hecho eco «Focus Taiwan». Foxconn es la compañía mundialmente conocida por ensamblar los iPhones para Apple . Una labor que, de hecho, lleva desarrollando desde el año 2005 en su base de producción de Shenzhen. Es allí donde, desde hace 10 años, la compañía comenzó a desarrollar robots y esos esfuerzos ahora están ayudando a Foxconn a reinventarse. El mayor fabricante de productos electrónicos del mundo está centrado en impulsar la fabricación inteligente y su intención es crear una nueva plataforma industrial y convertirse en un proveedor de servicios de tecnología, según ha declarado Gou. Ahora, con 100.000 robots en funcionamiento en las fábricas de Foxconn, la compañía puede adaptarse al cambiante mercado global y darse la oportunidad de seguir creciendo. Y es que el objetivo de la compañía es fusionar la computación en la nube, el internet de las cosas, el Big Data y las capacidades de la inteligencia artificial para expandirse más allá de la fabricación. En el foro, Gou dijo que Foxconn ha estado operando en China desde hace 30 años y ha contratado a más de 15 millones de personas durante esas tres décadas. Su intención es continuar integrando la producción física con la economía digital para allanar el camino y lograr otros 30 años de desarrollo. Fue en 2012, cuando el presidente de Foxconn anunció que ya utilizaba más de 10.000 robots en sus cadenas de montaje para conseguir una producción más automatizada. Y en verano de 2018 volvió a ser muy claro: la idea de la compañía es que los trabajadores humanos sean una minoría, tal y como publicó «Quartz».

via Tecnología http://bit.ly/2W65BXY

miércoles, 16 de enero de 2019

Los robots ya no solo imitan

Una investigación ilustra cómo se pueden entrenar las máquinas para que realicen múltiples acciones sin instrucciones detalladas

via Robótica http://bit.ly/2QQ8E2t

El experimento viral del #10yearchallenge pueden tener truco: es un caramelo para entrenar sistemas de reconocimiento facial

El experimento viral del #10yearchallenge pueden tener truco: es un caramelo para entrenar sistemas de reconocimiento facial

Probablemente muchos de vosotros viérais esa publicación viral que estos últimos días ha triunfado en Facebook, Twitter e Instagram. El meme animaba a todos los usuarios a compartir imágenes comparando su foto en 2009 con otra de 2019.

El éxito de los hashtag #2009 o #10yearchallenge está siendo enorme en todas esas redes, pero hay quien ha alertado ya de cómo este tipo de experimento puede haber sido una mina de oro para entrenar sistemas de reconocimiento facial.

Un experimento irresistible para los usuarios (y para quienes recolectan datos)

Lo comentaba Kate O'Neill, editora de Wired, en Twitter y en un artículo en su publicación en el que avisaba de cómo este tipo de publicaciones en redes sociales pueden tener una finalidad muy distinta a la de hacer que disfrutemos con esas comparaciones entre lo que fue y lo que es.

La reflexión es válida: todas esas fotos que la gente ha subido a las redes sociales para comparar su aspecto, el de otros, o el aspecto de lugares y objetos antes y ahora son una sencilla forma de entrenar sistemas de recocimiento de imágenes y de reconocimiento facial.

De repente los usuarios se han convertido sin saberlo en potenciales ayudantes de Facebook, Twitter o Instagram si estas redes quieren usar esas fotos para entrenar esos algoritmos.

Que lo hagan o no ya es otra cosa: no existen pruebas de que esas fotos se hayan usado para ese propósito, pero lo cierto es que Facebook lleva años desarrollando este tipo de soluciones, y sus últimos escándalos en materia de privacidad hacen que al menos la sombra de la duda esté presente.

Hay por supuesto argumentos en contra de esas sospechas. Es cierto por ejemplo que muchos de los datos que los usuarios han publicado ya están disponibles en otras plataformas, pero sobre todo en el caso de las fotos de 2009 es más raro que hubiera fotos publicadas en internet, y esa comparación con las de 2019 hace que para quienes entrenan sistemas de reconocimiento facial esa información pueda ser realmente valiosa.

De repente los usuarios han etiquetado y clasificado millones de fotos de forma precisa, algo que ni el mejor algoritmo podría hacer porque la gente no publica (habitualmente fotos de alguien que se parece a ellos, sino de ellos, sin más.

Microsoft también aprovechó estos experimentos virales

Esa gula digital que es propia de las grandes corporaciones tecnológicas no es nueva, y de hecho hace tres años hablábamos del caso de Microsoft, cuyo Project Oxford estaba teóricamente orientado a que los desarrolladores pudieran crear aplicaciones más inteligentes... con nuestros datos.

Microsoft

¿Cómo se lograban esos datos? Pues con experimentos virales como el que acaba de aparecer en redes sociales. En Microsoft lanzaron simpáticos servicios que invitaban a muchos a subir su foto para que esos algoritmos le calculasen su edad (How-Old.net), la longitud de su bigote (My Moustache) o le encontrasen un gemelo fantasma, un doppelgänger.

Hablábamos en aquel momento de que en iniciativas como la de How-Old.net los términos de uso eran inquietantes: "Al publicar, subir, introducir, proporcionar o enviar ("Publicar") tu Envío estás cediéndole a Microsoft, sus empresas afiliadas y a sus sublicencias necesarias el permiso para que utilicen tu Envío en relación con la operativa de sus negocios en Internet".

Twins

Esos negocios en internet incluyen, por supuesto, el desarrollo de sistemas de reconocimiento facial, aunque en Microsoft quisieron acallar las críticas usando el viejo mantra de todas estas empresas: "no compartimos ni almacenamos imágenes o información personal identificable".

El argumento de Microsoft entonces era coherente, decíamos: si no les damos datos, es imposible que cosas como Project Oxford tenga sentido, pero es que al menos en el caso de Microsoft el propósito era también lógico. La idea era tener una herramienta para que los desarrolladores pudieran crear aplicaciones más potentes en ciertos escenarios.

Una vez más podemos dudar o no del propósito real de estos experimentos, pero es que en este nuevo experimento viral en el que han participado millones de usuarios todo parece un inocente juego con el que entretenerse comparando pasado y presente. Y puede, insistimos, puede que detrás de ese experimento haya mucho más de lo que parece.



via Magazine - robotica-e-ia http://bit.ly/2CpoThM

martes, 15 de enero de 2019

El mejor consolador tecnológico femenino que ha sido vetado en el CES

El sexo y la tecnología combinan a la perfección. Ambos componentes han hecho vibrar al CES de las Vegas, que ha celebrado recientemente su última edición con cierta polémica. Y es que en la mayor feria de electrónica de consumo no solo hemos podido ver las televisiones con resolución 8K o el coche volador. Los juguetes sexuales del futuro también han tenido su propio espacio. La feria ha sido testigo de cómo es ya posible disfrutar de «strippers» en 3D sin salir de casa. Basta con unas gafas de realidad virtual, un «smartphone» o tableta para poder disfrutar de un espectáculo íntimo gracias a la realidad aumentada. «No hay necesidad de dar propina», aseguró en tono de broma a AFP Andreas Hronopoulos, jefe de Naughty America, la compañía responsable de este nuevo servicio en el que el cliente puede incluso girar el holograma para disfrutar del espectáculo desde todos los ángulos. «Tenemos la intención de convertirnos en el club de 'striptease' más grande del mundo, abierto los 7 días de la semana, las 24 horas del día», asegura. Why go to the Strip Club when it can come to you? @DaisyStoneX gives a whole new meaning to a room with a view! Who's coming to your room/house tonight? Download your strippers here>>>https://t.co/Wkn0iY9xf3 pic.twitter.com/nvv9z2c5E5— Naughty America ® (@naughtyamerica) 9 de enero de 2019La industria del entretenimiento y la pornografía han sido durante mucho tiempo una fuerza impulsora en la popularización de las innovaciones tecnológicas. De hecho, los juguetes sexuales también han sido protagonistas en el CES. Se trata de un mercado muy lucrativo, que podría representar 37.200 millones de dólares en el mundo para 2022, según la compañía británica especializada en el sector MisteryVibe, que presentó Tenuto, un vibrador masculino que incluso se puede controlar desde el móvil a través de su aplicación. Mientras que para ellos la oferta que se expone es infinita, para ellas no lo es tanto. Es lo que asegura Lora Haddock, CEO de Lora DiCarlo, compañía creadora del mejor consolador femenino hasta la fecha jamás inventado: Osé. El «Santo Grial de los orgasmos» Este vibrador, que utiliza micro-robótica para imitar los movimientos de la boca de un ser humano, fue premiado en octubre por la Asociación de Tecnología del Consumidor (CTA, por sus siglas en inglés), organizadora del CES, con el premio honorífico en la categoría de Robótica y Drones del CES. Sin embargo, la organización decidió al mes siguiente quitarle el galardón, prohibiéndoles exhibir así a Osé en Las Vegas. Esta decisión ha generado una gran polémica. Para Lora Haddock se trata de una decisión machista al tratarse de un sector «dominado por los presidentes ejecutivos masculinos». La joven reseña cómo otras empresas exhiben sus robots sexuales con forma de mujer sin problema alguno. O permiten que se muestre todos los años pornografía en realidad virtual (en clara referencia a Naughty America, que lleva años exponiendo sus innovaciones en el CES), «lo que permite a los hombres ver pornografía en público a medida que los consumidores pasan. Claramente, la CTA no tiene problemas para permitir que la sexualidad masculina y el placer explícitos se muestren ostentosamente», asegura en su web. Lora Haddock considera que no se trata de la misma manera a Osé por ser un producto femenino «creado por mujeres para empoderar a las mujeres», que ha sido creado con el laboratorio de robótica de la Universidad Estatal de Oregón (EE.UU.) y que tiene ocho patentes pendientes de aprobación. La CTA ha asegurado que Osé «no debería haber sido aceptado para el Programa de Premios a la Innovación» y que «no encaja en ninguna» de sus «categorías de productos». De hecho, el vibrador fue descalificado por razones morales en base a las reglas de la entidad, que dictan: «Los candidatos que sean considerados por la CTA, con su exclusivo criterio, como inmorales, obscenos, indecentes, profanos o que no mantengan la imagen de la CTA, serán descalificados. La CTA se reserva el derecho de descalificar cualquier participante en cualquier momento que, según la opinión de la CTA, ponga en peligro la seguridad o el bienestar de cualquier persona, o que no cumpla con estas Reglas Oficiales». Haddock, que define a Osé como el «Santo Grial de los orgasmos», asegura que su equipo de ingenieros, «casi completamente femenino, está desarrollando una nueva tecnología micro-robótica que imita todas las sensaciones de la boca, la lengua y los dedos humanos» para que las mujeres obtengan una experiencia única con Osé. «Estamos hablando de robótica verdaderamente innovadora», asegura.

via Tecnología http://bit.ly/2Rv3oGC

Este curioso dispositivo afirma ser un filtro que evitaría que Google Assistant o Alexa nos escuchen en todo momento

Este curioso dispositivo afirma ser un filtro que evitaría que Google Assistant o Alexa nos escuchen en todo momento

Uno de los más grandes problemas que plantea el tener un altavoz inteligente en casa es la privacidad, ya que estamos hablando de un micrófono que está atento a recibir nuestras órdenes, y donde a pesar de que los mismos fabricantes aseguran que los micrófonos no están abiertos escuchando en todo momento, algunas personas no se sienten cómodas con esto.

Entonces, ¿qué solución hay para quienes desean controlar su hogar con la voz sin recurrir a un altavoz inteligente? A día de hoy sería hacerlo a través de un smartphone de forma manual, pero ya hay quienes aseguran haber creado una solución que tomaría el control de nuestro altavoz para que el micrófono se abra cuando nosotros lo deseemos.

Conocido como 'Project Alias', sus creadores afirman que se trata del "primer gran hack" para Amazon Echo y Google Home, incluso lo comparan con un virus o un parásito, ya que su funcionamiento dependería en este caso del altavoz inteligente, de quien tomaría el control en local, es decir, sin datos enviados en la nube, o al menos eso es lo que nos quieren vender. Veamos de qué se trata.

'Project Alias', o cómo hackear a tu altavoz inteligente en pro de nuestra privacidad

Se trata de un proyecto desarrollado por los hackers y diseñadores Bjørn Karmann y Tore Knudsen, quienes plantean una solución open source y que nosotros mismos podemos construir para crear, según explican, "un virus para las grandes empresas de tecnología".

Alias se basa en una cubierta impresa en 3D, que puede tener el diseño que deseemos, un micrófono, dos altavoces y una Raspberry Pi. Una vez que tengamos la base con los componentes configurados, lo siguiente sería colocarlo sobre el altavoz, ya sea un Amazon Echo o un Google Home, y a través de sus altavoces emitiría ruido blanco a los micrófonos del dispositivo, para así evitar que esté escuchando nuestras conversaciones en todo momento.

Alias Diagram Black

La clave de Alias sería su programación, ya que aquí podríamos elegir la palabra que "despertaría" al asistente, que podría ser distinta a la que se usa por defecto en los altavoces. Es decir, aquí podríamos elegir desde un nombre cualquiera hasta una frase con mayor complejidad, la idea sería tener nuevas opciones y un mayor grado de personalización.

Una vez configurada la palabra o frase, lo siguiente será pronunciarla, lo que en teoría apagaría el ruido blanco de los altavoces de Alias y pronunciaría la palabra que activaría al asistente, ya sea 'Ok, Google' o 'Alexa'. Después de esto, Alias quedaría en silencio para permitir que le hablemos a nuestro asistente para realice una acción.

La idea detrás de Alias es buena, ya que nos ofrece tener una capa adicional de privacidad sobre un dispositivo que hoy día plantea muchas dudas acerca de qué escucha y qué no, o cuándo lo hace. Y es que aquí nos aseguran que el altavoz inteligente sólo escucharía cuando nosotros lo deseemos y no en todo momento, lo que nos devolvería un poco ese control sobre nuestra privacidad.

Al tratarse de un proyecto de código abierto, se espera que más personas, ya sean desarrolladores o miembros de la comunidad maker, añadan funciones, diseños o nuevas capacidades. Hay que recalcar que no se trata de un dispositivo comercial, cada persona interesada deberá fabricarlo y programarlo por su cuenta con las instrucciones que encontramos en GitHub, por lo que será interesante ver las opiniones de aquellos que se atrevan a hacer uno y ver si cumple con lo que promete.

Alias Selected 5
Alias Selected 7


via Magazine - robotica-e-ia http://bit.ly/2HfvfWK