jueves, 31 de enero de 2019
El colchón inteligente que mide tu actividad sexual (y te puntúa)
via Tecnología http://bit.ly/2Sjyukc
El vídeo que pone el rostro de Steve Buscemi en el cuerpo de Jennifer Lawrence es un recordatorio del peligro de los deepfakes
Vídeos manipulados usando herramientas de inteligencia artificial para mostrar algo que no es real. De eso se tratan los 'deepfakes', esa tendencia que surgió en un inicio para crear vídeos porno falsos, donde se ponía el rostro de actrices famosas en los de actrices porno, y que con el tiempo ha saltado a diversas áreas que van desde el simple entretenimiento hasta cosas más serias y preocupantes, como la manipulación política.
A pesar de los intentos por prohibirlos, con subeddits cerrados, prohibiciones en redes sociales y webs porno y hasta demandas por parte de algunas actrices afectadas, los 'deepfakes' están aquí y sus efectos podrían ser desastrosos, ya que dan fuerza a 'fake news' y son ideales para intervenir en asuntos políticos. Hoy tenemos una nueva muestra de sus capacidades, y como veremos a continuación es algo realmente impresionante y aterrador.
No, Jennifer Buscemi no existe, aunque parezca real
El siguiente vídeo fue creado por el usuario de Reddit conocido como VillainGuy, quien lo publicó a inicios de este año. El vídeo nos muestra al actor Steve Buscemi en el cuerpo de la actriz Jennifer Lawrence durante una conferencia en los premios Golden Globe de 2016. Lo impresionante del vídeo es el nivel de sincronía entre ambos actores, llegando a un punto que incluso podríamos pensar que es real si no supiéramos que estamos viendo algo físicamente imposible.
Según la información, VillainGuy habría creado el vídeo usando la herramienta gratuita 'faceswap' y se habría dedicado a entrenar la inteligencia artificial con contenido multimedia en alta resolución de Buscemi. Después de varias horas de codificación y renderizado en un ordenador con GPU y procesador de gama alta, nació 'Jennifer Lawrence-Buscemi'.
El vídeo estalló hoy en redes sociales tras algunos señalamientos por parte de legisladores de los Estados Unidos, quienes alertaron sobre el peligro de los vídeos deepfakes ahora que se acercan las elecciones de 2020. De hecho, hay informes que apuntan a que el Departamento de Defensa de los Estados Unidos ya está trabajando con investigadores con el fin de encontrar la forma de detectar cuando un vídeo es falso o ha sido manipulado con herramientas como 'faceswap'.
Hoy día, se dice que un grupo de investigadores ya han desarrollado una herramienta que detecta cuando se trata de un vídeo deepfake, la cual se basa en el conteo, frecuencia y ritmo de los parpadeos que tiene la persona del vídeo, lo cual aseguran se ha convertido en la técnica más eficiente hasta el momento con un 95% de efectividad.
Siwei Lyu, profesor asociado de ciencias de la computación de la Universidad de Albany, comentó: "Un ser humanos adulto y sano parpadea de forma regular entre cada 2 y 10 segundos, y un solo parpadeo toma entre una décima y cuatro décimas de segundo. Eso es lo que sería normal ver en un vídeo de una persona que habla, pero no es lo que sucede en muchos videos 'deepfake'". Lyu también señala que con el paso del tiempo los vídeos deepfake perfeccionarán sus técnicas y cada vez será más difícil identificarlos.
Otro de los aspectos que preocupan de esta tecnología, más allá de los vídeos porno y las fake news, es que son posibles herramientas de chantaje para gente inocente, gente que no tiene los recursos para frenar la difusión de estos vídeos y que pueden desde dañar su imagen hasta convertirse en posibles sospechosos de un crimen.
Los políticos y los personajes famosos tienen la posibilidad de contratar un equipo que se haga cargo ante casos de difamación a través de vídeos deepfake, pero un ciudadano común no. Por ello, ahora mismo son la parte más vulnerable ante la explosión de esta tecnología. Sí, estamos ante una aterradora forma de dañar a personas inocentes por medio de vídeos falsos, los cuales tienen la capacidad de mostrarlos participando en actos violentos y criminales que nunca han cometido.
via Magazine - robotica-e-ia http://bit.ly/2FWddrf
miércoles, 30 de enero de 2019
Llegó el "Roomba para el jardín": iRobot nos presenta a 'Terra', su primer robot autónomo para cortar el césped
iRobot, el fabricante de los famosos robots aspiradores Roomba, está ampliando su línea de negocios llevando su tecnología fuera del hogar, concretamente al jardín. La compañía está haciendo oficial a 'Terra', un robot cortacésped autónomo, que funciona casi como los Roombas pero que en vez de aspirar corta el césped.
Terra emplea la misma tecnología de mapeo y movimiento autónomo que los Roomba, lo que cambia es el objetivo, además de algunas pequeñas modificaciones tanto en el diseño como en la forma de operar, esto para garantizar una buena operación al aire libre.
Por el momento sólo en beta para Alemania
Otra de las diferencias respecto a los Roomba, es que para delimitar el espacio a podar necesitaremos colocar unos beacons inalámbricos, los cuales emitirían una señal que se traducirá como una barrera para el robot Terra.
La operación de Terra también se hará a través de una aplicación móvil y conexión WiFi. Desde la app podremos monitorizar la actividad, conocer el estatus de la batería, las zonas podadas, programar rutinas e incluso definir la altura del césped para ajustar las cuchillas.
Según iRobot, la autonomía de Terra es de apenas una hora, mientras que el tiempo de recarga sería aproximadamente dos horas. Tal y como ocurre con los Roomba, Terra volverá a su base de carga cuando esté por descargarse su batería y volverá al trabajo cuando se haya recargado.
Su diseño lo hace completamente impermeable, ya que la idea es que viva al aire libre. Cuenta con un sistema de doble cuchilla modular con un sistema de muelles, que sirven para proteger el sistema en caso de que las cuchillas golpeen una roca u otro objeto. Además, en la parte frontal, Terra cuenta con una especie de parachoques que lo protege en caso de impactos no previstos.
iRobot está lanzando a Terra por el momento sólo en Alemania como parte de una beta para unos cuantos usuarios, pero la idea es lanzarlo de forma oficial tanto en Alemania como en Estados Unidos más adelante durante este año. Eso sí, la compañía no ha querido anunciar el precio, y los pronósticos apuntan a que no será muy barato.
via Magazine - robotica-e-ia http://bit.ly/2SeNAHD
domingo, 27 de enero de 2019
Los robots invaden el aula, pero todavía no sabemos para qué
via Tecnología http://bit.ly/2CMnfqF
sábado, 26 de enero de 2019
El aeropuerto de Gatwick tendrá un nuevo empleado: 'Stan', un robot autónomo que se encargará de aparcar coches
Los aparcamientos suelen ser un infierno, ya que primero debemos encontrar lugar, después calcular si el espacio es suficiente para nuestro coche, y finalmente esperar a que los dueños de los coches contiguos tengan el suficiente cuidado para que no golpeen tu coche. Y bueno, si hablamos de los servicios de valet parking entonces la cosa se complica, ya que no todas las personas están a favor de que un extraño conduzca sus vehículos.
Pues todo esto podría cambiar en un futuro y ya tenemos la primera solución. Se llama 'Stan' y es un robot autónomo "aparcacoches", con el cual todo pinta a beneficios, al menos sobre el papel. Conozcamos sus detalles.
Su uso permitirá ampliar las plazas de 170 a 270
'Stan' fue construido por una compañía francesa Stanley Robotics, que curiosamente inició desarrollando coches con sistemas de aparcado autónomo, pero se dieron cuenta que tenía más sentido usar la tecnología para mover los coches que tratar de implementar este sistema en todos los coches. Además de que también es mucho más barato.
La idea de 'Stan' es sencilla, se trata de un robot equipado con una plataforma que se encarga de levantar y mover los coches para llevarlos a un sitio dentro de un aparcamiento, donde lo mejor de todo es que no se necesita dejar las llaves o que el coche esté encendido. Veámoslo en funcionamiento.
Este robot ya ha sido usado en pruebas piloto tanto en el aeropuerto Charles de Gaulle de París, en 2016, como en el aeropuerto de Lyon, Francia, en 2017, donde por primera vez se implementó una versión diseñada para operar al aire libre y a gran escala.
Según la compañía, 'Stan' excedió las expectativas, ya que, según la compañía, su mayor ventaja es que se amplía la capacidad de los aparcamientos al no necesitar que los coches abran las puertas o se necesiten carriles o espacio adicional que permitan el movimiento de los vehículos durante todo el día.
Pero 'Stan' no puede operar solo, se necesitan instalaciones acondicionadas especialmente para su operación y un sistema automatizado de aparcamiento para los clientes. En primer lugar, sólo está diseñado para aeropuertos, donde el cliente tendrá que llegar y dejar su coche en una cochera donde encontrará una especie de quiosco, donde tendrá que capturar sus datos personales y de su vuelo, así como realizar el pago correspondiente.
Una vez con la información, el coche es etiquetado para que 'Stan' lo lleve hasta su sitio dentro del vasto aparcamiento, el cual dependerá de cuándo vuelva el cliente y así se pueda tener el coche listo para ser recogido. Por cierto, dentro del aparcamiento está prohibido el acceso a las personas, tanto por seguridad de ellas como de los vehículos.
Stan es capaz de mover coches de hasta 5,5 metros de largo y con un peso de hasta tres toneladas. El robot tiene la capacidad para recoger el coche por la parte delantera o por la trasera, lo que hace que no requiera realizar muchas maniobras dentro del aparcamiento.
Ahora, el aeropuerto de Gatwick, en Londres, acaba de cerrar un contrato para que 'Stan' empiece a operar en agosto de este año, lo que marca la primera vez que el robot sale de su país natal. El robot estará en la terminal sur donde operará las 24 horas como parte de una prueba piloto de tres meses. Una de las primeras ventajas, es que la llegada de 'Stan' permitirá ampliar la capacidad del aparcamiento de 170 a 270 plazas, además de la comodidad para los usuarios de aeropuerto.
via Magazine - robotica-e-ia http://bit.ly/2RRKOsq
viernes, 25 de enero de 2019
Para McLaren, conducir coches de F1 ya no será cosa sólo de humanos en 2050: deberán compartir cabina con las inteligencias artificiales
El fabricante de coches británico McLaren (propietario de la escudería de Fórmula 1 homónima) ha puesto en marcha un proyecto de investigación denominado 'MCLextreme' para reflexionar sobre cómo cómo serán las carreras de F1 en el año 2050.
En palabras del fabricante, su propuesta se basa en una investigación en la que han tenido en cuenta elementos como la velocidad y las tendencias actuales del desarrollo tecnológico, las previsibles circunstancias sociales y medioambientales, y los gustos y demandas de los aficionados a este deporte.
Del videojuego a la realidad
Lo que MCLExtreme plantea es un campeonato transformado por tecnologías como la inteligencia artificial, la electrificación y la realidad mixta. No todo habrá cambiado, claro:
"Esperamos que el coche del Gran Premio del futuro todavía conste de cuatro ruedas, tracción trasera y un humano en la cabina. Pero ahí terminan las similitudes".
Y es que, si las previsiones de McLaren se cumplen, muchos aficionados a los videojuegos verán materializarse sus más salvajes fantasías: coches convertibles (para añadir aerodinámica activa, hoy prohibida en la F1) que harán girar sus ruedas de "compuestos autorreparables" a 500 km/h por ## circuitos que parecerán sacados de Hot Wheels (más amplios y largos, con subidas, bajadas y curvas imposibles)...
Además, como serán coches eléctricos, no necesitarán parar en boxes para repostar, sino dar vueltas por "carriles de carga", que agregarán (mediante inducción) más o menos potencia según la velocidad del vehículo, permitiendo así conservar la relevancia de la estrategia de equipo.
¡Trata de arrancarlo, HAL!
Pero prácticamente todos los cambios citados no harán sino aumentar la complejidad (y, con ella, la peligrosidad) de las carreras, por lo que se proporcionará a los conductores una ayuda en forma de una inteligencia artificial que actúe como copiloto, y con la que pueda permanecer conectado en todo momento a través de un "enlace simbiótico" en su casco y de sensores en su traje.
Esta IA será capaz de aprender de su conductor, prediciendo sus preferencias, decisiones y estado de ánimo. Esto último permitirá iluminar la carrocería semitransparente de los coches de acuerdo al estado de ánimo del piloto. Pero más importante será la posibilidad de que la IA vaya diseñando una estrategia en tiempo real y mostrándola al conductor a través realidad aumentada en una pantalla holográfica. Según el informe:
"Las carreras podrían convertirse en una incubadora para el desarrollo de la inteligencia artificial, tal como lo ha sido para los simuladores, la tecnología de Big Data y la ciencia de materiales".
"El conductor del futuro recibirá menos información del pit y, en cambio, confiará en un copiloto de inteligencia artificial. Contar con una IA cada vez más potente e intuitiva será un elemento clave para el rendimiento en las carreras de Gran Premio hacia el año 2050".
Fast. Predatory. Instinctive.
— McLaren Applied Technologies (@McLarenApplied) 23 de enero de 2019
➡️ https://t.co/7S8y098gBP #MCLE #FutureGrandPrix pic.twitter.com/YrORiKaOcp
via Magazine - robotica-e-ia http://bit.ly/2DxjGqb
El día en que Zuckerberg mató una cabra y se la sirvió fría al fundador de Twitter
via Tecnología http://bit.ly/2FOXOsC
AlphaStar es la inteligencia artificial de DeepMind que ha logrado ganar 10-1 a los profesionales de 'StarCraft II'
Lo hizo al Go, lo hizo al ajedrez y ahora lo está haciendo en 'StarCraft II'. El sistema de inteligencia artificial AlphaStar desarrollado por DeepMind jugó en diciembre un torneo contra dos jugadores profesionales de este videojuego y ganó casi todas las partidas.
Lo hizo en condiciones algo especiales, pero aún así logró aplastarles por 5 partidas a 0 y solo hubo una ocasión en la que uno de esos jugadores logró superar a una versión nueva de AlphaStar que aún estaba en desarrollo. Las cosas pintan mal para los profesionales de 'StarCraf II', uno juego que planteaba un reto importante a los ingenieros de DeepMind y que una vez más se ha logrado superar con la llamada red neuronal de convolución.
'StarCraft II' también parece ya dominio de máquinas
La dificultad de este videojuego residía en que la máquina no tiene toda la información antes de realizar la jugada puesto que en Starcraft II el mapa se va desvelando a medida que las unidades van avanzando. La intuición y tratar de adivinar qué estará haciendo el oponente es muy importante, pero aún así la IA de DeepMind ha logrado ofrecer un nivel excepcional.
Ese resumen en vídeo solo ofrece algunas repeticiones del torneo que se celebró en diciembre y que enfrentó a AlphaStar con dos jugadores profesionales humanos, Grzegorz “MaNa” Komincz y Dario “TLO” Wünsch, de Team Liquid. Los jugadores humanos tenían confianza en lograr superar a la máquina, pero se encontraron con cinco derrotas consecutivas.
Las condiciones para el encuentro fueron algo especiales para los profesionales humanos. TLO normalmente juega con la raza Zerg, pero tuvo que jugar con Protoss, la única de las tres razas con la que de momento entrena AlphaGo. Perdió las cinco partidas y llegó el turno de su compañero, MaNa, que sí jugaba con Protoss y por tanto parecía más preparado para competir en igualdad de condiciones. No sirvió de nada, porque AlphaStar también le derrotó por cinco partidas a cero.
En estas partidas AlphaStar demostró tener una gestión excepcional de sus unidades, retirándolas cuando estaban dañadas y sustituyéndolas por unidades más fuertes al frente de cada batalla. Minimizaba daños propios y maximizaba los daños de los rivales, algo que iba más allá de la relevancia de las acciones por minuto (APM) que se pueden llegar a lograr en este juego, y que de hecho sorprendentemente eran superiores en el caso de los humanos. Las elecciones de AlphaStar, simplemente, eran mejores.
Los jugadores humanos se enfrentaron a un único sistema de inteligencia artificial, pero en realidad AlphaStar hizo uso de cinco agentes diferentes que habían sido entrenados con distintos objetivos, lo que revela que incluso esa variación del motor específico de IA era superior con esas variaciones. Para entrenarlos los sistemas jugaron anteriormente la llamada "AlphaStar League", una competición en la que los agentes jugaron una y otra vez durante una semana y "absorbieron" el equivalente a 200 años de partidas de StarCraft II entre humanos.
Para Komincz el resultado fue sorprendente: "me impresionó ver cómo AlphaStar hacía movimientos avanzados y estrategias distintas en todas las partidas, usando una forma de jugar muy humana que no me esperaba. Me he dado cuenta de cómo mi forma de jugar depende de forzar al contrincante a cometer errores y ser capaz de sacar partido de las reacciones humanas, así que esto le ha dado una nueva perspectiva al juego para mí".
Vía | Kotaku
via Magazine - robotica-e-ia http://bit.ly/2UeYYAD
jueves, 24 de enero de 2019
Huawei también se suma al «smartphone» plegable: lo presentará en el MWC de Barcelona y será 5G
via Tecnología http://bit.ly/2UcV0bK
Olvídate de planchar y limpiar: estas máquinas nos hacen las tareas domésticas
via Tecnología http://bit.ly/2T8yfpq
En la mente de la máquina
via Robótica http://bit.ly/2AY7BIT
miércoles, 23 de enero de 2019
Amazon inicia las pruebas de 'Scout', su primer robot mensajero autónomo en salir a las calles para entregar paquetes
Después de que Amazon estuvo muy activo probando drones para mensajería, cuyo proyecto sigue en pruebas e impulsando el tema regulatorio, hoy Amazon nos da la sorpresa al anunciar que esta sacando a las calles por primer vez a 'Scout', un robot autónomo pensado para hacer entregas Prime en pequeños vecindarios.
Bienvenidos a la era de los robots mensajeros y autónomos
A partir de hoy, seis robots Amazon Scout están disponibles para hacer entregas en el condado de Snohomish, Washington, como mencionaba, para entregas Prime ese mismo día. De acuerdo a la compañía, los robots son autónomos, eléctricos, funcionan con baterías recargables y cuentan con sensores para desplazarse por las calles y evitar obstáculos, cruzar las calles e identificar personas y animales.
Según Amazon, los nuevos robots Scout son del tamaño medio de una hielera y se mueven a muy baja velocidad, sin embargo, no especifican cómo es funcionamiento al momento de las entregas, y tampoco se habla de que si el robot será capaz de llevar paquetes para más de una persona.
Aquí suponemos que el funcionamiento será algo como lo implementado en sus Amazon Lockers, donde envían un código a nuestro móvil para recoger nuestro paquete. Aquí estaremos atentos a mayor información por parte de Amazon.
Amazon asegura que estos robots son completamente autónomos, pero durante este periodo de pruebas serán acompañados por empleado de Amazon que estará ahí para verificar que todo salga bien y no haya problemas.
Se cree que este proyecto es una nueva implementación que llegará a ampliar las capacidades de entrega de Amazon, y el cual en un futuro sería compatible con otras soluciones como Amazon Key, o la entrega de paquetes en el maletero de nuestro coche.
via Magazine - robotica-e-ia http://bit.ly/2RdEZRe
La nueva versión ‘policía’ del perro robot Aibo de Sony
El nuevo servicio, bautizado con el nombre de “Aibo Policía”, estará disponible para los propietarios de este perro inteligente a mediados de febrero con la próxima actualización del software, especificó la firma japonesa en un comunicado.
Hace un año, Sony lanzó una versión del pionero perro-robot creado en 1999 que incluía la capacidad de dar afecto a sus dueños, aprender nuevas palabras, gestos, órdenes y responder a éstas a través de un sistema de inteligencia artificial en la nube.
Con la función anunciada para 2019, la empresa nipona busca añadir una “sensación de seguridad” a la experiencia de “disfrute” de las personas que conviven con el animal.
En el marco de este servicio, Sony también anunció que comenzará una colaboración con la empresa de seguridad japonesa Secom con el objetivo de “proporcionar nuevas funciones y servicios” de vigilancia.
La próxima actualización de su software permitirá a Aibo elaborar un mapa de la casa, “patrullar” por sus espacios y mantener un registro de 10 personas, con nombres y caras, a las que será capaz de realizar un seguimiento.
A través de varios sensores y sus dos cámaras, en la nariz y por encima de su cola, el perro inteligente podrá cumplir tareas de “vigilancia” del hogar, que los dueños podrán programar a través de sus teléfonos inteligentes.
El gigante tecnológico informó también que a partir del 1 de febrero pondrá a la venta un modelo marrón y blanco del robot, que hasta ahora solo estaba disponible en blanco.
En su página web, la compañía precisó que la nueva función “no está pensada para el cuidado de enfermos, niños y ancianos” ni la “prevención de crímenes” e indicó que no se “responsabiliza” de los incidentes que puedan resultar de tal uso.
La mascota artificial tiene un precio de 198.000 yenes (1.481 euros), sin incluir los 90.000 yenes (673 euros) que los usuarios deben pagar cada tres años para que el robot pueda almacenar conocimiento en la nube y desarrollar así su personalidad. EFE
La entrada La nueva versión ‘policía’ del perro robot Aibo de Sony aparece primero en EFE futuro.
via EFE futuro http://bit.ly/2sFEqph
martes, 22 de enero de 2019
Este podría ser el invento del siglo: el robot que plancha, dobla y perfuma ropa en cuatro segundos
via Tecnología http://bit.ly/2sHcPEm
lunes, 21 de enero de 2019
Google ficha a un profesor de la Universidad de Alicante experto en visión robótica y en 3D
from INFORMACION - Tecnología http://bit.ly/2FBlyAr
via IFTTT
domingo, 20 de enero de 2019
Google ficha a un profesor de la Universidad de Alicante experto en visión robótica y en 3D
from INFORMACION - Tecnología http://bit.ly/2sB5zcV
via IFTTT
viernes, 18 de enero de 2019
A hombros de gigantes - Las TIC's consumirán el 20% de la energía mundial en 2025 - 21/01/19
La Inteligencia Artificial esta cada vez más presente en nuestras vidas. Se encuentra en las búsquedas de Google, en las plataformas de ocio y redes sociales; en las cámaras que reconocen las caras de la gente; en los asistentes personales como Siri, Alexa o Cortana; en los sistemas de toma de decisiones en empresas y mercados financieros; en robots industriales, equipos médicos, vehículos autónomos o en la predicción del tiempo que va a hacer mañana, por citar tan solo algunos ejemplos. Gracias a la capacidad de procesamiento de ingentes cantidades de datos, la Inteligencia Artificial nos facilita la vida y nos puede ayudar a afrontar grandes retos de la humanidad, como el calentamiento global, el envejecimiento de la población o las enfermedades crónicas. Pero todavía quedan asignaturas pendientes: el control de los datos, algoritmos sesgados, un consumo excesivo de energía y una brecha digital cada vez más profunda. De ello hemos hablado con Nuria Oliver, ingeniera de Telecomunicaciones, doctora por el MIT, directora de Investigación en Ciencias de Datos de Vodafone y miembro de la Real Academia de Ingeniería.
José Antonio López Guerrero nos ha informado del hallazgo en Polonia de un antepasado gigante de los mamíferos (un sinápsido) que rivalizó en tamaño con los dinosaurios. Nuria Martínez Medina ha dedicado un capítulo de nuestra Historia de la Ciencia al médico anatomista alemán Franciscus Sylvius, considerado el fundador de la escuela de medicina Iatroquímica del siglo XVII. Consideró que todos los fenómenos de la vida y la enfermedad se basaban en reacciones químicas y sus estudios ayudaron a una aplicación racional de las leyes universales de la Física y de la Química. En el Año Internacional de la Tabla Periódica, Bernardo Herradón nos ha comentado los libros “Nature's Building Blocks: An A-Z Guide to the Elements”, de John Emsley; y “La tabla periódica: Una breve introducción”, de Eric Scerri. Y Javier Cacho nos ha recordado como fue la primera vez que un ser humano puso el pie en el continente antártico, hazaña protagonizada por la expedición de Henry Johan Bull el 24 de enero de 1895.
Escuchar Audio
via Ciencia y tecnología en rtve.es http://bit.ly/2REKXzG
jueves, 17 de enero de 2019
Los robots pasan a la acción: pueden dejar de imitar y empezar a «pensar»
via Tecnología http://bit.ly/2RxHrqz
Así caminaban los primeros animales de cuatro patas
La investigación, liderada por John Nyakatura, de la Universidad Humboldt de Berlín, y Kamilo Melo, de la Escuela Politécnica Federal de Lausana (Suiza), revela que el desarrollo de la locomoción eficiente en tierra precedió a la evolución y diversificación de los amniotes (reptiles, aves y mamíferos).
Los tetrápodos o animales de cuatro patas desarrollaron varias adaptaciones que les facilitaron el movimiento y pudieron pasar de vivir en el agua a caminar sobre la tierra.
Dentro de los tetrápodos, el grupo de los amniotes se diversificó rápidamente y se ha asociado con el desarrollo de una caminata más eficiente y vertical, aunque los investigadores no han podido precisar el momento en que se produjo esta locomoción más avanzada.
Los expertos estudiaron distintos fósiles de Orobates pabsti, un género extinto de grandes reptiles similares a anfibios que fueron los primeros tetrápodos herbívoros y también los primeros animales exclusivamente terrestres de gran tamaño.
Vivieron hace unos 290 millones de años y se cree que están estrechamente relacionados con los amniotes.
Recreación robótica del movimiento
Los restos fósiles de Orobates pabsti permitieron revelar conocimientos sobre su movimiento y marcha, según la investigación.
Al combinar análisis de fósiles y rastreos de Orobates con mediciones de cuatro especies de anfibios y reptiles actuales, los autores elaboraron una reconstrucción digital de Orobates y una simulación robótica a la que llamaron “OroBOT”.
Con ella exploraron la plausibilidad y la efectividad de los posibles estilos de caminata y llegaron a la conclusión de que los Orobates eran probablemente capaces de caminar más erguidos, pudiendo haber evolucionado antes de lo que se pensaba hasta ahora. EFE
La entrada Así caminaban los primeros animales de cuatro patas aparece primero en EFE futuro.
via EFE futuro http://bit.ly/2svmn52
Este curioso robot fósil ha permitido saber cómo andaba un animal extinto hace 300 millones de años a partir de huesos y huellas
En ocasiones hemos mostrado robots que, de no ser por el amasijo de cables y metales cuya estructura muestra, podrían pasar por animales de carne y hueso. Y justamente esa fidelidad que la robótica y su mecánica han alcanzado es lo que ha servido para que esta especie de fusión entre robot y fósil muestre cómo andaba un animal que existió hace 300 millones de años.
Es algo así como un animatronic al que sólo le falta una capa de piel y músculo para que pase por reptil, pero más allá de la sensación de realidad que da lo que han conseguido estos investigadores es reproducir una pauta de movimiento a partir de huellas y huesos. Y tiene nombre: OroBOT.
Un robot que es "oro" para conocer el pasado
Se trata de una investigación realizada por unos ingenieros del EPFL y la Universidad Humboldt de Berlín. La intención era deducir cómo andaba el Orobates nabsti solamente a partir de sus fósiles y las huellas que se conxervan, un animal que fue algo así como un tatarabuelo muy antiguo de las salamandras y lagartos actuales.
El interés por conocer al máximo este animal extinto está en que figura en un punto de la evolución que aún relaciona reptiles, anfibios y mamíferos y a que es la criatura más antigua cuyos fósiles han podido relacionarse con unas huellas. De ahí que fuese un excelente candidato para llevar a cabo este estudio publicado ya en Nature.
Como veremos en el vídeo, lo que hicieron para mimetizar el movimiento es estudiar los andares de salamandras, caimanes, iguanas y eslizones con rayos X, de modo que atendían al grado de flexión de las articulaciones (codo, hombro y espalda) y cómo de efectos están. Con ello ya tenían la información para digitalizar los andares, creando distintas posibles pautas, y ahí es donde entra el OroBOT, ya que con él se puede hacer un estudio aproximado de la física de los andares del animal extinto.
Lo que hicieron con OroBOT es medir cuánta energía sería necesaria para el andando, su estabilidad, si encajaba con los rastros de huella y comparar la alineación de las fuerzas de las piernas con los animales actuales más parecidos. Y viendo que sus andares parecen más atléticos que los de algunos animales modernos, los investigadores concluyen que los andares del Orobates estaban en un estado de mayor evolución de lo que se creía.
Cada vez nos recuerdan menos a robots
El aparato locomotor es cuestión de física, además de todas las variables fisiológicas que integra como el metabolismo energético o la recuperación en caso de lesión. Teniendo en cuenta esto, la robótica representa un área de aproximación muy adecuada por la fidelidad que robots como éste o como el que vimos de imitación al salto de las ranas consiguen, y esa suavidad de los movimientos puede aprovecharse para dispositivos como prótesis electrónicas.
Otro robot que vimos que destacaba por cómo se mimetizaba era el robot pez autónomo del MIT, orientado a estudiar la vida marina de la manera menos intrusiva posible. Y bueno, luego está lo de la gente de Boston Dynamics, pero lo suyo ya roza lo espeluznante.
via Magazine - robotica-e-ia http://bit.ly/2CrrVCa
Foxconn cuenta ya con 100.000 robots que ensamblan sin parar millones de iPhones para que puedas comprarlos
via Tecnología http://bit.ly/2W65BXY
miércoles, 16 de enero de 2019
Los robots ya no solo imitan
via Robótica http://bit.ly/2QQ8E2t
El experimento viral del #10yearchallenge pueden tener truco: es un caramelo para entrenar sistemas de reconocimiento facial
Probablemente muchos de vosotros viérais esa publicación viral que estos últimos días ha triunfado en Facebook, Twitter e Instagram. El meme animaba a todos los usuarios a compartir imágenes comparando su foto en 2009 con otra de 2019.
El éxito de los hashtag #2009 o #10yearchallenge está siendo enorme en todas esas redes, pero hay quien ha alertado ya de cómo este tipo de experimento puede haber sido una mina de oro para entrenar sistemas de reconocimiento facial.
Un experimento irresistible para los usuarios (y para quienes recolectan datos)
Lo comentaba Kate O'Neill, editora de Wired, en Twitter y en un artículo en su publicación en el que avisaba de cómo este tipo de publicaciones en redes sociales pueden tener una finalidad muy distinta a la de hacer que disfrutemos con esas comparaciones entre lo que fue y lo que es.
Me 10 years ago: probably would have played along with the profile picture aging meme going around on Facebook and Instagram
— Kate O'Neill (@kateo) 12 de enero de 2019
Me now: ponders how all this data could be mined to train facial recognition algorithms on age progression and age recognition
La reflexión es válida: todas esas fotos que la gente ha subido a las redes sociales para comparar su aspecto, el de otros, o el aspecto de lugares y objetos antes y ahora son una sencilla forma de entrenar sistemas de recocimiento de imágenes y de reconocimiento facial.
De repente los usuarios se han convertido sin saberlo en potenciales ayudantes de Facebook, Twitter o Instagram si estas redes quieren usar esas fotos para entrenar esos algoritmos.
Que lo hagan o no ya es otra cosa: no existen pruebas de que esas fotos se hayan usado para ese propósito, pero lo cierto es que Facebook lleva años desarrollando este tipo de soluciones, y sus últimos escándalos en materia de privacidad hacen que al menos la sombra de la duda esté presente.
Hay por supuesto argumentos en contra de esas sospechas. Es cierto por ejemplo que muchos de los datos que los usuarios han publicado ya están disponibles en otras plataformas, pero sobre todo en el caso de las fotos de 2009 es más raro que hubiera fotos publicadas en internet, y esa comparación con las de 2019 hace que para quienes entrenan sistemas de reconocimiento facial esa información pueda ser realmente valiosa.
De repente los usuarios han etiquetado y clasificado millones de fotos de forma precisa, algo que ni el mejor algoritmo podría hacer porque la gente no publica (habitualmente fotos de alguien que se parece a ellos, sino de ellos, sin más.
Microsoft también aprovechó estos experimentos virales
Esa gula digital que es propia de las grandes corporaciones tecnológicas no es nueva, y de hecho hace tres años hablábamos del caso de Microsoft, cuyo Project Oxford estaba teóricamente orientado a que los desarrolladores pudieran crear aplicaciones más inteligentes... con nuestros datos.
¿Cómo se lograban esos datos? Pues con experimentos virales como el que acaba de aparecer en redes sociales. En Microsoft lanzaron simpáticos servicios que invitaban a muchos a subir su foto para que esos algoritmos le calculasen su edad (How-Old.net), la longitud de su bigote (My Moustache) o le encontrasen un gemelo fantasma, un doppelgänger.
Hablábamos en aquel momento de que en iniciativas como la de How-Old.net los términos de uso eran inquietantes: "Al publicar, subir, introducir, proporcionar o enviar ("Publicar") tu Envío estás cediéndole a Microsoft, sus empresas afiliadas y a sus sublicencias necesarias el permiso para que utilicen tu Envío en relación con la operativa de sus negocios en Internet".
Esos negocios en internet incluyen, por supuesto, el desarrollo de sistemas de reconocimiento facial, aunque en Microsoft quisieron acallar las críticas usando el viejo mantra de todas estas empresas: "no compartimos ni almacenamos imágenes o información personal identificable".
El argumento de Microsoft entonces era coherente, decíamos: si no les damos datos, es imposible que cosas como Project Oxford tenga sentido, pero es que al menos en el caso de Microsoft el propósito era también lógico. La idea era tener una herramienta para que los desarrolladores pudieran crear aplicaciones más potentes en ciertos escenarios.
Una vez más podemos dudar o no del propósito real de estos experimentos, pero es que en este nuevo experimento viral en el que han participado millones de usuarios todo parece un inocente juego con el que entretenerse comparando pasado y presente. Y puede, insistimos, puede que detrás de ese experimento haya mucho más de lo que parece.
via Magazine - robotica-e-ia http://bit.ly/2CpoThM
martes, 15 de enero de 2019
El mejor consolador tecnológico femenino que ha sido vetado en el CES
via Tecnología http://bit.ly/2Rv3oGC
Este curioso dispositivo afirma ser un filtro que evitaría que Google Assistant o Alexa nos escuchen en todo momento
Uno de los más grandes problemas que plantea el tener un altavoz inteligente en casa es la privacidad, ya que estamos hablando de un micrófono que está atento a recibir nuestras órdenes, y donde a pesar de que los mismos fabricantes aseguran que los micrófonos no están abiertos escuchando en todo momento, algunas personas no se sienten cómodas con esto.
Entonces, ¿qué solución hay para quienes desean controlar su hogar con la voz sin recurrir a un altavoz inteligente? A día de hoy sería hacerlo a través de un smartphone de forma manual, pero ya hay quienes aseguran haber creado una solución que tomaría el control de nuestro altavoz para que el micrófono se abra cuando nosotros lo deseemos.
Conocido como 'Project Alias', sus creadores afirman que se trata del "primer gran hack" para Amazon Echo y Google Home, incluso lo comparan con un virus o un parásito, ya que su funcionamiento dependería en este caso del altavoz inteligente, de quien tomaría el control en local, es decir, sin datos enviados en la nube, o al menos eso es lo que nos quieren vender. Veamos de qué se trata.
'Project Alias', o cómo hackear a tu altavoz inteligente en pro de nuestra privacidad
Se trata de un proyecto desarrollado por los hackers y diseñadores Bjørn Karmann y Tore Knudsen, quienes plantean una solución open source y que nosotros mismos podemos construir para crear, según explican, "un virus para las grandes empresas de tecnología".
Alias se basa en una cubierta impresa en 3D, que puede tener el diseño que deseemos, un micrófono, dos altavoces y una Raspberry Pi. Una vez que tengamos la base con los componentes configurados, lo siguiente sería colocarlo sobre el altavoz, ya sea un Amazon Echo o un Google Home, y a través de sus altavoces emitiría ruido blanco a los micrófonos del dispositivo, para así evitar que esté escuchando nuestras conversaciones en todo momento.
La clave de Alias sería su programación, ya que aquí podríamos elegir la palabra que "despertaría" al asistente, que podría ser distinta a la que se usa por defecto en los altavoces. Es decir, aquí podríamos elegir desde un nombre cualquiera hasta una frase con mayor complejidad, la idea sería tener nuevas opciones y un mayor grado de personalización.
Una vez configurada la palabra o frase, lo siguiente será pronunciarla, lo que en teoría apagaría el ruido blanco de los altavoces de Alias y pronunciaría la palabra que activaría al asistente, ya sea 'Ok, Google' o 'Alexa'. Después de esto, Alias quedaría en silencio para permitir que le hablemos a nuestro asistente para realice una acción.
La idea detrás de Alias es buena, ya que nos ofrece tener una capa adicional de privacidad sobre un dispositivo que hoy día plantea muchas dudas acerca de qué escucha y qué no, o cuándo lo hace. Y es que aquí nos aseguran que el altavoz inteligente sólo escucharía cuando nosotros lo deseemos y no en todo momento, lo que nos devolvería un poco ese control sobre nuestra privacidad.
Al tratarse de un proyecto de código abierto, se espera que más personas, ya sean desarrolladores o miembros de la comunidad maker, añadan funciones, diseños o nuevas capacidades. Hay que recalcar que no se trata de un dispositivo comercial, cada persona interesada deberá fabricarlo y programarlo por su cuenta con las instrucciones que encontramos en GitHub, por lo que será interesante ver las opiniones de aquellos que se atrevan a hacer uno y ver si cumple con lo que promete.
via Magazine - robotica-e-ia http://bit.ly/2HfvfWK