viernes, 30 de agosto de 2019

Por primera vez un robot consigue despegar, volar y aterrizar un avión de forma autónoma y sin humanos a bordo

Por primera vez un robot consigue despegar, volar y aterrizar un avión de forma autónoma y sin humanos a bordo

Los robots ahora van por los pilotos de avión. Y ojo, no nos referimos al piloto automático con el que cuentan las aeronaves hoy día, nos referimos a un verdadero robot autónomo capaz de despegar, volar y aterrizar un avión siguiendo un plan de vuelo y operando la aeronave sin la intervención de un humano.

Se llama ROBOpilot y se trata de un proyecto en conjunto entre el Laboratorio de Investigación de la Fuerza Aérea (AFRL) y DZYNE Technologies, que consiste en un kit que se instala en la cabina de los aviones para hacerlos autónomos. De hecho, ROBOpilot ya efectuó sus primeros vuelos y hasta recibió su licencia de piloto por parte de la Administración Federal de Aviación de Estados Unidos (FAA).

El primer robot con licencia para volar en el mundo

Según explican, ROBOpilot es sistema 'drop-in', lo que significa que se instala en la cabina tras retirar los asientos, como si fuese el piloto del avión. Su mayor ventaja es que, afirman, se trata de una opción fácil y rápida, que no requiere modificar los sistemas del avión, sólo se necesitan unas horas para instalar y convertir la aeronave en autónoma, y un par de horas para retirar todo y que el avión vuelva a su estado original.

La idea de este sistema nació con el objetivo de poder adaptar aeronaves civiles rápidamente a aviones autónomos sin modificaciones permanentes en el avión.

El pasado 9 de agosto, ROBOpilot fue adaptado a un avión Cessna 206 y emprendió su primer vuelo en el Dugway Proving Ground en Utah, Estados Unidos. Tras programar el plan de vuelo, el sistema logró despegar, volar durante dos horas sobre Dugway y aterrizó sin problemas, sin una sola personas dentro del avión, según explican.

Tras este vuelo, la FAA otorgó la licencia de piloto a ROBOpilot con la que tiene autorización para pilotar aviones ligeros, siendo ésta la primera licencia que se otorga a un sistema robótico autónomo de vuelo.

Sin embargo, no todo son buenas noticias, ya que tras el primer vuelo del 9 de agosto, a la siguiente semana ROBOpilot efectuó un segundo vuelo que terminó en un "incidente", del cual no se tienen detalles o información acerca de si hubo daños.

ROBOpilot está equipado con actuadores, cámaras de visión computarizada para "leer" los indicadores del tablero, sistemas de energía y un brazo robótico, lo cual, aseguran, le permite hacer todas las tareas que hace actualmente un piloto.

Cessna 206 Robopilot El avión Cessna 206 donde ROBOpilot efectuó su primer vuelo.

ROBOpilot no es el primer sistema robótico autónomos para pilotar aviones, anteriormente ya han surgido proyectos como Pibot, desarrollado en Corea del Sur, y ALIAS, del Departamento de Defensa de los Estados Unidos. Sin embargo, ninguno de estos ha conseguido volar un avión de tamaño completo por sí solo como ROBOpilot.

Según los responsables del proyecto, ROBOpilot podría ayudar en tareas como transporte de carga, el volar sobre zonas peligrosas, en misiones de inteligencia, vigilancia o de reconocimiento. Por otro lado, mencionan que aún hay varios retos por enfrentar antes de que se piense en usar este sistema para el transporte de pasajeros.



via Magazine - robotica-e-ia https://ift.tt/2zAKeUB

miércoles, 28 de agosto de 2019

Mulán: así es la camarera robot valenciana que llama «cariño» al cliente del restaurante

Se llama Crensa y es un restaurante que abrió este lunes en el barrio valenciano de Benimaclet, pero con algo que le hace único en España: sus dos camareras son robots, responden al nombre de Mulán y sirven los pedidos con tanta educación como al pedir paso para llevar sus platos y llamar «cariño» al cliente. Los robots, que reclaman que se les despeje el camino con un «déjeme pasar, por favor», sirven la comida con dulzura y un «que aproveche, cariño», son la gran novedad de este establecimiento de comida asiática en un barrio en constante evolución, al noreste de la ciudad. El dueño del restaurante, el chino Erick Yan, ha asegurado a Efe que «seguirá su expansión» con al menos dos establecimientos más en la ciudad antes de intentar exportarlo al resto de España. El lema que preside su web es: «Excelencia culinaria elevada por la tecnología». Yan ha afirmado que las comandas de estos nuevos camareros son bastante sencillas por el momento, pese a que espera poder «enseñarles» trabajos más difíciles, como cobrar o que los clientes les pidan. Debido a esto, por el momento no olvide darle al botón de «salida», para que Mulán vuelva a su lugar, a menos que quiera ser observado mientras degusta los platos de este restaurante asiático. Los robots de sala están equipados con bandejas para llevar a los clientes sus pedidos y los seis de cocina cuentan con procesadores inteligentes que agilizarán el trabajo. No obstante, el restaurante estará complementado por los trabajadores del establecimiento, ya que los autómatas «no son sustitutivos del personal», ha aseverado Yan, aunque matiza: «Todo llega». El propietario ha explicado que en diversos países asiáticos, como China o Japón, los robots «ya son una realidad» en los restaurantes, además de bromear con que «allí, lo que vemos en las películas en las que nos muestran el futuro es lo que se intenta imitar». La decoración futurista del local complementa la presencia de los dos robots de sala, de colores blanco y rojo, apariencia femenina, metro y medio de altura y cabeza redondeada con ojos y labios rojos, con un pañuelo anudado al cuello. Previamente a la apertura del local -donde pueden degustarse desde arroces asiáticos hasta tallarines, pasando por tempuras, rollitos, ramen y verduras-, los nuevos empleados del restaurante han tenido que «entrenar» para habituarse a trabajar con los robots y, además, contar con la última tecnología en la cocina.

via Tecnología https://ift.tt/2ZlTpYg

martes, 27 de agosto de 2019

Por qué Tesla va por delante en la carrera por el coche autónomo

Por qué Tesla va por delante en la carrera por el coche autónomo

No, este no es otro aburrido artículo lleno de tecnicismos y vaguedades. Aquí explico de qué va eso del machine learning de modo que, cuando termines de leerlo, seas capaz de explicarle a tu abuela cómo estamos enseñando a los coches a conducir solos. Bueno, igual no, pero andará cerca la cosa.

Lo primero que debes tener claro es cuáles son y en qué consisten las distintas formas de enseñar cosas a las máquinas. De eso va la parte uno. Una vez sepas eso, entender los varios retos que nos separan de construir robotaxis será pan comido. Esa es la verdadera gallina de los huevos de oro:

Ark El optimismo de ARK es controvertido, pero sirve para que te hagas una idea de por qué uso "coche autónomo" y "robotaxi" como sinónimos. Sí, trillions con T. Casi 10 veces el PIB español en 2030. UBS y McKinsey lo ponen en 2 y 5, respectivamente. Fuente: ARK.

El punto dos te ayudará a formarte una opinión propia sobre la estrategia de Tesla y otras compañías al respecto. Como en el primero, intentaré ser lo más imparcial posible, pero soy fan de Musk y tengo acciones suyas. Quien avisa no es traidor, la verdad por delante.

Además, explico varias ideas de Trent Eady, un analista especializado en el tema. A mí me daría mil vueltas aunque fuese un experto en conducción autónoma, cosa que no soy: esto es un resumen amateur. Vale la pena comprobarlo ahora mismo y seguir leyendo luego. En serio, id.

Uno: Cómo enseñar a conducir a un robot

Grosso modo, nuestro robotaxi debe poder (1) entender su entorno, (2) predecir al resto de conductores y (3) conducir en general (frenar, acelerar, girar, etc.). Hay varias formas de enseñarle a hacer esto; todas en inglés. Aquí explico las dos más importantes. Empieza pensando en el ajedrez.

Imitation learning: pues eso, imitar a los humanos. Como la única regla a seguir es copiar nuestra forma de jugar, al robot no le hace falta deducir las normas: con copiar a los mejores ya nos machaca. Sin embargo, le costará llegar a un nivel sobrehumano (problemilla) y ser creativo (problemón).

16698333427_101b3dbaea_o.jpg

Reinforcement learning: prueba y error. Si fallas, palo; si aciertas, zanahoria. Como a R2D2 le gustan las zanahorias y odia los palos, tenderá a buscar aquéllas y huir de éstos. Deducirá las reglas, inventando su propia forma de jugar por el camino. Tendrá más fácil ser sobrehumano, pero seguirá sin saber improvisar ante una situación inesperada.

Bien, ya tienes las dos herramientas conceptuales básicas para enseñar a tu robot juegos simples y con normas fijas. Vayamos con las dos grandes particularidades que impiden meter a los robotaxis en tal categoría.

Problema 1: complejidad. Conducir no es tan simple como un juego de mesa. Videojuegos como StarCraft ilustran mejor cómo la fuerza bruta se pierde si hay demasiadas opciones: usa trabajadores para minar recursos con los que construir los edificios que los entrenan para ser soldados. El ajedrez tiene cientos de posibles movimientos por turno. El Go, cientos de miles. StarCraft, 100 cuatrillones. Para, coge un papel y escribe 26 ceros.

  • Solución: enfoque mixto. Prueba y error partiendo del nivel humano. Bastante de cajón: ¿empezar sin ningún criterio o al nivel de Kaspárov? Construir sobre lo aprendido por humanos acota increíblemente el reto de superarlos: evita partir de cero, disparar -literalmente- a voleo, permitiendo que nos centremos en mejorar lo que ya sabemos hacer.
Starcraft Cuesta exagerar el brutal reto que ha supuesto StarCraft. Más allá de los posibles movimientos, sufre información imperfecta (sin exploradores, no ves a los demás actores), gran horizonte temporal (al conducir es cosa de segundos, pero aquí todo tiene consecuencias a largo plazo) o causalidad difusa (¿cuáles de las miles de decisiones tomadas tienen el mérito (o la culpa) de ganar o perder?).

Problema 2: extrapolación. Nuestra solución mixta no improvisa, sólo repite lo que le funcionó en situaciones parecidas, así que requerirá mucha práctica para dominar la curva de situaciones posibles. El 99% de casos habituales es pan comido, el quid son las colas largas, el 1%, lo que pasa una vez por millón kilómetros. Un incendio, un centauro, cosas raras.

  • Solución: Big Data. Cuanto más practiques, menos situaciones inesperadas podrán sorprender a tu robotaxi. Dominar Dota, otro videojuego del estilo, llevo a OpenAI 675 millones de partidas. Google necesitó dos mil millones con StarCraft. 45.000 y 60.000 años de juego, respectivamente. Sin pausa alguna: 24 horas al día, 7 días por semana.
Tesla Autonomy Day Centro izquierda: un coche carga una bici. ¿Cómo enseñar al robotaxi que, a diferencia de todas las que ha visto hasta ahora, esa bici no va a moverse de ahí? Con más ejemplos como este. Como es poco común, necesitará millones de km para tener bastantes ejemplos. Más datos son menos sorpresas.

El mundo digital acelera mucho el proceso: un mismo programa puede practicar entrenando en varios ordenadores a la vez (Google utilizó hasta 300). Pero conducir es cosa del mundo real. Y no queremos pasar decenas de miles de años entrenando a nuestro robot conductor, ¿verdad?

No me malinterpretes: lo digital puede echar un cable. Entrenamos a los robots en simulaciones antes de lanzarlos a la carretera (los experimentos, con gaseosa). Útil para dominar el centro de la curva, no las colas largas. De poder simular todas las situaciones posibles seríamos un Demiurgo. Luego... ¿cómo poner en práctica nuestras soluciones sin ser Dios?

Dos: La moto que vende Elon Musk

Todo el mundo cree en el enfoque mixto y en perfeccionarlo con Big Data. No se debate el qué, sino el cómo. Vayamos ahora con el plan, el cómo, de Tesla; ya decidirás luego si crees que venden crecepelo o penicilina. Aquí también tenemos un montón de anglicismos extraños y a ti vuelven a interesarte sólo dos. A saber: mente enjambre y modo sombra.

Sobra decir que, de ser la conducción autónoma puro humo -y puede serlo- o algo muy lejano, tendrán que conformarse con sus coches, baterías y paneles solares. Pero, si hubiera una pizca de acierto en sus ambiciones, Elon Musk lideraría una de las mayores disrupciones de la historia. Y forrándose, que nunca está de más. Por mal que te caiga, sonar, suena bien.

Otra fuente de eterna controversia es el encaje legal que tendría algo así (no solamente por cuestiones éticas, vista la violencia contra Uber de esa mafia gremial que es el taxi). Pero esto va de tecnología: veníamos a explicar cómo funciona la bombilla, no qué opina la vela. Vamos al grano.

  • Cómo recoger datos: compra un coche, ponle sensores y contrata a dos informáticos que lo vigilen mientras conduce. Suena caro, ¿eh? Lo es. Por eso Google sólo tiene 600. Pero Tesla se lo ahorra: el cliente paga coche y sensores y no cobra por horas. Por eso es la única con datos suficientes para resolver el 1%: tiene 643.095 coches. 27.000 años de conducción 24/7 cada 12 meses. Y suma 100.000 coches por trimestre.
Tesla Autopilot Estimated Miles 1024x570 Tesla vende cada vez más coches. En los últimos 3 meses, casi tantos como en 2017. En 2019 podría casi duplicar su flota, para hacerlo de nuevo en 2020. Fuente: MIT - Lex Fridman.
  • Qué datos recoger: hay debate. Tesla cree que cámaras, radares y ultrasonidos bastan. Casi todos los demás creen que esos tres necesitan la redundancia de un láser (LiDAR). Sea así o no, su prohibitivo precio actual hace imposible ponerlo en coches de particulares, relegándolo a flotas como la de Google... Demasiado pequeñas para lidiar con el 1%.

Combinarlos ya abarca lo que LiDAR y más (luces, colores, gestos faciales). No es que Tesla les dé más importancia que el resto, sino que nadie más tiene una flota lo bastante grande para entrenar esos sensores con Big Data.

Lidar Como combinar otros sensores ya cubre todos los frentes, se duda que LiDAR sea necesario. Tesla quiere dominar el resto de retos sin él. Si termina resultando crucial, sólo les quedaría añadirlo cuando tenga un tamaño y precio adecuados para instalarlo en masa. La idea, claro, es que para entonces los demás seguirán estancados por la falta de datos inherente a las flotas pequeñas. Fuente: UnitedLex.
  • Cómo aplicar la solución mixta. Modo sombra: un Tesla contrasta cada decisión del conductor con la que habría tomado el piloto automático. Cada diferencia se analiza como posible error (puede no serlo, al fin y al cabo, el objetivo no es la mera imitación, sino llegar a ser sobrehumano); cada segundo sin ella computa como acierto. He ahí la preciada prueba y error partiendo de la experiencia humana. Ahora súmale esteroides: su flota se actualiza subiendo a la nube lo vivido por cada coche, una mente enjambre que aprende del mundo físico a ritmo digital.
Tesla Autonomy Day 2 Entrenar a cada robotaxi durante miles de millones de kilómetros es demasiado caro, pero Tesla es una colmena: todo coche aprende de los demás en la nube. Ante un caso raro, piden ayuda al enjambre: '¡mandadme más imágenes como esta!'. Inmediatamente, la colmena entera asume que esas bicis no eran vehículos en movimiento, sino parte del coche. Así conquistan el 1%: poco a poco, caso a caso.

Empezábamos con tres retos: "ver", anticiparse al resto de vehículos y conducir. Con el machine learning actual, dependen del Big Data por los problemas de la complejidad y de la extrapolación. En ese terreno de juego, por cada caso que sólo ocurre cada 10 millones de millas, Tesla tiene 650 ejemplos. Google sólo tiene 1 (y, en casos más raros, ninguno).

Ese es el argumento de Tesla: somos los únicos con los ingredientes de la receta existente. Todos los demás necesitan inventar una receta nueva, un machine learning capaz de funcionar con datos escasos. Una revolución así afectaría a todos los sectores de la economía. No es imposible, y si tuviera que apostar por alguien para liderarla sería Google (que ya se ha resignado a poner manos a la obra), pero vaya hándicap.

En román paladino: todos menos Tesla andan faltos de datos, con o sin LiDAR (aun ahorrándoselo seguirían sin poder pagarse una flota decente). Es decir, tienen que reinventar la rueda. Los que no son Google, además, tienen el reto extra de, bueno, no ser Google; menos talento y recursos.

Big Data Todo se entiende mejor con memes.

¿Hay Plan B? Sí, usar ayuda humana: machine learning híbrido (27:00). El ojo humano puede distinguir objetos y patrones con un solo ejemplo, pero supone tal cuello de botella que impide aprender a ritmo digital. Además, mientras haya situaciones que aún no has visto ni una mísera vez, a lo mejor puedes gatear sin Big Data, pero no llegar a la meta.

Ni siquiera Google es optimista al respecto: creen que con su alternativa quedan años para tener vehículos autónomos a gran escala (59:00). En el minuto 50:00 profundiza en cómo el 1% se vuelve aún más infranqueable a gran escala. Este hilo de Trent resume sus problemas con las colas largas.

Por su parte, Wall Street hace oídos sordos a la complejidad del sector. Mientras el CEO de Waymo, la división que Google está dedicando al tema, cree que jamás podrá automatizarse por completo la conducción, se ha valorado su tecnología en 175.000 y hasta 250.000 millones de dólares (!). Toda Tesla, incluyendo coches, baterías y paneles, se valora hoy en 42.000. Aquí expliqué por qué vale mucho más, pero miremos al resto de actores:

  • Primero hay las startups que no aspiran a crear un coche autónomo, sino a mejorar una tecnología concreta para vendérsela a alguien. Sus valoraciones no son moco de pavo, sin embargo: 15.000 millones por Mobileye (cámaras) o 29.000 por NavInfo (mapas), por ejemplo.

  • Para las plataformas de movilidad, esto es cosa de vida o muerte. SoftBank ha comprado todas (en serio, todas) y quiere a Uber de líder. Problema: miles de conductores no son miles de robotaxis con sensores. De esos sólo tienen 250, y ni ahorrándose LiDAR podrían comprar más. Por 7.000 millones te venden su división autónoma, que necesitan cash.

  • Finalmente, GM parece el único candidato serio del sector automotriz. Problema: Detroit no puede competir en software con Silicon Valley. Vende 40 veces más coches que Tesla, pero no les pone sensor alguno. Su estrategia es idéntica a la de Googl...Uber, pero con 130 coches. Tal cual. Esta monada de proyecto se valora en 19.000 millones de dólares.

Su modelo de negocio no permite instalar tal oneroso hardware, y van tremendamente retrasados en tecnología, dependen demasiado de sus proveedores y son incapaces de integrar hardware y software. En consecuencia, Tesla sienta el listón de la conducción autónoma para masas.

Pierre Ferragu, analista de New Street

Resumiendo: no sabemos qué caminos llevan a la conducción autónoma. Sumar Big Data al enfoque mixto funcionó con otros retos parecidos, y Tesla es la única con ejemplos bastantes para aplicarlo aquí, pero todo depende de cuál es el número de situaciones fundamentalmente nuevas. Si resulta haber un 10% de casos raros y no un 1%, la cosa se eterniza.

Tal incertidumbre se plasma en que todos, incluida Tesla, llevan años retrasando sus metas. Pero cabe destacar que el resto aún no sabe cómo solucionar su falta de datos, desventaja estructural que el mercado ignora. Pone al resto por las nubes mientras parece dar valor cero a su división. Hasta Morgan Stanley o UBS, grandes Tesla-escépticos, lo han denunciado.

Ni siquiera sabemos si es imposible o no automatizar la conducción, vaya. Pero los próximos 12 meses pintan bien: si Tesla está en lo cierto, su ventaja debería hacerse exponencial; si no, tocará repensar su estrategia. Eso no significa que en 2020 habrá robotaxis, claro. Hay tareas pendientes.

En cualquier caso, vista la dificultad de igualar siquiera el actual asistente de conducción de Tesla, la conducción semi-autónoma ya es un foso defensivo creciente frente a competidores como BMW o Audi. Ese es el tipo de ventajas competitivas que buscan los buenos inversores.

Y tú, ¿apostarías por datos y fuerza bruta o por que Google creará antes una receta nueva? ¡Déjanoslo aquí debajo! La información es poder, Cersei.

Imagen | Bilder fra Stortinget



via Magazine - robotica-e-ia https://ift.tt/2U50rdW

lunes, 26 de agosto de 2019

Los Kiwibots que reparten comida no van solos: se descubre que los controlan operadores en Colombia por 2 dólares la hora

Los Kiwibots que reparten comida no van solos: se descubre que los controlan operadores en Colombia por 2 dólares la hora

Parecía inevitable que con la era del coche autónomo aparecieran ideas como los Kiwibots, pequeños vehículos aparentemente autónomos que se encargaban del reparto de comida planteando así una alternativa a servicios de mensajería como Glovo, Deliveroo o Uber Eats en los que esos repartos los realizan mensajeros humanos en bici.

Todo parecía fantástico hasta que se ha descubierto que esos vehículos tienen poco de autónomos: una investigación ha descubierto que en realidad estos robots están controlados remotamente por operadores en Colombia que cobran 2 dólares a la hora por este trabajo.

Recordando a R2-D2

Los sistemas autónomos de transporte son una de las grandes promesas del futuro: los drones que algunas empresas como Amazon están tratando de utilizar para la entrega de pedidos son un claro ejemplo de ello, pero una pequeña startup creada en la Universidad de Berkeley, en California, parecía tener una alternativa fantástica.

Wiki2

Dicha startup, llamada Kiwi Campus, lanzó unos pequeños robots que parecían pequeños carritos con cuatro ruedas y un depósito en su parte superior en la que se encontraba el pedido que entregar. Los robots se convirtieron en una sensación en los alrededores de esa universidad, donde comenzó la actividad de unos vehículos que sobre todo se dedicaron a entregar pedidos de comida.

Para los estudiantes y residentes de la zona los Kiwibots se convirtieron casi en un miembro más de la familia, en parte gracias a su inevitable analogía con el robot R2-D2 de la saga Star Wars. Aunque no todo eran buenas noticias -algunos robots fueron "secuestrados", otros golpeados- los 40 vehículos de Kiwi Campus que consiguieron licencia para operar en esa zona parecían tener un futuro prometedor.

La revolución de la mensajería que no era tal

Los responsables de los Kiwibots cuentan en su sitio web con varios vídeos en los que se muestra cómo funcionan estos robots mensajeros: teóricamente la magia la proporciona un complejo sistema de visión artificial que es capaz de reconocer obstáculos y detectar cuándo pueden o no cruzar la calle.

El problema es que lo que no se mostraba es que como indican en The San Francisco Chronicle, en realidad están controlados a distancia por operadores humanos que usan los sensores GPS y las cámaras de estos robots para enviar a continuación órdenes a los robots cada 5 o 10 segundos.

En Kiwi Campus han reconocido que efectivamente hay una parte de control remoto humano, pero para ellos su servicio es un sistema de "autonomía paralela". Los robots circulan además a una velocidad muy reducida que va de los 1,6 a los 2,4 km/h, lo que hace que trabajadores de Kiwi tengan de hecho que recoger los pedidos de comida de los restaurantes e ir a los puntos de partida de los Kiwibots para meter esa comida en los compartimentos de almacenaje de los robots y que estos luego efectúen las entregas.

El modelo es singular, pero tiene más secretos de los que podría parecer y mucha menos autonomía de la que parecían plantear los robots -cada uno de ellos cuesta 2.500 dólares- inicialmente. La idea se beneficia del bajo coste de la mano de obra que los controla: los operadores que los manejan en Colombia cobran 2 dólares a la hora, un coste mucho más bajo que el de instalar por ejemplo sistemas LIDAR -que serían difíciles de integrar- en dichos robots.



via Magazine - robotica-e-ia https://ift.tt/343ti7l

domingo, 25 de agosto de 2019

Robot-lución: el gran reto de gobernar y convivir con las máquinas

La rápida e imparable transición tecnológica exige un nuevo contrato social. Estados, sindicatos, trabajadores y empresas deben formar parte de la solución

via Robótica https://ift.tt/30vOMXX

jueves, 22 de agosto de 2019

Fedor, el primer robot humanoide ruso, ya está en el espacio

El androide permanecerá 10 días en la Estación Espacial Internacional realizando 'cinco o seis tareas secretas'

via Robótica https://ift.tt/33PfBZn

La nave rusa Soyuz pone rumbo a la Estación Espacial Internacional con un androide a bordo

  • Forma parte de una misión que tiene como objetivo certificar los sistemas de seguridad del cohete portador Soyuz-2.1a.
  • El robot, Skybot-F850 o FEDOR permanecerá en el espacio un total de 17 días

Leer la noticia completa

via Ciencia y tecnología en rtve.es https://ift.tt/30oyXlV

Combates de robots: Youtube restablece los vídeos de peleas tras borrarlos por «tortura animal»

YouTube ha restablecido en su plataforma varios vídeos de combates de robots tras haberlos eliminado inicialmente porque sus sistemas de moderación habían considerado por error que infringían su política contra el abuso hacia los animales. El «youtuber» Maker's Muse ha publicado un vídeo explicando que la plataforma de vídeo había retirado de su canal un total de ocho vídeos de BattleBots, una empresa estadounidense especializada en organizar peleas de robots como espectáculo y competición. La empresa informó al propietario del canal que la retirada de los vídeos se debía a que consideraban que estaban infringiendo su política de contenidos por «infligir sufrimiento animal de forma premeditada». Los vídeos en cuestión realmente no mostraban peleas entre animales en ningún momento, únicamente batallas entre robots en un ring en los que ningún ser vivo es dañado ni perjudicado en el proceso. Otro «youtuber», Jamison Go, también sufrió estas retiradas y publicó un correo electrónico que recibió de la empresa en su cuenta de Facebook que explicaba que sus vídeos no cumplían con su política porque mostraban «sufrimiento animal» o «batallas de animales organizadas». Además le comunicaron que, aunque no suponía una sanción, debía revisar su contenido, porque las siguientes violaciones podrían suponer consecuencias más graves o incluso el cierre de su canal. Restablecidos YouTube ha reconocido el error, y ya ha restablecido los vídeos de combates de robots que habían sido eliminados de la plataforma, atribuyendo esta equivocación al elevado número de vídeos que recibe. Un portavoz de la empresa ha admitido en declaraciones a Europa Press que «con el enorme volumen de vídeos que tenemos en la plataforma, a veces nos equivocamos». Asimismo, la plataforma ha defendido también que «cuando se nos señala que un vídeo se ha eliminado por error, actuamos rápidamente para restablecerlo», ya que ofrecen a los usuarios «la posibilidad de recurrir esas eliminaciones y en ese caso el contenido se revisa de nuevo», ha concluido el portavoz.

via Tecnología https://ift.tt/31WvmMw

miércoles, 21 de agosto de 2019

Este impresionante chip es más grande que un iPad: tiene 400.000 núcleos, 18 GB de memoria y 1,2 billones de transistores

Este impresionante chip es más grande que un iPad: tiene 400.000 núcleos, 18 GB de memoria y 1,2 billones de transistores

Estamos acostumbrados a procesadores cada vez más avanzados y con un número asombroso de transistores, pero nunca habíamos visto nada como el chip desarrollado por una empresa llamada Cerebras.

Su "Wafer Scale Engine" o WSE de Cerebras es la exageración echa chip: tiene 1,2 billones de transistores, 400.000 núcleos de proceso y 18 GB de memoria integrada en un SoC absolutamente descomunal y que es más grande que el iPad de Apple, por ejemplo.

Un chip especial para un ámbito especial

El anuncio de este chip se realizó durante la conferencia Hot Chips, uno de los encuentros más relevantes de este segmento a nivel mundial. La empresa lo hizo además con un enfoque específico para este desarrollo: el de la inteligencia artificial.

Cerebras4 Sean Lie, cofundador de Cerebras junto a Andrew Feldman. En la imagen, su chip Cerebras WSE. No es una oblea, ojo: ese es el chip.

Ese es el campo en el que según sus creadores el Cerebras WSE puede destacar sobre otros productos de la competencia. La integración de esos 18 gigabytes de memoria multiplica por 3.000 lo que habíamos visto en algunas GPUs de alta gama actuales, y eso permite según la empresa que ese gran requisito de las grandes aplicaciones de aprendizaje profundo, por ejemplo, se vean beneficiadas por este diseño.

También lo hacen esos 400.000 diminutos núcleos de proceso que están conectados a través de una tecnología llamada Swarm que los intercontecta en una malla 2D con tasas de transferencia de 100 petabits por segundo.

Cerebras6

Este diseño es realmente impresionante, pero como apuntan en TechCrunch no está libre de problemas. Uno de los desafíos es desde luego la fabricación: en un chip de estas dimensiones los problemas y potenciales defectos se multiplican, aunque en Cerebras dicen haberlos resuelto gracias a su trabajo con TSMC, el fabricante de estas bestias de proceso.

En los próximos meses podremos ver si esto es así: el fabricante ya ha empezado a enviar algunas muestras a los primeros clientes, pero si tienen éxito podríamos estar ante una singular tendencia en el diseño de chips. Los datos alrededor del chip son tan astronómicos como probablemente lo es su precio, pero ese dato no lo han especificado, aunque a buen seguro será muy, muy elevado.

Las comparaciones son odiosas

El chip es enorme: tiene un área de 46.225 mm2 frente a los 4.410,9 mm2 del Epyc Rome de AMD, por ejemplo. Este último chip, que es probablemente uno de los más densos del mercado, cuenta en esa superficie con 32.000 millones de transistores, lo que deja clara la dimensión del Cerebras WSE y sus 1,2 billones de transistores: eso es 40 veces más de lo que tiene el SoC de AMD, ya gigantesco de por sí. Para que os hagáis una idea, el SoC de los móviles es muy inferior en tamaño, y un Snapdragon 855 ronda los 112 mm cuadrados.

Transist

Los AMD Ryzen 3000 con arquitectura Zen 2 tienen por ejemplo unos 3.900 millones de transistores. Hace tiempo que Intel no ofrece el número de transsitores de sus procesadores, aunque las estimaciones indican que un Core i7-9700K debería rondar los 3.000 millones de transistores.

Cerebras7

Es lógico que estén por debajo de AMD en este ámbito dado que Intel mantiene el proceso litográfico de 14 nm mientras que AMD acaba de dar el salto a los 7 nm con esos Ryzen de 3ª generación. Los procesadores móviles hace tiempo que dieron ese salto, y tenemos un buen ejemplo de los logros que posibilita esa tecnología: el Apple A12 Bionic tiene 6.900 millones de transistores, por ejemplo.

Cerebras3

Si hablamos de gráficas los números crecen: una GeForce RTX 2080 Ti cuenta con 18.600 millones de transistores, mientras que las recientes Radeon RX 5700/XT cuentan con 10.300 millones de transistores (número cercano a los 10.800 millones de las RTX 2060/2070 con las que compiten). Son cifras igualmente notables, pero todas ellas palidecen ante las dimensiones y características del chip de Cerebras.

Más información | Cerebras (PDF)



via Magazine - robotica-e-ia https://ift.tt/2TOZlDf

domingo, 18 de agosto de 2019

Así son las manos que mueven las Bolsas: megafondos, robots y grandes fortunas

El perfil de los inversores que mueven las Bolsas ha cambiado por completo en los últimos 20 años

via Robótica https://ift.tt/2KDidlB

sábado, 17 de agosto de 2019

Negligencia artificial

Tostadoras que hablan, audífonos que incitan a las compras desaforadas y programas de autoaprendizaje que enamoran. Un detective del futuro y su lucha contra los timos

via Robótica https://ift.tt/30eOlRS

viernes, 16 de agosto de 2019

Los creadores de estos pantalones robóticos dicen que si te los pones caminarás y correrás con menos esfuerzo

Los creadores de estos pantalones robóticos dicen que si te los pones caminarás y correrás con menos esfuerzo

Por fuera tienen el aspecto de unos pantalones repletos de cables conectados a un aparato en la espalda. Estos aparatosos pantalones, al contrario de lo que parece, prometen al que se los ponga caminar y correr más fácilmente. No es un exoesqueleto que se encargue de la tarea de mover las piernas, pero sí que ayudan a los músculos a hacerlo, según los investigadores.

Este nuevo invento es más bien un exotraje, está destinado a ayudar a aquellos que se lo pongan a mejorar sus condiciones físicas. En este caso en concreto a mejorar la actividad de caminar y la actividad de correr. Los exotrajes normalmente ayudan a las personas a transportar mejor cargas pesadas, a evitar lesiones o a ayudar a personas discapacitadas o con dificultades de movimiento.

El exotraje es una colaboración entre investigadores de diferentes universidades del mundo. Han participado investigadores del Instituto WYSS de Ingeniería Biológica de la Universidad de Harvard, de la Universidad de Nebraska Omaha y lde a Universidad de Chung-Ang en Seúl. Se trata de una investigación con años de estudio que ha sido publicada en Science.

Según han indicado en la web oficial de WYSS Institute, crearon un prototipo y lo probaron con voluntarios en diferentes escenarios para caminar y correr así como con personas en diferente estado físico. Durante estas pruebas que se realizaron estuvieron midiendo cuánta energía consumian los voluntarios, para ello analizaron la cantidad de oxígeno que necesitaban para respirar.

Los resultados desde luego son curiosos, se redujo un 9% la cantidad de energía para caminar y un 4% la cantidad de energía necesaria para correr. Sin embargo, hay que tener en cuenta que son unas primeras pruebas y aún se requiere de más investigación para comprobar la efectividad real de este nuevo exotraje. Ayuda a caminar y correr con menos esfuerzo, ¿pero permite realmente caminar o correr más tiempo o más rápido?

Img

Cómo unos pantalones ayudan al movimiento

Si nos fijamos en el exotraje vemos que es un producto cómodo a pesar de sus cables y ataduras, es flexible a fin de cuentas. Con un peso de 5 kilogramos, lo más pesado lo encontramos en la batería y el motor que se engancha a la espalda. Este motor sirve para tirar de los cables que ayudan a extender las caderas siguiendo un movimiento natural a medida que se mueven las piernas. Esto es lo que en principio ayuda a que se reduzca la cantidad de energía necesaria para moverse.

La clave de este exotraje es que a diferencia de otros dice entender cómo está actuando el usuario que lo lleva. Cuando caminamos el centro de masa se mueve de forma distinta a cuando corremos. Mientras caminamos cuando el pie está apoyado el centro de masa sube y desciende al tener el pie en el aire. Corriendo es justo lo contrario, el centro de masa trata de descender y cuando tenemos el pie apoyado el centro de masa está en su parte más baja.

Exotraje

Gracias a un algoritmo que lleva el exotraje, puede entender cuándo se está corriendo y cuándo caminando. De este modo adapta la fuerza necesaria para tirar de los cables y hace que resulte cómodo caminar o correr con el aparato puesto.

Según indican, utilizar estos pantalones especiales requiere de algo de entrenamiento para su uso, pero no hay instrucciones específicas para ello, simplemente es ponérselos y comenzar a caminar o correr con ellos para acostumbrarse.

¿Tendremos runners más veloces y eficientes debido a estos pantalones? Probablemente en un futuro próximo no. Sin embargo, este tipo de exotrajes y otros exoesqueletos son útiles para la rehabilitación de pacientes con problemas de movilidad, personas accidentadas, personas con movilidad reducida o ancianos. Los investigadores de hecho tienen una versión para rehabilitación que ya se vende comercialmente y aprobada por las autoridades sanitarias.

Vía | WYSS Institute
Más información | Science



via Magazine - robotica-e-ia https://ift.tt/2KNaQH8

martes, 13 de agosto de 2019

China ya tiene robots equipados con cámaras e IA patrullando las calles y controlando el tráfico de las ciudades

China ya tiene robots equipados con cámaras e IA patrullando las calles y controlando el tráfico de las ciudades

Si por algo ha llamado la atención China en los últimos años en cuanto a tecnología se refiere es por su enorme desarrollo en aspectos relacionados con la inteligencia artificial y la robótica. A raíz de esto también por su efectiva videovigilancia mediante cámaras en las calles que reconocen, aparentemente sin problemas, a los ciudadanos y sus infracciones. Lo último son una serie de robots que se han unido al equipo policial para regular el tráfico en las calles de las ciudades chinas y ayudar a sus habitantes.

En estos últimos días se ha presentado al primer grupo de robots enfocados al tráfico que comenzarán a operar en la ciudad de Handan, en el norte de China. Controlar el tráfico en el país más poblado del mundo no es sencillo, así que estos robots policía ayudarán en la tarea a los policías humanos.

Se trata de los primeros robots utilizados por las autoridades chinas como unidades policiacas. Son los primeros en servicio y han sido desarrollados por las autoridades estatales en colaboración con el Instituto de Investigación de Gestión de Tráfico del Ministerio de Seguridad Pública de China.

Los robots disponen en su interior de un software que les permite identificar mediante sus cámaras a los ciudadanos y comparar los datos obtenidos con una base de datos de la policía que permite identificar a cualquier sospechoso. Eso sí, no se van a dedicar simplemente a identificar a sospechosos, sino que tienen actividades distintas programadas. Para ello se han creado también tres tipos de robots diferentes.

Tres tipos de robots, tres actividades distintas

Se han presentado un total de tres modelos de robots diferentes. Cada uno de ellos cumplirá con una función única para patrullar, proporcionar información a los ciudadanos, alertar de accidentes, gestionar el tráfico...

Robots Uno de los robots policía de las autoridades chinas.

El primero de ellos es el que más se asemeja a un policía humano en aspecto, tiene incluso una gorra de policía y va vestido con un uniforme parecido. Su trabajo es patrullar simplemente las calles y detectar infracciones por parte de los conductores en sus vehículos. Para ello dispone de un GPS que le permite desplazarse de forma autónoma y cámaras con las que capturar las infracciones.

Por otra parte tenemos un pequeño robot que tiene como función principal alertar a los conductores que pasan cerca de un accidente. De este modo si se produce un accidente y se ha cortado el tráfico el robot alertará a los conductores que vienen para redirigirlos o desviarlos directamente. Este al ser el más pequeño de todos también es el que menos se parece a la forma anatómica de un humano, es más bien un pequeño vehículo con un poste en el que tiene la cámara.

Img 5 Este robot alertará a los conductores de los accidentes de tráfico.

Por último tenemos al robot informador. Su tarea es efectivamente la de informar a los ciudadanos respondiendo a sus dudas, preguntas y más. Dispone de una pantalla en su pecho para mostrar información extra como por ejemplo un mapa si se necesita. Eso sí, también puede informar a la policía (humana) de posibles incidentes si se dan.

Los tres modelos de robot policía han comenzado a patrullar las calles de Handan en el norte de China esta última semana. Aunque no sería nada extraño ver cómo se van expandiendo por el resto de ciudades del país asiático en los próximos meses si el proyecto demuestra su efectividad.

Vía | Global Times y NextShark



via Magazine - robotica-e-ia https://ift.tt/2Z1KFFN

lunes, 12 de agosto de 2019

Varenyky, el nuevo virus informático que graba a los usuarios mientras ven pornografía

Nunca se está completamente seguro en internet. Independientemente del antivirus con el que cuente su dispositivo, el rápido desarrollo de la tecnología provoca que cada vez sea más fácil encontrar una puerta de atrás que permita robar su información. Ahora la firma de ciberseguridad ESET ha descubierto un nuevo «malware» que hace capturas de pantalla a los usuarios mientras ven pornografía. El virus, llamado Varenyky, puede realizar capturas de pantalla del smartphone de aquellos que entran en una página que ofrezca contenido de este tipo. Fue descubierto en mayo, y desde la firma de ciberseguridad señalan que está teniendo más incidencia en Francia. El «malware» se infiltra en los dispositivos mediante un bot de spam (correo no deseado), que, según señalan desde la empresa, no ha hecho más que evolucionar para evitar ser eliminado de los terminales infectados. «Para infectar los dispositivos de las víctimas, los ciberdelincuentes usan spam con un archivo adjunto malicioso en forma de una factura falsa. Para abrir un archivo, es necesario pasar una verificación del sistema para confirmar que no es un robot; entonces el spyware ejecuta el componente peligroso», señalan desde ESET. Una vez se encuentra instalado, Varenyky puede robar contraseñas y acceder a las cuentas de correo de la víctima. Tras esto, el dispositivo comienza a grabar cada vez que el usuario entra en una página web de contenido para adultos y envía las grabaciones a sus contactos. ESET ya ha registrado un caso de sextorsión que involucra a una víctima de origen francés. Un grupo de hackers le contactaron para solicitar un pago de 750 euros en bitcoins a cambio de no compartir las grabaciones. Según señalan desde ESET, Varenyky únicamente puede grabar desde la pantalla del disppsitivo infectado, no desde la cámara.

via Tecnología https://ift.tt/2yRTQdb

viernes, 2 de agosto de 2019

La moda de las 'FaceApps' no se detiene: esta inteligencia artificial nos transforma en anime y a nuestros gatos en perros

La moda de las 'FaceApps' no se detiene: esta inteligencia artificial nos transforma en anime y a nuestros gatos en perros

Tras el éxito de las famosas aplicaciones que cambian y modifican rostros, poco a poco estamos viendo como surgen nuevos proyectos relacionados con esta técnica que llevan un paso más allá el jugar con las caras. Sin entrar en el delicado debate de la privacidad, ya hemos visto desde el resurgir de FaceApp hasta AI Portraits, ésta última desarrollada por el MIT la cual convierte nuestros selfies en obras de arte.

Pues hoy nos enteramos de un nuevo proyecto, el cual es desarrollado por la compañía de videojuegos NCSoft, donde han desarrollado una inteligencia artificial que transforma nuestros rostros en personajes de anime. Pero eso no es todo, ya que también juega con nuestras mascotas y las cambia por otro animal.

AI-anime-convertor

Se trata de un modelo open source que se basa en las ahora famosas redes generativas antagónicas o GANs, las cuales por medio de machine learning "aprenden" de entre una gran cantidad de datos, como imágenes de rostros humanos y animados, para así crear nuevas imágenes.

Junho Kim, Minjae Kim, Hyeonwoo Kang y Kwanghee Lee son los investigadores responsables de esta nueva herramienta, quienes trabajan para NCSoft y que entre otras cosas fueron desarrolladores de 'Guild Wars 2'. Explicaron que este proyecto nació en un artículo llamado 'Mapeo de activación de clases' o CAM, el cual explica cómo separar una imagen en capas, conocidas como "mapas de atención", a través de diferentes puntos de interés para destacar los elementos más importantes.

Lo que permite CAM, entre otras cosas, es poder entrenar una red neuronal con dos imágenes para que detecte las similitudes, las clasifique y las use en la creación de nuevas imágenes. Por ejemplo, si le damos una foto de un perro y una de un gato, encontrará que hay coincidencias en el pelo, las orejas y los ojos, los cuales usará para dar vida a una mezcla de todo esto.

Teaser

Según explican, decidieron incorporar estos "mapas de atención" a su modelo de GAN para así centrarse en regiones importantes de las imágenes e ignorar las menos importantes. Además, se añadió un algoritmo de normalización 'Adaptive Layer-Instance Normalization' (AdaLIN) para tener resultados fiables y convincentes.

Gracias a esto, es posible transformar selfies en asombrosas imágenes con aspecto de anime, pero también transformar caballos en cebras, gatos en perros, y hasta paisajes en cuadros con estilo impresionista.

Gan Animales

Este software está disponible de forma gratuita en GitHub y todos los detalles de la investigación están disponibles para ser consultados. La mala noticia es necesitaremos un PC con suficiente potencia para echar a andar estos modelos, además de tener que entrenarlos por nuestra cuenta o bien, esperar a que alguien cree un software con esto para que cualquiera pueda usarlo sin complicaciones.



via Magazine - robotica-e-ia https://ift.tt/2KcsZis