sábado, 29 de agosto de 2020

Elon Musk muestra por primera vez Neuralink, un chip para el cerebro que se conectará a un ordenador

La travesía de Neuralink, un nuevo proyecto en el que se ha involucrado el excéntrico Elon Musk, abre una nueva senda con la presentación, por primera vez desde que se fundó la empresa hace cuatro años, de su interfaz y su arquitectura. La propuesta es unir la mente humana a un ordenador por medio de un chip craneal que se conecta por medio de tecnología inalámbrica Bluetooth. Un avance que, aunque todavía está en fase de conceptualización, augura implicaciones en el estudio médico. La empresa de biotecnología presentó este viernes un dispositivo «wearable» -vestible, en español- del tamaño de una moneda que se implantará en el cráneo y que concederá una mayor potencia cognitiva a sus usuarios. Un ambicioso plan para conectar el cerebro a un equipo informático. Durante los ensayos se ha probado con un cerdo llamado Gertrude durante dos meses para controlar su hocico. El animal ha tenido implantado un chip que ha transferido datos directamente a un ordenador. Musk mostró, para demostrar que el sistema es funcional, su actividad cerebral. Este chip, bautizado como Link V0.9 y de aproximadamente 8 milímetros de diámetro, se ha presentado como un «Fitbit en el cráneo con pequeños cables». La propuesta concibe que este aparato se podrá colocar detrás de la oreja. Tres cables se conectarán a la parte superior de la cabeza. Su alimentación será por medio de una batería recacargable de un día de autonomía. El proyecto describe que para cargarlo se deberá emplear un cargador de inducción magnética. A través de una pequeña sonda que contiene unos 3.000 electrodos conectados a hilos flexibles (más finos que un cabello humano), la iniciativa permitirá analizar en tiempo real la actividad de 1.000 neuronas del usuario. Para su implantación se necesitará de un robot, construido por la propia empresa, que realizará un injerto en una intervención clínica de menos de una hora de duración. El plan del multimillonario, que ha defendido la necesidad de emplear sistemas de Inteligencia Artificial para mejorar las características humanas, es crear un dispositivo médico para estudiar enfermedades relacionadas con el cerebro como el alzhéimer o permitir, incluso, que pacientes con enfermedades neurológicas puedan controlar aparatos electrónicos como un teléfono móvil directamente con sus pensamientos. Un avance propio de la cultura «cyberpunk». «Un dispositivo que se implanta podrá realmente resolver estos problemas«, señaló Musk en una presentación virtual el viernes, en donde aseguró que podrá corregir dolencias como pérdida de memoria, la pérdida de audición, la depresión o, incluso, el insomnio. El chip también podría mejorar la comprensión de las enfermedades neurológicas al «leer» las ondas cerebrales, aseguró uno de los científicos de la compañía durante la presentación. El control de las ondas cerebrales es un desafío de la ciencia desde hace mucho tiempo. Existen ya algunos avances a través de diademas neuronales con los que se puede intervenir en una interfaz cerebro-computadora que se basan en una interpretación de las ondas cerebrales por parte de una máquina, anticipando un sistema para interactuar con el exterior a través del pensamiento. Neuralink, que emplea a cien personas de diversos campos científicos, ha recibido 158 millones de dólares de inversión, 100 millones de dólares directamente inyectados por el propio Musk.

via Tecnología https://ift.tt/2EHxxgD

miércoles, 26 de agosto de 2020

Elon Musk mostrará el viernes un "dispositivo Neuralink operativo": esto es lo que sabemos hasta el momento

Elon Musk mostrará el viernes un

Uno de los proyectos más ambiciosos de Elon Musk es Neuralink. En pocas palabras, Neuralink es una empresa que aspira a conectar cerebros y ordenadores. Sobre el estado actual de este titánico proyecto no se sabe demasiado, más allá de que el fundador de Tesla y SpaceX asegura que seremos capaces de integrarnos con una inteligencia artificial y hasta de pasarnos música al cerebro, entre otras cosas. Sin embargo, Musk es optimista, tanto que nos ha citado este viernes para desvelar un "dispositivo Neuralink operativo".

Lo hará el viernes, 28 de agosto, a las 3 PM hora Pacífico, es decir, las 00:00 del sábado (la madrugada del sábado o el viernes por la noche). Será un streaming, por lo que a priori cualquier persona podrá verlo, y el único detalle que el CEO de Tesla ha desvelado es que veremos la versión 2.0 del "robot tejedor" que presentaron el año pasado y que se encargará de coser los hilos que conectarán nuestro cerebro al ordenador.

Tan sencillo como una operación LASIK, dice Musk

Máquina de coser de Neuralink La "máquina de coser" de Neuralink.

Lo del robot tejedor no es una metáfora. El año pasado, Elon Musk presentó un robot que, grosso modo, es una máquina de coser. La idea de Neuralink es coser hilos a lo largo y ancho de la superifice del cerebro que permitan la comunicación con el exterior. Entendámoslos como una especie de implantes, sensores y electrodos de tamaño microscópico. De hecho, los hilos tendrán un tamaño de entre 4 µm y 6 µm (un pelo humano tiene entre 15 y 100 µm)

El año pasado, más o menos por estas fechas, Neuralink explicó que ya habían hecho pruebas en ratones, a los que le habían conectado hasta 1.500 electrodos. La máquina que tenemos sobre estas líneas es, según la compañía, capaz de implantar seis hilos (192 electrodos) por minuto y sin tocar los vasos sangúineos. Estos hilos son flexibles, por lo que se pueden mover con nuestro cerebro y, a priori, reducir la posibilidad de sufrir daños.

Hilos Hilos de Neuralink insertados en un tejido similar al cráneo.

Toda la información recogida por los hilos se transmite a un dispositivo situado en la cabeza, previsiblemente detrás o encima de la oreja. Dicho dispositivo tiene un puerto USB tipo C que se puede conectar a un ordenador para exportar dichos datos para su posterior procesado. El dispositivo que mostraron el año pasado tenía solo puerto USB, pero la compañía dijo que se podría desarrollar un sistema de transferencia inalámbrica.

El año pasado Elon Musk dijo que las pruebas con humanos comenzarían en el último trimestre de 2019

La compañía dijo que las primeras pruebas con humanos comenzarían en el último trimestre de 2019 y que esperaba "tener esto en un paciente humano para finales del próximo año [finales de 2020]". Una promesa quizá demasiado ambiciosa, sobre todo si partimos de la base de que la FDA tiene que dar los permisos pertinentes y que las primeras pruebas dejaron ver que el sistema no estaba maduro.

Chip Sensor de Neuralink mostrado en 2019.

Allá por 2019, Neuralink aseguró haber hecho 19 trasplantes en ratones con un éxito del 87% y haber registrado la función de 1.500 neuronas. No es una cifra a desechar, ni mucho menos, pero a efectos del cerebro representa lo mismo que una gota en un océano, porque se estima que el cerebro humano contiene unos 86.000 millones de neuronas. Tampoco tenemos constancia de que se hayan hecho pruebas en animales superiores como los monos, aunque Musk dijo que "un mono ha sido capaz de controlar un ordenador con su cerebro" durante la presentación del año pasado.

Sea como fuere, Elon Musk siempre ha sido optimista con sus proyectos, tanto que no ha dejado de despegar cohetes hasta que ha conseguido que uno llegue a la Estación Espacial Internacional. El empresario ha llegado a decir que la implantación del chip y la "costura" de los hilos "no es como una operación mayor, sino una especie de equivalente a una operación como LASIK (Laser Assisted in Situ Keratomileusis)". Esta operación lleva haciéndose más de 20 años y en ella se usa láser ultravioleta para corregir problemas como la miopía o hipermetropía.

En respuesta a un usuario que le ha preguntado en Twitter cómo de cerca está el procedimiento de ser tan sencillo como LASIK, Elon Musk ha dicho que "todavía está lejos de LASIK, pero podría estar muy cerca en unos pocos años". Estas palabras dejan ver que a la tecnología de Neuralink todavía le queda camino por recorrer, pero tocará esperar al viernes para saber qué tiene Musk entre manos y qué avances se han conseguido durante este año.

Qué busca conseguir Neuralink

Ia

Aunque conectar el cerebro a una máquina pueda sonar un poco al argumento de 'Transcendence', la película en la que Johnny Depp se transfiere a un ordenador y se integra con una IA omnipotente capaz de materializarse en el mundo real, lo cierto es que el objetivo de Neuralink es un poco más "mundano", entre comillas.

El principal objetivo es "conseguir una simbiosis con la inteligencia artificial" sin que el humano "se quede atrás". El propio Musk ha dicho en alguna ocasión que "creo que incluso en un escenario en el que la IA sea benigna, nos quedaremos atrás. Por eso creo que dotarnos con una interfaz cerebro-máquina de alto ancho de banda nos ayudará a permanecer por delante".

Otro objetivo es "eventualmente implantar dispositivos en humanos parapléjicos permitiéndoles controlar teléfonos y ordenadores". El propio Musk dijo en Twitter que "debería ser posible crear una derivación neural desde la corteza motora hasta los microcontroladores en grupos musculares y restaurar el movimiento incluso si alguien tiene una médula espinal completamente cortada". Objetivos ambiciosos donde los haya, pero muy a largo plazo, al menos por lo que sabemos hasta ahora.

Por otro lado, Musk dijo en el podcast de inteligencia artificial de Lex Fridman que Neuralink podría "curar muchas enfermedades relacionadas con el cerebro", mencionando algunas como el "autismo" o la "pérdida de memoria". Sin embargo, este objetivo tiene poco que ver con la idea inicial de Neuralink, que recordemos es "conseguir una simbiosis con la inteligencia artificial". También ha mencionado en alguna ocasión la posibilidad de controlar la producción de hormonas para usarlas en nuestro favor.

Pero sea como fuere, por el momento son solo palabras y promesas. Elon Musk y Neuralink, a falta de conocer los avances y nuevos datos que puedan dar este viernes, todavía tienen camino por delante para conseguir una interfaz humano-máquina no invasiva que nos integre con la inteligencia artificial. Tocará esperar.



via Robótica e IA - Xataka https://ift.tt/3gx5I7G

Colin Angle, fundador de iRobot: «Los robots deberían de ser más colaborativos, afectivos y saber escuchar a sus dueños»

iRobot es una de esas marcas icónicas que durante treinta años ha sido capaz de desarrollar una categoría de producto totalmente nueva, el robot aspiradora, al mismo tiempo que ha sabido permanecer en el liderazgo. La marca americana es hoy en día número uno en venta de robots de consumo en todo el mundo con el 67,1% de cuota de mercado, ha vendido nada menos que un millón de robots entre Alemania, Francia, España e Italia, y 30 millones en toda su historia en todo el mundo, además, actualmente 6,8 millones de clientes están conectados a través de la aplicación de Roomba. La venta de aspiradores tradicionales no hace más que caer, mientras que la de los robots aspiradora crece un 22% anual, trasladándose la compra a internet dejando atrás el mercado minorista. Un negocio redondo, como este tipo de aparatos de comportamiento autónomo que van ganando funciones con el tiempo. Ahora se quiere dar un nuevo paso. Colin Angle, fundador y director general de iRobot, explica en una entrevista para ABC cómo la era Covid-19 ha afectado a las ventas y desgrana su nuevo «juguete»: un nuevo nivel de inteligencia artificial que se lanza esta semana para todos sus robots, iRobot Genius Home Intelligence. «Durante el confinamiento, cuanto más tiempo estaba la gente en casa más consciente era de que la quería tener limpia. Ha habido muchas razones por las que la venta de aspiradores ha subido, en los casos en que las familias tenían un servicio de limpieza en casa que ya no podía acudir, necesitaban alguien que les ayudase a limpiar. Y los que tienen niños en casa han necesitado más tiempo para atenderlos, y tenían menos tiempo para limpiar», añade el directivo. Los que tienen niños en casa han necesitado más tiempo para atenderlos, y tenían menos tiempo para limpiar Los robots aspiradora han sufrido una evolución: han pasado de simplemente ayudar a limpiar en 2002 a sustituir la limpieza en pleno 2020. «El mercado no creía que los robots fueran a funcionar, los clientes eran escépticos si no los probaban en persona. Pero durante los últimos años, eso ha cambiado, la gente está impaciente por saber qué más puede hacer por ellos el robot. Los productos ahora son mucho mejores, y pueden sustituir la limpieza tradicional. También la conectividad del teléfono móvil, ha ayudado mucho a que la idea de que un robot pueda limpiar la casa no pertenezca a la ciencia ficción», asegura Angle. Para intentar mejorar sus capacidades, la empresa -asegura su creador- ha dotado a sus robots con un nuevo nivel de inteligencia artificial que conlleva una mayor independencia y proactividad en todos sus dispositivos. Con una simple actualización, todo robot aspiradora de la marca será capaz de conectarse a la «nube». En opinión de Angle, los usuarios buscan siempre controlar mejor al robot, pero el no poder decirle cómo, dónde y cuando limpiar exactamente conduce a la frustración. «Al fin y al cabo, automático no es lo mismo que inteligente. Los robots deberían de ser más colaborativos, afectivos y saber escuchar a sus dueños», lamenta el empresario. ¿Y la privacidad? La primera nueva funcionalidad de Genius Home Inteligence es que el robot recomienda dónde limpiar, éste reconoce lugares de la casa donde hay que limpiar más asiduamente. Por ejemplo, puede reconocer la mesa de la cocina, y te pregunta si quieres que limpie más a fondo debajo de ella, además la aplicación pregunta si quieres que recuerde la ubicación y ponerle un nombre, así, después de comer puedes pedir al robot que pase sólo debajo de la mesa. La aplicación no guarda la foto de la mesa por privacidad, sólo sabe que necesita limpiarla más a menudo. El siguiente punto importante es el «cuándo limpiar», la mayoría de las rutinas programadas de limpieza son canceladas por el propio usuario, porque el robot empieza a limpiar, molesta a alguien en la casa y lo apaga. Un aspirador inteligente debería saber cuándo no molesta, y ese momento es cuando los habitantes de la casa no están. Para saberlo, la aplicación se conectará a dispositivos inteligentes del hogar, como luces o cerraduras conectadas, ya que el 70% de los usuarios de Roomba suelen tener otros dispositivos conectados, además, gracias a su conexión con IFTTT, las posibilidades son casi infinitas. Cuando los usuarios programan sus robots manualmente no suele tener un buen resultado porque las personas son más complejas que «limpiar todos los días a la misma hora». El sistema irá buscando patrones de horarios de limpieza al encenderlos manualmente y sugerirá programas más complejos, además de, programas concretos, como «limpieza después del desayuno», para que haga, por ejemplo, una limpieza rápida debajo de la mesa en 20 minutos. Con solo decirlo por medio de sus comandos de voz, Alexa -el asistente de voz integrado- iniciará el proceso en cuestión de segundos. «El robot deberá aprender a limpiar como quieren los usuarios», comenta Angle. Un robot debería aprender y recomendar acciones de limpieza. Todos los hogares presentan distintos desafíos para estos aparatos porque no todos son iguales y tienen lugares donde están las regletas con los cables o una alfombra complicada. Pero el software «aprende»: si se atasca muchas veces terminará recordando y preguntará a su usuario si quiere evitar la limpieza en ese punto, creando una zona de exclusión de forma automática. También entenderá dependiendo de la estación, por ejemplo, que en la estación de polen es más conveniente que limpie más a menudo, o si es la época de cambio de pelo del perro, necesitará limpiar más a fondo, y se lo sugerirá a su usuario. «Somos una empresa de inteligencia artificial, esta es la versión 1.0 de la nueva IA, en 3 meses los usuarios verán una nueva versión, 3 meses después será la 2.0, y en 6 meses lanzaremos la 3.0, los clientes de Roomba van a ver cómo sus robots se vuelven más inteligentes con el tiempo, sin que tengan que hacer nada«, adelanta el ejecutivo. La empresa promete que sus máquinas de limpieza van a ser capaces de adaptarse a los hábitos de sus propietarios. «Ahora nuestro robot aspirador va conocer mucho más de nuestras costumbres, cuándo desayunamos, cuándo estamos o no en casa, o qué muebles tenemos, por lo que la privacidad del hogar se convierte cada vez más en un tema sensible, aunque el robot no envía ninguna de las imágenes que toma a través de sus cámaras a internet, sino que las utiliza para orientarse y luego las borra, sigue siendo un tema delicado», avanza.

via Tecnología https://ift.tt/3aUn5OR

martes, 25 de agosto de 2020

La app de los robots Roomba se renueva: iRobot Genius Home Intelligence nos promete una limpieza personalizada y más eficiente

La app de los robots Roomba se renueva: iRobot Genius Home Intelligence nos promete una limpieza personalizada y más eficiente

Buena parte de la experiencia que nos proponen los robots aspiradores y fregasuelos está condicionada por el software que nos permite actuar sobre su funcionamiento. Por muy avanzados que sean estos dispositivos y por muy ambiciosa que sea la dotación de sensores que incorporan es crucial que la app que nos permite controlarlos sea potente e intuitiva. De lo contrario es probable que no consigamos sacarles el máximo partido.

El fabricante de los robots aspiradores Roomba y los dispositivos fregasuelos Braava, iRobot, lanzará hoy la que según esta compañía es la revisión más ambiciosa del software que nos permite controlar sus robots. Su nueva plataforma de software se llama iRobot Genius Home Intelligence, y persigue poner en nuestras manos una app más fácil de utilizar, más inteligente y más eficiente que nos permita adecuar la limpieza a nuestras necesidades personales.

iRobot Genius Home Intelligence está disponible gratuitamente desde hoy para todos los robots Roomba y Braava que incorporan conectividad WiFi

Tenemos pendiente probarla a fondo para averiguar si realmente pone en nuestras manos una experiencia notablemente más atractiva que las ediciones previas de iRobot Home, que es la app que utilizamos para actuar sobre el funcionamiento de los robots de esta compañía, pero sobre el papel lo que nos propone esta nueva plataforma de software suena bien.

Además, está disponible gratuitamente desde hoy para todos los robots Roomba y Braava que incorporan conectividad WiFi, por lo que funciona tanto en los dispositivos de esta marca que podemos encontrar actualmente en las tiendas como en los modelos más antiguos.

Roombadetalle1

iRobot Genius Home Intelligence: estas son sus novedades

Los responsables de iRobot nos han confirmado que el principal objetivo de la plataforma de software que lanzan hoy es conseguir que sus robots limpien allí donde realmente necesitamos que lo hagan, y, además, que lo lleven a cabo en el momento oportuno y de la forma que mejor encaja con nuestras necesidades. Estas son las nuevas prestaciones incorporadas en la app iRobot Genius Home Intelligence:

  • La función Clean Zones permite a los robots aspiradores Roomba i7/i7+ y s9/s9+, así como al robot fregasuelos Braava jet m6, identificar automáticamente la suciedad y sugerir de forma proactiva qué zonas concretas de los suelos de nuestra casa deben ser limpiadas. Los usuarios también podemos predefinir unas zonas de limpieza específicas alrededor de objetos en las que habitualmente se acumula más suciedad.
  • Gracias a esta app los robots Roomba y Braava pueden aprender nuestras rutinas de limpieza de forma autónoma para identificar cuándo es preferible que lleven a cabo su trabajo. También es posible automatizar su funcionamiento desde la app iRobot Home y mediante IFTTT Connect, lo que permite a estos robots trabajar codo con codo con otros dispositivos inteligentes, como termostatos o cerraduras electrónicas.
  • También están disponibles programas de limpieza recomendados inspirados en los patrones de limpieza del usuario.
  • Los usuarios podemos recurrir a la sección Favoritos de la app para definir y ejecutar nuestras rutinas de limpieza personalizadas.
  • Los robots aspiradores Roomba i7/i7+ y s9/s9+, así como el robot fregasuelos Braava jet m6, pueden aprender por sí mismos cuáles son las áreas más problemáticas con las que se encuentran durante la limpieza para proponernos zonas de exclusión específicas que no es necesario que nosotros prefijemos expresamente.
  • Este nuevo software también incorpora las recomendaciones de temporada, que son sugerencias personalizadas que pueden ayudarnos a programar las limpiezas en los momentos en los que pueden ser más necesarias, como, por ejemplo, durante la temporada de alergias primaverales.
Roombadetalle2

Más información | iRobot



via Magazine - robotica-e-ia https://ift.tt/34wrkP9

Pesa 4.000 kg, mide cuatro metros y destroza coches: así es Prosthesis, el exoesqueleto de cuatro patas más grande del mundo

Pesa 4.000 kg, mide cuatro metros y destroza coches: así es Prosthesis, el exoesqueleto de cuatro patas más grande del mundo

Los robots de Boston Dynamics están bien, pero poco tienen que hacer si han de enfrentarse al gigantesco Prosthesis. Este robot, que en realidad es un exoesqueleto donde hay un humano dentro pilotándolo, pesa cuatro toneladas y ni se inmuta al tener que levantar un coche. Pero el objetivo final de sus creadores es otro: peleas de robots gigantescos.

Sabemos que en Japón se están apresurando para construir a Gunman, un robot de 20 metros que podrá moverse. Ahora bien, no parece que vaya a tener tanta movilidad y agilidad como Prosthesis. Además hay otra diferencia clave, Prosthesis es en realidad una "extensión" del piloto que lleva en su interior, al reproducir los movimientos que hace el cuerpo del piloto.

Cuadrúpedo y preparado para pelear

Prosthesis se hizo público en realidad en 2017, a modo de prototipo. Ahora Furrion Exo-Bionics, la marca detrás de Prosthesis, dice que ya tiene una versión final disponible. Y es espectacular. Un robot cuadrúpedo que pesa más de 4.000 kilogramos y tiene unos cuatro metros tanto de altura como de anchura. Dicen sus creadores que tiene un total de 200 caballos de fuerza.

En el "corazón" de Prosthesis es donde se monta el piloto. Una vez está dentro todos sus movimientos son replicados por el exoesqueleto. Es decir, no hay ni joystick ni mandos como tal, sino sensores en el cuerpo del piloto que recogen los movimientos de las piernas o los brazos por ejemplo para mover al exoesqueleto.

¿El resultado de construir esta criatura? Vídeos e imágenes que parecen sacados de una película de ciencia ficción. Distintos vídeos publicados por la marca nos permiten ver cómo se mueve (a decente velocidad), levanta y aplasta coches o se enfrenta a un camión para ver cuál de los dos es más fuerte.

El hecho de que sea cuadrúpedo en vez de bípedo no es causalidad. Según indican sus creadores a CNET, esto permite tener mayor estabilidad por el factor forma de una estructura con cuatro patas en vez de dos.

Dicen que han estado desarrollando a Prosthesis durante diez años. Ahora que ya está construido, es momento de mostrarlo al público y prepararlo para su objetivo final. O más bien preparar a los humanos, porque la idea es que Prosthesis sea un exoesqueleto para competiciones de lucha. Para ello Furrion Exo-Bionics está buscando a pilotos que entrenar y sepan controlar a Prosthesis. No es que sea difícil encontrar a voluntarios que busquen luchar con máquinas de varias toneladas, el tema está en el precio a pagar. Alrededor de unos 10.000 dólares por tres días de entrenamiento con Prosthesis para tener una licencia de piloto. También es posible sólo verlo como público por varios cientos de dólares o probar a levantar un coche pagando algo más.

Prosthesis

Los exoesqueletos sin duda no son sólo para ayudar a personas con dificultades de movimiento o para mejorar corriendo. Veremos si en los próximos años llega a popularizarse este "deporte". El futuro promete y la tecnología, sin duda, nunca deja de sorprender.

Vía | CNET
Más información | Furrion



via Magazine - robotica-e-ia https://ift.tt/3aVOaRq

lunes, 24 de agosto de 2020

El tanque Carmel de Israel se controla con un mando de Xbox y su interior parece una habitación gaming

El tanque Carmel de Israel se controla con un mando de Xbox y su interior parece una habitación gaming

Si hablamos de tanques seguramente se nos vengan a la cabeza los clásicos M1 Abrams, M4 Sherman o M10 Wolverine de Estados Unidos, el Leopard 2A4 del Ejército Español o el T-90 ruso, pero el Carmel de Israel no tiene nada que ver con ellos. Se trata de un tanque en fase de prototipo que no tiene palancas, muchos botones y ventanas, sino que se controla con un mando de Xbox y su interior está lleno de pantallas que muestran la imagen del exterior.

El carro de combate está basado en el M113 APC de Estados Unidos. Ha sido desarrollado por tres organizaciones en un esfuerzo conjunto, a saber Israel Aerospace Industries (IAI), Elbit y Rafael. El interior ha sido diseñado para que quepan dos personas/operadores y su cerebro ha sido entrenado usando videojuegos como 'StarCraft II' o 'DOOM'.

Una interfaz de control que los operadores conocen

En Washington Post explican que el tanque se ha diseñado "con una experiencia de usuario específica en mente". En concreto, la del servicio activo de la Fuerza de Defensa israelí, cuya edad oscila entre los 18 y 21 años. Son personas que, de una forma u otra, están familiarizados con los videojuegos, por lo que llevar unos controles que conocen a un carro de combate ayuda a que la curva de aprendizaje sea más amigable.

Udi Tzur, comandante de la Brigada Blindada, explica que ya ha podido comprobar las ventajas de optimizar la tecnología con los soldados más jóvenes en mente. Asegura que les llevó unas cuatro horas hacerse a los comandos y el control y que "no es exactamente como jugar a 'Fortnite', pero algo así, y sorprendentemente traen sus habilidades a la efectividad operacional en poco tiempo". El motivo,esgrime Meir Shabtai, director general de operaciones de sistemas robóticos de IAI, es que los operarios conocen el mando y la ubicación de los botones.

Control Xbox Operadores controlan el tanque usando un mando de Xbox.

Pero no solo es una cuestión de interfaz. Las pantallas que cubren el interior y permiten ver todo lo que sucede fuera del tanque muestran información como un crosshair, un mapa, una lista de armas disponibles e incluso la munición restante. Con todo, no deja de ser controlar un tanque en la vida real, por lo que no es exactamente igual que controlar semejante vehículo en un videojuego como 'Battlefield'.

Pantallas Interior del tanque.

Por otro lado, el dispositivo está equipado con inteligente artificial. Dicha IA ha sido entrenada usando juegos como 'StarCraft II' o 'DOOM', títulos muy cambiantes y exigentes a nivel de estrategia que han servido para que la IA aprenda estrategias de navegación, detección de objetivos o selección de armas. El resultado, explican en WaPo, es un 20%-30% mejor que los humanos a la hora de llegar del punto A al B sin ser herido.

Además, el carro de combate tiene un sistema de conducción completamente autónomo, semiautónomo y manual. Es capaz de detectar objetivos y seleccionar el arma adecuada automáticamente, pero no puede disparar. Esa acción sigue recayendo en el operador humano y es una decisión que también han tomado otros ejércitos, como el estadounidense.



via Magazine - robotica-e-ia https://ift.tt/3aSjiSb

sábado, 22 de agosto de 2020

Lo que tres expertos que trabajan con inteligencia artificial opinan sobre GPT-3

Lo que tres expertos que trabajan con inteligencia artificial opinan sobre GPT-3

Es el último boom dentro de la industria de la Inteligencia Artificial. GPT-3 (siglas de Generative Pre-trained Transformer 3) es un modelo de lenguaje autorregresivo que utiliza el aprendizaje profundo para producir textos similares a los humanos. De la factoría OpenIA, son muchos los desarrolladores y especialistas en Inteligencia Artificial que están haciendo diversas pruebas con este código (te recomendamos que leas este artículo de Xataka para saber más acerca de GPT3).

Así que nosotros nos hemos puesto en contacto con varios especialistas en IA para saber su opinión sobre GPT-3. Esto es lo que nos han contado.

Andrés Torrubia

CEO y cofundador de FIXR

Es, de los tres, el único que ha tenido ocasión de probar GPT3, aunque antes de hacerlo ya realizó un podcast sobre GPT-3 en el que contaba sus primeras impresiones.

Para que veamos el potencial de esta herramienta, Andrés Torrubia ha introducido un texto de Xataka en el que le preguntábamos a él y a otros expertos de IA qué podíamos esperar de esta tecnología en una década. ¿Qué resultados dio GPT3? Según Torrubia, la máquina fue capaz de escribir textos como éste

Los expertos nos dicen que los avances son muy interesantes, pero aún quedan un montón de trabajo por hacer.

Andres Torrubia: “La Inteligencia Artificial es una parte fundamental en el futuro de las empresas y de la sociedad. La IA es una parte importante del cambio digital que está viviendo la sociedad, y por tanto es fundamental que la población entienda sus implicaciones, que son positivas. Pero la AI es más que la IA, y no es una tecnología nueva, sino que está más o menos en su infancia. La AI no es la IA y la IA no es la AI. En mi opinión, en el futuro todas las empresas van a tener una AI para el tratamiento de la información, que puede ser mucho más que la IA. Y esto es lo que hace que la IA sea tan importante, pues no se trata sólo de la tecnología, sino de la transformación de las empresas. Esta transformación es un proceso que tiene que ver con la sociedad, la forma en la que la gente quiere interactuar con las empresas y con el mundo. La AI nos permitirá construir empresas que cambien la forma en la que vivimos”.

“Si nos fijamos, el texto es bastante coherente. Tiene algunos derrapes típicos como “La AI no es la IA y la IA no es la AI” pero por lo demás podría colar”, comenta. Y, en tono irónico, añade, “como verás mi propio rol de “experto en IA” peligra”.

Foto Andres

Para Torrubia, GPT3 es uno de los primeros ejemplos “donde vemos que sistemas de inteligencia artificial empiezan a funcionar con cierta fluidez y coherencia en algo que es (¿era?) patrimonio exclusivamente humano como el lenguaje”. En este sentido, compara GPT3 y todo el boom que ha provocado con lo ocurrido con anterioridad con los ordenadores que jugaban al ajedrez, “y luego nos ganaron”; o con Go, aunque “en visión por computador hay todavía situaciones en las que los humanos somos mejores”. “En lenguaje todavía estábamos lejos de que los ordenadores incluso pudieran escribir cosas moderadamente coherentes”, explica. Algo que GPT 3 ha venido a cambiar.

Por eso, las grandes aportaciones de este código se pueden resumir, según Torrubia, en dos. Por un lado, que GPT3 ha demostrado que “un modelo de IA no solo puede hacer las cosas mejor si le entrenas con más datos y más cómputo, sino que hace cosas nuevas que antes no era capaz de hacer”. Y, en este sentido, cree que “podemos anticipar un GPT3 más grande que haga lo mismo que GPT3 pero mejor o incluso que haga cosas nuevas”.

La segunda gran aportación es tener una interfaz muy natural. “Cuando interaccionamos con programas las entradas y salidas suelen estar muy encasilladas en formatos adaptados a los ordenadores, no a las personas. En un modelo como GPT3 una de las cosas interesantes es que escribes texto y simplemente GPT3 sigue escribiendo el resto. Esto abre posibilidades para que quien lo use no necesariamente sepa nada de programación”, detalla.

"GPT-3 tiene una interfaz muy natural, adaptado más a las personas, lo que abre posibilidades para que quien lo use no necesariamente sepa nada de programación"

Pero aún hay cosas que mejorar. Por ejemplo, que “el tamaño de lo que se le puede introducir y el GPT-3 es de 2048 “tokens” (más o menos equivalente a palabras) por lo que el contexto de cosas con sentido es pequeño”. Es decir, que aunque GPT 3 sea capaz de escribir texto, no podría, por ejemplo, acabar una novela “manteniendo la coherencia con el principio de la misma”.

“Otro defecto pero que se puede ver como una virtud es que, aunque no lo parezca a priori, memoriza más que razona”, ahonda Torrubia. “Cuando el GPT-3 se pone en marcha para calcular la siguiente palabra que tiene que aparecer en un texto siempre tarda lo mismo, no puede “darle más vueltas” a una entrada más complicada sino que siempre dedica el mismo esfuerzo de cómputo a predecir la siguiente palabra”.

Y, como otros expertos, Andrés Torrubia también alude a los sesgos que siempre tienen este tipo de sistemas. “La propia empresa que lo lidera (OpenAI) insiste en que los textos que puede generar pueden tener contenidos tóxicos (e.g. falsedades, insultantes, racistas, etc.)”. Por decirlo de alguna manera, se trata de un sistema que vierte palabras sin poner nada en contexto y sin “sentido crítico (como lo entendemos nosotros)”. Es decir, que “el sistema no sabe si lo que está escribiendo es bueno, malo, falso, verdadero, triste, cómico, etc.”.

Así pues, aunque GPT3 podría ser realmente útil para tareas como autocompletado de código (programación), mejores agentes conversacionales, inspiración para tareas creativas, resumir textos o realizar cambio de estilo de pequeños textos, este experto cree que, al menos a día de hoy, “no se puede poner un sistema de este tipo para tareas críticas sin una monitorización humana”.

En cualquier caso, este experto cree que “aún estamos muy lejos de los límites de estos modelos (tanto cuantitativa como cualitativamente)” por lo que, teniendo en cuenta además el progreso en IA, está convencido de que este mismo año “veremos modelos equivalentes superiores a GPT-3”.

Nerea Luis

Doctora en IA e ingeniera de Sngular

Aunque esta doctora en Inteligencia Artificial aún no ha podido probarlo, sí que se ha documentado e informado sobre cómo funciona. Para Nerea Luis, GPT-3 es “la viva confirmación” de que el área del Natural Language Processing “está avanzando más que nunca a pasos agigantados”.

Esta experta cree que podemos hacernos una idea del potencial de esta herramienta cuando lo hacemos desde el prisma de una conversación y del estilo del lenguaje a utilizar. “GPT-3 es un generador de textos que intentará dar una respuesta acorde a las expectativas esperadas por el usuario en cuanto a contexto y estilo que se ha fijado en el texto de muestra que el sistema recibe como entrada”, explica.

Foto Nerea

Más allá de haber sido entrenado con 175 billones de parámetros (lo que marca un nuevo hito en la industria), para ella la gran novedad y aportación de GPT3 es la técnica con la que trabaja, few-shot learning. “GPT-3 se ha entrenado con muchísimos corpus genéricos (como el de la imagen abajo de este párrafo) de Internet o de libros. Sin embargo, su poder va más allá gracias a que ha aprendido muchísimos patrones relacionados con el estilo, la estructura del texto y entre palabras/frase”, explica Nerea Luis. “GPT-3 es capaz de aprender nuevas formas de generar texto tan solo recibiendo unos pocos ejemplos como entrada. Esto hace que sea capaz de convertir lenguaje natural a código de programación o a patrones de diseño o que entienda conceptos como escribir un comentario al estilo Youtube, antónimos o verdadero/falso”, añade.

Corpus

Sin embargo, el código no es perfecto y aún tiene mucho margen de mejora y de aplicación. Quizá por eso OpenAI ha abierto GPT-3 a través de un API para que, “precisamente, la gente explore los propios límites del sistema e invente usos que no habíamos pensado (ni nosotros ni sus creadores)”. En este punto, Nerea Luis recuerda que GPT-2 no se liberó directamente tras anunciarlo “porque se consideraba peligroso” mientras que GPT-3 se ha puesto en producción desde el día 1 mediante el acceso al API. “Parece que esta vez OpenAI ha hecho un razonamiento mayor sobre este tema”, expone.

"GPT-3 es la viva confirmación de que el área del Natural Language Processing está avanzando más que nunca a pasos agigantados”

Nerea Luis no niega que el potencial de GPT-3 puede usarse “para el mal” (ya con su predecesor se hablaba de generación automática de fake-news, entre otros) dado que “ningún sistema de IA es perfecto” y, en el caso de GPT3, “seguramente habrá formas de identificar fallos en el texto generado”. Sin embargo, cree que cada vez “habrá que trabajar más en pensamiento crítico a nivel individual y conocer la existencia de este tipo de herramientas o sistemas”.

Una de las cosas a mejorar será, con toda probabilidad, el problema de los sesgos (“aunque han hecho un mini análisis en el paper”) y el ‘cherry picking’ (es decir, que sólo llegue a los medios o redes sociales “los ejemplos wow y no otros donde su potencial no es tan grande o directamente falla”). Este mini-hilo del head of AI de Facebook lo cuenta muy bien", nos detalla.

Pero esta experta también está convencida de que veremos más avances en el próximo año “ahora que GPT-3 ha llamado la atención a nivel internacional”.

David Pereira

Responsable de Data & Intelligence para everis y del Centro de Excelencia global de IA para el grupo NTT DATA.

Tampoco David Pereira ha tenido la oportunidad de probarlo, aunque reconoce que, después de haber analizado todos los usos prácticos, tiene aún más ganas de hacerlo.

Pereira cree que estamos ante una demostración de que, “a pesar de muchas opiniones en contra, el Deep Learning todavía tiene recorrido para hacer avanzar el campo de la Inteligencia Artificial”, aunque para ello se incurra en un gran impacto medioambiental (debido a la potencia de cálculo y por tanto energía necesaria para entrenar un modelo del tamaño de GPT-3 (750 billones de parámetros vs los 1,5 billones de su “hermano pequeño” de 2019, GPT-2)”.

Foto David

La gran aportación de GPT3 es “su contribución a la democratización de la IA. Con GPT-3, sin conocimientos técnicos de Inteligencia Artificial y sabiendo cómo llevar a cabo lo que ya se conoce como “priming” o “prompt engineering” (dar a GPT-3 unas “instrucciones” en lenguaje natural claras del texto que queremos que genere) cualquier persona va a tener a su disposición una IA muy avanzada y con un nivel de generalización muy amplio (es decir, que nos va a poder ayudar a resolver tareas de muy distinta índole)”.

Algo de lo que ya estamos siendo testigos en el mundo de la “codificación de software, la automatización del procesamiento de documentos o cualquier otro tipo de mensaje de texto (correos electrónicos), la generación automática de documentos creativos a partir de temáticas de nuestro interés o incluso la generación de cuadros de mando financieros a partir de la información que proporcionemos de nuestro departamento o empresa”. Para este experto, el límite a los casos de uso de GPT-3 va a venir dictado “por la creatividad que seamos capaces de lograr aplicando buenas técnicas de “priming” así como por sus defectos”.

Pero, además, Pereira cree que uno de los grandes retos, quizá el mayor, sea el que OpenAI está abordando durante la fase de beta cerrada de su API: “el control de los sesgos que GPT-3 ha demostrado ya en algunos ejemplos compartidos por usuarios en redes sociales. Al pedirle al algoritmo que genere tweets sobre conceptos como judío, negro, mujer, holocausto, los resultados obtenidos han sido claramente muy negativos”, explica.

"El límite a los casos de uso de GPT-3 va a venir dictada por la creatividad que seamos capaces de lograr y por el control de los sesgos"

Por eso, y además de controlar estos sesgos y su consecuente impacto sobre colectivos ya discriminados, “debemos ser conscientes de que cualquier modelo de lenguaje avanzado como GPT-3 (y sus futuras evoluciones) pueden implicar grandes riesgos para nuestra sociedad ya que puede ser usado para generar y distribuir información falsa y creíble por parte de la ciudadanía. La propia OpenAI es consciente de estos problemas y está abriendo a cuentagotas el acceso a la API, además de someter a un proceso de aprobación cualquier aplicación que haga uso de GPT-3”, añade.

En cualquier caso, el futuro parece que estará plagado de avances en este campo, “debido a la creciente democratización de la potencia de cálculo, que hará que vayamos viendo versiones más potentes de estos modelos”. Tras recordar algunos recientes avances en procesamiento del lenguaje o en modelos de traducción, Pereira cree que "la pregunta es cuándo veremos avances significativos en el diseño de la propia arquitectura de modelos como GPT-3, basada en el concepto de “Transformer” de 2017 y que nos lleven a otro salto claramente drástico en la forma de utilizar estos algoritmos”.



via Magazine - robotica-e-ia https://ift.tt/2YpmRu6

viernes, 21 de agosto de 2020

La inteligencia artificial ya pilota un F-16 mejor que nadie: aplasta por 5-0 a un veterano piloto humano en combates simulados

La inteligencia artificial ya pilota un F-16 mejor que nadie: aplasta por 5-0 a un veterano piloto humano en combates simulados

Estamos comenzando a acostumbrarnos (dolorosamente) a que la inteligencia artificial nos supere en ámbitos que parecían inalcanzables para esta tecnología hasta hace poco. La última conquista es especialmente llamativa, y nos habla de cómo los pilotos de combate humanos pronto podrían dejar de ser relevantes.

La USAF (Fuerza Aérea de los Estados Unidos) llevaba meses con un singular experimento para tratar de desarrollar un sistema de inteligencia artificial capaz de superar a un piloto en un combate aéreo simulado. Tras varias etapas preliminares ese sistema ha vencido por 5 combates aéreos a 0 a un experimentado piloto humano en un simulador de un F-16.

En apenas cinco minutos todo había acabado

El llamado AlphaDogfight organizado por DARPA (Defense Advanced Research Projects Agency) celebró ayer su última fase. En los meses previos los combates simulados se limitaron únicamente a motores de inteligencia artificial que pilotaban F-16 virtuales y combatían entre ellos. En el vídeo los combates entre la máquina y el piloto humano comienzan a las 4:40:00 horas de vídeo. Salvo el último de ellos, el resto apenas duran un minuto.

El ganador de esas fases preliminares, llamado Heron Systems AI —que derrotó a motores como el desarrollado por Lockheed—, se enfrentaba ayer a un piloto humano de F-16 en un simulador en el que había ciertas reglas específicas, como la de no poder usar misiles y tener que restringir el combate al cañón delantero.

El evento se retransmitió en YouTube, y los comentaristas destacaron cómo la capacidad sobrehumana de apuntar y acertar en el blanco por parte del sistema de inteligencia artificial planteaban una ventaja clara incluso en situaciones en las que los F-16 estaban sometidos a fuerzas G extremas.

Estos sistemas se basan en sistemas de aprendizaje por refuerzo: vuelan y combaten en simuladores y entornos virtuales una y otra vez y van puliendo sus habilidades, aunque en esta competición final el sistema de inteligencia artificial tenía prohibido aplicar lo aprendido en los combates de esa final, solo aplicar el conocimiento previo.

El resultado final fue aplastante: la inteligencia artificial de Heron Systems derrotó por 5-0 al piloto humano, aunque es cierto que este último logró cambiar de táctica y sobrevivir mucho más tiempo en el último combate aéreo simulado.

Una curiosidad: este sistema de combate aéreo, explicaron sus desarrolladores, no necesita mucha potencia, y es capaz de funcionar sobre un chip parecido al NVIDIA Tegra.

Vía | Defense One



via Magazine - robotica-e-ia https://ift.tt/34juBBx

martes, 18 de agosto de 2020

Cuando la nota no te la pone un profesor, sino un algoritmo: caos entre los estudiantes del Reino Unido

Cuando la nota no te la pone un profesor, sino un algoritmo: caos entre los estudiantes del Reino Unido

Si no te gusta tu nota, tenemos otra para ti. Parafrasear a Groucho Mark es inevitable ante la esperpéntica situación que se está viviendo en el Reino Unido, donde miles de estudiantes del equivalente de nuestro bachillerato se han visto afectados por las notas que han sacado en este curso. Dichas notas no se las ha puesto un profesor, sino un algoritmo.

La pandemia de COVID-19 y la ausencia de exámenes presenciales ha obligado a las autoridades académicas a utilizar ese algoritmo para calificar a los alumnos. El problema es que el algoritmo ha tomado en cuenta factores discutibles que han hecho que ahora cualquiera alumno pueda recurrir esas calificaciones que determinan parte de su futuro académico y laboral.

Un desastre causado por un (mal) algoritmo

Los exámenes GCE Advanced Level, más conocidos como A Level, son unas pruebas que los estudiantes de Inglaterra, Gales e Irlanda del Norte realizan tras los dos últimos años de la enseñanza secundaria. Es un concepto similar al que se maneja en España con la EBAU (la antigua Selectividad) y que es determinante para que muchos alumnos puedan cursar los estudios universitarios que desean y la carrera profesional a la que intentan encaminar sus pasos.

Exam

El problema es que el confinamiento ha hecho imposible que se celebre dicha evaluación, lo que ha provocado que la nota obtenida por los alumnos no se determine por un exámen calificado por un profesor, sino por un algoritmo.

Ese algoritmo, como se ha descubierto a posteriorijum, ha resultado tomar en cuenta factores coherentes como el historial del estudiante, pero también influyen otros más polémicos como el propio historial de sus compañeros y el centro al que pertenece ese estudiante.

El Departamento de Educación del Reino Unido ha anunciado la puesta en marcha de un sistema de "triple bloqueo" (triple lock) para esos estudiantes, y que permitirá a los estudiantes recibir la máxima calificación de tres alternativas: la nota calculada por el algoritmo, las notas de exámenes de prueba preliminares ('mock exams', celebrados entre noviembre y marzo) o la nota de un futuro exámen presencial que se celebrará en otoño.

Las críticas a ese sistema son también notables, pero es el algoritmo el que ha generado las mayores protestas y unos resultados especialmente llamativos. En ellos se revela que dicho algoritmo es injusto con las minorías étnicas de entornos más pobres o de entornos desfavorecidos.

Stephen Curran, profesor y experto en educación, indicaba que "chicos de cierto origen pueden encontrarse con que su nota ha disminuido", y eso parece haber ocurrido por ejemplo en Escocia, donde los chicos de entornos más desfavorecidos tenían el doble de posibilidades de ver sus notas rebajadas en comparación con los chicos que viven en zonas más ricas.

Eso ha provocado una avalancha de apelaciones por parte de los alumnos que no estaban conforme con sus notas, pero incluso este proceso parece haber levantado nuevas ampollas. En Inglaterra, por ejemplo, la decisión de si se apela o no la nota no corresponde al alumno, sino al centro educativo, algo que otros expertos califican de "escandaloso".

Como apuntan en Wired, este caótico escenario ha hecho que la situación educativa se convierta en una situación política "y los estudiantes de hoy son los votantes de mañana".

Para los responsables del acceso a las universidades el problema es aún más importante cuando afirman que al final "muchos estudiantes -al menos los de colegios que se pueden permitir apelar las notas- acabarán obteniendo básicamente la nota que quieran" porque no hay una fuente de información fiable para establecer esa nota.

Vía | Wired



via Magazine - robotica-e-ia https://ift.tt/314qyqK

jueves, 13 de agosto de 2020

AutoFoley, la inteligencia artificial que añade efectos de sonido a un vídeo según lo que aparezca en él

AutoFoley, la inteligencia artificial que añade efectos de sonido a un vídeo según lo que aparezca en él

Foley es el proceso de recrear sonidos, como los pasos de la gente o el choque de dos objetos, para añadirlos a las películas en postproducción como efectos de sonido. Por ejemplo, en 'El Señor de los Anillos: El Retorno del Rey', el sonido que hacen las calaveras al caerse en el minuto 36:25 del film no se consiguió con calaveras de verdad, sino con 20 kilos de nueces moviéndose en un saco y unos cocos cayéndose al suelo.

Conseguir estos efectos de sonido es laborioso, pero AutoFoley, una IA desarrollada por John J. Prevost y Sanchita Ghose, de la Universidad de Texas, busca hacerlo más sencillo sintetizando sonidos a partir de imágenes.

Si en la escena llueve, debe sonar la lluvia

Los investigadores describen AutoFoley como "una herramienta de aprendizaje profundo totalmente automatizada que puede utilizarse para sintetizar una pista de audio representativa para los vídeos". De acuerdo a Prevost y Ghose, puede utilizarse en aplicaciones en las que no existe un archivo de audio asociado a un vídeo, o lo que es lo mismo, en vídeos sin sonido.

Para ello, AutoFoley se vale de dos modelos de machine learning. El primero analiza las características de la imagen, como el movimiento. El segundo analiza la relación temporal del objeto en los diferentes frames del vídeo. Después de aplicar cada uno de los modelos, el sonido se sintetiza para que encaje con el vídeo.

AutoFoley, explican los investigadores en su artículo publicado en IEEE Xplore, fue entrenado con "un conjunto de datos de audio y video a gran escala que contiene una variedad de sonidos usados frecuentemente como efectos Foley en las películas". Finalmente, usaron AutoFoley para recrear el sonido de 1.000 vídeos cortos, como los que podemos ver en este texto.

Como explican en IEEE Sprectrum, AutoFoley consigue mejores resultados cuando el sonido no tiene que estar perfectamente sincronizado con la escena. En el vídeo del caballo galopando, por ejemplo, puede verse que el sonido no está perfectamente sincronizado con las patas del animal, mientras que en el vídeo de la hoguera no es fácil saber que es un audio sintetizado de forma artificial. De hecho, los investigadores encuestaron a 57 estudiantes y el 73% de los sujetos "consideraron la pista de sonido generada como original".

El modelo, como indicábamos, no es perfecto. Los investigadores señalan que un requisito para que AutFoley funcione bien es el que el sujeto esté siempre en escena. Por ejemplo, en las películas, si un caballo se sale de la escena seguimos escuchando cómo se aleja. Esto, por el momento, no es capaz de ser interpretado por la IA, pero será un tema que abordarán en investigaciones futuras.

Vía | IEEE Spectrum



via Magazine - robotica-e-ia https://ift.tt/2E4ixJ5

viernes, 7 de agosto de 2020

NeRF: esta red neuronal recrea monumentos en gráficos 3D a partir de imágenes publicadas en internet por turistas y usuarios

NeRF: esta red neuronal recrea monumentos en gráficos 3D a partir de imágenes publicadas en internet por turistas y usuarios

"Si pudiera cambiar el ángulo de esta foto un poco más...". Es una idea muy generalizada. Tener una imagen y desear a posteriori haberla realizado desde otra posición o con otro ángulo. Una solución nos la ofrece un equipo de investigación de Google Brain, en Berlín. Se trata de NeRF ('Neural Radiance Fields'), una tecnología que crea composiciones en 3D a partir de imágenes fijas encontradas en la red.

El último uso de esta tecnología ha sido publicado en ArXiv y se nos presenta como un método basado en 'machine learning' para recrear de forma compleja una escena al aire libre basándose en fotos aleatorias. Es decir, a partir de fotos normales poder recrear en tres dimensiones ese mismo edificio o monumento.

'NeRF in the Wild': las redes neuronales mejoran sus resultados a gran velocidad

El primer ejemplo lo vemos con la famosa Puerta de Brandenburgo en Berlín o la Fontana di Trevi en Roma. El equipo selecciona imágenes de internet de los monumentos desde diferentes ángulos y distancias y logra crear una imagen completa en 3D para verse desde diferentes ángulos.

Según muestra el equipo de Google en su 'NeRF in the Wild', pueden crear pequeños vídeos en 3D de famosos monumentos partiendo de fotos aleatorias buscadas en internet sobre ellos, tengan filtros, turistas por en medio o una iluminación complicada.

Habitualmente las imágenes para estas creaciones se obtienen de repositorios como Flickr. Sin embargo, el hecho de que son tomadas con ángulos muy diferentes, en horarios distintos y con luces distintas hace que sea difícil combinarlas en una misma base de datos para su uso.

El caso es que estas fotos de internet también están a distancias diferentes, hay personas por en medio y muchas veces ni siquiera están centradas en el monumento. Cuando se recogen imágenes aleatorias, es normal que el resultado varíe enormemente.

Nerf Mecanismo

Con el sistema desarrollado por el equipo de Google Brain el objetivo inicial es identificar cuál es el centro de la imagen, cuál será la imagen estática que deberá repetirse en el resto de imágenes.

El segundo paso es identificar qué elementos cambian y eclipsan el monumento principal y qué partes son diferentes debido a la luz. Una vez identificadas estas dos partes, el algoritmo intenta reconstruir la imagen. Pero la idea que subyace es que estas partes "temporales" ayudan a recrear la escena, ya que permite al algoritmo entender cómo cambia el "núcleo" desde cada punto de vista.

En una versión inicial de NeRF, el uso de las sombras estaba menos logrado. Con esta nueva versión, la imagen en 3D resultante es mucho más acertada. Pero no queda ahí, ya que la recreación permite incluso modificar la hora o el tiempo para ver el monumento durante la noche o a plena luz del día.

Nerf In The Wild

Según describen los investigadores, con un centenar de imágenes es suficiente para generar un modelo 3D con bastante detalle.

Los creadores son conscientes que la recreación de monumentos en el exterior todavía tiene margen de mejora, principalmente en las áreas y ángulos que no suelen ser fotografiados. Aún así creen que con NeRF se ha dado un importante salto en el modelado 3D de monumentos a partir de imágenes de los usuarios.

En Xataka | El algoritmo de Facebook dice convertir cualquier imagen 2D en 3D, aunque el móvil tenga una sola cámara



via Magazine - robotica-e-ia https://ift.tt/30CE7NO

jueves, 6 de agosto de 2020

Dreame V9, un aspirador de excelente relación calidad-precio

Hacía mucho que no traíamos por aquí productos dedicados a limpiar nuestro hogar, robots inteligentes, aspiradoras de mano y mucho más. Sabes que aquí siempre te ayudamos a volver tu hogar inteligente y así puedas aprovechar al máximo tu tiempo libre. En esta ocasión vamos a hablar de aspiradoras de mano versátiles.

Tenemos en la mesa de análisis la Dreame V9, un aspirador de mano repleto de accesorios y buena potencia que se convierte en una de las mejores opciones calidad-precio del mercado. Seguramente habrás oído hablar de esta aspiradora muchas veces, así que es un buen momento para que conozcas sus puntos fuertes, y también los débiles.

Diseño y materiales de construcción

En cuanto al diseño Dreame no ha arriesgado prácticamente nada. Pero sin duda de lo que vamos a hablar primero es de los materiales, tenemos un blanco mate de plástico bastante delgado para casi todos los m materiales, acompañado de determinados remates en aluminio cepillado. Pesa relativamente poco si lo comparamos con la competencia, esto hace que tengamos una sensación de que si se cae de una altura de uso considerable podríamos tener daños irreparables en el dispositivo. Esta es una de las principales diferencias con los productos que pueden costar el doble. Hablemos del contenido en cuanto a los accesorios:

  • Cepillo dos en uno
  • Cepillo delgado dos en uno
  • Cabezal específico para sofás y cortinas con cepillo motorizado
  • Cabezal de escoba con rodillo motorizado multiusos
  • Soporte para carga y accesorios
  • Alargador (para usar los cepillos)

Sin embargo, al uso no hemos encontrado ningún punto negativo en los materiales, encajan bien, no bailan y parecen muy bien fijados. Además, bebe directamente del diseño de determinados productos Xiaomi asimilables. Definitivamente me encuentro cómodo con la construcción y sobre todo con el diseño minimalista que ofrece.

Características técnicas y aspiración

Uno de los aspectos más importantes en este tipo de productos es la potencia de aspiración, y es que determinados productos similares a este pero con precios sorprendentemente bajos tienen una pega que los hace casi inútiles, una excasa potencia de aspiración. Contamos en esta Dreame V9 una potencia de 22.000 Pa, suficiente para una limpieza profunda en todos los aspectos del hogar. Estamos de acuerdo en que no alcanza a otras de gama alta, pero es que cuesta casi la mitad que estas. Debemos tener en cuenta que contamos con una potencia de 120 AW en tan sólo 1,5 Kg que pesa el producto total.

En cuanto al depósito, muy importante, nos encontramos medio litro (0,5L), con un sistema de fácil apertura que únicamente pulsando un botón va a hacer caer toda la suciedad, lo que facilita muchísimo el mantenimiento. Esto es algo en lo que también aventaja a productos de otras marcas y que me ha convencido en su uso diario. El depósito es transparente por lo que podemos observar su contenido fácilmente, para hacernos así una idea de sus necesidades de vaciado, aunque yo recomiendo deshacerse de la basura en cada utilización.

Autonomía, modos de limpieza y filtrado

Este dispositivo cuenta con una batería de 2.500 mAh que nos ofrecerá 60 minutos de uso en el nivel mínimo, 30 minutos en el modo medio y 10 minutos en el modo máximo de succión. Esta batería de iones de Litio cuenta con un sistema que nos permitirá reemplazarla si somos un poco «mañosos» comprando la misma en portales como Amazon o Aliexpress. Esto alargará notablemente su vida útil, algo que tampoco permiten muchas marcas. Definitivamente el tiempo que dure la aspiradora no estará limitado notablemente por el rendimiento de la batería.

 

  • Modo mínimo: 60 minutos
  • Modo intermedio: 30 minutos
  • Modo máximo: 10 minutos

Contamos con un indicador LED en la base que nos informará del nivel de carga en todo momento mientras la usamos, así como el procedimiento de carga cuando está posada sobre su base. No necesariamente tenemos que usar la base para cargarlo, algo a destacar, también vamos a poder cargar la Dreame V9 mediante el cable directamente. El tiempo total de carga rondará las 3 horas si vamos del 0% al 100%.

En cuanto al filtrado contamos con un sistema de cinco depósitos para acabar en un filtro HEPA de fácil extracción y sustitución en la parte superior mediante un sistema de media rosca. Esto es una garantía que según Dreame ofrece un 99% de filtración. En nuestras pruebas hemos apreciado que no se satura ni vuelve a sacar las partículas del polvo a la estancia, algo en lo que también se equipara a los productos similares de gamas más altas. 

Accesorios y recambios

Este filtro además se puede sustituir fácilmente, así como los rodillos de los adaptadores de los que hemos hablado anteriormente. Esto resulta de vital importancia, en portales como Amazon y Aliexpress vamos a encontrar fácilmente tanto los cepillos como el filtro HEPA. Una vez más esto convierte a la Dreame V9 en un producto versátil y pensado para durar.

¿Te ha gustado? ¡Cómprala al mejor precio! > AMAZON

El aspirador es relativamente silencioso, contamos con un ruido máximo de hasta 70 decibelios en la potencia máxima, que no es la que vamos a utilizar habitualmente, por lo que el resto de opciones son bastante más silenciosas, ofreciendo una vez más unos resultados que se asemejan demasiado a los de la competencia en cuanto a la gama alta. La potencia de sus cepillos también es importante, se mueven con independencia, aunque se echa en falta un sistema de iluminación LED en estos para identificar fácilmente la suciedad a distancia, algo que hubiera sido un punto muy a favor.

Opinión del editor

Esta Dreame V9 se posiciona como una importante alternativa a los aspiradores de mano de gamas altas. Personalmente descartaría algunas ofertas por debajo de 100 euros que se encuentran en el mercado y que fácilmente se encuentran con reseñas negativas en muchos portales de venta. Este Dreame V9 tiene un precio base de 199 euros, pero fácilmente podrás hacerte con él por 150 o 160 euros (ENLACE DE COMPRA) en función de ofertas puntuales, que es cuando os recomiendo que os hagáis con el producto. Sin duda me ha parecido un producto redondo, sobre todo teniendo en cuenta la cantidad de productos similares que han pasado por nuestras manos y el precio de esta Dreame V9.

Pros

  • Materiales y diseño
  • Potencia y accesorios
  • Relación calidad-precio

Contras

  • Posible daños por caídas
  • Sin LED en escobas
 

via Actualidad Gadget https://ift.tt/2Pus9zl