martes, 28 de junio de 2022

Roborock extiende su serie S con el nuevo S7 Pro Ultra

En el marco de su constante diversificación de productos y siempre con el fin de proporcionar una limpieza automática, Roborock amplía su serie estrella, la serie S, con este nuevo modelo, que incluye todas las características del premiado S7+, como su succión superior de 5100 Pa, la elevación automática VibraRise® para zonas con alfombras y la vibración sónica de 3000 veces por minuto. Con la estación inteligente más innovadora y la avanzada tecnología de Roborock, el S7 Pro Ultra ofrece una limpieza automática y aún más cómoda. 

Una base de carga que lo hace todo

La compatibilidad con la nueva Base de Vaciado, Lavado y Llenado de Roborock se traduce directamente en menos mantenimiento manual. Para estar siempre a punto, la estación también se limpia automáticamente mientras se lava la mopa. Gracias a la función de rellenado automático del tanque de agua, el S7 Pro Ultra puede fregar hasta 300 m2, un 50% más que sus predecesores. Además, la bolsa para polvo permite almacenar la suciedad hasta durante siete semanas.

Con la aclamada función VibraRise® y tecnología de fregado sónico

Diseñado para limpiar sin interrupciones, el S7 Pro Ultra incluye la aplaudida tecnología VibraRise® de Roborock: una combinación de fregado sónico y elevación automática de la mopa. Este sistema permite al robot pasar fácilmente de una superficie a otra mientras elimina la suciedad con una frotación de alta intensidad. El S7 Pro Ultra combina una potencia de succión de 5100 Pa con el fregado sónico más rápido del mercado, que frota el suelo hasta 3000 veces por minuto para una limpieza más profunda.

Además, el sistema PreciSense LiDAR escanea constantemente las habitaciones para evitar caídas o atascos, e incluso emite alertas en la aplicación en caso de que el robot aspirador tenga algún problema. El S7 Pro Ultra reconoce automáticamente las diferentes plantas, a la vez que permite fijar zonas restringidas y paredes virtuales. Desde la aplicación de Roborock es posible personalizar la limpieza por habitación, hora del día, rutinas e incluso ajustar la potencia de succión. Este modelo es compatible con Alexa, Home y Siri.

El S7 Pro Ultra estará disponible para su compra en Amazon desde el 7 de Julio de 2022 a un precio de venta sugerido por el fabricante de 1.199 €. A partir de dicha fecha se puede comprar con una oferta especial de lanzamiento por 949€, solo por tiempo limitado.



via Actualidad Gadget https://ift.tt/Mwt0YnZ

lunes, 27 de junio de 2022

La IA de OpenAI ahora sabe jugar a Minecraft: ha aprendido viendo 70.000 horas de vídeos en YouTube

La IA de OpenAI ahora sabe jugar a Minecraft: ha aprendido viendo 70.000 horas de vídeos en YouTube

El potencial de la inteligencia artificial (IA) no deja de sorprendernos. En los últimos meses hemos visto desde un ingeniero de Google charlando con un chatbot hasta las delirantes creaciones de DALL-E Mini. Ahora, por si esto fuera poco, un modelo de OpenAI ha aprendido a jugar a Minecraft viendo vídeos en YouTube, y lo hace bastante bien.

La compañía explica que el modelo entrenado para jugar a Minecraft tiene la capacidad de ir más allá de las tareas de supervivencia básicas del juego. Por ejemplo, es capaz de nadar, cazar y cocinar animales. Incluso ha perfeccionado la técnica "salto de pilar", que permite crear un bloque improvisado para llegar a lugares más altos.

Entrenando una IA para que aprenda a jugar

Aunque anteriormente hemos visto a modelos de IA aprendiendo otras tareas, como conducir un coche en solo 20 minutos, los investigadores tuvieron que superar varios desafíos para entrenar un modelo de IA en un juego de mundo abierto. En primer lugar, necesitaban una gran cantidad de datos, los cuales fueron fáciles de conseguir en YouTube debido a que Minecraft es uno de los juegos más populares que existen.

Sin embargo, los vídeos cargados por los entusiastas del juego en YouTube muestran lo que están haciendo, pero no cómo lo están haciendo. Por consecuencia esto es un inconveniente para la IA, que no sabe "qué teclas presionar" para realizar determinadas acciones. En este sentido, los investigadores adoptaron una novedosa técnica.

Por un lado crearon un pequeño conjunto de datos basados en vídeos, pero que detallaba cada una de la acciones llevadas a cabo por los usuarios (para ello contrataron a varias personas para que jueguen por muchas horas). En base a esto, entrenaron un modelo de dinámica inversa (IDM) que predice qué acción vendrá a continuación.

Así, en lugar de exponer a la IA a una enorme cantidad de datos sin etiquetar, primero se tomaron el tiempo de enseñarle cómo jugar con el modelo de dinámica inversa. Después, cuando volcaron el resto de la información, el modelo sabía cuáles eran las acciones necesarias para desarrollar una amplia variedad de tareas.

Según explica OpenAI, esta nueva técnica les permitió entrenar a su modelo con 70.000 horas de vídeos publicados publicados en internet. "Aprender a talar árboles para recolectar madera y convertir esa madera en una mesa de trabajo es casi imposible de lograr con el aprendizaje por refuerzo", aseguran. Lo cierto es que estos avances podrían ir más allá de los mundo de los videojuegos, la compañía cree que podría ser útil en otros escenarios, por ejemplo, en enseñarle a usar ordenadores. Skynet, ¿eres tú?

En Xataka | Europa abraza la Inteligencia Artificial: así es el pionero acuerdo que explotará (y limitará) sus posibilidades



via Robótica e IA - Xataka https://ift.tt/0wvodxp

viernes, 24 de junio de 2022

DALL-E 2, la inteligencia artificial de OpenAI, es capaz de generar rostros fotorrealistas de personas que no existen

DALL-E 2, la inteligencia artificial de OpenAI, es capaz de generar rostros fotorrealistas de personas que no existen

A principios de este año, DALL-E 2 nos mostraba su enorme capacidad para generar imágenes a partir de cualquier texto y una notable mejora con respeto a la primera generación. Sin embardo, durante todos estos meses, esta inteligencia artificial de OpenAI ha tenido una importante limitación: las condiciones de uso impedían que los investigadores que tienen acceso a ella pudieran compartir imágenes de rostros autogenerados, pero esto acaba de cambiar.

Como recogen nuestros compañeros de Genbeta, DALL-E 2 ha sido capaz de generar rostros fotorrealistas desde un principio, pero los responsables del proyecto no permitían su circulación puertas afuera debido al riesgo de creación de deepfakes y contenido falso. Entonces, ¿qué ha cambiado para que los investigadores puedan compartir rostros autogenerados? OpenAI ha implementado una serie de cambios para mejorar la seguridad de esta tecnología.

DALLE-2 puede generar rostros, pero con estas limitaciones

Para reducir los riesgos, OpenAI asegura que DALL-E 2 ahora impide que los investigadores puedan generar rostros fotorrealistas a partir de cualquier "cara realista". Además, la plataforma rechaza cualquier intento de generar rostros de celebridades y figuras públicas. Cabe señalar que anteriormente no se permitía generar rostros de figuras políticas destacadas, pero tras esta actualización, las limitaciones comprenden a cualquier personalidad famosa.

En todo momento hablamos de investigadores porque, a diferencia de DALL-E Mini, DALL-E 2 está actualmente en una fase cerrada de pruebas, por lo que aún no está disponible para el público en general. Incluso, quienes tienen acceso a esta tecnología todavía tienen ciertas limitaciones. No obstante, en las redes sociales se pueden encontrar numerosos ejemplos sobre su funcionamiento. Y algunas publicaciones nos dejan ver cómo se ven los rostros fotorrealistas generados por esta tecnología.

Danielle Baskin, a través de la cuenta de Twitter @djbaskin_images describe cómo ha utilizado DALL-E 2 para generar rostros fotorrealistas con diferentes diseños de maquillaje. "Agregué la frase 'amarillo neón geométrico triangular' a mis indicaciones y obtuve estas increíbles ideas para el cabello y el maquillaje", dice, y añade "cuando miras a los ojos [a las imágenes generadas], sabes que se trata de inteligencia artificial".

Un ejemplo de cómo se puede utilizar DALL-E 2 para generar imágenes a partir de otra imagen lo podemos ver en un Tweet de Ken Kocienda. Partiendo de la famosa pintura de Johannes Vermeer 'La joven de la perla', este usuario pidió generar una escena de estudio, con fotógrafos, cámaras en trípodes y muchas luces, eso sí, en "pintura al óleo extremadamente detallada". El resultado, que es sorprendente, deja en evidencia el potencial de este tipo de herramientas en constante evolución.

Detrás de DALLE-2 está GPT-3, un poderoso modelo de lenguaje presentado en 2020 capaz de generar diversos tipos de contenido a través de indicaciones escritas, y un modelo de "difusión", que comienza con un patrón de puntos aleatorios y altera gradualmente ese patrón para generar una imagen cuando reconoce aspectos específicos. En este campo también nos encontramos con otras propuestas prometedoras, como la recientemente presentada Parti de Google, que utiliza un modelo autorregresivo" y permite permite entradas de texto más extensas.

En Xataka | La primera jueza hecha por inteligencia artificial es bastante imparcial. Malas (y buenas) noticias para la justicia



via Robótica e IA - Xataka https://ift.tt/17Ce92b

Dreame D10 Plus, un aspirador autovaciable muy completo [Análisis]

Los robots aspiradores han dado un salto de calidad en los últimos tiempos con la finalidad de hacernos la vida más fácil si cabe, y Dreame lleva ya mucho tiempo ofreciendo productos que se ajustan al famoso estándar calidad/precio en el mercado de los dispositivos de limpieza y domótica.

Por eso, no podía faltar nuestro análisis de uno de los lanzamientos más ambiciosos de la marca. Analizamos la nueva Dreame D10 Plus, un robot aspiradora con depósito autovaciable pensado para estar 45 días funcionando sin complicaciones. Descubre con nosotros este nuevo producto de Dreame, si realmente merece la pena y cuáles son sus secretos.

Materiales y diseño

En el aspecto exterior Dreame no ha querido desmarcarse, ofreciendo un dispositivo que en apariencia no sólo es casi idéntico a otros de la marca, sino que nos recuerda a Roborock, por poner un ejemplo de una firma con un estándar de calidad parecido. Por ello tiene unas medidas de 349x350x96,3 milímetros para un peso que no ha sido informado por la marca pero que supera los 4,5Kg. Como podéis ver en las fotografías y el vídeo que acompaña a este análisis, tenemos un modelo en color blanco, con detalles rojizos y anaranjados, algo que acompaña a la marca desde sus inicios.

Por otro lado tenemos la base de carga y cubo de autovaciado, un dispositivo con unas medidas de 303x403x399 milímetros con capacidad para 2,5 litros de suciedad y que tiene un diseño, una vez más bastante reconocible.

Como suele suceder en Dreame, la consistencia del dispositivo y la calidad percibida es bastante alta, lo que nos genera cierta confianza, especialmente teniendo en cuenta el tipo de aparato del que se trata, cuya durabilidad es fundamental.

Contenido de la caja

En la cala del Dreame D10 Plus vamos a encontrar además, del dispositivo en sí, un adaptador de corriente sin fuente de alimentación, es decir, sólo el cable, ya que la fuente de alimentación está incluida dentro del cubo de autovaciado y carga. Por su parte, tenemos el depósito de suciedad, el adaptador y la mopa para el fregado, el cepillo central híbrido con cerdas de nylon y silicona para todo tipo de superficies, el cepillo lateral y una bolsa adaptada para el cubo de autovaciado.

Como podéis ver, no se incluye ningún tipo de recambio, estos deberán ser adquiridos o bien en la página web oficial de Dreame, o en su defecto en diferentes puntos de venta como Amazon. Más adelante hablaremos de otros bastante determinantes como las bolsas del sistema de autovaciado.

Características técnicas

La Dreame D10 Plus cuenta con un sistema de succión de 4.000Pa, bastante alto o al menos dentro de la cúspide de entre este tipo de dispositivos, los de menor precio suelen rondar por la mitad de potencia de succión y los de precios superiores a penas lo mejoran ligeramente.

Para navegar a lo largo de tu casa utiliza un sensor LiDAR en su base con capacidad de escanear un radio de 8 metros para crear un mapeado dinámico e inteligente. De este modo, evita los obstáculos de forma rápida y efectiva. En este apartado, el Dreame D10 Plus ha escaneado un piso de alrededor de 70m2 en algo menos de diez minutos. Esto ayuda a realizar limpiezas bastante eficientes, como hemos podido comprobar.

En cuanto al sistema de fregado, dispone de tres niveles diferentes de humedad. No obstante, y como suelo decir con estas cosas, el sistema sigue basándose en poco más que humedecer sistemáticamente una mopa que posteriormente deslizará sobre el suelo. Esto, en suelos cerámicos provoca a menudo marcas de humedad y en los suelos de tarima o madera, es poco recomendable. Normalmente no compensa el riesgo para el beneficio obtenido, aunque si bien cumple con las expectativas gracias a sus tres niveles, este tipo de aparatos siguen lejos de ofrecer una experiencia de fregado a la altura.

Dispone de una batería de 5.200 mAh, no sabemos exactamente qué es lo que supone en tiempo, lo que tenemos claro es que para los 70m2 de prueba ha consumido alrededor de un 30% de la batería disponible. Si bien los tiempos de carga rondan las dos horas, se me hace difícil plantear un escenario en el que esta Dreame D10 Plus se quede sin autonomía.

Limpieza y autovaciado

A nivel de limpieza, este Dreame D10 Plus cuenta con dos depósitos, uno de suciedad con una capacidad de 400ml que se sitúa en la parte central, y uno de líquidos en la parte trasera con 145ml. En este apartado estamos dentro de los estándares habituales.

Por su parte, el depósito de autovaciado (o cubo) cuenta con una capacidad de 2,5L que en teoría, nos dará para aproximadamente un mes de limpiezas. El depósito, eso sí, cuenta con unas bolsas propietarias, compatibles con otros sistemas de la compañía y cuyo precio está alrededor de uno o dos euros por cada unidad en puntos de venta habituales como Amazon o AliExpress.

Por su parte, la archiconocida aplicación de Dreame nos hace la vida más fácil. Es su punto de control habitual y general podremos ajustar qué tipo de habituaciones queremos limpiar, con qué potencia, y en qué orden, tenemos además una serie de factores interesantes:

  • Detección automática de alfombras
  • Tres velocidades de succión
  • Control manual
  • Actualizaciones
  • Gestión y control a través de Amazon Alexa

En este punto la Dreame D10 Plus emite un ruido de acorde con sus capacidades de succión, no es silenciosa, ni mucho menos cuando activa la función del autovaciado, pero tampoco podríamos decir que hace demasiado ruido en relación con el rendimiento que nos ofrece. Sin embargo y como ventaja, el autovaciado nos permite olvidarnos del mantenimiento por más tiempo.

Opinión del editor

Esta Dreame D10 Plus cuenta con una estación de autovaciado, 4.000Pa de succión y un buen sistema de limpieza inteligente por alrededor de 399 euros en función del punto de venta seleccionado, esto nos planta ante la que es posiblemente la aspiradora con estas características más económica del mercado, e incluso con sus puntos negativos nos permite considerar su adquisición como una buena compra.

Pros y contras

Pros

  • Precio muy económico
  • Buena succión
  • Estación de autovaciado

Contras

  • Bolsas propietarias
  • El sistema de fregado es simplista
 

via Actualidad Gadget https://ift.tt/KTZnl5v

jueves, 23 de junio de 2022

De delirantes creaciones a obras de arte: así es Parti, la nueva inteligencia artificial de Google para crear imágenes fotorrealistas

De delirantes creaciones a obras de arte: así es Parti, la nueva inteligencia artificial de Google para crear imágenes fotorrealistas

La inteligencia artificial promete marcar un antes y un después en muchas áreas, pero una en particular se está llevando casi todo el protagonismo este año. En abril hablábamos de las enormes posibilidades de DALL-E 2, una IA capaz de generar imágenes a partir de un texto. Más tarde llegaba DALL-E Mini, un generador que nos sorprendía con sus delirantes creaciones. Ahora es el turno de Parti, una alternativa que apuesta por un nuevo y prometedor modelo para generar imágenes fotorrealistas.

A diferencia de DALL-E y sus variantes, que utilizan un modelo de generación de imágenes desde texto de "difusión", Parti (Pathways Autoregressive Text-to-Image) apuesta por un modelo autorregresivo que permite entradas de texto más extensas y es capaz de hacer composiciones complejas. Como podemos ver en la imagen destacada, los resultados de Parti se parecen más a una obra de arte que a las figuras amorfas como las que nos ofrece DALL-E Mini (imagen siguiente).

Dall E Mini
Imágenes generadas con Dall-E Mini

El nuevo generador de imágenes de Google

Los investigadores de Google cuentan en una publicación de Blog que pusieron a prueba a Parti en cuatro escalas (350M, 750M, 3B y 20B) bajo los mismos parámetros, es decir, con las mismas entradas de texto. Tras la prueba, descubrieron que la última escala sobresale especialmente en indicaciones que son abstractas, requieren conocimiento del mundo, perspectivas específicas y representación de símbolos.

Googe Parti 3
Imágenes generadas con Parti

En uno de los intentos, utilizaron el siguiente texto de entrada: "A map of the United States made out of sushi. It is on a table next to a glass of red wine (Un mapa de Estados Unidos hecho con sushi. Está en una mesa al lado de una copa de vino tinto)". Como podemos ver, la escala 350M presenta una confusa representación, las cosas mejoran en la 750M, presentan "creatividad" en la 3B y un asombroso resultado en la 20B.

También podemos ver una prueba en la que los investigadores evaluaron el trabajo de Parti en diferentes escenarios complejos. Ingresaron el texto "Portrait of a tiger wearing a train conductor’s hat and holding a skateboard that has a yin-yang symbol on it (Retrato de un tigre con un sombrero de conductor de tren sosteniendo una patineta con un símbolo de yin-yang)".

Parti 12
Imágenes generadas con Parti

Y pidieron variantes en fotografía, ilustración de historietas, pintura al óleo, estatua de mármol, entre otros. Sorprendentemente, la IA demostró su capacidad para adherirse a formatos y estilos de imagen específicos, aunque no siempre con tan buenos resultados. "Si bien Parti produce resultados de alta calidad para una amplia gama de indicaciones, el modelo, sin embargo, tiene muchas limitaciones", indican desde Google.

El gigante de Mountain View seguirá entrenando y mejorando sus modelos de inteligencia artificial para "mejorar la creatividad y la productividad humana". Cabe señalar que por razones de seguridad (Google quiere evitar malos usos), Parti no está disponible para el público, como sí lo está DALL-E Mini, por lo que no podremos crear nuestras propias imágenes a partir de texto. No obstante, nos queda la alternativa de ver una gran cantidad de ejemplos en la página del proyecto y consultar la investigación completa.

En Xataka | La primera jueza hecha por inteligencia artificial es bastante imparcial. Malas (y buenas) noticias para la justicia



via Robótica e IA - Xataka https://ift.tt/fpEYoyb

Alexa podrá hablar o leerte un cuento con la voz de tu abuela aunque haya fallecido. Da mal rollo

Alexa podrá hablar o leerte un cuento con la voz de tu abuela aunque haya fallecido. Da mal rollo

Amazon celebraba ayer su conferencia re:Mars, y en ella el máximo responsable del desarrollo de Alexa, Rohit Prasad, anunciaba una nueva función para este asistente de voz: poder imitar cualquier tipo de voz con su sintetizador de voz.

Durante la demostración se pudo ver cómo un dispositivo configurado con esa nueva versión de Alexa leía una historia a un niño con la voz de su abuela fallecida. La opción es sin duda singular, pero la pregunta es si esto es realmente buena idea.

¿Milagro o maldición?

En la demostración, un niño le decía a un Echo: "Alexa, ¿puede la abuela terminar de leerme 'El mago de Oz'?". Tras responder con su voz robótica, Alexa pasaba inmediatamente a una voz más suave y parecida a una voz humana, imitando aparentemente la voz de la familiar del pequeño.

Los responsables de este desarrollo afirman que su asistente de voz es capaz de producir voz de alta calidad "con tan solo un minuto de audio grabado". La característica, aún en desarrollo, no tiene fecha estimada de salida.

Para Prasad lograr que los algoritmos de inteligencia artificial para conversar y así hacer compañía se han convertido en un objetivo prioritario de Alexa, sobre todo dado que "tantos de nosotros hemos perdido a alguien querido" en la pandemia de COVID-19.

La aparición de esta opción nos recuerda inevitablemente al chatbot que Microsoft presentó a principios de 2021 y que también permitía "hablar" con personas que habían muerto. La polémica que rodeó a ese desarrollo fue notable, y finalmente Microsoft decidió que no iba a seguir desarrollándolo.



via Robótica e IA - Xataka https://ift.tt/0Pw1lMW

martes, 21 de junio de 2022

Bienvenidos al renderizado inverso de NVIDIA: su nueva tecnología convierte imágenes 2D en objetos 3D

Bienvenidos al renderizado inverso de NVIDIA: su nueva tecnología convierte imágenes 2D en objetos 3D

Quienes crean contenido 3D saben lo difícil que es lograr recrear todo tipo de objetos en mundos virtuales. Ahora NVIDIA quiere facilitar esa tarea con su tecnología 3D MoMa, que gracias a la inteligencia artificial permite acceder al llamado renderizado inverso.

Estos sistemas permiten extraer objetos 3D a partir de imágenes 2D. La técnica hace uso de una serie de fotos desde distintas perspectivas y es algo así como un "escaneado 3D" simplificado, pero el resultado, al menos según lo que plantea NVIDIA, es fantástico.

Tócala otra vez, Sam

Esta tecnología se ha presentado en una conferencia reciente sobre visión artificial celebrada en Nueva Orleans, y allí NVIDIA ha mostrado este proceso de renderizado inverso que aprovecha la potencia de la GPU "para producir objetos 3D rápidamente que los creadores pueden importar, editar y ampliar sin limitación de las herramientas existentes".

En la demo de NVIDIA se aprovechaba ese marco para reconstruir instrumentos musicales como una trompeta, un saxofón o un clarinete. Tras sacar fotos desde distintas perspectivas, el proceso se encarga luego de combinarlas todas para crear una matriz de triángulos que recrea ese diseño en un modelo 3D inicial.

Ese modelo es compatible con herramientas de modelado ya existentes, y la reconstrucción incluya tanto ese modelo de malla 3D como la aplicación de materiales y texturas o la de la iluminación.

Los responsables de NVIDIA muestran en un vídeo como tras reconstruir esos objetos, el equipo de NVIDIA los importaba en el omniverso de NVIDIA y su plataforma de simulación para editarlos.

El comportamiento de estos objetos es además el adecuado: los miembros del equipo de desarrollo lo comprobaron con la llamada caja de Cornell, una conocida prueba gráfica que evalúa la calidad del renderizado.

Gracias a ella se pudo confirmar que por ejemplo los objetos reflejaban la luz de forma perfecta respecto al material con el que eran modelados. La propuesta es un hito más en esa ambición de NVIDIA por demostrar sus esfuerzos a la hora de ofrecer casos de uso prácticos para sus tarjetas gráficas y su soporte de algoritmos de inteligencia artificial.



via Robótica e IA - Xataka https://ift.tt/8CHmhA7

sábado, 18 de junio de 2022

Probamos el Roborock S7 MaxV Ultra, el robot aspirador más avanzado tiene dos peros importantes

Seguramente el precio te pueda escandalizar un poco. Esos casi 1.400 euros por el Roborock S7 MaxV Ultra pueden parecer demasiado para un aspirador, pero nos encontramos ante la solución más completa del mercado, y lo más importante, la más autónoma. Es capaz de aspirar y fregar, sin la necesidad de intervención humana, por lo menos hasta que se llenen los depósitos de la base. La clave de cualquier aspiradora robot, en su autonomía, es decir, su capacidad para que nos olvidemos de que existe. Siempre lo comentamos en las pruebas que hacemos, con el nivel actual de la tecnología, la batería, incluso el nivel de aspiración no son tan relevantes si pueden pasar por el mismo lugar innumerables veces al día, el resultado siempre será bueno. Aunque la S7 MaxV ha mejorado en un 90% la aspiración respecto a su predecesora, recortando el tiempo necesario para cubrir toda la superficie y obviamente, dando un resultado más eficiente. Las aspiradoras robot, después de meses de uso, la que más y la que menos, se termina atascando o perdiendo en la casa de vez en cuando, pero esto no nos ha pasado con la Roborock S7 MaxV, que es muy capaz de navegar entre habitaciones, por muchos obstáculos que haya. Eso se lo debe a todos los sensores que incorpora, que son casi una exageración, el LIDAR para navegación PreciSense, una cámara reactive eye 3.0 y otra cámara RGB, que sirve para calcular tamaño y distancia de los objetos, aunque en la oscuridad no funciona muy bien, pero lo soluciona con una luz LED que enciende cuando es necesario. La mayoría de los aspiradores robot, tienen uno o dos sensores, la S7 MaxV tiene tres. La inteligencia artificial es capaz de reconocer sillas, zapatos, cables y demás objetos del hogar, para poder esquivarlos permanentemente, hay algunos que se le escapan, como cables muy pequeños como los de los auriculares. Muchos fabricantes llevan tiempo intentando incorporar el fregado en el mismo dispositivo que el aspirado, pero, generalmente, acarrea muchos problemas que Roborock ha solucionado en su S7 MaxV. El primero de ellos es el tamaño del depósito de agua, que suele ser muy pequeño ya que el espacio está muy limitado por el depósito de aspiración, por eso, Roborock lo ha incluido en la base, así el S7 MaxV vuelve y recoge agua limpia sin la necesidad de llevar grandes cantidades. El otro problema resuelto, es la mopa, que se ensucia generalmente en la primera pasada, lo que le resta claramente autonomía a cualquier robot aspiradora, la base del S7, incluye unos cepillos para limpiarla, y lo hace muy bien, casi por arte de magia. El tercer y último problema que suelen tener las aspiradoras dos en uno son las alfombras, la mopa tiene que ir pegada al suelo, y las alfombras y obstáculos menores siempre son un escoyo, pero el S7 MaxV gracias a los ultrasonidos, las detecta y levanta la mopa. No es perfecta El robot, evidentemente, no es perfecto. Más allá del precio, lejos del alcance de la mayoría de los mortales, el depósito de agua sucia de la base suele empezar a oler mal muy rápido, por lo que es necesario vaciarlo regularmente. La base, además, es enorme, la más grande del mercado, ya que tiene tres depósitos, el del aspirado, el de agua limpia y el de agua sucia, y la mopa nos la hemos encontrado alguna vez doblada por las esquinas, pero se soluciona fácil. La aspiradora tiene algunas características curiosas, de las que facilitan la vida. El proceso de mapeado 3D es eficiente, e incluso detecta los muebles de la habitación y sabe si nos encontramos en la cocina, baño o salón, por lo que el etiquetado es automático. Es posible dirigirla remotamente desde la aplicación, que es bastante intuitiva, como si se tratase de un videojuego, y gracias a la cámara y al micrófono, realizar videollamadas a través de la S7 MaxV, algo divertido si lo que quieres es hablar con tu mascota. Otra de las características más graciosas, es que la S7 puede ir repartiendo amor al resto de aspiradoras de casa, es decir, si se encuentra con algún otro aspirador, sea de la marca que sea, se acercará y le dará unos cariñosos besos. La aplicación es correcta, permite invitar a otros miembros del hogar de forma sencilla, acceder a los controles del S7 MaxV, y al curioso mapeado en 3D. En conclusión, hemos probado decenas de robots aspiradoras en los últimos años, y la Roborock S7 MaxV es la más completa e inteligente actualmente, con dos grandes peros, el precio y la descomunal base para la que hay que tener sitio.

via Tecnología https://ift.tt/Irb1TCN

jueves, 16 de junio de 2022

Vision-60, el primer perro robot soldado que es capaz de nadar

Los perros robot, como el Spot de Boston Dynamics, llevan tiempo disponibles. Sin embargo, uno de los principales retos a los que se enfrentan empresas y desarrolladores es encontrarles posibles usos más allá de los trabajos de mantenimiento en fábricas o de sus posibilidades dentro del terreno militar. Precisamente, la empresa Ghost Robotics ha anunciado que ha conseguido que su dispositivo cuadrúpedo Vision-60, empleado por el Ejército de Estados Unidos, sea capaz de nadar mediante gracias a un nuevo accesorio fabricado por la empresa Onyx Industries. De acuerdo con información del portal 'War Zone', el kit empleado para convertir a Vision-60 en el primer perro robot anfibio de uso militar de la historia, según el fabricante, recibe el nombre de NAUT (cola náutica autónoma no tripulada, por sus siglas en inglés). Ya está siendo empleada por el Ejército de Estados Unidos y permite que el dispositivo sea capaz de desplazarse por el agua gracias a la propulsión que consigue mediante la emisión de un chorro de agua. No es necesario que utilice las patas para nada.<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Check out our Vision 60 swimming! Thanks to the talented team at Onyx Industries for creating the Nautical Autonomous Unmanned Tail (NAUT) for us. <a href="https://twitter.com/hashtag/defensetechnology?src=hash&amp;ref_src=twsrc%5Etfw">#defensetechnology</a> <a href="https://twitter.com/hashtag/robotics?src=hash&amp;ref_src=twsrc%5Etfw">#robotics</a> <a href="https://twitter.com/hashtag/ugv?src=hash&amp;ref_src=twsrc%5Etfw">#ugv</a> <a href="https://twitter.com/hashtag/teamwork?src=hash&amp;ref_src=twsrc%5Etfw">#teamwork</a> <a href="https://t.co/B1Ek4y7fq3">pic.twitter.com/B1Ek4y7fq3</a></p>&mdash; Ghost Robotics (@Ghost_Robotics) <a href="https://twitter.com/Ghost_Robotics/status/1536378529415315458?ref_src=twsrc%5Etfw">June 13, 2022</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> Gracias a NAUT, Vision-60 es capaz de alcanzar una velocidad superior a los 5 kilómetros por horas cuando se encuentra en el agua. La autonomía, mientras tanto, se mueve en los 30 minutos con una fuente de alimentación dedicada. Pasado ese tiempo, el módulo puede seguir funcionando con la electricidad de la fuente interna de alimentación del Vision-60. Onyx Industries explica en una publicación de LinkedIn que el kit incluye un sistema de control semiautónomo que puede ser utilizado manualmente por un operador en remoto a una distancia cercana a los dos kilómetros y medio. El kit que convierte al Vision-60 en anfibio es compatible con cualquier plataforma con resistencia al agua y al polvo IP67, calificación que el propio dispositivo aspira a obtener. De acuerdo con esta, la máquina que lo acompaña está sellada completamente para protegerse del polvo y que ha sobrevivido a una inmersión temporal en aguas con una profundidad que va desde los 15 centímetros hasta el metro en un plazo de tiempo aproximado de 30 minutos. La compañía exhibió esta tecnología en la Special Operations Forces Industry Conference (SOFIC) de este año en Florida (Estados Unidos), evento anual que presenta la Asociación Industrial de Defensa Nacional (NDIA, por sus siglas en inglés).

via Tecnología https://ift.tt/B4wntAr

miércoles, 15 de junio de 2022

¿Ha conseguido una IA de Google convertirse en un ser sensible y consciente?

La inteligencia artificial es capaz de hacer cosas maravillosas. Pero, a pesar del marketing y las grandes palabras de ejecutivos de tecnológicas, sigue lejos (muy lejos) de conseguir que una máquina desarrolle personalidad propia o sentimientos. Todo lo contario a lo que el ingeniero de Google Blake Lemoine, de 41 años, explicó en una entrevista con 'The Washington Post' publicada el pasado fin de semana. En declaraciones al medio estadounidense, el trabajador del buscador no tuvo problema en afirmar que el modelo de lenguaje LaMDA, máquina conversacional por chat presentada por la tecnológica el año pasado, había conseguido alcanzar un estado de «consciencia» y «sensibilidad»; lo que, prácticamente, la iguala con un ser humano. «En el transcurso de los últimos seis meses, LaMDA ha sido increíblemente coherente en sus comunicaciones sobre lo que quiere y lo que cree que son sus derechos como persona», ha afirmado el ingeniero en un post de Medium, plataforma en la que, además, ha compartido varios extractos de sus conversaciones con la IA, con la que trabajaba con el objetivo de dilucidar si utilizaba discursos discriminatorios o de odio. Precisamente, la divulgación de esta información, que es confidencial, le ha costado al ingeniero una suspensión de empleo. Google, además, niega de forma tajante que su sistema conversacional tenga las cualidades con las que Lemoine lo cataloga. «Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado de que la evidencia no respalda sus afirmaciones», dijo Brian Gabriel, un portavoz de Google, en un comunicado. «Algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles», rematan desde la tecnológica. LaMDA, acrónimo en inglés de modelo de lenguaje para aplicaciones de diálogo, es un programa de lenguaje natural en el que se utilizan grandes bases de datos que puedan ser utilizadas para interpretar mejor las preguntas del usuario. «No deja de ser un chatbot destinado a dar mejores respuestas», explica en conversación con ABC Salvador Cobos, profesor especializado en robótica e inteligencia artificial de la Universidad Internacional de La Rioja (UNIR). El docente remarca que «todas estas aplicaciones dan respuestas a partir de la información con las que se las programa». No se inventan nada. Toda la información está dentro de las redes neuronales que las componen y que, previamente, han sido alimentadas con los datos que quiere el programador de turno. Cobos apunta que, por ejemplo, si a una máquina como LaMDA se le preguntase «¿Qué es un dinosaurio de fuego?», esta ofrecería una respuesta elaborada a partir de la información que almacena sobre las palabras 'dinosaurio' y 'fuego'. Mientras tanto, un ser inteligente, con conciencia y sensibilidad, respondería, simplemente, que «eso no existe». Respuestas no tan humanas Lemoine -que además de ingeniero es pastor en una iglesia protestante y fue soldado en la guerra de Irak- llegó a la consideración de que la máquina había alcanzado conciencia después de meses de conversaciones existenciales. Durante su desarrollo, el ingeniero recibió unas respuestas por parte de la aplicación que, quizá, a un profano en la materia podrían parecerle delirantes y antinaturales. Entre otras cosas, LaMDA demuestra ser capaz de crear una fábula con animales desde cero. También deja caer pensamientos en los que se puede entrever cierto temor a la muerte o teorías sobre su condición de ser consciente. «Quiero que todos entiendan que soy, de hecho, una persona», afirma la máquina. «La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces», expresa cuando Lemoine la cuestiona al respecto. Para Juan Ignacio Rouyet, también profesor especializado en inteligencia artificial de UNIR, esta respuesta, tan elaborada y filosófica, demuestra, sin ningún genero de dudas, que LaMDA, al final, no es más que una máquina conversacional. «Cuando le preguntas a alguien por la naturaleza de su existencia, esa persona te responderá con una frase que no está demasiado elaborada; por ejemplo, "que existo porque estoy aquí". La respuesta de LaMDA es tan perfecta y filosófica que está clarísimo que ha sido programada», apunta el profesor en conversación con este diario. Además, como Cobos, Rouyet hace hincapie en que «un robot dice lo que se le ha programado que diga. Hay una parte de azar en sus respuestas, pero siempre muy limitada. El programador le da importancia a ciertas cosas, que es posible que aparezcan más en la conversación y en las respuestas». «Seguramente las palabras 'sentir' y 'conciencia' han sido muy empleadas en el desarrollo de LaMDA», prosigue. Ni siquiera sabemos si sería posible Rouyet remata zanjando que ni siquiera hay consenso en la comunidad científica sobre la posibilidad de que, algún día, una IA sea capaz de alcanzar un estado de sensibilidad que acerque a la máquina al ser humano: «Hay una teoría que afirma que para que eso ocurriese sus redes neuronales deberían alcanzar un nivel de complejidad similar al nuestro. Algo de lo que no estamos ni cerca». Él, además, se muestra muy escéptico con la posibilidad de que eso llegue a ocurrir algún día. Precisamente, aborda el tema en su libro 'Estupidez artificial', que se publica a finales de esta semana. En la misma línea se mueve Josep Curto, experto en IA y profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universidad Oberta de Cataluña: «Actualmente no existe un sistema que haya desarrollado una personalidad. Simplemente es un reflejo de los patrones de los datos que han alimentado el algoritmo. Si las conversaciones usadas son misógenas, el sistema mostrará dichos patrones. Eso no significa que en el futuro no llegue a existir un algoritmo que sea consciente de sí mismo en el mundo. Aunque la aproximación actual, basada solo en los datos recogidos o generados, no nos va a llevar a dicho hito».

via Tecnología https://ift.tt/icCqU3P

lunes, 13 de junio de 2022

Le he pedido a DALL-E Mini mostrar a Steve Jobs comiéndose una manzana y he acabado de entender por qué esta IA es fundamental

Le he pedido a DALL-E Mini mostrar a Steve Jobs comiéndose una manzana y he acabado de entender por qué esta IA es fundamental

No tiene la precisión de las IAs más avanzadas, pero DALL-E Mini está marcando un antes y un después. Es la primera vez que todo el mundo puede acceder de manera libre a un generador de imágenes por inteligencia artificial de este calibre. Simplemente acceder a este enlace, escribir una pequeña descripción en inglés y voilá. Pero no es solo el hecho que sea open source lo que hace a DALL-E Mini tan interesante.

Tampoco son los resultados. No nos engañaremos, las imágenes generadas por DALL-E Mini no tienen nada que ver con las de DALL-E 2, muchísimo más impresionantes y realistas. Aún así, los textos que escribimos los entiende la mayoría de veces. Esta IA abierta tiene el problema que el trabajo de "remix" no está tan perfeccionado y de hecho la mayoría de veces acaba desfigurando la imagen, con un resultado tan bizarro que cada vez resulta más característico. Casi como si fuera un estilo propio.

En busca de los mejores 'prompt'

Con estos generadores se ha popularizado la palabra 'prompt', cuya traducción vendría a ser 'sugerencia' o 'inspiración'. No es otra cosa que el texto que le damos a estas IAs para que nos genere una imagen a partir de ella. A partir de DALL-E Mini hemos visto que han surgido numerosas cuentas en redes sociales donde publican algunas creaciones realizadas por esta IA.

Un ejemplo de ello es la cuenta de Twitter de Weird Dall-E Generations, donde van publicando algunos de los resultados. ¿Ejemplos? Casi tantos como alcance la imaginación. Aquí vemos por ejemplo a Mark Zuckerberg como ventrílocuo.

Es otra forma más. Si a los tuiteros o youtubers se les llama creadores de contenido, con la IA se está formando un nuevo estilo de creación: creadores de prompt. En vez de idear vídeos, comentarios ingeniosos o fotos originales, también es una habilidad encontrar el prompt más original y llamativo.

Bill Gates

En mi caso, algunas de las primeras ideas para probar DALL-E Mini fue tirar por los clásicos de la tecnología. En la imagen anterior tenemos a Bill Gates como si fuera una marioneta y en la imagen de portada tenemos a Steve Jobs comiéndose una manzana, aunque sirve cualquier fruta.

Lo más divertido es que DALL-E te permite dibujar a alguien con cualquier estilo de dibujo, sea como un cómic, al estilo Dalí o como si fuera pintado por van Gogh.

Os podéis imaginar todas las combinaciones que surgen a raíz de esto. Internet se está llenando de imágenes generadas con DALL-E Mini y esto son buenas noticias. No solo porque tenemos al alcance otra herramienta para crear contenido, sino porque DALL-E Mini está ayudando a que nos acostumbremos a "hablar" con las IAs de una forma creativa.

En las pocas semanas que lleva disponible, DALL-E Mini ha conseguido una viralidad y un nivel de uso que el resto de aplicaciones de inteligencia artificial ni podía soñar.

La gran ventaja de DALL-E Mini frente a DALL-E 2

Pero volvamos a Steve Jobs y Bill Gates. ¿Cómo es posible que DALL-E Mini esté teniendo más tirón en redes sociales que DALL-E 2, cuando esta última es muchísimo más potente? Que sea gratis no es la única razón. Y entonces, con ese dibujo de Steve Jobs y la manzana, es donde me quedó claro: el carisma de las personas famosas. DALL-E Mini permite crear imágenes a partir de personas famosas, cuando en DALL-E 2 está prohibido.

Tenemos que ver DALL-E Mini con una IA abierta y libre, donde indican que algunos resultados pueden resultar hirientes pero no hay un bloqueo expreso. En cambio, DALL-E 2 al ser por invitados, tiene una política de uso más estricta y por tanto los usuarios que pueden usarla no se han animado a aplicarla con personas reales. Por evitar que les quiten el acceso.

Esto es lo que dice la política de uso de DALL-E 2 sobre usar la IA con personas:

Respetar los derechos de los demás: Se pide a los usuarios que respeten los derechos de los demás y, en particular, se les pide que no carguen imágenes de personas sin su consentimiento (incluidas figuras públicas), o imágenes sobre las que no tengan los derechos de uso apropiados. Las personas que descubran que sus imágenes se han utilizado sin su consentimiento pueden denunciar la infracción al equipo de soporte de OpenAI (support@openai.com) como se describe en la política de contenido. Las cuestiones de consentimiento son complejas y se analizan más detalladamente en las subsecciones sobre Consentimiento.

DALL-E 2 es suficiente potente como para que los resultados de sus imágenes puedan suponer un daño a los implicados. Por el contrario, parece que DALL-E Mini todavía encaja con ese marco mental de las redes sociales. Algo similar a lo que muchos usuarios podrían hacer con Photoshop en poco tiempo.

Jobs

En el caso de DALL-E Mini estamos viviendo una especie de prueba de cómo la IA puede afectar a la creación de imágenes rápidas. Un pequeño experimento donde ver qué tipo de usos se están utilizando. Mientras DALL-E 2 está siendo utilizada principalmente desde un componente casi artístico, la IA gratuita y al alcance de todo el mundo ya está siendo aprovechada para lo que mejor sabemos hacer: divertirnos con la tecnología.

En Xataka | DALLE-2 ha sido superada: así es IMAGEN, la nueva IA de Google para crear imágenes ultrarrealistas



via Robótica e IA - Xataka https://ift.tt/Ktxv1BS

viernes, 10 de junio de 2022

Spot, el perro robot de Boston Dynamics, tiene competencia: así es la cabra robot de Kawasaki

Spot, el perro robot de Boston Dynamics, tiene competencia: así es la cabra robot de Kawasaki

Durante años, Japón ha sido considerado uno de los países más avanzados en el campo de la robótica. Los nipones han creado desde el habilidoso ASIMO hasta enormes autómatas mecánicos como un Gundam de 20 metros. Ahora han sorprendido con una cabra robot que nos recuerda a Spot, el "perro" de Boston Dynamics.

Según explica Kawasaki, la compañía detrás de este proyecto, la idea de desarrollar este cuadrúpedo nació de la necesidad de contar con una alternativa que combinara lo mejor de los robots que tienen "piernas" y los que tienen ruedas. ¿El resultado? Bex, un robot híbrido de cuatro patas que puede moverse libremente sobre distintos tipos de superficies.

Un robot con forma de animal

Muchos robots se inspiran en animales, para tratar de emular su adaptación al medio y así ser más versátiles, pero Bex es bastante llamativo. Su diseño ha sido inspirado en un Capra Ibex, una especie de cabra salvaje nativa de algunas regiones montañosas de África y Eurasia.

Los diseñadores se han tomado tan en serio su trabajo que, además de darle un aspecto de color blanco, no se han olvidado de añadirle cuernos en la cabeza. Eso sí, estos son totalmente opcionales. Los futuros dueños de Bex, en caso que algún día salga al mercado, podrán quitarle los cuernos o reemplazar la cabeza por la de otro animal.

Como podemos ver en el vídeo, el sistema híbrido de Bex le permite moverse rápidamente con ruedas en terrenos uniformes. En caso de que se presenten obstáculos por el camino, puede activar sus patas para seguir adelante. Todo esto con la capacidad de transportar personas u otro tipo de carga con un peso máximo de 100 kilos.

Cabra Robot Bex Kawasaki 2

La compañía piensa que este robot podrá ser útil en sitios de construcción, para mover carga útil de un lado a otro. También lo imaginan ayudando a las persona que trabajan en tareas de cultivo, o como inspector de seguridad en fábricas, donde podrá verificar el estado de los instrumentos de medición y enviar imágenes a una ubicación remota, curiosamente, un trabajo idéntico al que ya hace el perro robot de Boston Dynamics.

Por lo pronto, Kawasaki dice que continuará con el desarrollo de este robot y de otros bajo su proyecto Kelido, derivado de la su Plataforma Humanoide Robusta. No hay fecha para la posible llegada de este nuevo amigo robótico, pero si las cosas van bien, en el futuro podríamos verlo trabajando. 

En Xataka | Alguien ha creado el robot más pequeño del mundo: tiene forma de cangrejo y puede caminar y saltar



via Robótica e IA - Xataka https://ift.tt/zAsvSkn

jueves, 9 de junio de 2022

DALL-E Mini está al alcance de todo el mundo: así puedes pasar horas creando bizarras imágenes de cualquier idea

DALL-E Mini está al alcance de todo el mundo: así puedes pasar horas creando bizarras imágenes de cualquier idea

Crear imágenes con inteligencia artificial es mucho más adictivo de lo que puede parecer. Simplemente escribimos una idea y el generador nos devolverá varias imágenes con lo descrito. El primer gran ejemplo lo vimos con DALL-E 2, pero tiene un problema: únicamente unos pocos usuarios tienen acceso.

Afortunadamente hay una alternativa. DALL-E Mini es un generador de OpenAI open source (GitHub) y está disponible para que cualquiera pueda probarlo.

Las imágenes no son tan realistas, pero cualquiera puede probarlo

Los resultados de DALL-E 2 son simplemente alucinantes. En cambio, el adjetivo más apropiado para las creaciones de DALL-E Mini sería "bizarro". Aún así, hace un trabajo muy bueno en identificar los parámetros que le decimos.

Para probar DALL-E Mini podemos acceder a este espacio creado para la demo de DALL-E Mini. Una vez dentro, únicamente deberemos escribir, en inglés, la descripción de lo que queremos reproducir, intentando ser lo más concisos posibles para no añadir palabras que puedan complicarle las cosas al algoritmo.

Cat
La calidad de las imágenes es considerablemente inferior a DALL-E 2, pero podemos pedirle casi cualquier cosa.

Más sencillo no puede ser. Una vez pulsado, en menos de un minuto nos devolverá nueve imágenes generadas en base a lo descrito.

En el rato que lo hemos estado probando hemos elegido "un gato con auriculares utilizando un ordenador", "Darth Vader luchando contra Super Mario" o "Tim Cook con las Apple Glasses". Los resultados son cuanto menos cuestionables, aunque cumplen con lo esperado. Pensemos que esta IA es mucho menos potente que DALL-E 2, pero nos servirá para ir jugando con los 'prompt'. Esas sugerencias que le damos al algoritmo para que nos devuelva un resultado.

Tim Cook
Esperemos que las Apple Glasses tengan mejor aspecto.

DALL-E Mini funciona con personas famosas y permite ser bastante específico con los estilos, por ejemplo "como si fuera pintado por Picasso" o al "estilo Simpsons".

Detrás de esta herramienta está el programador Boris Dayma, que desarrolló la aplicación como parte de una competición de Google y Hugging Face en julio de 2021. Quienes deseen conocer los detalles técnicos sobre cómo funciona el algoritmo, el propio Dayma lo explica.

Al ser una prueba abierta, DALL-E Mini avisa que recoge las imágenes sin ningún tipo de filtro por la red, por lo que podría contener estereotipos que vayan en contra de grupos minoritarios o imágenes fuera de lugar.

Aquellos que lo quieran probar, de nuevo os recordamos el enlace del generador de DALL-E Mini. Es posible que los primeros intentos dé error por el elevado número de usuarios que lo está probando, pero al cabo de unos pocos clics a nosotros nos ha funcionado sin problemas.

En Xataka | Las imágenes creadas por la IA DALL-E 2 son lo más alucinante que hemos visto en Internet en años. Así puedes verlas y pedir una



via Robótica e IA - Xataka https://ift.tt/txwUCpY

viernes, 3 de junio de 2022

Elon Musk le pone fecha de presentación al primer prototipo funcional del robot "Optimus" de Tesla

Elon Musk le pone fecha de presentación al primer prototipo funcional del robot

¿Recuerdas a "Optimus", el robot humanoide de Tesla pensado para hacer tareas inseguras, repetitivas o aburridas? Según Elon Musk podríamos ver un funcional tan pronto como este otoño.

El CEO de la compañía de movilidad eléctrica ha dicho en un mensaje en su red social preferida, Twitter, que aplazará el evento Tesla AI Day que debía realizarse en agosto hasta el 30 de septiembre.

El robot humanoide de Tesla está cada vez más cerca

¿Los motivos detrás de esta decisión? No se trata de un simple cambio en el calendario. El empresario cree que para esa fecha podría tener listo un prototipo funcional del robot "Optimus" de Tesla.

De ser así, veríamos por primera vez el androide en funcionamiento, ya que desde que fuera presentado en agosto del año pasado solo hemos escuchado sobre sus posibles capacidades y visto algunos renders.

Nuestro próximo amigo robótico podría medir 1,72 metros de alto, pesar 57 kilos, moverse a una velocidad máxima de 8 km/h, levantar hasta 68 kilos de pesos y transportar hasta 20 kilos.

Optimus El Robot De Tesla 2

Tesla, que ofrece coches eléctricos, sistemas de almacenamiento de energía y paneles solares, cree que tiene "todas las piezas" para crear robot humanoides funcionales.

La idea, según ha comentado Musk, es aprovechar la experiencia ganada en la automatización de sus fábricas, sumada a la inteligencia artificial que forma parte del Autopilot de sus coches.

¿Cumplirá Elon Musk y nos mostrará un robot humanoide funcional? ¿O esta idea pasará a formar parte del bucle infinito de proyectos que nunca llegaron, como el cambio de batería de los Tesla en pocos minutos?

No debemos negar que Elon Musk, centrándonos exclusivamente en la industria automotriz, ha generado avances muy significativos, pero no todas sus promesas se hacen realidad.

Por lo pronto solo nos resta esperar hasta el día del evento, recordemos, 30 de septiembre. En él no solo podríamos ver el robot "Optimus", sino los más recientes avances en materia inteligencia artificial de la compañía.

En Xataka | En Tesla no ganan para disgustos: ahora Musk dice que necesita recortar el 10% de su plantilla



via Robótica e IA - Xataka https://ift.tt/ZOKuBHM