miércoles, 30 de junio de 2021

Malos tiempos para el "robot emocional" Pepper: su producción cesó en 2020 cobrándose empleos y sin vistas a retomarse, según Reuters

Malos tiempos para el

Cuando hablamos de él por primera vez aludimos a su posibilidad de conquistar el mercado masivo, no en vano las 1.000 unidades iniciales que Softbank puso a la venta en Japón se vendieron en apenas un minuto. Pero seis años después la suerte de Pepper, el llamado "robot emocional", parece estar ya en su ocaso, dado que al parecer la producción paró en 2020.

Lo dice Reuters tras haber tenido acceso a documentación relacionada con recortes de personal en el grupo SoftBank y un parón en la producción que también habrían constatado varias fuentes de la publicación. Un indicativo de que el robot fabricado por Foxconn ya no estaría en los planes de las empresas para contratarlo como personal de atención y de que el mítico humanoide estaría ya viviendo su ocaso, de manera discreta y silenciosa.

El ataque de los clones (ayudantes)

Cuando dieron a conocer a Pepper lo que más destacaron de él es su capacidad de analizar los gestos y el tono de voz humanos. Según sus creadores, con el objetivo de "hacer feliz a la gente" y no tanto de servir para las tareas, no en vano tuvieron que establecer una cláusula en sus términos y condiciones para que sus propietarios acepatasen que no lo usarían con fines sexuales. Es buen sabido que para eso hay otro tipo de robots más propicios (con su riesgo mortal y eso), pero para gustos, colores.

El robot ha llegado a ser muy popular, de hecho nos llegó a atender en la feria Viva Technology hace unos años, entre peines y espejos inteligentes, siendo en aquel caso parte del personal de bienvenida y dando indicaciones sobre el evento. SoftBank llegó a asegurar que el robot ayudó a incrementar las ventas hasta en un 70% en programas piloto en California, añadiendo que en ese momento (2017) había unas 10.000 unidades de Pepper en todo el mundo, incluyendo negocios como Pizza Hut (en Singapur) o incluso en hogares particulares de Japón.

¿Qué ha pasado entonces con este robot de faz amistosa y amabilidad robótica innata? Que, según cuentan en Reuters, SoftBank habría cortado el grifo de la producción de este robot ya en 2020, lo cual se habría traducido en una serie de despidos y reubicaciones de empleo (de la división de robótica a otros puestos) al menos en Estados Unidos, Reino Unido, Francia y Japón. De hecho, la propia SoftBank Robotics publicó hace poco que "estaban intentando un plan de optimización a nivel de empleos" derivado de la crisis económica tras la pandemia, pero que seguirían invirtiendo "en las futuras generaciones de robots".

Las fuentes de Reuters hablan de un total de 27.000 unidades producidas, con lo que se habría doblado (y casi triplicado) las que afirmaron haber vendido en 2017, pero aún así han sido demasiado pocas y no se habría asentado como un producto con reclamo, ni mucho menos como nicho de mercado. De ahí que, como parece, los deseos del grupo empresarial de que éste fuese líder en la industria de la robótica, centrándose en el desarrollo de androides asistentes, se habrían diluido.

Pepper 02

Al parecer, las funciones limitadas del robot (y ciertas discrepancias culturales entre las divisiones francesa y japonesa, aluden) habrían ocasionado menos ventas de las esperadas. Destacan además que las fuentes apuntan a que reiniciar la producción "sería caro", así que pinta a un final definitivo.

Tras Pepper, en lo sucesivo hemos visto numerosas propuestas de robots asistentes, desde los continuos rumores con Amazon hasta los de Samsung en el último CES, Bot Care y Bot Handy, pasando por el adorable robot de compañía de Panasonic. Parece que el mundo, pese a ya estar acostumbrado a ver robots, no esté preparado para tener aún este nicho de mercado, así que iremos viendo qué pasa con esta rama de negocio en los fabricantes que mantienen su apuesta.

Imagen | Jumpstroy



via Robótica e IA - Xataka https://ift.tt/3jqYLdC

Realme TechLife Robot Vacuum, un robot aspiradora con excelente calidad/precio

Realme últimamente tiene un calendario de lanzamientos sorprendente, recientemente os mostrábamos su último dispositivo de gama media-alta, el Realme GT, que ha hecho la delicia de muchos usuarios. Al mismo tiempo que hemos podido ver incluso relojes inteligentes. Sin embargo, el producto que os traemos hoy es quizás algo que no os esperabais, un robot aspirador.

Realme TechLife Robot Vacuum es el último lanzamiento de la marca, un robot aspiradora que sorprende por su relación prestaciones/precio, ¿realmente nos ofrece unas características tan buenas? Analizamos en profundidad este robot aspirador de Realme y todas sus características con detenimiento, descúbrelo con nosotros.

Como casi siempre, hemos incluido un vídeo en la parte superior sobre nuestro canal de YouTube en el que vas a poder observar el unboxing completo de este robot aspirador de Realme así como sus pruebas de limpieza y sonido. Aprovecha para suscribirte a nuestro canal de YouTube y dejarnos cualquier consulta.

Materiales y diseño, los clásicos nunca fallan

El nombre oficial es Realme TechLife Robot Vacuum, pero sinceramente, durante el resto del análisis vamos a llamarlo el robot aspirador de Realme por economía en la lectura. Este dispositivo está fabricado en diversos materiales plásticos, como cabe esperar. Hablamos de un producto más bien grande, dispone de 35 centímetros de diámetro y 10 centímetros de alto, no es el más compacto del mercado pero sinceramente, el tamaño es suficiente.

La parte superior la corona el sistema ciclónico, un plano jet-black que será un imán de polvo (una manía de muchas compañías de robots aspiradora que no termino de entender) y dos botones, el de dirección a la base de carga y el ON/OFF. Sobrio pero bonito, seamos sinceros, queda bien casi en cualquier sitio. Está fabricado en plástico y el peso total es de alrededor de 3,3 kilogramos en total.

En la parte inferior encontramos dos brazos con cepillos de limpieza que dirigirán la suciedad hasta la zona de absorción, la rueda «loca» que se encarga de mantener el dispositivo al frente, las dos ruedas amortiguadas para superar obstáculos de aproximadamente dos centímetros, la zona de succión con el cepillo mixto y un vistazo del depósito.

Depósito y sistemas de limpieza

Encontramos un depósito de sólidos de 600 ml para la versión que únicamente incluya aspiración, si adquirimos (a parte) el pack de fregado este depósito se reducirá a 350ml. El cepillo encargado de la absorción es mixto, tenemos palas de goma que me parece la versión más eficiente, y cerdas de nylon que nos ayudarán a obtener un resultado más uniforme. Para el mantenimiento de este cepillo y el resto de accesorios en general se nos incluye una herramienta universal en el paquete.

Los dos cepillos latearles ayudan a direccionar bien la mugre, por lo que el efecto de la limpieza es ligeramente superior al de aquellos robots que cuentan únicamente con uno. Cuenta en el paquete con un filtro HEPA de fácil sustitución de repuesto, sin embargo, no nos incluyen cepillos laterales ni centrales de repuesto, tendremos que adquirirlos en los puntos de venta habituales (desconocemos el precio de los recambios al momento del análisis).

Retirar el depósito es fácil, la parte trasera cuenta con un pequeño «botón» que al presionar nos permitirá extraer el depósito de sólidos. Lo mismo sucede con el vaciado o el cambio de filtro HEPA, que por cierto, cuenta con un prefiltro de malla bastante eficiente.

Base de carga, autonomía y aplicación

En cuanto a la base de carga he de decir que me he encontrado el primer detalle positivo. Dicha base cuenta con un tamaño y diseño estándar, pero una ventaja que parecen olvidar otras marcas. Dispone en la parte inferior de un sistema de recogida de cable que nos permitirá integrar el conector de corriente sin sobresalir, con dos salidas laterales para que no tengamos problemas en seleccionar la ubicación de la base de carga, esto sin duda para un servidor que prueba un par de estos al mes, resulta algo muy favorable.

Por lo demás, el robot de Realme encuentra fácilmente la estación de carga, quizás tenga algún problema de lentitud la primera vez, pero una vez ubicado en el mapa será pan comido. El tiempo total de carga será de alrededor de dos horas para sus 5.200 mAh que nos brindan limpiezas por encima de los 80 minutos de media.

La aplicación Realme Link (Android / iOS) nos recuerda a la de Roborock, que por otro lado, es de las mejores del mercado, por lo que la experiencia es totalmente favorable, te recomendamos que eches un ojo al vídeo en el que te enseñamos toda la configuración paso a paso y especialmente podrás ver las pruebas de las distintas pruebas.

Potencia de succión y experiencia de limpieza

Tenemos una potencia de succión máxima de 3.000 Pa, sin embargo, vamos a diferenciar entre hasta cuatro modos de limpieza disponibles en la aplicación:

  • Silencioso: 500 Pa
  • Normal: 1.200 Pa
  • Turbo: 2.500 Pa
  • Máximo: 3.000 Pa

Una limpieza diaria será más que suficiente con el modo Normal, no obstante, si buscamos un resultado que nos llame especialmente la atención optaremos por el modo Turbo. El modo máximo igual se excede en términos de ruido, donde el mínimo será de 55 dB.

La experiencia ha sido favorable especialmente con el mapeado, que es rápido y se toma alrededor de 40 minutos para un piso de 72 metros cuadrados. Es exigente y ofrece resultados de limpieza que iguala fácilmente dispositivos que cuestan unos cientos de euros más.

  • Compatibilidad con Alexa y Google Assistant
  • WiFi 2,4 GHz
  • Sistema de navegación LiDAR

Destaco las siguientes funcionalidades de la aplicación:

  • Posibilidad de limitar zonas del mapa y habitaciones en concreto
  • Ajustar automáticamente la succión en función del tipo de suelo detectado

Personalmente no he sido capaz de ajustar el idioma al castellano, por lo que me he tenido que conformar con el hecho de que la aspiradora hable inglés con acento asiático. Me ha sorprendido que es menos «delicado» con los obstáculos que otro incluso más caro, suele entrar entre las patas de las sillas e incluso debajo de sofás elevados, algo que me ha sorprendido gratamente.

El Realme TechLife Robot Vacuum cuesta tan sólo 379 euros, aunque por el momento sólo podremos adquirirlo en AliExpress con ciertas ofertas (cuidado con las aduanas) o la web de Realme. Un precio que destaca por ser entre 50/100 euros inferior a otras alternativas que ofrecen resultados similares.

Opinión del Editor

Pros y Contras

Pros

  • Buena integración con Realme Link y funciones
  • Alta capacidad de succión
  • Buena autonomía y limpieza fácil

Contras

  • No se expresa en castellano
  • Incluye pocos repuestos


via Actualidad Gadget https://ift.tt/2UdANrE

martes, 29 de junio de 2021

Así es "Jaguar", el robot semi-autónomo armado con una ametralladora que vigilará la Franja de Gaza

Así es

Las Fuerzas de Defensa de Israel (IDF) tienen un nuevo y singular robot semi-autónomo armado para patrullar la frontera entre Israel y Gaza. Su nombre es "Jaguar" y ha sido desarrollado por IDF e IAI (Israel Aerospace Industries). Se trata, en palabras de las fuerzas armadas israelíes, de "uno de los primeros robots militares del mundo que puede sustituir a los soldados en las fronteras".

El robot está equipado con una docena de sensores, incluyendo cámaras de alta resolución, un sistema de conducción automatizado, capacidades de fuego avanzadas y un sistema de megafonía. Por no hablar de la ametralladora MAG de 7,62 milímetros que puede funcionar tanto cuando el robot está quieto como en movimiento.

No dispara solo, pero sí tiene asistencia por IA

Aparentemente, "Jaguar" ya ha sido desplegado en la frontera entre Gaza e Israel, según podemos ver en unas imágenes publicadas por el DFLP (Frente Democrático por la Liberación de Palestina). No se sabe cuándo se tomaron las imágenes, pero en una de ellas puede verse el robot patrullando la frontera. La idea es que el robot puede sustituir a los soldados en misiones de inteligencia, vigilancia, reconocimiento y protección de convoyes, entre otras.

El "Jaguar" es un robot semi-autónomo, es decir, que puede hacer algunas cosas por sí solo, como trazar una ruta hasta cierto punto y moverse hasta ella, evitar obstáculos e incluso recargarse sin intervención humana, pero para otras cosas se requiere de un operador humano. Por ejemplo, para disparar. Es el humano el que, en última instancia, debe apretar el gatillo.

IDF Jaguar

El robot tiene una interfaz llamada "point-and-shoot". El operador apunta y dispara, mientras que el robot usa se vale de inteligencia artificial para estabilizar la ametralladora (una FN MAG de 7,62 milímetros o una IMI Negev israelí) y ajustar el fuego. La torreta combina una serie de sensores electrónicos y térmicos para detectar blancos a 1,2 kilómetros de distancia de día u 800 metros de noche, según describen en Daily Beast.

¿Y qué pasa si es capturado? Que se autodestruye, por supuesto. IDF no da muchos detalles sobre el sistema, simplemente dice que "tiene la habilidad de autodestruirse si cae en manos enemigas". Desde Shepard señalan que un UGV (vehículo terrestre no tripulado pesado) tiene la capacidad para enviar los datos de su ubicación precisa a un UAV en caso de quedarse inmovilizado o ser atrapado para que los operadores decidan si lo destruyen desde el aire.

Vía | Jerusalem Post
Más información | IDF



via Robótica e IA - Xataka https://ift.tt/362xs1c

lunes, 28 de junio de 2021

Los robots de software ya deciden los precios de los viajes de este verano

La Inteligencia Artificial de los RPA puede convertirse en uno de los mejores aliados en la recuperación del sector turístico. Reducir en un 73% las tareas manuales en las reservas de los hoteles y aumenta sus ventas hasta un 10% Leer

via Tecnología // elmundo https://ift.tt/3hgxU0X

jueves, 24 de junio de 2021

A este cuadro de Rembrandt le cortaron los bordes en 1715 para que cupiera en un ayuntamiento: ahora los han reconstruido con IA

A este cuadro de Rembrandt le cortaron los bordes en 1715 para que cupiera en un ayuntamiento: ahora los han reconstruido con IA

La historia de 'La ronda de noche' (una de las obras más famosas de Rembrandt) es de lo más interesante. El neerlandés terminó la pintura, de 379,5 x 436 centímetros, entre 1640 y 1642 y en 1715 se trasladó al Ayuntamiento de Ámsterdam (ahora el palacio Real en la Plaza Dam). El problema es que el cuadro era demasiado grande, así que para hacerle hueco tuvieron la feliz idea de cortar los bordes. Entonces cupo, pero en el proceso se perdió un buen trozo de arte.

La pintura se puede ver hoy en el Rijksmuseum, pero claro, está incompleta. Sabemos cómo es gracias a una copia previa al corte que se atribuye a Gerrit Ludens. Hoy, 300 años después, y gracias a esta copia y a la inteligencia artificial, la obra se ha podido reconstruir por completo manteniendo el estilo de Rembrandt.

Faltan los bordes, traed a la IA

Cuadro

Este proyecto emprendido por el Rijksmuseum (entre otros actores) tiene nombre: "The Night Watch". Se trata, en palabras del museo, del "proyecto de investigación más grande y de mayor alcance jamás realizado sobre la obra de Rembrandt". Comenzó en verano de 2019 y finalmente ha dado sus frutos.

En el proceso se han recopilado 51 TB de datos de las diferentes técnicas de imagen usadas para estudiar la pintura. Se ha usado exploración MA-XRF, espectroscopia de imagen en el infrarrojo próximo (NIR, imágenes en más de 500 longitudes de onda diferentes), fotografía de luz visible (5 µm de resolución) y escaneado 3D con luz estructurada (resolución de 15 µm), entre otras técnicas.

Lundens
La copia de Lundens.

Todos esos datos, así como la copia de Ludens, se usaron para entrenar una red neuronal que emulase los colores, pinceladas y técnicas de Rembrandt para reconstruir los bordes cortados. De esa forma, el cuadro de Rembrant vuelve a estar completo. Los visitantes del museo podrán verlo en todo su esplendor gracias a que dichos bordes se han impreso y colocado alrededor del cuadro.

Reconstructie Met Highlights 1
En la imagen pueden verse los detalles perdidos en la versión recortada.

¿Y qué diferencias hay? No precisamente pocas. En la versión reconstruida podemos ver a tres figuras en un puente (dos milicianos y un niño pequeño) a la izquierda. Además, ahora sabemos que el niño pequeño estaba agarrado a una balaustrada. Las figuras centrales, Frans Bannink Cocq y el teniente Willem van Ruytenburch, han sido ligeramente desplazadas hacia la derecha. También se ve mejor el casco del miliciano de la derecha.

Para que nos hagamos una idea, si el cuadro recortado tiene unas dimensiones de 379,5 x 436 cm, la reconstrucción tiene 393,1 x 507,4. Se han añadido 64,4 centímetros a la izquierda, 7 centímetros a la derecha, 23,3 centímetros por arriba y 11,3 centímetros por abajo. Ahora el cuadro, que puede verse reconstruido en la web del museo, vuelve a ser lo que era en 1642 gracias a la inteligencia artificial.

Más información | Rijksmuseum



via Robótica e IA - Xataka https://ift.tt/3zRzBdT

miércoles, 23 de junio de 2021

NVIDIA Canvas es la herramienta que usa inteligencia artificial para convertir cinco brochazos en un paisaje fotorrealista

NVIDIA Canvas es la herramienta que usa inteligencia artificial para convertir cinco brochazos en un paisaje fotorrealista

Los experimentos de NVIDIA en el terreno de la inteligencia artificial ya nos han sorprendido en el pasado a la hora por ejemplo de generar caras de personas que parecen de verdad (pero no lo son), de crear modelos 3D a partir de fotos o de programar Pac-Man dejándo a un sistema que jugase 5.000 partidas, pero ahora esos esfuerzos han dado otro producto llamativo.

Se trata de NVIDIA Canvas, una aplicación que ya se puede descargar en su versión beta y que permite que cualquiera cree paisajes fotorealistas con apenas unos brochazos. El resultado es desde luego espectacular, y es un ejemplo más del alcance de estas técnicas en todo tipo de escenarios.

Crear mundos virtuales ahora está al alcance de cualquiera

La propuesta de NVIDIA viene de lejos. En marzo de 2019 los responsables de su división de investigación presentaban GauGAN, una red generativa antagónica (GAN, por sus siglas en inglés) que precisamente permitía usar distintos tipos de "brochas" para generar paisajes artificiales a partir de trazos toscos y que apenas deberían tener sentido para quien los viera.

Este sistema de inteligencia artificial no obstante logra convertir esos toscos bocetos en paisajes fotorrealistas. Desarrollado mediante el entorno de aprendizaje profundo PyTorch, el modelo rellena el paisaje a medida que vamos haciendo trazos con las distintas brochas, que van desde "cielo", "mar" o "piedra" a "niebla", "hierba" o "nieve".

Combinar todos ellos acaba dando lugar a paisajes sorprendentemente realistas que además podemos ajustar a distintos estilos, logrando así que el resultado vaya variando de forma más que convincente. Quien suscribe ha hecho una breve prueba de dos minutos y el resultado, como puede verse, es bastante aparente.

Estos resultados vuelven a demostrar la capacidad de las GAN para producir resultados fantásticos que eso sí, se nutren de un entrenamiento previo: según los responsables de NVIDIA se ha alimentado el sistema con cinco millones de fotos que permiten que el discriminador —uno de los elementos claves del proceso— filtra para que los píxeles creados sintéticamente tengan sentido.

La propuesta es llamativa, y puede ser una útil herramienta para divertirse un rato, pero sobre todo para quienes crean mundos virtuales: con Canvas tienen ante sí una singular herramienta que permitirá que su imaginación vuele aún más libremente. El sistema, por cierto, recuerda mucho a la propuesta que Google hizo hace unos meses a la hora de crear bestias fantásticas.

Para usar NVIDIA Canvas es necesario contar con un equipo basado en Windows 10 y una gráfica GeForce, Quadro o Titan de las familias RTX. Podéis descargar la versión Beta desde el anuncio oficial de la compañía.



via Robótica e IA - Xataka https://ift.tt/3qoiAns

Los robots de Toyota quieren ser perfectos mayordomos: han aprendido a limpiar superficies brillantes y agarrar objetos blandos

Los robots de Toyota quieren ser perfectos mayordomos: han aprendido a limpiar superficies brillantes y agarrar objetos blandos

En octubre de 2020 Toyota nos presentó por primera vez su robot mayordomo. Uno peculiar por su forma de moverse por la casa: colgado del techo. Ahora la compañía lo ha mejorado y ya sabe algo aparentemente tan sencillo como limpiar superficies brillantes o agarrar objetos blandos como peluches. Sencillo para el humano aunque relativamente complejo para los robots.

El Instituto de Investigación Toyota (TRI) ha revelado las nuevas capacidades robóticas para resolver tareas complejas en un entorno doméstico. Dicen que han conseguido entrenar a los robots para entender y operar en situaciones complicadas que confundirían a los robots tradicionales.

Screenshot

Los (mundanos) desafíos de un robot

Una de esas situaciones complicadas son las superficies brillantes o reflejantes. Los robots generalmente no entienden que e una superficie brillante sino que capturan con sus cámaras en cierto modo la imagen que se refleja y su supuesta profundidad. El robot de Toyota ya es consciente de ello y ahora, entre otras cosas, puede limpiar una mesa de mármol brillante.

Esto se extiende también a objetos transparentes. Los objetos transparentes son como ilusiones ópticas para los robots, que no siempre consiguen entender cómo y dónde está el objeto transparente concretamente. Toyota con su tecnología ha conseguido solucionar esto también para que el robot no tenga problemas a la hora de agarrar un vaso de la mesa.

Screenshot 1

Finalmente, el robot también ha aprendido a agarrar objetos que son suaves o blandos. El ejemplo perfecto es un peluche. Para esto el robot ahora tiene mejores sensores de sensibilidad en sus pinzas. El resultado es poder agarrar un peluche sin estrangularlo de tanto apretar. Más cerca de ser el mayordomo perfecto.

Toyota ha compartido un vídeo en el que muestra todos estos avances de su robot mayordomo. Si bien admiten que no es un sistema perfecto, dicen que las nuevas capacidades del robot ayudarán enormemente en las tareas diarias del hogar en un futuro próximo.

Vía | ZDNet
Más información | Toyota



via Robótica e IA - Xataka https://ift.tt/3j3XlFR

lunes, 21 de junio de 2021

Celebra el primer año de 'Valorant' con cantidad de elementos, incluido un nuevo agente

Buenas noticias para los seguidores de ‘Valorant’, el juego de disparos en primera persona de Riot Games, ya que el agente KAY/O, un nuevo personaje-robot especializado en desarmar las habilidades de los enemigos, debuta junto con el episodio 3 del shooter competitivo. El desarrollador del famoso ‘League of Legends’ celebra la conclusión del primer año de su último lanzamiento con una gran cantidad de contenido adicional para los jugadores. Además de KAY/O, a partir del 22 de junio, estará disponible el Episodio 3, Act 1: Reflection, que traerá un Pase de batalla e incluso nuevas skins.

from Información - Tecnología https://ift.tt/3qgzZhD
via IFTTT

viernes, 18 de junio de 2021

Piden a GPT-3 que compre unos AirPods: una fascinante demo para apreciar cómo la IA se mueve entre distintas páginas web

Piden a GPT-3 que compre unos AirPods: una fascinante demo para apreciar cómo la IA se mueve entre distintas páginas web

Uno no se cansa de ver demos de GPT-3. Tras enseñarnos un generador donde solo teníamos que describir la web que queríamos y la IA nos daba el código HTML/CSS, ahora Sharif Shameem, fundador de Debuild, ha integrado el modelo de lenguaje GPT-3 dentro de Chrome y le ha pedido que "compre unos AirPods".

La propuesta es sencilla. La IA tiene acceso al navegador como lo podríamos tener nosotros. Es decir, tiene un cursor y se mueve por las distintas webs como lo haríamos nosotros con el ratón. Una demo muy sencilla que permite observar cómo entiende la IA internet, en qué elementos se detiene de las distintas páginas web y dónde se queda encallada.

Una política de privacidad impide a GPT-3 completar la tarea

Os anticipamos que lamentablemente GPT-3 todavía no es suficientemente avanzado como para poder comprar por sí mismo. Internet es suficiente complejo para liar a la IA y que esta se pierda.

Aquí os dejamos la demo de GPT-3, publicada en Twitter por el mismo autor.

El primer paso de la IA es, como haríamos la mayoría de nosotros, buscar en Google. Introduce la dirección. La IA también entiende dónde hay que escribir en la web de Google, en ese recuadro central. "Comprar AirPods" como palabra clave parece una buena estrategia para conseguirlos.

En vez de clickar en la primera opción de búsqueda, la IA opta por intentar encontrar "las mejores ofertas de AirPods que puedes comprar ahora mismo". En este sentido, el cursor se mueve hacia abajo dentro de Google y decide entrar en un artículo de TheVerge. (Una lástima que GPT-3 no apuesta por las ofertas de AirPods de Xataka Selección).

Una vez dentro del artículo, el cursor se mueve y GPT-3 es capaz de entender cuál es el enlace de compra dentro del artículo. En el caso concreto de la demo, ese enlace lleva a Walmart. Desconocemos qué criterio sigue la IA, pero seguramente ayude el hecho que Walmart sea una tienda reconocida.

Una vez en la página de producto de Walmart, antes de clickar en comprar, la IA se va a las condiciones y la política de privacidad. Es en este punto donde hay una gran complejidad, pues la IA podría haberse confundido con algún anuncio o haber comprado a través de un enlace incorrecto.

De alguna manera, GPT-3 intenta conocer qué tipo de proceso de compra va a realizarse y acaba entrando en una política de privacidad que le despista completamente de su cometido inicial. En esa página de privacidad no hay ningún elemento que la IA pueda relacionar con el cometido de comprar un AirPod y es cuando falla.

Un primer paso para crear asistentes que se muevan por la internet

El creador de la demo explica que se podría bifurcar la orden de compra en varios pasos, donde cada una de estas tareas generaría su propia interacción de la IA. Luego se podría programar para que se eligieran las mejores interacciones de cada una, una especie de "grupo de torneo". Las posibilidades de GPT-3 son enormes, pero aquí ya entra en acción la habilidad del programador para que las indicaciones sean más precisas.

La posibilidad que una IA haga acciones así con una orden tan sencilla abriría la puerta a miles de aplicaciones, pero por el momento GPT-3 está lejos de conseguirlo. Sí es fascinante ver en acción a GPT-3 en una tarea equivalente a la que podríamos hacer nosotros.

Por el momento, la demostración servirá para intentar atraer a ingenieros con conocimientos en React, para ayudar al autor a crear un prototipo de herramienta que aproveche GPT-3 para moverse solo por interfaces web. Las herramientas comerciales basadas en este modelo de lenguaje no deberían tardar en llegar. Y prometen un nivel de automatización mucho más grande del actual.

En Xataka | Chatear con tu yo del pasado como opción de futuro: la inteligencia artificial y sistemas como GPT-3 lo hacen posible



via Robótica e IA - Xataka https://ift.tt/3qk7i3D

jueves, 17 de junio de 2021

La aventura del saber - Nosotros Robots

Los Robots han dejado de ser hace tiempo personajes fantásticos de ciencia ficción para integrarse cada vez más en nuestras vidas. Comenzaron entrando en las cadenas de producción de las fábricas hace unas décadas y ahora mismo empiezan ya a introducirse incluso en nuestros hogares. La imparable marcha de los robots supone todo un reto para la humanidad que tiene una doble vertiente (positiva y negativa), y que en un futuro no tan lejano puede acabar por afectar al propio concepto de existencia del ser humano. Visitamos la interesante exposición 'Nosotros Robots' del Espacio Fundación Telefónica de Madrid, que plantea una reflexión sobre el pasado, el presente y el futuro de la relación establecida los humanos y los robots creados (cada vez más), a su imagen y semejanza.



Ver vídeo


via Ciencia y tecnología en rtve.es https://ift.tt/3wygG5W

miércoles, 16 de junio de 2021

Este dedo robótico del MIT con una "yema" especial es candidato a ser un detector de bombas enterradas

Este dedo robótico del MIT con una

Los detectores de metales no lo son todo a la hora de encontrar objetos, sobre todo si no son de metal. O si lo que queremos es determinar la forma, algo que ha conseguido el nuevo dedo robótico del MIT.

El hecho de hablar de dedo y no de brazo robótico es por esta intención de que sea capaz de penetrar en un material granular como arena, arroz o similares. Se trata de un proyecto que será presentado en el Simposio Internacional sobre Robótica Experimental y los investigadores consideran que puede ser una técnica útil para la detección de objetos enterrados, incluso bombas.

Escarbar y ver, pero con mucha tecnología detrás

El Digger Finger ("dedo excavador", que así se llama) es un trabajo de Radhen Patel, investigador jefe del proyecto y estudiante de postdoctorado en el CSAIL (Computer Science and Artificial Intelligence Laboratory) del MIT, y otros investigadores de éste y otros laboratorios, encontrando a científicos especializados en materias como la inteligencia artificial o incluso el cerebro y las ciencias cognitivas. Para poner en contexto, explican que hasta ahora los robots lo han tenido fácil para identificar objetos descubiertos, como es un ejemplo la mano robótica que vimos aquí, pero que en el momento que están enterrados la cosa pasa a otro nivel.

En ese sentido crearon el Digger Finger, pasando a pensar de manos a dedos. Si se trata de hurgar, lo versátil son los dedos y las garras, no una mano, así que partieron ya con esa idea.

El Digger Finger tiene una cabeza en punta que incorpora sensores táctiles para identificar el objeto. En las pruebas el robot fue capaz de introducirse en un medio granular (arena y arroz) y detectó de manera correcta la forma de los objetos enterrados, con mayor definición que otros intentos previos como las vibraciones ultrasónicas, según aseguran.

Para los sensores recurrieron a uno llamado GelSight, que consiste en una cámara y LEDs cubiertos por un gel y una membrana, que se deforma cuando los objetos presionan contra ella. Las luces brillan a través del gel hasta la membrana, mientras la cámara recoge el patrón de reflejo de la membrana.

Esto es recogido por un ordenador, que mediante algoritmos de visión computerizada extraen la forma 3D del área de contacto. Aunque eso sí, simplificaron el sensor y lo adelgazaron para evitar algunos inconvenientes, consiguiendo una membrana táctil de 2 centímetros cuadrados.

En cuanto a la estructura, el reto estaba en parte en evitar las complicaciones de un medio granular, como puede ser que alguno de los granos interfiera en las articulaciones y pueda bloquear alguna pieza. Para evitarlo, añadieron un motor de vibración, que según Patel funcionaron bien siempre y cuando eran rápidas.

Como decíamos al principio, los investigadores creen que el Digger Finger puede hacer las veces de detector de objetos como cables enterrados o bombas. Según Unicef y otras organizaciones, las minas antipersona siguen siendo un problema al ser usadas en los conflictos bélicos actuales, así que cualquier herramienta que sirva para detectarlas y facilitar su desactivación sería una buena noticia.

De hecho, hace unos años ya vimos un intento de robot detector de bombas en forma de insecto. Aunque el hecho de que tenga que haber contacto nos deja con algunas dudas, veremos si lo evolucionan hasta alguna solución completa.

Imagen | MIT



via Robótica e IA - Xataka https://ift.tt/2SCyrCg

martes, 15 de junio de 2021

Realme presenta su nuevo GT, un 'flagship killer' de 2021

Realme acaba de dar un nuevo paso al frente. Y lo ha hecho lanzando su primer terminal de gama alta, Realme GT, que estará disponible a partir del 21 de este mismo mes de junio. Al mismo tiempo, la firma ha presentado también dos relojes, Watch 2 y Watch 2 Pro, y un nuevo robot aspirador como parte de su nueva plataforma iOT, TechLife. Para el futuro inmediato, aunque no para este lanzamiento, ha anunciado también una tableta y un ordenador portátil. Se trata del primer evento global de una compañía que apenas tiene tres años de vida, pero que ha conseguido ya situarse entre la media docena de mayores fabricantes del mundo. La firma asiática, en efecto, nació en 2018. Y en ese breve tiempo ha conseguido estar presente en 61 mercados, tener 85 millones de usuarios y entrar en el Top 5 de ventas en países tan dispares como Rusia, Grecia, India, Eslovenia o Filipinas. Sus terminales, que combinan las últimas tecnologías con unos precios muy contenidos, han gustado principalmente al público más joven. Y con este nuevo modelo GT la firma logra colocarse en el segmento de la telefonía móvil que le faltaba, el de los topes de gama. Algo que ha conseguido, además, a unos precios muy inferiores de los que su competencia. Realme GT: potencia, rapidez y precio Equipado con una pantalla de 6,43 pulgadas Super Amoled y una resolución FHD+ (2400x1080 píxeles), el nuevo equipo llega con una tasa de refresco de 120Hz y táctil de 360Hz, por lo que la respuesta del panel, tanto a las imágenes de movimiento rápido como al más leve de nuestros toques, será siempre rápida y precisa. El ratio de pantalla es del 91,7%, por lo que los bordes son extremadamente finos. El terminal cuenta con 4.096 niveles de brillo automático, y ajusta en tiempo real la luminosidad de la pantalla para que el visionado sea perfecto en cualquier situación. El lector de huellas está bajo la pantalla. El terminal, cuyo peso es de 186,5 gramos, es también extraordinariamente delgado (73,3 mm) y ello a pesar de ser 5G. El procesador, por su parte, es el más potentes de los de Qualcomm, un Snapdragon 888, el mismo que montan una buena parte de los buques insignia de otras marcas. Entre otras cosas, el procesador es capaz de reducir el consumo de energía del terminal hasta en un 30%, lo que redunda en una mayor duración de la batería. Construido con tecnología de 5 nanómetros, el chip es un 25% más potente y permite hasta un 70% más de rendimiento de la IA que generaciones anteriores. Para acompañar al chip podemos elegir entre versiones con 8 GB o 12 GB de memoria RAM (LPDDR5) y 128 GB ó 256 GB de espacio para almacenamiento. (UFS3.1). Para optimizar al máximo el procesador, los ingenieros de Realme han desarrollado un 'modo GT' que lleva al límite las ya muy altas capacidades del chip. El modo se activa con un simple 'clic' y optimiza la estrategia de trabajo de los varios núcleos para incrementar las prestaciones, algo muy adecuado, por ejemplo, para determinados juegos. La batería, de 4.500 miliamperios, llega acompañada del sistema de carga rápida SuperDart de 65W, lo que significa que puede cargarse de cero a cien en apenas 35 minutos. El cargador, junto a una funda protectora, viene incluido en la caja. Además, una serie de algoritmos de Inteligencia Artificial administran el suministro de energía, "congelando" las aplicaciones abiertas que no estamos usando, colocando automáticamente el terminal en modo de bajo consumo durante la noche o ajustando la frecuencia del procesador según las tareas que estemos realizando en cada momento. Todo lo cual permite que una sola carga supere con creces un día completo de uso. El terminal incluye también la carga reversible, de modo que podremos cargar, con solo apoyarlos sobre la trasera, otros dispositivos como auriculares o relojes inteligentes. En cuanto a las cámaras, que son tres, el nuevo Realme GT está equipado con un sensor principal de 64 megapíxeles (Sony IMX 682), al que acompaña un ultra angular de 8 megapíxeles (y 119 grados de apertura) y una lente macro de 2 megapíxeles y con una función Ultra Macro. La cámara frontal es de 16 megapíxeles. Según Realme, un nuevo algoritmo aplicado al sensor principal consigue una claridad de imagen similar a la de una cámara de 108 megapíxeles. Gracias a la tecnología multi frame, en efecto, la cámara captura varias imágenes a 64 megapíxeles en cada disparo, y las combina en una sola foto en la que se ha reducido el ruido y se ha incrementado la nitidez. El nuevo algoritmo de Realme permite también obtener fotos claras e iluminadas de noche o en ambientes muy oscuros y con poca luz gracias al modo Ultra Nightscape. Algo que también está disponible para la grabación de vídeos. Entre otras funciones, el terminal incorpora AI Passport Photo, que permite hacernos retratos válidos para el DNI o el pasaporte sin necesidad de acudir a un estudio profesional. Por lo que se refiere al sistema operativo, el nuevo Realme GT es de los primeros dispositivos que soporta la versión beta 1 de Android 12, paso previo para la próxima actualización al nuevo sistema operativo de Google. La nueva 'bestia' de Realme llegará a España el próximo 21 de junio. La versión de 8GB + 128GB costará 449 euros, y la de 12GB + 256GB se venderá a 599 euros. Dos relojes y un robot aspirador Se llaman Watch 2 y Watch 2 Pro y cuentan con más de cien esferas diferentes para elegir. El modelo Pro está centrado en el ejercicio y la salud. Cuenta con una pantalla AMOLED de 1,75 pulgadas, con un brillo máximo de 600 nits, mucho más que el anterior modelo de Realme. Cuenta con 90 modos deportivos diferentes, desde maratón a hacer pesas en un gimnasio. Mide la saturación de oxígeno en sangre y cuenta con un GPS integrado. La batería dura hasta 14 días y se carga por completo en dos horas y media. El Watch 2, por su parte, tiene un tamaño más reducido. Los precios son de 54,99 y 74,99 euros, respectivamente. Además del nuevo smartphone y de los smartwatches, Realme presentó su nueva estrategia iOT, TechLife, que será la columna vertebral que permita la interconexión de todos los dispositivos de la marca. A partir de ahora, TechLife será considerada como una marca, y a ella se añadirán toda clase de dispositivos inteligentes. En el futuro, TechLife permitirá añadir tambièn dispositivos de cualquier otra marca. En este contexto, Realme presentó su nuevo robot aspirador, el primer miembro de la nueva familia TechLife. Diseñado desde cero, evita los habituales problemas de conexión que encontramos en otras marcas, y también los molestos 'atascos' y parones que tenemos cada vez que un objeto se cruza con el aspirador en marcha. Su altura es de 10 cm, la cubierta es de cristal templado y llega equipado con toda una serie de nuevas tecnologías, desde el clásico detector de obstáculos a un sensor de paredes, o de vaciado del tanque de agua o, el más importante de todos, un sensor LIDAR que emplea la misma tecnología de navegación que los coches eléctricos y que garantiza movimientos precisos y en tiempo real, generando mapas exactos de cada habitación. Todo se puede controlar a través de una 'app' instalada en el móvil. El precio es de 299 euros.

via Tecnología https://ift.tt/3xn105h

lunes, 14 de junio de 2021

Facebook dice que su nueva inteligencia artificial puede imitar tu escritura con sólo ver una palabra

Facebook dice que su nueva inteligencia artificial puede imitar tu escritura con sólo ver una palabra

Después de los deepfakes de videos, voces y hasta imágenes satelitales, es el turno de la escritura. Un nuevo proyecto de Facebook consigue imitar la mayor parte de escrituras con sólo leer una palabra. A partir de dicha palabra la inteligencia artificial aprende cómo es la tipografía y se encarga de redactar cualquier texto con ella.

TextStyleBrush es el nombre que recibe el nuevo proyecto de Facebook AI. Se trata de una inteligencia artificial que puede copiar el estilo de un texto encontrando en una fotografía. Lo que sin duda la hace impresionante con respecto a otras inteligencias artificiales similares es la poca cantidad de datos que requiere para ello: apenas unas cuantas letras provenientes de una palabra. Es decir, un teóricamente podría escribir su nombre y la IA sabría imitar su escritura.

Facebook explica que si bien la mayoría de sistemas on IA pueden hacer esto con tareas específicas, en este caso TextStyleBrush es lo suficientemente flexible para entender todo tipo de tipografías de entornos reales. Es decir, que comprende sin aparentes problemas textos con todo tipo de caligrafías, estilos aplicados, grosores, colores, sombreados o rotaciones.

Indican que para conseguir esto su inteligencia artificial trata de comprender la tipografía que analiza desde un puto de vista más holístico y teniendo en cuenta cómo es en su plenitud. Generalmente las IAs que imitan la escritura buscan parámetros concretos como las serifas o el grosor, no en este caso, que trata de comprender la escritura más como un conjunto.

La utilidad real de que una IA copie tu escritura

Como suele ocurrir con este tipo de avances en inteligencia artificial, puede tener usos tantos positivos como potencialmente negativos. En teoría una IA como esta puede ser utilizada para falsificar la escritura de alguien y “hablar en su nombre”, por poner un ejemplo. Pero también para aplicaciones positivas. Por ejemplo, puede utilizarse para traducir de forma instantánea textos del mundo real con sólo fotografiar o apuntar con la cámara.

Screenshot 2

Sea como sea, de momento es sólo una investigación pública de Facebook. Veremos si en las próximas iteraciones mejora puede llegar a popularizarse al aplicarse a una app o herramienta real. Dicen que aún hay limitaciones y puntos concretos a superar, como por ejemplo cuando la IA tiene que lidiar con textos metálicos y con reflejos.

Más información | Facebook



via Robótica e IA - Xataka https://ift.tt/3xqgWUD

Amazon tiene cuatro nuevos robots para trabajar en sus almacenes: autónomos y repletos de IA para liberar carga de trabajo a los humanos

Amazon tiene cuatro nuevos robots para trabajar en sus almacenes: autónomos y repletos de IA para liberar carga de trabajo a los humanos

Los empleados de los almacenes de Amazon pronto tendrán nuevos compañeros de trabajo: Ernie, Bert, Scooter y Kermit. Se trata de los nuevos robots autónomos y con inteligencia artificial de Amazon, que dice que ayudarán a liberar carga de trabajo y mejorar la seguridad de los trabajadores humanos.

Con la idea en mente de reducir los accidentes de trabajo en un 50% para 2025, Amazon ha lanzado estos cuatro nuevos robots. Es un objetivo en el que están invirtiendo más de 300 millones de dólares en productos de seguridad cada año. Sin más, veamos de qué se trata cada uno de los nuevos robots.

Cuatro robots, cuatro tareas distintas

Ernie es el primero de los robots, su tarea principal es recoger y entregar paquetes y cajas de unidades móviles a humanos. De este modo el humano tiene que agacharse menos y estirar menos el cuerpo, facilitando enormemente la tarea. Ernie es una especie de brazo robótico que succiona las cajas para agarrarlas y las mueve sobre una cinta mecánica para desplazarlas.

El segundo de los robots es Bert. Bert dicen que es uno de los primeros robots completamente autónomo que han creado. Su objetivo es desplazarse por los grandes almacenes para transportar cajas y otros ítems de un lugar a otro. Todo ello sin necesidad de que un humano lo supervise, liberando así una gran parte de trabajo, especialmente en cuanto a tiempo se refiere. Dicen que eventualmente podrá desplazar cargas más grandes y pesadas.

También tenemos a Scooter, un robot que Amazon dice que es utilizado también de forma autónoma y también para transportar cargas. En este caso es como una pequeña locomotora, cargando una serie de vagones de carga o remolques con paquetes. Se desplaza de forma autónoma y lleva los paquetes de un punto determinado a otro escogido.

Finalmente tenemos a Kermit, otro robot autónomo pensado para transportar cargas. En este caso la carga es simplemente cajas vacías. Kermit es autónomo pero no tanto como Bert por ejemplo, requiere de unas cintas magnéticas en el suelo para guiarse.

Amazon indica que algunos de sus robots ya están en estado avanzado de desarrollo y comenzarán a introducirse poco a poco este mismo año en algunos de sus almacenes. La automatización de los puestos de trabajo en Amazon es algo que tarde o temprano llegará. No en vano ya están invirtiendo miles de millones en recapacitar a sus trabajadores para puestos más técnicos.

Vía | Amazon



via Robótica e IA - Xataka https://ift.tt/2RWenKU

viernes, 11 de junio de 2021

"Les habla el piloto automático": esta startup financiada por Google tiene una flota de 55 aviones autónomos y quiere que viajemos con ellos

55 aviones King Air para ofrecer vuelos completamente autónomos, desde el despegue hasta el aterrizaje. Es la propuesta de Merlin Labs, una startup con sede en Boston que ha conseguido recientemente 25 millones de dólares en una ronda de financiación liderada por Google Ventures y First Round Capital.

Merlin Labs se ha aliado con Dynamic Aviation para intentar plasmar su objetivo de crear una flota de aviones autónomos, sin pilotos humanos y capaces de transportar pasajeros. La empresa sin embargo no construye aviones o drones, sino que se centra en inteligencia artificial.

Su trabajo consiste en una evolución de los pilotos automáticos, para ofrecer un sistema de conducción autónoma en aeronaves. Un trabajo que ya han probado en "centenares de misiones" y han conseguido atraer el interés de Google.

En busca del primer sistema de vuelo autónomo para aeronaves de gran tamaño

Merlin Labs quiere crear el primer sistema de vuelo autónomo para aeronaves de gran tamaño, con ala fija. Un sistema que cumpla las regulaciones de aviación. Por el momento todavía están lejos de alcanzar este punto, pero la startup informa que ha realizado múltiples pruebas con aviones en el Puerto Aéreo y Espacial de Mojave.

En concreto han instalado su plataforma en cuatro aviones distintos, desde avionetas de un único motor hasta aviones con varios de ellos.

Pese al largo recorrido de los pilotos automáticos, la aviación autónoma es un campo relativamente nuevo y creciente. En julio de 2019, la Universidad Técnica de Múnich completaba el primer aterrizaje de manera completamente autónoma. Un año después, en agosto de 2020, un Airbus A350 despegaba y aterrizaba de manera autónoma. Ahora es la empresa Merlin Labs quien quiere ofrece esta posibilidad a otras compañías mediante su "piloto automático" con un nivel de conducción autónoma avanzada.

Merlin Labs Aviones

Los investigadores de Merlin Labs utilizan datos generados por pilotos humanos para construir simulaciones de vuelo con su sistema de IA. Según describen, ya han incorporado "miles de horas de vuelo".

Es ahora cuando se han aliado con Dynamic Aviation, dueños de la flota privada más grande de aviones King Air, para llevar a la práctica su sistema de aviación autónoma. "Estamos orgullosos de asociarnos con Dynamic para comenzar el proceso de trasladar el vuelo autónomo del laboratorio al mercado", explica Matthew George, CEO de Merlin Labs.

Merlin Sin Piloto

"Nuestro objetivo inmediato es permitir que una aeronave tome sus propias decisiones, con un piloto que mantiene su presencia para propósitos de monitorización", explica la compañía. A largo plazo, la idea de Merlin es permitir vuelos sin ningún piloto humano a bordo.

Merlin King Air

Más información | Merlin Labs



via Robótica e IA - Xataka https://ift.tt/2TUj4oZ

jueves, 10 de junio de 2021

Google dice que su IA ya diseña chips de aprendizaje automático más rápido que los humanos

Google dice que su IA ya diseña chips de aprendizaje automático más rápido que los humanos

Lo que a los humanos les lleva meses, la inteligencia artificial de Google lo hace en seis horas. Es la afirmación que hace Google al respecto de su IA capaz de diseñar chips de aprendizaje automático "comparables o superiores" a los que hacen los humanos. Tras años de experimentos, veremos el primer producto comercial en este aspecto dentro de poco: los próximos chips TPU de Google han sido diseñados por una IA.

Que Google utiliza su IA para diseñar chips optimizados para la IA no es ningún secreto. Sin embargo, ahora parece ser que se han dejado de experimentos y lo han aplicado a productos reales. También han aprovechado para publicar un estudio en Nature donde explican el desarrollo.

La gran ventaja que parece aportar la IA a la hora de diseñar chips es la velocidad. Según Google, el gran ahorro de tiempo que implica utilizar el algoritmo para diseñar en vez de los humanos puede tener importantes implicaciones en la industria. En principio debería permitir acelerar las iteraciones de diseños para los próximos chips, así como diseñar rápidamente chips para usos concretos para los que estén optimizados.

Optimizando el espacio de un chip

Donde más parece que tiene impacto la IA es en la planificación de la ubicación de los elementos en el chip. Este proceso es esencialmente el de escoger en qué ubicación sobre la superficie del chip va cada elemento (CPU, GPU, memoria...). Es algo esencial, ya que afecta de forma directa la velocidad y eficiencia del chip dependiendo de a qué distancia se encuentre cada elemento de otros.

Tpu 2 0 Png

Mientras que para los humanos esto es un problema de meses de esfuerzo, una inteligencia artificial se lo toma como un juego. Interpreta cada elemento del chip como una pieza de un juego y busca colocarla en el sitio donde más eficiencia ofrece, siempre teniendo en cuenta todas las otras piezas y multiples factores más. Al cabo de unas horas, ofrece la posición donde más eficiencia computacional se ofrece del conjunto de elementos en el límite dado.

Para entrenar a la IA, Google dice que le dio los datos de 10.000 diseños de chips de mayor y menor calidad. Cada chip fue etiquetado según su calidad y teniendo en cuenta valores como al longitud del cableado requerido o el uso de energía. De este modo la IA aprendió qué diseños son buenos y cuáles no, para luego generar los suyos propios.

Vía | CNBC
Más información | Nature



via Robótica e IA - Xataka https://ift.tt/3xgeTCa