martes, 30 de julio de 2019
Desarrolladas unas lentillas con zoom que se activa al parpadear
via Robótica https://ift.tt/2Yxmkr9
domingo, 28 de julio de 2019
Elon Musk busca conectar cerebros humanos a computadores
Elon Musk está llevando a cabo una cruzada para “detener el apocalipsis de la IA”, y en ese marcó se unió a Neuralink para en conjunto desarrollar un ambicioso proyecto que pretende vincular los cerebros humanos con las máquinas.
Musk considera que con los nuevos avances de la IA “estamos invocando al diablo”. Él es el fundador de SpaceX y Tesla, y creó OpenAI en parte debido a las preocupaciones de que la IA podría suponer un riesgo existencial si se desarrolla sin cuidado. El año pasado abandonó OpenAI por desacuerdos con el desarrollo de la compañía. Recordemos que OpenAI se volvió noticia este año por probar su generador de noticias falsas basado en IA, que obviamente es demasiado peligroso para divulgar.
Ahora Musk está enfocado en su trabajo con Neuralink que consiste en la generación de un implante que apunta a construir un implante que conecte los cerebros humanos con las computadoras. Los chips de Neuralink se han implantado en ratas hasta ahora, pero se espera que en dos años se empiecen a probar en humanos.
Básicamente, existen dos formas de hacer interfaces entre el cerebro y la máquina: la forma invasiva que consiste en tocar directamente el cerebro, y la forma no invasiva, utilizando electrodos cerca de la piel. Neuralink ha optado por la forma invasiva con una serie de hasta 96 pequeñas amenazas de polímeros, cada una de las cuales tiene hasta 32 electrodos. El chip se implanta en el cerebro mediante un robot y una incisión de dos milímetros.
El chip podrá conectarse de forma inalámbrica desde el cerebro a otros dispositivos. De esa manera, las personas podrán controlar dispositivos móviles y sobre todo las personas con daño cerebral o discapacidades similares se podrán ver beneficiadas según estima Neuralink.
“Después de resolver una serie de enfermedades relacionadas con el cerebro, existe la mitigación de la amenaza existencial de la IA”, dice Musk.
Sin embargo aclara que no tiene esperanzas de tener interfaces completas entre el cerebro y la máquina en el corto plazo.
“No va a ser como de repente, Neuralink tendrá esta increíble nueva interfaz y tomará el control de los cerebros de las personas”, dijo. “Tomará mucho tiempo, y lo verás venir. Obtener la aprobación de la FDA para dispositivos implantables de cualquier tipo es bastante difícil y este será un proceso lento”, agregó.
Neuralink tiene programado comenzar las pruebas en humanos a partir del próximo año, pero como bien señala Musk, todo depende de la aprobación de la FDA.
La entrada Elon Musk busca conectar cerebros humanos a computadores se publicó primero en IntelDig.
via IntelDig https://ift.tt/2Yp9IhM
jueves, 25 de julio de 2019
Ciborgs
via Robótica https://ift.tt/2Mdghl4
miércoles, 24 de julio de 2019
Estos robots piensan y se comportan como hormigas
via Tecnología // elmundo https://ift.tt/32P6cQT
martes, 23 de julio de 2019
Los españoles identifican IA con robots
from RSS de lo último publicado en 'Computing España' https://ift.tt/32CMEiG
via IFTTT
lunes, 22 de julio de 2019
Pilar Manchón, la española que vendió su empresa de chatbots a Intel por una millonada y se fue a Amazon, advierte sobre privacidad y asistentes virtuales
En menos de año y medio, María habló más de 100.000 veces con diferentes usuarios. Una media de casi 200 chats diarios con una duración promedio de más de tres minutos. Los temas principales que trató: sexualidad, aborto, gripe o el calendario vacunal, además de casi 40.000 peticiones de cita médica en Andalucía. Durante el tiempo que estuvo en activo, María no solo presumió de eficiencia sino también de haberse ganado la confianza de los pacientes. Su entidad virtual no fue un inconveniente.
"Fuimos pioneros con la introducción de este asistente personal para manejar el colapso en centros de salud en la campaña de la gripe A", recuerda Pilar Manchón, fundadora de Indisys. Eso fue en 2010, cuando aún nadie hablaba de chatbots. Tres años más tarde, Manchón vendió su empresa a Intel donde estuvo trabajando hasta 2015. De allí pasó a dirigir el área de Interfaces Cognitivas de Amazon y, hace justo un año, a la vicepresidencia de Roku como directora del área de inteligencia artificial (IA).
La sevillana, afincada en California (EE.UU.), se ha dejado ver en Madrid en un evento del think tank de la Fundación Innovación Bankinter, en una edición de su Future Trends Forum sobre IA. Allí nos cuenta su historia: "Desde pequeña siempre había tenido dos pasiones, por una parte, la lengua; por otra, la ciencia y la tecnología. Después de estudiar Filología y Lingüística seguía con una espinita clavada, con un cierto grado de insatisfacción, hasta que encontré el campo de la lingüística computacional, donde podía aunarlo todo", cuenta.
Se fue a la Universidad de Stanford en 1999 con una beca Fullbright a hacer parte de su doctorado y acabó quedándose tres años. En ese tiempo construyó una interfaz de voz para el periódico Usa Today y trabajó como Arquitecta de Tecnología y Lingüista Computacional Sénior en la entonces start-up NetByTel, centrada en la creación de sistemas de diálogo. Allí le entró el gusanillo del emprendimiento. "Me picó el bicho", bromea.
Con la idea de emprender en la cabeza, Manchón aceptó la invitación del investigador Gabriel Amores para volver a la Universidad de Sevilla a terminar su doctorado y continuar investigando en el grupo de Lingüística Computacional. "Los resultados que conseguimos en el producto e investigación fueron espectaculares", afirma. Se trataba de un sistema de diálogo de iniciativa mixta "que conceptualmente se aproximaba mucho más a una conversación natural de cualquier otra tecnología disponible en ese momento incluso hoy en día". Era capaz -dice- de reducir llamadas de cinco minutos a 30 segundos.
La experta señala que era un avance muy significativo con respecto a los sistemas de respuesta de voz interactiva (IVR), que eran muy rígidos y funcionaban como un árbol de opciones. "El nuestro, que todavía está en el mercado, te permite decir lo que quieres directamente, ya que usa tecnologías de procesamiento del lenguaje natural. Es decir, tiene un gestor de contexto y de diálogo que le permite entender toda la frase y tener una conversación más flexible, sin obligarte a seguir un camino", explica.
La odisea de emprender
Con ese producto entre manos y su conocimiento del mercado de sistemas de diálogo, tras haber pasado año y medio en NetByTel, Manchón vio clara la oportunidad. Lo que no sabía es que esta no venía sola, sino acompañada de palos y muchas piedras en el camino. En 2003 fundó Indisys junto a Gabriel Amores y José Francisco Quesada. "El primer reto fue crear un plan de negocio, que desarrolló gracias a su paso por una especie de MBA acelerado del Instituto Internacional San Telmo.
Con ello, se puso a buscar fondos allá donde quisieran escucharla. "El nivel de inversión en España en aquellos momentos era tristísimo. Las barreras eran muchas y las herramientas pocas o inexistentes", lamenta. En 2004 ganaron el programa de televisión 'Generación XXI', cuyo premio -dice Pilar- eran 700.0000 euros de financiación "que nunca recibimos", una furgoneta y un viaje al Instituto Tecnológico de Massachusetts (MIT).
Cuando Manchón consiguió su set de inversores, Quesada, que además de su socio era amigo personal, les dejó. "Nos traicionó. Se llevó nuestra propiedad intelectual, nuestro programa, y se lo ofreció a los inversores que yo había conseguido. Tres meses después, montaron la empresa con mi plan de negocio y con nuestro software, cuyos derechos habíamos comprado a la Universidad de Sevilla", relata.
Manchón y su otro socio no se dieron por vencidos. Consiguieron un par de inversores ángel y buscaron proyectos de investigación becados que les aportaran algo de efectivo. En 2007, recibieron 500.000 euros de Invercaria, la empresa de capital riesgo de la Junta de Andalucía, que posteriormente les traería disgustos, al formar parte de una macrocausa judicial por corrupción.
Poco después, en 2008, sacaron su primer producto y, cuando por fin consiguieron salir de los números rojos, llegó la crisis. "Se paralizaron todos los proyectos que habíamos firmado en 2008 con nuestros clientes y tuvimos que volver a lo de antes: buscar préstamos y cualquier programa de subvenciones", cuenta la lingüista.
Dado que el mercado español estaba imposible, se fue -cual mochilera- a buscar dinero fuera. En 2011 tocaron suelo. "Yo no tenía sueldo y a duras penas llegábamos a pagar al equipo. Se nos fueron dos programadores principales y una chica que rompió el contrato de confidencialidad, se fue a la competencia y les vendió información confidencial. Nos salían rana en todos sitios", se compadece. Además, había ganado un premio para realizar el programa de verano de la Singularity University que finalmente no le permitieron disfrutar. "Me lo quitaron por estar sobrecualificada", afirma.
Finalmente, en 2012, Manchón consiguió el interés de Intel Capital y una inversión del fondo catalán de capital riesgo Inveready. "Ya habíamos conseguido también algunos clientes extranjeros, uno en Chile y otro en Australia, otro en Italia, tras mucho sudor y lágrimas", comenta. Así que, en 2012, Indisys pasó de estar casi en la bancarrota a cerrar una ronda de inversión de cinco millones con Intel e Inveready. Y además la lingüista volvió a ganar el premio para asistir a Singularity University, que esta vez sí pudo aprovechar.
Poco después, en 2013, Intel compró Indisys por 26 millones de euros. Pilar volvió a cruzar el charco y trabajó allí -en la división de Client Computing- hasta 2017. Primero como directora de Operaciones y Desarrollo Técnico de Negocio y luego como directora general de Asistentes Digitales Inteligentes y Voz. En 2017 se une a Amazon como directora de interfaces cognitivas y en 2018 a Roku, una plataforma de transmisión de contenidos de televisión y reproductor multimedia donde está creando su bebé (del que dice no poder dar detalles) desde cero.
Asistentes virtuales sociales
Con todos estos aprendizajes, ¿qué tiene Manchón que decir sobre las tecnologías lingüísticas, y en especial sobre los asistentes virtuales? ¿Cuáles con su impacto, su potencial y sus aspectos positivos y negativos? "Se trata de un paquete de tecnologías que se han unido bajo una misma categoría pero que en realidad son muy diferentes y tienen requisitos distintos en cuanto a rendimiento, datos, etc.", explica.
Por una parte está el reconocimiento de voz: transcribir el contenido de audio -la voz, lo que dice una persona- a una serie de palabras. Por otra está la comprensión del lenguaje natural, que implica entendimiento del lenguaje, estableciendo correlaciones entre lo que vemos y lo que creemos. Manchón cree que en realidad estos sistemas ejercen una ‘competencia sin comprensión’, un postulado ampliamente compartido -y también discutido- en la comunidad científica, propuesto por el filósofo de la mente y científico cognitivo Daniel Dennett. Se refiere al hecho de que, a nivel funcional, un sistema puede alcanzar un nivel de rendimiento (competencia) que en contextos humanos se atribuiría a la comprensión (es decir, la inteligencia) pero sin comprenderlo.
Otra de las tecnologías implicadas es la gestión del diálogo: "Si quieres tener una conversación, hay que entender los turnos de palabra, saber a quién le toca hablar, cómo consigo relacionar lo que ha dicho la otra persona y la información que hemos compartido con lo que he dicho yo, y hacia dónde va la conversación según lo que ambas partes sepamos", aclara.
También está la generación del lenguaje natural: una vez que tenemos una idea de qué va la interacción y hemos decidido el transcurso de la misma, la máquina debe comunicarse de forma que otro ser humano pueda comprenderla. Generar una tarea, un mensaje, una información, sin importar el qué, en lenguaje natural. "Eso es la generación de lenguaje natural, construir una frase gramaticalmente decente", dice Manchón. La síntesis del habla, por su parte, hace que sea posible generar voz.
¿Y qué es lo próximo? "La multimodalidad y la multitarea multimodal. Vamos a dejar atrás la voz y el texto, pensad en una visión más completa de un asistente virtual que pueda ver y sentir y sepa acerca de otras cosas aparte de lo que tú le dices. Si digo algo como 'Enséñame eso' o 'Sube esa persiana de allí', ese asistente virtual tendría que saber, literalmente, a qué estoy señalando para entender lo que le digo", describe. Así que, además del lenguaje, está la interacción de todas estas modalidades contextuales que necesitamos poner en común para saber cuál es la verdadera intención según el contexto en el que ocurran.
"Además de toda esta inteligencia funcional, tenemos un componente social y emocional porque los seres humanos somos criaturas muy necesitadas. Para depositar nuestra confianza en una entidad semiinteligente que desempeña un papel en nuestra vida, tenemos que tener algún tipo de conexión emocional. Si no, se la atribuiremos igualmente", explica Manchón. Pone como ejemplo de ello el caso de María, la asistente virtual desarrollada para la Junta de Andalucía: "Los usuarios decían sentirse más cómodos ante la máquina a la hora de realizar consultas de información sexual porque no se sienten juzgados, pero a la vez hablaban de ella como si fuera una persona", afirma.
Otro componente -añade la experta- es la detección de personalidad: nuestra capacidad para detectar el tipo de personalidad que uno tiene a través del lenguaje. Y luego está la sintonización, que tiene más que ver con tener un comportamiento coherente para que las expectativas del usuario en cuanto a la interacción no se desajusten.
Vigilancia a la vista
La complejidad de los asistentes virtuales y las necesidades técnicas que requiere afrontarlas chocan con aspectos delicados. Estos están presentes en todos los ámbitos de nuestra vida. "Alexa, Google Home, Cortana, Siri, etc. están en casa, en el coche, en la oficina... podrían estar en cualquier parte, así que saben mucho de nosotros", afirma Manchón. La propiedad de datos, la gestión de datos, quién posee esos datos, cuántos datos estamos compartiendo, si estamos compartiendo más de lo que queremos, cómo dices lo que dices, cuándo lo dices, a quién se lo dices, en qué tono se lo dices...
"Cuando un asistente virtual nos ofrece recomendaciones, ¿en interés de quién son esas recomendaciones realmente?"
Pero claro, el aprendizaje automático aprende por observación. "Una vez que se observa un patrón, ¿cómo te digo que no me gusta eso, que no lo quiero, que es incorrecto? Cuando pedimos una recomendación a Alexa, nos dirá lo mejor para nosotros o para las empresas que han pagado por aparecer ahí? Cuando un asistente virtual nos ofrece recomendaciones, ¿en interés de quién son esas recomendaciones realmente?", cuestiona.
La lingüista computacional asegura que hay empresas que utilizan las conversaciones que tenemos, por ejemplo, con una empresa de telecomunicaciones, para determinar nuestro perfil: qué tipo de persona eres, si pueden ofrecerte sus productos con éxito, si pueden venderte algo o hacer venta cruzada contigo, si eres una persona que se enfada fácilmente...
"Crean un perfil sobre ti y tú no sabes a dónde va a parar ese perfil. Podría afectar una solicitud de trabajo, una solicitud para una hipoteca, para la universidad, o tu seguro, o tus decisiones financieras. Por tanto, las empresas, sociedades, y servicios que están fuera de tu alcance te juzgan como usuario basándose en información que no puedes controlar. Ni están cualificados para hacerlo, ni tienen permisos ni hay nada que valide esa información", sostiene.
Por otra parte, estos sistemas pueden usarse con fines loables como detectar comportamientos de depredadores sexuales en la red, sobre todo con niños; o detectar acoso o cómo se manipula a la gente a través de las redes sociales. Las tecnologías lingüísticas también se pueden aplicar al análisis y clasificación de documentos y para ayudar en materia de educación, para hacerla accesible y más fácil para que ellos que no pueden estudiar. Manchón considera fundamental "extraer la complejidad de la inteligencia artificial a través del lenguaje para empoderar a otros y que puedan utilizarla, y así crecer más rápido y mejor", concluye.
via Magazine - robotica-e-ia https://ift.tt/2YkXIlo
jueves, 18 de julio de 2019
Sherpa, la empresa española de inteligencia artificial, incorpora a Tom Gruber, creador de Siri
Tom Gruber lleva más de una década trabajando en el ámbito de los asistentes digitales y la inteligencia artificial. Se le conoce por ser uno de los creadores de Siri, el asistente virtual que Apple compró en 2010 y posteriormente incluyó en sus dispositivos. Tom Gruber ha trabajado durante años en Siri y dentro de Apple, pero ahora lo hará para una empresa de vasca, para Sherpa.ai.
Tal y como ha anunciado Sherpa, han incorporado a Tom Gruber como Strategic Advisor (asesor estratégico). Se encargará de ofrecer ayuda al equipo de Sherpa.ai para mejorar sus funcionalidades relacionadas con la inteligencia artificial. Un fichaje que desde luego muestra la relevancia de Sherpa en este sector. Según el propio Tom Gruber: "Entre las empresas de Digital Assistant que he visto, el producto y el equipo de Sherpa.ai es el que más me ha entusiasmado".
La relación entre Sherpa y Tom Gruber comenzó años atrás, cuando Tom aún trabajaba para Apple y estos quisieron adquirir Sherpa. Las negociaciones no salieron adelante, pero se entabló una relación entre el CEO de Sherpa y Tom Gruber. El experto en asistentes digitales finalizó su contrato con Apple en septiembre de 2018 donde lideró el equipo encargado de diseñar las nuevas funcionalidades de Siri. Ahora puede sumarse a otros proyectos fuera de Cupertino y según han indicado desde Sherpa, prestará sus servicios en exclusiva para Sherpa.
Un asistente digital que nació en País Vasco
Ahora bien, ¿que es exactamente Sherpa? La empresa se dió a conocer en 2012 cuando presentaron su primera app para Android, un asistente digital que a lo largo de los años ha ido mejorando sus capacidades. Actualmente su tecnología basada en inteligencia artificial se integra en más dispositivos aparte del móvil, como pueden ser los coches, los altavoces inteligentes o las TVs.
En un mundo donde cada vez más empresas suman los términos de "inteligencia artificial" a sus productos y donde Alexa, Google Assistant y Siri dominan el mercado... da la impresión de que es complicado salir adelante. Pero Sherpa parece estar consiguiéndolo, según indicó su CEO Xabi Uribe-Etxebarria a Techcrunch hace unos meses, su truco está en centrarse únicamente en inteligencia artificial.
Sherpa, al igual que otros asistentes digitales, tiene como objetivo prestar al usuario ayuda de forma proactiva para que sea más cómoda y natural la interacción entre el humano y el dispositivo. Según ellos, su asistente es "líder en algoritmos predictivos de inteligencia artificial.
Sherpa se puede instalar en iOS y en Android, pero también están integrando este asistente y servicios relacionados en otros productos como pueden ser los vehículos. En estos casos la estrategia es B2B, es decir, ofrecen su servicio y tecnología directamente al fabricante y no al consumidor. Por último, recientemente han lanzado una nueva app llamada Sherpa News (disponible de nuevo tanto en iOS como en Android), centrada en ofrecer noticias para el lector aprendiendo de sus gustos y preferencias.
via Magazine - robotica-e-ia https://ift.tt/2Z2hoaI
miércoles, 17 de julio de 2019
Elon Musk asegura tener listo un microchip cerebral para fusionar el ser humano a un ordenador
via Tecnología https://ift.tt/2JQuod0
Elon Musk desvela los planes de Neuralink: sensores para leer el cerebro que se implantan "cosiendo" hilos microscópicos
"No será de repente, pero Neuralink tendrá este cordón neuronal y comenzará a tomar el control de los cerebros de las personas", comentó Elon Musk hace unas horas. Después de muchos años sin apenas información sobre Neuralink, finalmente han hecho públicos algunos de sus avances, y parecen de ciencia ficción. La compañía, respaldada por Elon Musk, busca conseguir implantar "hilos" en el cerebro humano que permitan comunicar áreas concretas del mismo con el exterior. La intención es restaurar la capacidad de hablar, escuchar o moverse a personas que han perdido dichas capacidades.
Hilos que transmitan la información directa del cerebro al ordenador, por USB-C
Neuralink ha sido durante muchos años la "compañía secreta" de Elon Musk que pretendía desarrollar interfaces cerebro-máquina. Algo que a priori ya promete mucho y tras la presentación de las últimas horas no parece haber bajado el listón. Su idea es coser hilos a lo largo y ancho de la superficie del cerebro de este modo podrán comunicarse desde el exterior de forma directa con el cerebro. Una especie de implantes, sensores y electrodos a tamaño microscópico.
¿Coser hilos? Literalmente sí, de hecho tienen una "máquina de coser" que ya lo está haciendo, como no, en animales. Según han explicado, hasta ahora las pruebas que han realizado provienen de ratones en laboratorios con hasta 1.500 electrodos. Creen que se puede extrapolar también a humanos, aunque aún no se ha realizado ninguna prueba que lo demuestre. La máquina es capaz de implantar seis hilos (192 electrodos) por minuto. Todo ello sin tocar los vasos sanguíneos.
Los hilos que Neuralink busca implantar en el cerebro son minúsculos en cuanto a diámetro se refiere, entre 4 µm y 6 µm según explican. Para poner este tamaño en contexto, el pelo del ser humano tiene un diámetro que varía entre los 15 µm y los 100 µm aproximadamente. Estos hilos son flexibles y según indican, tienen menos probabilidades de dañar al cerebro que los materiales que se utilizan actualmente. La palabra "flexibles" es la clave, a diferencia de los implantes tradicionales, estos hilos se pueden desplazar, del mismo modo que lo hace el cerebro dentro del cráneo.
Por otro lado, también pueden transmitir mucha más información al ser una gran cantidad de hilos y uno unos pocos electrodos o sensores como se utiliza ahora. Según comentan pueden conseguir "hasta 3,072 electrodos por conjunto distribuidos en 96 subprocesos".
Toda la información recopilada por los hilos es transmitida a un aparato que está situado junto a la cabeza, presumiblemente encima del oído. Este aparato recopila toda la información que posteriormente se envía a un ordenador o cualquier otro dispositivo externo que se encargue de leer los datos, tomar acciones o lo que se crea conveniente. De momento lo hace por un simple USB-C, pero desarrollarán también un método inalámbrico.
Un puente entre humanos e inteligencia artificial
"Somos un cerebro en una cubeta, y esa cubeta es nuestro cráneo", explicó Elon Musk. El objetivo es poder leer los picos neuronales del cerebro para conseguir una "fusión con la inteligencia artificial", no es la primera vez que lo dice. Cree que es imposible evitar que la inteligencia artificial supere a a la inteligencia humana, por lo que espera que tengamos al menos "una simbiosis con la inteligencia artificial". ¿Por qué no obtener la información del cerebro simplemente hablando? Porque ningún método es tan rápido y transmite tanta información como los hilos conectados al cerebro, es una cuestión de "ancho de banda" según han explicado.
Efectivamente ya existen tecnologías que permiten añadir implantes en el cerebro y leer la actividad cerebral del ser humano y otros animales. Sin embargo, para ello ninguna tecnología actual se ajusta a los objetivos de Neuralink de leer directamente los picos neuronales de forma mínimamente invasiva.
Pruebas a finales de 2019, primeros implantes en 2020
Neuralink espera conseguir las primeras pruebas con humanos en el último trimestre de este año. Creen que su método con hilos tan finos y apenas fricción humana es capaz de implantar todos los hilos de forma mucho menos dañina para el tejido craneal que otros métodos. Los primeros experimentos se realizarán con neurocientíficos en la Universidad de Stanford y Elon Musk dijo que esperan "tener esto en un paciente humano para fines del próximo año".
No va a ser sencillo, durante la propia presentación advirtieron que la razón principal para mostrar los avances en investigación que tienen no es otra que el reclutamiento. Max Hodak, presidente de Neuralink, comentó que él no estaba seguro, hasta que Elon Musk le convenció de por qué esta tecnología era una buena idea.
Aún queda mucho, a pesar de las promesas de que se realizarán pruebas en humanos y el primer paciente para 2020. Tal y como ellos mismos han reconocido, aún necesitan las aprobaciones de las autoridades estadounidenses para poder realizar pruebas con humanos. Y si todo va según lo previsto y efectivamente se puede extrapolar la tecnología al cerebro humano, entonces quizás sí tengamos los avances que prometen.
Vía | NYT
via Magazine - robotica-e-ia https://ift.tt/2LTBXCx
¿La Inteligencia Artificial es un robot? Una gran mayoría de personas vive confundida
via Tecnología https://ift.tt/2Lo1nZu
martes, 16 de julio de 2019
El taxi volador y otros inventos que parecían impensables
via Tecnología https://ift.tt/2JAMa5p
Nintendo NES, la consola que popularizó los videojuegos en todo el mundo
via Tecnología https://ift.tt/2XHZEot
lunes, 15 de julio de 2019
John Etchemendy: “La tecnología tiene un enorme potencial para hacer daño”
via Robótica https://ift.tt/2laMAW6
Conga 3490 Elite, análisis: el visor láser convence para este robot aspirador capaz de aspirar y fregar a la vez
Tras dejarnos con un muy buen sabor de boca con su Conga 3090, la valenciana Cecotec vuele un año más con nuevos robots aspiradores. Son dos: el Conga 1090 Connected, que podemos enmarcar en la gama media, y el Conga 3490 Elite, su modelo de gama alta y el que hemos tenido ocasión de probar en profundidad para traeros su análisis.
El Conga 3490 Elite recoge el testigo del Conga 3090 y vuelve a apostar por el mapeado láser cuatro en uno. Eso, en otras palabras, significa que el robot aspirador es capaz de barrer, aspirar y pasar la mopa o fregar de forma simultánea gracias a un depósito mixto. Además, su visor permite que reconozca la disposición de las habitaciones para crear un mapa y orientarse de forma inteligente. ¿Cómo se comporta en el día a día? Vamos a verlo.
Especificaciones técnicas del Conga 3490 Elite
CECOTEC CONGA 3490 |
|
---|---|
NAVEGACIÓN |
iTech Laser 360 |
MODOS DE LIMPIEZA |
10 |
CAPACIDAD DEL DEPÓSITO DE SÓLIDOS |
500 ml |
CAPACIDAD DEL DEPÓSITO MIXTO |
200 ml (agua) |
BATERÍA |
3.200 mAh |
AUTONOMÍA (SEGÚN FABRICANTE) |
150 minutos |
TIEMPO DE CARGA |
3-4 horas (aprox.) |
FILTROS |
EPA y malla de filtrado |
NIVELES DE POTENCIA |
3 |
POTENCIA DE SUCCIÓN |
2.300 Pa |
NIVEL DE EMISIÓN DE RUIDO MÁXIMO |
64 dB |
PROGRAMABLE |
Sí |
MANDO A DISTANCIA |
Sí |
REGRESO AUTOMÁTICO A BASE DE CARGA |
Sí |
MAPEO INTERACTIVO |
Sí |
APP PARA IOS Y ANDROID |
Sí |
PRECIO |
|
Conga 3490 Elite
Como decíamos, el Conga 3490 Elite bebe del Conga 3090 en muchos de sus aspectos, y el diseño es uno de ellos. De la parte superior destaca el visor láser, que podemos ver en funcionamiento siempre que el dispositivo se pasea por nuestra casa. Este visor le permite detectar paredes, obstáculos y demás elementos propios de la decoración para trazar la ruta más inteligente o, en caso de tener poca batería, la más rápida.
Eso se traduce en que el recorrido no es "a lo loco". Los robots más básicos simplemente se mueven en línea recta hasta que chocan. Entonces se dan la vuelta o giran para sortear un obstáculo y seguir su camino. No ocurre esto con el nuevo robot de Cecotec. El dispositivo, según la batería que tenga y la orden que le demos, realiza un recorrido ordenado con el objetivo de limpiar la mayor superficie posible en el menor tiempo.
Pero no solo traga polvo y migas, también friega y pasa la mopa. Los valencianos meten en la caja una mopa y un depósito mixto de 200 ml de capacidad en el que meter el agua. Simplemente hay que sustituir el depósito de sólidos que viene preinstalado por el mixto (después de llenarlo de agua, claro) y acoplar la mopa en la zona inferior. Muy sencillo.
Puede parecer que tiene poca capacidad, pero nada más lejos de la realidad. El Conga 3490 Elite tiene 200 ml, 30 ml más que el modelo anterior, y se mantiene la misma filosofía. El agua se dosifica con bastante precisión, por lo que una recarga es suficiente para limpiar las habitaciones más grandes. En nuestro caso no nos ha dado para toda la superficie del piso (unos 33 metros cuadrados), pero sí para el salón, la entrada, la cocina, el pasillo y el baño. La recarga es tan sencilla como sacar el depósito, abrir la tapa y echar agua. Fregar mi casa al completo supone hacer mínimo una.
Antes de pasar a hablar de la aplicación, conviene terminar de hablar de los elementos que encontramos en la parte inferior. Arriba ya sabemos que tenemos el visor láser y los botones de encendido y Home. Debajo tenemos el cepillo lateral (solo uno), los bornes de carga, el sensor anticaídas, el cepillo central (el que traga la suciedad) y el depósito. Sin novedades en este aspecto.
Como todos los robots aspiradores de Cecotec, el Conga 3490 Elite se configura con una aplicación. No es necesaria si solo quieres limpiar (basta con pulsar el botón de encendido y dejarlo hacer), pero si quieres exprimir al máximo el dispositivo conviene usarla. Desde ella podemos acceder a todos los modos de potencia y limpieza, al estado de los desechables y a los mapas. Ahondaremos en sus opciones más adelante, pero decir que está disponible para iOS y Android y que es compatible con Google Home y Amazon Alexa.
Sin embargo, hay un par de cosas que conviene destacar. Por un lado, es una aplicación exclusiva. No hay una aplicación universal en la que selecciones el modelo y ya, sino que tienes que descargar la desarrollada para ese modelo en cuestión. Por otro lado, la configuración no es para nada sencilla o, al menos, fiable, y en el siguiente apartado verás por qué.
Puesta en marcha: no es tan sencillo como pulsar dos botones
Nosotros, en nuestra labor de análisis, hemos optado por aprovechar al máximo todas las opciones que ofrece el robot, y eso pasa por conectarlo al WiFi de nuestra casa y usar la aplicación. Iré el grano: estuve una hora intentando configurarlo, una hora en la que usé hasta cuatro dispositivos diferentes (mi iPhone y tres móviles Android).
La idea es sencilla: pulsas el botón de encendido y Home a la vez durante tres segundos y, cuando las luces parpadeen en azul, sigues los pasos de la aplicación. Todo automático. En teoría, pero no en la práctica. Cuando inicias el proceso, la app detecta la red WiFi a la que estás conectado y tú debes introducir la contraseña.
Cuando lo haces, pulsas en "Siguiente" y le manda un mensaje al Conga. Realmente, lo que estás haciendo en ese momento es conectarte a una red WiFi que emite el robot para enviarle la contraseña del WiFi y el SSID para que este se conecte y puedas seguir la configuración, pero tal y como vienen los móviles configurados de fábrica no es posible.
¿Por qué? Porque los móviles Android tienen activada por defecto una opción para conectarse a las redes WiFi de calidad, lo que se llama "Activar WiFi automáticamente". Cuando el móvil se conecta al Conga, ya que su red no tiene Internet, el móvil se desconecta y se vuelve a conectar al WiFi de casa, parando así el proceso por completo. Una hora de reloj estuve así, partiéndome los sesos hasta que di con la tecla (porque el modo manual no funcionaba).
Para que la configuración salga bien a la primera, ve a Ajustes > Red e Internet > WiFi > Preferencias de WiFi y desactiva "Activar WiFi automáticamente". Vuelve a la app, inicia el proceso de nuevo y cuando salga "Enviando mensaje al robot", ve rápido a Ajustes > Red e Internet y conéctate a la red "Conga_XXXXX" (el nombre variará, seguramente). Luego vuelve a la app y dale un par de segundos. Así, y solo así, es como conseguí completar la configuración.
El resto viene solo. Cuando se haya conectado, el robot iniciará una ronda de reconocimiento en modo "Limpieza completa", por lo que se paseará por toda la casa para mapearla. En nuestro caso no la terminó a la primera, así que volvió a la base, se recargó y cuando estuvo al 100% de batería, volvió a la carga y la completó. Como consejo, quita cables y zapatillas con cordones del suelo.
Acabada la primera limpieza, el robot vuelve a la base. Si abres la aplicación, esta te dirá que ha completado el mapa de tu casa y te permitirá modificarlo. Puedes ponerle un nombre, editar las estancias trazando líneas y ponerles un apodo a cada una de ellas. El dispositivo admite hasta cinco mapas diferentes, por lo que si tienes una casa de verano, puedes guardar su estructura y llevarte el robot.
Las armas del Conga 3490 Elite: visor láser, fregado y potencia de succión
Como habrás adivinado por los párrafos anteriores, uno de los argumentos más fuertes del Conga 3490 Elite es su visor láser. Este está situado en el módulo superior y sirve para que el robot, a su manera, "vea". Tiene varias implicaciones, como su buen funcionamiento cuando es de noche ya que no necesita luz para mapear, pero sin duda, donde más lo hemos notado es en el recorrido.
El robot no se ha chocado con una pared ni una sola vez. Cuando va a hacerlo, frena, se gira, y continua con la limpieza siguiendo la línea. Eso es gracias también al sensor infrarrojos de la zona delantera, que usa para medir las distancias con los elementos cercanos. Si tienes escaleras, también te interesará saber que tienes unos sensores luminosos debajo para evitar caerse.
Ahora bien, una cosa a destacar es que no pasa por debajo de cortinas o elementos colgantes. Por ejemplo, si quieres que pase por debajo de la cama tendrás que levantar la colcha, ya que el sensor la interpreta como un obstáculo sólido y hace que el robot pase de largo. También me ha pasado con las cortinas del salón. Al llegar casi al suelo, el robot entiende que hay un obstáculo, de forma que las esquinas de las ventanas ha tocado limpiarlas a mano. Si tus cortinas no llegan al suelo, entonces no habrá problema.
En cuanto a modos, diez opciones. La que más usaremos será el automático, pero se agradece tener la opción "Zona", "Zona restringida" y "Manual". Como se deduce de su nombre, la primera permite que limpie en la porción de casa que decidas; la segunda que no limpie en determinada zona y el manual es como convertir el robot en un coche teledirigido. También es interesante "Deep cleaning", que sirve para que haga dos pasadas.
Yo, que no soporto trabajar con ruido, he utilizado mucho la opción "Zona restringida" para evitar que el robot me molestase mientras trabajaba en el despacho. Posteriormente, al irme a almorzar, activaba el modo "Zona", establecía el despacho y el robot se encargaba de completar la limpieza. Si tienes unos horarios fijos, puedes programar una rutina para que haga todo esto solo.
Para la potencia tenemos tres opciones: eco, normal y turbo. La primera reduce la potencia de succión pero alarga la autonomía, la segunda es la que usaremos más a menudo y la que viene configurada por defecto y la tercera, que usa una presión de 2.300 pascales (300 más que el modelo anterior, que ya era una cifra a tener en cuenta), sirve para limpiezas profundas. Evidentemente, la batería se gasta mucho antes.
Y ahora que hablamos de batería, ahondemos en ella. Aunque el fabricante dice que tiene 150 minutos de autonomía, lo máximo que hemos conseguido nosotros es una duración de 120 minutos. Una limpieza total en modo automático a mi casa tarda 40 minutos aproximadamente, y acabada esta el robot vuelve a la base a recargarse. Para poner a prueba la batería, desenchufamos la base e hicimos todas las limpiezas totales que pudimos. El resultado fue una media de tres limpiezas completas a 40 minutos cada una, unos 120 minutos, 30 minutos menos que los anunciados por el fabricante.
Pasemos a los resultados. A la hora de aspirar, el dispositivo cumple con creces. Es capaz de aspirar elementos pequeños como café, azúcar, migas de pan, pelos de animales y, por supuesto, polvo. Sin embargo, los pelos largos siguen siendo un problema tanto para este como para otros robots de otras marcas. Estos suelen quedarse enredados en el cepillo central y, en más de una ocasión, tocará quitarlos manualmente.
En relación al fregado, cabe destacar que el del robot no es como cuando nosotros pasamos la fregona. Por lo general, cuando fregamos el suelo suele quedar empapado, por lo que el secado es más lento. El Conga no hace eso. Simplemente humedece el suelo, y el resultado es positivo gracias, en gran parte, al scrubbing.
Puede sonar a chino, pero se trata de un movimiento de vaivén que ayuda a que la limpieza sea más precisa. Me explico. Cuando friega, el robot va hacia adelante, se mueve en diagonal hacia un lado, vuelve hacia atrás, repite el movimiento hacia el otro lado, y sigue su curso, repitiendo el ciclo varias veces a lo largo de la limpieza. Es como dibujar una palmera. ¿En qué se traduce esto? En una limpieza más completa, ya que reduce el porcentaje de superficie sin fregar de una sola pasada.
La experiencia es más que satisfactoria. No quita las manchas más incrustadas como podríamos hacer nosotros apretando fuerte la fregona, pero sí elimina manchas de café, de líquidos poco viscosos como el te, charcos de agua o bebidas variadas como Coca Cola o cerveza. Cecotec ha desarrollo un sistema llamado iWater en el que, a través de la aplicación, puedes establecer cuánta agua quieres que use. Como recomendación, el que viene por defecto es el que no has dado mejores resultados en relación limpieza/secado.
Lo que ha conseguido superar el robot, y lo que no
Ya hemos visto que el Conga 3490 Elite no tiene problemas a la hora de barrer o fregar, pero aquí hemos venido a ponerlo a prueba, y eso hemos hecho. En casa tengo algunas alfombras que no uso, pero que he tirado en el salón para la ocasión para ver qué sucede. No han supuesto ningún obstáculo para el robot. La supera con normalidad y continua la limpieza por encima.
En alfombras más gruesas, el robot detecta la superficie y sube la potencia de succión (y el ruido, de paso). Eso reduce ligeramente la autonomía, nada destacable, pero ayuda a que se quede más limpia. Cuando sale de la alfombra, la potencia se reduce a la normal. El modelo anterior nos dejó buenas sensaciones a la hora de limpiar alfombras, y este lo hace también.
Precisamente, otro punto que nos gustó mucho del Conga 3090 y que volvemos a disfrutar en este modelo es la habilidad para regresar a la base y para moverse, en general. Cuando termina su misión o tiene que recargarse, el robot analiza la mejor ruta (después de todo, sabe dónde está) y va directo a la base de carga. Lo mismo cuando hacemos una limpieza puntual con el modo zona. El robot sale, se orienta y va directo al sitio.
La autonomía también nos deja con un buen sabor de boca. Por lo general, el robot tiene batería para 120 minutos de funcionamiento en modo automático, más que suficiente para limpiar mi casa. En casas más grandes dependerá del tamaño, pero no debería suponer mayor problema. Además, el robot sabe por dónde se quedó antes de quedarse sin batería, así que cuando termina de cargarse, vuelve automática al sitio y sigue hasta que termina
Como ves, lo cierto es que el Conga 3490 Elite es un todoterreno, pero no es oro todo lo que reluce. Hay obstáculos que no supera y en mi casa eso es sinónimo del tendedero. A pesar de que estaba ahí cuando el robot mapeo la estancia, el Conga se empeña en pasar por encima de los barrotes de las patas, quedándose atascado. Es una situación bastante cómica, la verdad, pero te obliga a tener que ir en su rescate.
Finalmente, me gustaría destacar que seguimos teniendo problemas con cordones, cables y demás elementos susceptibles de ser aspirados sin razón. Es un problema que vemos repetido en casi todos los robots aspiradores y en el Conga 3490 Elite no iba a ser una excepción. Si tienes muchos cables tirados por casa o usas zapatillas con cordones largos como las típicas Converse, guárdalas a buen recaudo, porque lo mismo el robot se las lleva de paseo por la casa.
Así funciona la app del Conga 3490 Elite
El Conga 3090 era compatible con mando a distancia y el Conga 3490 Elite también lo es, pero no viene incluido en la caja. La única forma de controlarlo es usando la aplicación para móviles. Es bastante sencilla y, salvando que el proceso de configuración es bastante tedioso, cumple su cometido.
La aplicación nos muestra un mapa de nuestra casa con la superficie que se limpió la última vez que el robot se fue de aventura marcada en azul. Así puedes comprobar qué zonas le cuesta más y qué zonas se quedan perfectas. El mapa es muy preciso. De hecho, el único hueco que falta es en mi dormitorio, debajo de la cama, porque hay cajas debajo y el robot no ha detectado que ahí hay superficie.
En cuanto a opciones, podemos pedirle que empiece a limpiar, programar la limpieza (algo que he encontrado sorprendentemente útil), ver un registro de la actividad con la superficie que se ha limpiado en las diferentes salidas y consultar el estado de los desechables (cepillos laterales, mopa, filtro EPA y cepillo central). Desde ella también podemos cambiar los modos, el nivel de potencia y consultar detalles del depósito de agua.
Una cosa que es bastante... seré franco, chula, es que puedes seguir al robot en vivo. El mapa es interactivo, por lo que puedes ver dónde se encuentra el robot en cada momento, cómo va la limpieza, qué zonas convendría repasar o la batería. Sin embargo, lo más curioso fue la primera limpieza de reconocimiento, ya que puedes ver en tiempo real cómo el visor láser va trazando las paredes de la casa.
Como decíamos con el Conga 3090, a la aplicación no se le pueden poner pegas más allá de que seguimos teniendo que estar conectados a la red 2,4 GHz (porque es la que usa el robot). Si tu router emite en la banda de los 5 GHz y es la que usas en tu móvil, tendrás que conectarte a la de 2,4 GHz para poder configurarlo. Convendría mejorar esa parte de los dispositivos, si bien no supone un problema mayor más allá de tener que cambiar de red. Eso sí, una vez configurado puedes volver a conectarte a la 5 GHz o al 4G y controlarlo sin problema.
Otro tema es que uses funciones como el WiFi inteligente de los Livebox de Orange. Con ella, solo aparece una red y el router te conecta a la banda que considere oportuna. De esa forma, tu móvil se conectará a la de los 5 GHz en la mayoría de ocasiones, por lo que puedes encontrarte con un problema en la configuración. Si es tu caso, aquí tienes un tutorial para desactivarlo.
Conga 3290/3490/3690
- Desarrollador: Cecotec
- Precio: Gratis
- Descárgalo en: Google Play
- Descárgalo en: App Store
- Categoría: Herramientas
Conga 3490 Elite: la opinión de Xataka
En pocas palabras, el Conga 3490 Elite nos ha gustado mucho. El nuevo robot aspirador de Cecotec brilla por su visor láser, su capacidad de orientación, su precisión en los movimientos, su autonomía y las diferentes opciones de aspirado y fregado. Durante los días que lo hemos tenido en casa se ha convertido en un buen aliado en el mantenimiento del hogar, gracias, en parte, a que se puede programar para que se active solo.
Evidentemente, ni el Conga 3490 Elite ni ningún robot de limpieza sustituyen (por ahora) a una limpieza manual en profundidad. Sin embargo, es bastante útil para mantener la suciedad típica de los hogares a raya. El polvo o las migas de pan que podemos dejar en el suelo durante las comidas dejan de ser un problema, y se agradece.
Como accesorio de limpieza se comporta perfectamente, pero no está exento de aspectos a mejorar. El más importante y el que más nos ha afectado durante las pruebas es la detección de cortinas, colchas y elementos colgantes. Sería ideal dejar que el robot avance un poco para que detecte que el obstáculo no es sólido y sepa que puede pasar por debajo. También habría la posibilidad de usar la banda 5 GHz del WiFi.
Sea como fuere, algo que caracteriza a los dispositivos de Cecotec es el precio. El Conga 3490 Elite se puede comprar por 399 euros en su página web y en Amazon, con motivo del Prime Day, está a 299 euros. Es un precio mucho más reducido que la gama alta de otras marcas como iRobot, cuyo Roomba i7+ vale 899,99 euros. Se trata de una renovación ligeramente más cara que su antecesor y cuyas mejoras no son tan evidentes, pero es una opción interesante si nos ceñimos a la relación calidad/prestaciones/precio.
Conga 3490 Elite
via Magazine - robotica-e-ia https://ift.tt/2jT2kgs
sábado, 13 de julio de 2019
La robótica crece en el sector de la asistencia personal
via Robótica https://ift.tt/2XMkiyW
viernes, 12 de julio de 2019
Nuevos detalles del robot para el hogar de Amazon apuntan a un asistente con ruedas equipado con Alexa, según Bloomberg
Desde hace más de un año hemos escuchado rumores de que Amazon está trabajando en un robot para el hogar. A día de hoy, los detalles son sumamente escasos y aún no está claro lo que podemos esperar de este misterioso proyecto que prepara la compañía de Jeff Bezos.
En aquel entonces, los rumores apuntaban a un lanzamiento durante la primera mitad de 2010. Hoy, gracias a nueva información de Bloomberg, nos enteramos de que el proyecto lleva algunos retrasos ya que le han añadido nuevas funcionalidades. Además, se trataría de un dispositivo que llegaría a integrarse a la familia Alexa.
Un robot con ruedas para que sea nuestro asistente personal por todo el hogar
Según la información, el robot está siendo desarrollado por Amazon Lab126, la división de investigación y desarrollo con sede en Sunnyvale, California, a donde se han sumado nuevos ingenieros provenientes de otros proyectos para que impulsen la creación del robot.
Hasta ahora es conocido como 'Vesta', se dice que cuenta con ruedas y tienen a Alexa integrada para operarlo a través de la voz. Con esto se confirmaría que el robot formaría parte del ecosistema de Amazon, ya que también tendría soporte de alguna manera a servicios como Prime Video y Prime Music, incluso a poder realizar compras en Amazon.
Hasta el momento no está claro qué tareas podría realizar este robot, y según Bloomberg se trataría de una "Alexa móvil" que rondaría por toda la casa. De acuerdo a los prototipos, se está manejando la opción de un robot de unos 70 centímetros de alto equipado con cámaras con visión computarizada para moverse por todo nuestro hogar.
Nuevo Echo de gama alta para competir contra Sonos
Adicional a la información del robot, Bloomberg también menciona que Amazon está desarrollando un nuevo altavoz Echo, el cual se colocaría como el gama alta de la familia ya que sería de mayor tamaño, mejor calidad de audio y mayor precio.
Según la información, este Echo sería más ancho porque incluiría al menos cuatro tweeters para una mejora en la calidad de audio. La idea de Amazon sería competir contra los dispositivos de Sonos e incluso el HomePod de Apple, ya que a pesar de que el Echo posee el 63% del mercado en Estados Unidos, Sonos ha aumentado su cuota de mercado gracias al Sonos One.
Por otro lado, según Music Business Worldwide, Amazon está pensando lanzar una nueva versión de alta fidelidad para su servicio de música Prime Music, lo cual tendría sentido ahora con el supuesto nuevo Echo.
via Magazine - robotica-e-ia https://ift.tt/2l77dmh
Google admite escuchar el 0,2% de las conversaciones con su asistente virtual
- Las compañías afirman que las interacciones de los usuarios con sus asistentes virtuales solo las escuchan robots
- Tras una filtración a un medio belga, Google admite que usa a expertos para afinar la comprensión de los distintos idiomas
Leer la noticia completa
via Ciencia y tecnología en rtve.es https://ift.tt/2XHdFCW
Google admite escuchar el 0,2% de las conversaciones con su asistente virtual
via Tecnología https://ift.tt/2XIGNEP
Google admite escuchar el 0,2% de las conversaciones con su asistente virtual
via Tecnología // elmundo https://ift.tt/2XX6aXB
¿Seremos mascotas de la IA?
via Robótica https://ift.tt/2SkhXu9
miércoles, 10 de julio de 2019
Estos pequeños robots-hormiga pueden saltar, comunicarse y coordinarse para mover objetos mucho más pesados que ellos mismos
¿Para qué sirve un robot como el de la foto? Si cogemos uno solo, no tardaríamos mucho en reconocer que sirven de poco. Son cacharros simples, torpes, diminutos, incapaces de hacer nada más que moverse de un lado para el otro. Y, sin embargo, si juntamos un buen número de ellos son capaces de cosas increíbles.
Hoy la Ecole Polytechnique Fédérale de Lausanne acaba de presentar unos pequeños robots-hormiga cuyo principal superpoder es comunicarse y actuar colectivamente. Gracias a ello, pueden detectar y superar obstáculos rápidamente y mover objetos mucho más grandes y pesados que ellos mismos. Parece que en robótica también es verdad eso de que la unión, hace la fuerza.
Hormigas mecanizadas
El equipo de la EPFL lleva tiempo trabajando en la creación de pequeños robots que, coordinados, puedan ayudar en situaciones prácticas como la búsquedas de personas tras un terremoto. Aún están en una fase muy preliminar, pero este trabajo muestra que, más allá de la ciencia ficción, podemos inspirarnos en los comportamientos animales para construir herramientas poderosas.
Aunque estructuralmente, estos sencillos robots (llamados 'tribots') están inspirados en una figura de origami con la idea de que sean fáciles de producir en masa, están programados para comportarse como hormigas. Eso permite que pese a ser muy sencillos, puedan coordinarse (gracias a sensores infrarrojos y de proximidad) para hacer cosas sorprendentes.
Esta comunicación es clave porque permite que cada uno de los robots asuma un rol distinto en el grupo dependiendo de la situación. Podemos encontrar desde los 'exploradores' que detectan obstáculos físicos en el camino a los 'líderes' que dan las instrucciones al resto. También tenemos, claro, a los robots 'trabajadores' que se coordinan para seguir las instrucciones y mover los objetos que se encuentran en el camino.
"Cada Tribot, al igual que las hormigas [en las que están inspiradas], puede tener diferentes roles. Sin embargo, también pueden asumir nuevos roles instantáneamente cuando se enfrentan a una nueva misión, un entorno desconocido o incluso cuando otros miembros se pierden. Esto va más allá de lo que las hormigas reales pueden hacer ", explicaba Jamie Paik, directora del laboratorio robótico que los ha diseñado.
via Magazine - robotica-e-ia https://ift.tt/2XyOmCS