viernes, 30 de octubre de 2020

Una cámara controlada por inteligencia artificial confunde la cabeza de un árbitro calvo con el balón y fastidia la emisión de un partido

Una cámara controlada por inteligencia artificial confunde la cabeza de un árbitro calvo con el balón y fastidia la emisión de un partido

La inteligencia artificial, el reconocimiento de objetos y otros avances ha permitido que las grabaciones mejoren y se automaticen, pero a veces los falsos positivos pueden parecer una broma. Broma de mal gusto para quienes quisieron ver un partido del pasado fin de semana en el que la AI confundió la cabeza de un juez de línea con el balón, de modo que el árbitro acabó siendo el protagonista.

Se trata de un encuentro en casa del Inverness Caledonian Thistle FC, un equipo escocés de fútbol que hace unas semanas anunciaba que instalaría un sistema en el que las cámaras no requerirían personal humano para encargarse de la grabación de los encuentros, ya que gracias a la AI dispondrían de "ball-tracking" (es decir, rastreo del balón). Como propuesta es innovadora, pero parece que la AI no estaba entrenada para diferenciar el balón de otros objetos parecidos.

Una IA fuera de juego

La detección de objetos mediante cámaras está en un estado avanzado, viendo que incluso Google la puso al alcance de cualquiera entrenando a su IA. No es siempre efectiva al 100%, pero ya es algo utilizado de manera habitual (por ejemplo, en el enfoque por rastreo en los vídeos de móviles).

Claro, que por muy integradas que estén estas funciones puede que no nos esperásemos un fallo así, sobre todo hablando de un sistema para cámaras más avanzadas. El sistema Pixellot del Caledonian consideró que el protagonista era el balón, sí, pero "entendió" que éste era el cráneo de un árbitro calvo y es lo que acabó siendo el centro de atención de las cámaras como podéis ver en el siguiente vídeo.

Esto es algo bastante cómico, si bien a los seguidores no les hizo tanta gracia porque la emisión se centró precisamente en el juez de línea y no era lo esperado, lógicamente. Los planos dejaron de lado un gol y muchas jugadas que los aficionados al equipo no pudieron ver, en un periodo en el que no se permite la asistencia al campo de juego y los enfrentamientos se han de ver de manera remota por el COVID-19.

Habrá que ver si el equipo actualiza el sistema, pero desde luego mientras tanto tendrán que aplicar alguna solución transitoria, quizás que los presentes en el terreno de juego lleven gorro si es que su cabeza puede confundirse por un balón por la IA. Desde luego, en este caso no ha funcionado lo de sustituir a los seres humanos por máquinas.



via Robótica e IA - Xataka https://ift.tt/2HN2AcE

lunes, 26 de octubre de 2020

El perro robot Spot tiene un nuevo trabajo: vigilar y medir la radiación en la zona de exclusión de Chernóbil

El perro robot Spot tiene un nuevo trabajo: vigilar y medir la radiación en la zona de exclusión de Chernóbil

Spot, el perro robot de Boston Dynamics ha demostrado en numerosas ocasiones sus capacidades. Lo hemos visto vigilando parques, haciendo de granjero o hasta bailando en un estadio. Como bien indicaron sus creadores, la idea es que sea utilizado para llegar allá donde el humano no puede hacerlo o es peligroso. ¿Qué mejor ejemplo que una zona radioactiva? Es el último lugar donde se ha visto a un Spot recientemente, merodeando la zona de exclusión de Chernóbil en Ucrania.

Un grupo de investigadores de la Universidad de Bristol en colaboración con la Agencia Estatal para la Gestión de Zonas de Exclusión de Ucrania han realizado esta tarea. La idea era probar diferentes robots, drones y otros artefactos que pudiesen moverse por la zona radiactiva cerca de la central nuclear de Chernóbil. Tras experimentar con varios dispositivos, el perro robot Spot de Boston Dynamics parece haber sido el elegido por su agilidad para moverse por diferentes terrenos.

Spot

Patrullando áreas radiactivas

Según indica el medio ucraniano Ukrinform, durante las pruebas se realizaron diferentes medidas para evaluar la distribución de materiales radiactivos en la zona y en el espacio. Se llevaron a cabo estas medidas en dos sectores donde se almacena temporalmente desechos radiactivos y en dos vertederos de desechos radiactivos de la zona.

Gracias a los sensores que tiene Spot y a los que se le añadió, los investigadores podrán tener un mapa 3D actualizado de las zonas donde el robot patrulló. Con esto se podrá saber con más certeza y de forma actualizada cuáles son los niveles de radiación exactos en cada lugar.

La prueba de fuego para Spot sería entrar en la zona altamente radiactiva. La historia nos dice que los robots no se llevan muy bien con la radiactividad, uno enviado precisamente a Chernóbil murió casi al instante. Más recientemente en Fukushima se probó con distintos robots también, lo consiguen a duras penas.

Spot, que cuesta unos 75.000 dólares, de momento parece ser que se mantendrá en zonas relativamente seguras para él. En todo caso, es mucho más viable utilizar al robot que enviar personas a realizar las mediciones de radiactividad del área. Y pocos robots pueden presumir de hacer mejor su trabajo ahora mismo que Spot.

Vía | Defence Blog y Ukrinform



via Robótica e IA - Xataka https://ift.tt/31GsDZK

sábado, 24 de octubre de 2020

Esta libélula robot de 1 gramo de peso fue diseñada por la CIA como dispositivo de espionaje en la década de los 70

Esta libélula robot de 1 gramo de peso fue diseñada por la CIA como dispositivo de espionaje en la década de los 70

La CIA estadounidense es una de esas instituciones que tiene todo un tesoro tecnológico en su historial. A medida que pasan los años van desclasificando archivos y parte de esta tecnología. Esto nos permite muchas veces sorprendernos con sus capacidades e ingenio poniendo en contexto las cosas. Un ejemplo de ello es el "insectocoptero" que crearon en la década de los 70, una libélula robot que espiaba y se comunicaba mediante retroreflectores. Toda una obra de ingeniería para la época.

En el propio museo de la CIA en Washington se encuentra esta libélula robot junto multitud de otros dispositivos creados en la época. Dispositivos que van desde palomas con cámaras hasta excrementos de tigre que registraban movimientos de tropas. Si bien la libélula fue conocida desde 2003 cuando apareció por primera vez en público, ha sido recientemente cuando han salido muchísimos detalles a la luz sobre ella gracias un documento de 28 páginas oficial.

50 años atrás el espiar mediante micrófonos ocultos era lo último en tecnología de espionaje. El problema de este método es que hay que estar presente en el lugar para poder capturar el sonido. La CIA encontró un método ingenioso para escuchar remotamente, los retrorreflectores. Esos vidrios permite reflejar la luz láser emitida por una fuente y así detectar cualquier vibración que altere el reflejo. Las vibraciones generadas por el sonido en los vidrios eran fácilmente detectables, por lo que analizándolas uno podía decodificar de qué se estaba hablando alrededor. Nada complejo hasta aquí, pero había que colocar esos retrorreflecotres en el lugar objetivo.

Screenshot

El ingenio para hacer volar una libélula robot (y por qué una libélula)

Una de las ideas que tuvo la CIA para llevar vidrios retrorreflectores a los lugares objetivo sin ser detectados era utilizando insectos. Insectos robot que pudiesen ser controlados por ellos para acabar justo en el punto adecuado. Tras probar con diferentes ideas como las abejas, finalmente se decantaron por las libélulas gracias a la estabilidad de vuelo que tienen. Las libélulas, por su vuelo, son capaces de flotar en el aire, planear e incluso volar hacia atrás. Esto hace que sea mucho más fácil para el humano imitar su vuelo. Además, es un insecto común en todo el mundo, por lo que podía pasar desapercibido.

Replicar el aleteo de una libélula, que alcanza 1.800 aleteos por minuto, no es algo realmente sencillo. Para lograrlo los científicos utilizaron un oscilador fluídico, este no tiene partes móviles y se impulsa sólo por gas producido por cristales de nitrato de litio. A pesar de ello, no fue suficiente para que llevase una carga útil de 0,2 gramos como se requería (los vidrios retrorreflectores). Lo que hicieron los ingenieros de la CIA fue colocar un propulsor adicional en al parte trasera, esencialmente una propulsión a chorro para un dispositivo de apenas 6 centímetros de largo.

Mjk5ody2oa 1 1581018635

Ahora que la libélula robot ya podía volar con la carga útil había que encontrar cómo hacerla volar donde se desease. Nada de control remoto por radio, no se podía añadir más peso a la libélula. En su lugar decidieron utilizar los propios retrorreflectores ya incorporados también para controlar el insecto. Un rayo láser infrarrojo y por lo tanto no visible al ojo humano apuntaba a la libélula durante el vuelo. El láser calentaba una tira bimetálica que permitía abrir o cerrar la propulsión del insecto. Además otro láser dirigía a duras penas el insecto hacia su destino.

Por sorprendente que parezca, funcionaba. El insecto robot era capaz de volar unos 200 metros de distancia con una autonomía de unos 60 segundos (a día de hoy hay algunos que ya vuelan sin batería). Más que suficiente para llegar al objetivo y dejar caer su carga util, esos preciados vidrios retrorreflectores. También era una misión suicida, ya que no había forma de hacer a la libélula robot volver.

Ideal en la teoría, no tanto en la práctica

Si bien es cierto que la libélula pudo demostrar su funcionamiento, nunca llegó a utilizarse en misiones reales según la CIA. En la teoría, en el laboratorio, la libélula volaba correctamente. El problema es que en el laboratorio el vuelo era en un túnel de viento estable y con un entorno controlado. La práctica, en el mundo real, implica un entorno en el que cualquier brisa puede desviar y perder el insecto robot. Esto es un importante problema si tenemos en cuenta que se controla con alguien apuntando constantemente con un láser a él.

High Res 1581016141

Según la CIA nunca llegaron a utilizar la libélula en una misión real. El proyecto entero costó unos 140.000 millones de dólares (por inflación eso es mucho más correspondiente a la actualidad) pero al no acabar utilizándose finalmente se cerró. Nos queda ahora la historia y el hecho de ser otro proyecto que se inspira en la naturaleza para imitarla con tecnología.

Más información | CIA y The Black Vault



via Robótica e IA - Xataka https://ift.tt/2FTlv4u

jueves, 22 de octubre de 2020

El auge del «low code»: otra forma de crear aplicaciones para empresas

La compañía estadounidense Appian, que cotiza en el Nasdaq, tiene claro su objetivo: cambiar la manera en la que crece el ecosistema digital. El servicio, que este año concretó la adquisición de una empresa sevillana Novayre Solutions, apuesta por un desarrollo diferente en la creación de plataformas empresariales destinada a completar la ansiada transformación digital de las compañías. Su principal modelo es el llamado «low code», como se conoce técnicamente a una plataforma de desarrollo de código bajo. Es un enfoque diferencial que propone instaurar un software que proporciona un entorno de desarrollo utilizado para crear servicios de aplicación a través de una interfaz de usuario gráfica en lugar de la programación tradicional codificada a mano. El objetivo es agilizar procesos y llevarlo al alcance de todos independientemente del nivel. Uno de sus precursores es Appian, que celebró esta semana su congreso anual europeo. Durante las conferencias, los expertos evidenciaron la relevancia del «low code», que considera una tendencia en el desarrollo de aplicaciones. La idea es que utiliza componentes preconstruidos para ahorrar tiempo y dinero, ya que, por lo general, según insistieron, prácticamente el 80% del código es reutilizable, con lo que sólo hace falta añadir ese 20% restante. Así, señalaron los expertos, se consigue «pasar de prácticamente un año de desarrollo a sólo ocho semanas». Además, para ese 20% restante, no hace falta un ingeniero, sino «sólo una persona con un entrenamiento básico». En cuanto a la automatización, se produce gracias a los sistemas de Automatización robótica de procesos (RPA, por sus siglas en inglés) de la empresa sevillana Novaire, que adquirió Appian el año pasado. Esta época de Covid-19 ha influido muchas empresas, que han tenido que recurrir al «low code» para acelerar su transformación digital y el trabajo en remoto. Una clara prueba de ello ha sido el éxito que han tenido las dos aplicaciones que Appian ha lanzado en los dos últimos meses, «Covid-19 Response Management» y «Covid-19 Workforce Safety Solution». Medias anticoronavirus Ambas enfocadas en ayudar a las empresas a controlar el contagio del coronavirus entre sus empleados y lograr un regreso de la oficina más seguro. ¿Cómo? Mediante sistemas de registro («check-in») y la trazabilidad de los contactos de los contagiados. Matt Calkins, consejero delegado de Appian, éstos han sido los productos de venta más rápida de su historia. «Estas dos aplicaciones suponen un cambio en el modelo de negocio de Appian al percatarse de que, ante una emergencia como la actual, las empresas necesitan algo más que una plataforma de low code, sino una aplicación prácticamente acabada que se pueda adaptar de forma sencilla a cada cliente», añade. En esa misma línea, Michael Beckley, director de tecnología de Appian, estas dos aplicaciones se tratan de aceleradores para las empresas que necesitan una solución prácticamente inmediata. Siguiendo la misma estrategia han aprovechado el congreso para anunciar «Connected claims», una serie de aplicaciones en «low code», que están interconectadas permitirán a las aseguradoras agilizar los trámites de cualquier reclamación, sin necesidad de migrar sus datos a otro sistema, acelerando y abaratando los costes del proceso. Un producto que se puede implementar en escasas semanas, ya que no cambia los sistemas que la aseguradora ya tiene. Fuentes de Appian sostienen que el incremento del valor de los gigantes tecnológicos en Estados Unidos de 3,3 billones de dólares americanos este año, mayor que el PIB de Inglaterra, acabará colapsando, debido al desequilibrio de poder entre ellas y sus clientes, a los que obligan a migrar sus datos a su nube, perdiendo parte del control. Según sostiene Calkins, las empresas se van a dar cuenta de que no es factible utilizar sólo una plataforma, sino que es necesario combinar varias al mismo tiempo. El servicio es compatible con todas las «nubes» y actúa como conector entre ellas, sin tener que utilizar las bases de datos de sus clientes. La automatización usando «low code» es una de las grandes apuestas de Appian de los últimos dos años. Y gracias a la última actualización, ya no sólo se pueden crear procesos «RPA» con «low code», sino también los robots. Lo que supone un gran paso en la democratización de la automatización, que queda accesible a todo el mundo, y no sólo los desarrolladores. Además, gracias a la inteligencia artificial, estos «bots» son capaces de adaptarse mejor a los cambios en los procesos, demostrando una mayor resiliencia. «Los RPA y la automatización será la industria más emocionante en los próximos años», apunta Calkins. «La frase de, todo el mundo debería de tener un bot, debería de cambiar, por la de todo el mundo debería de tener un ejército de bots», agrega Beckley. Entre los nuevos clientes de Appian en España, destaca Bankia, que junto a Banco Santander y Deloitte, son algunos de los mayores casos de éxito en España. Deloitte que ha implementado RPA en más de 100 procesos internos, ha experimentado ya 100.000 euros en ahorros en costes. Gracias este crecimiento, España es uno de los mercados principales de Appian, donde siguen reclutando talento y aumentando el número de empleados.

via Tecnología https://ift.tt/2HmZJ9V

miércoles, 21 de octubre de 2020

Spot de Boston Dynamics ahora tiene un brazo robótico y una base de carga que llegarán el próximo año

Spot de Boston Dynamics ahora tiene un brazo robótico y una base de carga que llegarán el próximo año

A lo largo de los últimos años el perro robot de Boston Dynamics ha evolucionado en capacidades y funcionalidades. El resultado de todo esto ha sido su puesta a la venta hace un año por precio de alrededor de los 75.000 dólares (accesorios aparte). Pero no significa que no vayamos a ver más mejoras, la compañía ha anunciado la futura llegada de un brazo robótico y una base de carga para Spot.

En el evento Collision from Home celebrado recientemente el fundador de Boston Dynamics ha dado la noticia. Según indica TechCrunch, llegará el brazo robótico en unos meses. Así mismo, están preparando una base de carga a la que el robot puede ir por si sólo mientras descansa para recargar su batería. Serán accesorios externos que se podrán comprar junto al robot en sí.

Spot salió a la venta para empresas determinadas en septiembre de 2019. Posteriormente, en junio de este año llegó para todas las empresas que deseasen hacerse con uno de ellos. Indican desde Boston Dynamics que hasta la fecha ya han vendido más de 250 unidades.

La destreza de Spot con un brazo robótico

Según ha indicado el fundador de Boston Dynamics, llevan un tiempo probando prototipos de este brazo robótico, aunque no ha sido hasta ahora que han creado una versión definitiva. Y es cierto, desde los primeros prototipos de Spot lo vimos con un brazo robótico y recientemente mostraron cómo de util puede ser este brazo para tareas del hogar.

"Realmente abre amplios horizontes sobre las cosas que pueden hacer los robots" asegura el fundador de la compañía. El brazo, que ofrece seis grados de movilidad, puede abrir puertas o recoger objetos. Al igual que el resto de accesorios de Spot, no se limita a eso sino que incluye una Ia que le ayude a aprender cómo mejorar sus habilidades y una interfaz para el humano que le permita controlarlo de forma intuitiva.

Además del brazo robótico, Boston Dynamics ha anunciado que pondrán a la venta pronto una base de carga. Aquí no hay mucho misterio, la base de carga se queda fija en un lugar y el perro acude a ella cuando necesita recargar energías. Lo hace de forma autónoma y simplemente se acuesta sobre ella para comenzar a cargarse. En cierto modo es lo que hace prácticamente cualquier aspiradora robot actualmente, pero con la gracia de un perro sentándose.

Vía | TechCrunch



via Robótica e IA - Xataka https://ift.tt/3oeMbhG

martes, 20 de octubre de 2020

Verizon se apoya en Microsoft Azure y en Nokia para llevar sus redes 5G a clientes empresariales internacionales

Verizon se apoya en Microsoft Azure y en Nokia para llevar sus redes 5G a clientes empresariales internacionales

Verizon ha anunciado dos acuerdos que le permitirán ofrecer sus redes 5G privadas a empresas del sector industrial de muchos países de Europa, América y Asia. Concretamente, la operadora estadounidense tiene en su objetivo a las empresas globales encargadas de fabricación "inteligente" o conectada, firmas de empaquetado o compañías que realizan sus tareas de fabricación de forma remota y que lo hacen usando aplicaciones de inteligencia artificial y realidad virtual entre otras.

Estas dos acuerdas están relacionadas con la estrategia de mercado de Verizon en su oferta 5G. Una es con Microsoft para ofrecer redes privadas 5G con Azure, que sean más rápidas que las actuales, a clientes empresariales. Y otro acuerdo es con Nokia y le permitirá alcanzar a clientes fuera de Estados Unidos usando las redes de la empresa finlandesa en Europa y en Asia, en países en los que el operador norteamericano no tiene presencia.

De acuerdo con la información aportada por Verizon, el trato acordado con Microsoft llevará al operador a usar las herramientas de Azure Edge y en la nube de la firma de Redmond. Dicen las empresas que la unión de sus capacidades les permitirá ofrecer una plataforma 5G Edge de Verizon más rápida que la que existe en la actualidad ya que tendrá una latencia ultrabaja. Esta quiere usarse para acelerar el proceso de entrega y análisis de datos dentro de un entorno empresarial.

Esta nueva red 5G Edge busca enfocarse en clientes empresariales de sectores como el comercio minorista, el transporte, la logística y de la salud. Muchas de estas empresas utilizan, para realizar sus tareas de una forma más eficiente, aplicaciones de realidad aumentada o virtual, herramientas de visión artificial o de machine learning, entre otras y la unión de Microsoft Azure y Verizon busca crear una red donde la información llegue a compartirse a tiempo real entre esas herramientas.

No hay que olvidar que cuando Verizon y Microsoft hablan de un enfoque en Edge Computing se refieren a la idea en la que se está trabajando en los últimos años que busca aportar más autonomía a los dispositivos que se usan en entornos industriales. Es decir, que los terminales conectados al Internet de las Cosas sean más independientes e inteligentes a la hora de procesar todos esos datos que recopilan en el día a día.

El primer cliente, y el único por el momento, de esta unión de fuerzas es la empresa de soluciones de logística y de cadena de suministro Ice Mobility que está usando la plataforma 5G Edge de Verizon basada en Microsoft Azure para "ayudar con el empaque de productos asistido por visión artificial".

Así, los dispositivos que Ice Mobility tiene en sus instalaciones van recopilando información y, como esta se procesa más rápido, se busca que pueda reportar errores en el empaque producto cuanto antes para corregir el problema.

Con Nokia, Verizon pretende llevar su 5G privado a más mercados de Europa y de Asia

Además del acuerdo con Microsoft, Verizon ha anunciado una colaboración con Nokia que llevará la plataforma 5G privada creada para el sector industrial por Verizon al panorama internacional: su objetivo son "empresas globales ubicadas en Europa y la región de Asia-Pacífico".

Verizon y Nokia hablan de este servicio como una red 5G privada que consideran que puede beneficiar a compañías que tienen instalaciones de fabricación, distribución y logística, ayudándolas a "implementar una red móvil personalizada y evitándoles la necesidad de transmitir datos a través de redes públicas".

De acuerdo con Verizon "una red 5G privada es una red autónoma cuyos componentes residen todos en una sola instalación, que consta de micro torres y celdas pequeñas y que se conecta tanto a la red de área local (LAN) de una organización como a aplicaciones empresariales".

La red 5G de Verizon usará la tecnología Digital Automation Cloud de Nokia, un red inalámbrica privada creada para el sector industrial creada para gestionar y procesar datos de aplicaciones en tiempo real para ayudar en entornos de fábricas inteligentes, mantenimiento predictivo y gestión de operaciones de forma remota.



via Robótica e IA - Xataka https://ift.tt/34bflWS

Una IA de Facebook es capaz de traducir entre 100 idiomas distintos y sin tener que pasar por el inglés

Una IA de Facebook es capaz de traducir entre 100 idiomas distintos y sin tener que pasar por el inglés

Poco a poco la traducción entre diferentes idiomas es más acertada por parte de los ordenadores con interesantes opciones como Google Translate o DeepL. Esto ya no es tanto por el significado literal de cada palabra sino por el contexto en el que se encuentran las oraciones y fragmentos de texto a traducir. Facebook busca colaborar en este ámbito también y para ello ha desarrollado una inteligencia artificial que entiende 100 idiomas distintos. A diferencia de Google Translate u otros, no necesita pasos intermedios como traducir al inglés.

La inteligencia artificial llamada M2M-100 de Facebook puede traducir entre cualquier par de los 100 idiomas con los que ha sido entrenada. Por ahora su uso va a estar limitado a la investigación y el modelo de hecho pasa a ser de código abierto. En un futuro, si sigue mejorando, buscarán implementarlo en productos de Facebook.

Más directo para evitar la pérdida de contexto

A la hora de desarrollar este potente traductor Facebook decidió tomar un camino algo distinto al tradicional. Debido a la dificultad que supone entender el significado y contexto de tantos idiomas, normalmente se pasa por uno intermediario del que sea más fácil traducir, este suele ser el inglés. En este caso es diferente, la IA de Facebook traduce directo de un idioma a otro aunque ninguno de los dos sea el inglés. Dicen que así se puede perder menos significado en el proceso de traducción al ser más directo.

Google Translate u otros traductores normalmente primero traducen un texto al inglés si es algo más complejo. Por ejemplo si queremos traducir este artículo del español al vietnamita lo más probable es que el traductor primero lo traduzca al inglés y el resultado lo traduzca al vietnamita, enseñándole al usuario directamente el resultado final. ¿Por qué? Porque puede hacer asociaciones entre el inglés y el español y el inglés y el vietnamita más fácil que entre el español y el vietnamita.

Screenshot 1

Los investigadores de Facebook entrenaron a M2M-100 con un total de 7.500 millones de pares de oraciones extraídas a lo largo y ancho de Internet. Una herramienta externa identificó el idioma de cada oración y posteriormente las clasificó. A partir de ahí una herramienta de Facebook se puso a emparejar oraciones para hacer coincidirlas por su significado.

Para el emparejamiento el programa agrupaba idiomas que tenían más posibilidades de requerir una traducción entre ellos. Factores como la región geográfica, las similitudes lingüísticas o el valor histórico fueron decisivos. Por ejemplo tenía más sentido emparejar y buscar similitudes entre español y catalán que español y maorí, porque es mucho más probable que los usuarios quieran traducir entre catalán y español que entre español y maorí.

En principio este nuevo traductor de Facebook debería devolver resultados más rápidos y sobre todo más precisos en la traducción. Lo sabremos con el tiempo, si finalmente llega a productos finales para el consumidor.

Vía | VentureBeat
Más información | Facebook



via Robótica e IA - Xataka https://ift.tt/3m4l6vu

viernes, 16 de octubre de 2020

¿Qué sucede cuando Google Duplex conversa con otro ChatBot?

Google Duplex es el asistente virtual creado con inteligencia artificial que te permite realizar tareas muy simples con tu dispositivo móvil. La intención es pasar de lo simple a lo complejo, lo que significa que la empresa trabaja arduamente para hacer que este asistente no se enfoque solo en ciertas tareas únicas sino en una gran cantidad de cosas.

Recientemente, Google Duplex  fue puesto a prueba colocando dos grabaciones de llamadas a interactuar entre ellas, el resultado fue algo escalofriante, pero a su vez impactante. Tanto así que es difícil distinguir si se trata de máquinas o de personas vivas.

Google Duplex conversa con otro ChatBot

Hace poco Google realizó una prueba en la que puso a funcionar dos Google Duplex para que llamara al asistente virtual de PolyAI. El asistente de PolyAI pertenece a una peluquería mientras el otro a Google. La idea es que uno de los bots hiciera una llamada de teléfono y creara una reservación para realizarse un corte de cabello.

La IA efectivamente hizo la reservación pero con una voz increíblemente humana, y luego envió una notificación de confirmación. Sin dunda esto es un gran avance pero se en conjunto se llegó a un acuerdo para que estos asistentes dijeran ser robots antes de tener que chatear con un ser humano.

Si quieres escuchar la conversación puedes hacerlo aquí.

Ante este ejemplo de avance tecnológico Nikola Mrkšić, cofundador y director ejecutivo de PolyAI dijo:

“Hasta donde sabemos, esta es la primera conversación que ocurre naturalmente entre asistentes de voz de IA en la naturaleza. Nunca había visto algo como esto antes, y estoy increíblemente orgulloso de que PolyAI esté compartiendo este momento en la historia de la informática con nuestros amigos de Google”.

Nikola Mrkšić afirma haber quedado sorprendido por el realismo que ofrece el asistente de Google y admite que este sin duda es mucho más humano. Google afirma que los seres humanos tienden a ser más positivos cuando sienten que hablan con robots más humanizados hasta cierto punto. Sin embargo, no cabe duda que esta interacción puede asustar a más de uno.

La entrada ¿Qué sucede cuando Google Duplex conversa con otro ChatBot? se publicó primero en IntelDig.



via IntelDig https://ift.tt/3dxGxlJ

jueves, 15 de octubre de 2020

Mineral es el proyecto de Alphabet para "producir más comida en los próximos 50 años que en los 10.000 anteriores"

Mineral es el proyecto de Alphabet para

Alphabet ya no se mete en tantos proyectos locos (o geniales) últimamente, pero de cuando en cuando nos sorprende con ideas llamativas. Es lo que ha ocurrido con Mineral, un proyecto que sale de su misterioso laboratorio X que tiene como objetivo aplicar las ventajas de la inteligencia artificial a la agricultura.

Los responsables del laboratorio X anunciaban esta semana el despegue definitivo de Mineral, ese proyecto de "agricultura computacional" que se hace realidad tras años de desarrollo de prototipos hardware y software para tratar de revolucionar la agricultura.

Bienvenidos a la agricultura computacional

Entre las herramientas que proponen para impulsar la agricultura con la ayuda de sistemas de inteligencia artificial está un curioso robot en forma de "buggy".

Buggy

Ese singular vehículo de cuatro ruedas está alimentado por paneles solares y va recorriendo los cultivos para analizar el estado de las plantas gracias a una serie de cámaras y sensores, y con la ayuda de imágenes de satélite y datos del terreno y de la meteorología se pueden identificar patrones y ayudar al agricultor a evitar problemas o mejorar la producción. Al menos esa es la idea.

De hecho una de las promesas de esta tecnología es la de plantear una solución mucho más fina a la hora de tratar la producción agrícola. Por ejemplo, estos sistemas pueden ayudar a detectar qué zonas del campo o qué grupo de plantas necesitan la aplicación de pesticidas por su situación, algo que puede además evitar los efectos colaterales del uso de esos productos.

Fewvxz

Según los responsables de Mineral, hay una necesidad enorme de mejorar que la agricultura sea más sostenible y productiva, y de hecho aseguran que será necesario "producir más comida en los próximos 50 años que en los 10.000 anteriores" incluso teniendo en cuenta el peligro del cambio climático.

La propuesta de Mineral no es tan llamativa como la que por ejemplo ofrecía Waymo, pero su impacto puede ser mucho mayor aunque acabe llegando más tarde. El proyecto está ya en marcha en varias regiones de Estados Unidos, Argentina, Canadá o Sudáfrica, y aunque puede que tardemos algún tiempo en conocer sus progresos, la idea de Alphabet y de su laboratorio X es desde luego llamativa.

Vía | Engadget
Más información | Mineral | Blog X



via Robótica e IA - Xataka https://ift.tt/3lSzFlE

miércoles, 7 de octubre de 2020

Cómo los robots pueden ayudar a la salud mental de los profesionales sanitarios

La pandemia de COVID-19 ha generado el año más estresante de la historia y ha afectado negativamente la salud mental del 78% de la población activa mundial.

from RSS de lo último publicado en 'Computing España' https://ift.tt/34Nqmgj
via IFTTT

sábado, 3 de octubre de 2020

Los «bots» que difunden mensajes antivacunas tienen un escaso impacto en Twitter

Regular, intervenir o dejar pasar. El debate de las redes sociales es pegajoso como la plastilina barata. ¿Qué hacer para reducir la desinformación? Y el camino es empedrado. Porque si meten la mano pueden atentar contra la libertad de expresión. Odiar no es delito. Pero si no hacen tampoco nada pueden convertirse en un guirigai de narices. Los usuarios de Twitter, en cambio, han sabido contener a los «bots» que inundan de mensajes de antivacunas. Una investigación de American Public Health Association rescatada por «The Guardian» concluye que los perfiles administrados por «bots» -software automatizado- tienen un «éxito limitado» en la difusión de mensajes contra la vacunación. Un estudio de millones de publicaciones ha encontrado que los usuarios rara vez «retuitean» información errónea sobre este área. El informe, que pretendió entender el comportamiento de los «bots» y los usuarios provocadores («trolls») en la promoción de contenido de salud en internet, ha estado dirigido por el profesor de la Universidad de Sydney, Adam Dunn. En su opinión, a pesar de la creciente preocupación por la influencia de los mensajes amplificados en Twitter a la hora de difundir información errónea, este tipo mensajes parecían ineficaces a la hora de influir en el discurso aceptado por la comunidad científica sobre la importancia de la vacunación en la protección de las sociedades avanzadas. Los autores de la investigación, sin embargo, concluyeron que «la información errónea y la desinformación relacionados con la salud se propagan en las redes sociales, lo que representa una amenaza para la salud pública». Un asunto peliagudo que ha forzado a las empresas de medios de sociales a establecer filtros y medidas de contención para reducir la presencia de estas publicación, no sin generar un ácido debate sobre la posible censura en internet. «Las cuentas que se hacen pasar por usuarios legítimos crean una falsa creencia, erosionando el consenso público sobre la vacunación», lamentan los autores. El equipo de investigadores analizó el comportamiento de una muestra de 53.188 usuarios activos de Twitter seleccionados al azar en los Estados Unidos, que difundieron más de 20 millones de «tuits» relacionados con vacunas publicados por cuentas operadas por humanos y operadas por robots entre enero de 2017 y diciembre de 2019. Hallaron que un usuario medio recibió un promedio de 757 publicaciones relacionadas con vacunas y 27 publicaciones críticas con la vacunación. Pero menos del 0,5% de esos mensajes críticos originados por «bots» encontró respaldo de los usuarios, según el estudio. Ahí, los usuarios se mostraban más propensos a «retuitear» contenido sobre teorías de antivacunación que llegaba de otro tipo de usuarios. «La proliferación de este contenido tiene consecuencias: la exposición a información negativa sobre las vacunas se asocia con un aumento de las dudas y el retraso de las vacunas. Los padres que dudan sobre las vacunas son más propensos a recurrir a internet en busca de información pero es menos probable que confíen en expertos de en salud pública», subrayan. El estudio estableció una relación entre la presencia de «bots» en Twitter (que según diversos estudios representa el 15% de la masa de usuarios de la plataforma) y su número de seguidores, muchas veces escaso. «Existe la suposición de que cuantos más “bots” publiquen, más impacto tendrán, pero no es cierto si no se mide lo que le llega a las personas», señala Dunn. «Es posible que nunca se vean miles de mensajes si esas cuentas no tienen seguidores humanos. Si solo se analizan los bots no se está midiendo el posible impacto».

via Tecnología https://ift.tt/3neNmNh

viernes, 2 de octubre de 2020

Los historiadores quieren que se pare la moda del coloreado, suavizado y upscaling de vídeos del pasado a 4K

Los historiadores quieren que se pare la moda del coloreado, suavizado y upscaling de vídeos del pasado a 4K

Dejad el pasado como está. Es básicamente lo que defienden algunos historiadores, que han denunciado que los procesos que permiten mejorar los vídeos y fotografías antiguas para mostrarlos en color y con mayor definición y resolución no tienen sentido.

Esos procesos se han hecho famosos gracias a los sistemas de inteligencia artificial que han permitido disfrutar de unos vídeos restaurados en 4K que para muchos son una verdadera maravilla pero que a los historiadores no les gustan nada.

Estos procesos son "un sinsetido" para algunos historiadores

Denis Shiryaev es uno de los referentes en este tipo de procesos. Su canal de YouTube está lleno de ejemplos alucinantes de antiquísimos vídeos que gracias al uso de técnicas de inteligencia artificial cobran un nuevo sentido y una nueva vida.

Los procesos que permiten colorear las imágenes del vídeo se unen a los que permiten interpolar fotogramas, mejorar la definición de todos los detalles y llegar hacer ese escalado 4K que hace que vídeos (y fotos) que se veían bastante mal se vean ahora como si hubieran sido grabados hoy mismo.

El efecto es extraordinario, pero no gusta a todos por igual. Para Elizabeth Peck, una de las componentes del equipo de Shiryaev en su recién formada empresa, Neural Love, estos vídeos "te llevan más a esa sensación real de 'estoy aquí viendo cómo alguien hace esto', cuando antes los contemplabas como algo más artístico o cinemático".

Emily Mark-FitzGerald, profesora asociada del University College en Dublín, explicaba que "el problema con el coloreado es que lleva a la gente a pensar que estas fotografías son una especie de ventana al pasado sin más, y eso no es lo que son".

Estos procesos fueron de hecho utilizados por el documental de Peter Jackson de 2018 'They Shall Not Grow Old': allí se escalaron y colorearon vídeos de la 1ª Guerra Mundial, algo que para Luke McKernan, de la British Library, "era un sinsentido. El coloreado no nos acerca al pasado; hace crecer la distancia entre entonces y ahora".

Para él el efecto "crea diferencias" porque se añaden fotogramas o unos colores que jamás estuvieron ahí en la grabación original y que básicamente se estiman (o se inventan). Herramientas como DeOldify son menos precisas de lo que podría parecer, aseguran en Neural Love, donde afirman que el proceso "lleva un montón de entrenamiento y un montón de experimentos fallidos".

Para Mark-FitzGerald y otros historiadores estas herramientas son peligrosas. Aunque reconocen que los resultados son impactantes, siempre acaban preguntándose qué información han añadido y qué han eliminado de la imagen original.

Para McKernan el esfuerzo de contemplar una vieja película o fotografía es "lo que crea la comprensión. Sin eso no hay verdadera simpatía, sólo un falso sentimiento. La película que parece haber sido rodada la semana pasada pertenece sólo a la semana pasada".

Para los responsables de Neural Love el proceso permite acercar esos contenidos a las nuevas generaciones. "Consideramos que nuestro trabajo es una adaptación del original, similar a una versión moderna de una obra de Shakespeare o la traducción de una obra literaria a otro idioma", explicaba Shiryaev en un correo a Wired.

Su idea, de hecho, "no es el de establecer retos a su autenticidad o a su mérito artístico, sino transformar tanto el conocimiento como la conciencia de la existencia de esos contenidos originales".

Vía | Wired



via Robótica e IA - Xataka https://ift.tt/36r69Pv

El último robot de Toyota se cuelga del techo para no ocupar espacio mientras hace tareas del hogar

El último robot de Toyota se cuelga del techo para no ocupar espacio mientras hace tareas del hogar

En los últimos años y con el gran desarrollo que han tenido empresas como Boston Dynamics hemos podido ver robots haciendo todo tipo de tareas, desde patrullar parques a bailar en estadios. Ahora bien, uno de los lugares donde más utilidad se espera que tengan a corto plazo es en el hogar, realizando tareas recurrentes como puede ser ordenar o limpiar la casa. En este sentido la división de robótica de Toyota ha tenido una idea: colgar a sus robots del techo de la casa para moverse mejor.

Durante estos últimos días Toyota ha compartido cuáles son sus propuestas para robots domésticos. Entre sus prototipos encontramos un robot que mejora la sensibilidad con la que se cogen los objetos, un robot auxiliar y más "tradicional" que se desplaza por el suelo y sobre todo el nuevo robot colgante, quizás el más destacable de todos.

Toyota

El robot para espacios cerrados y pequeños

La idea que propone Toyota es mover su robot a lo largo de la casa mediante railes en el techo. De este modo el robot puede desplazarse sin molestar a las personas que caminen por el hogar y sin tener que dejarle espacio en el suelo para que pueda pasar. Así mismo, al no estar operando se puede quedar en una esquina en el techo para no molestar, a modo de un murciélago por así decirlo.

Toyota

Indica Toyota que esta idea la recogieron de los a menudo hogares pequeños de Japón, donde el espacio se busca aprovechar al máximo. Pero claro, esta idea también supone una instalación considerablemente importante en la casa o directamente construir casas prefabricadas con este sistema de railes para robots.

En las pruebas realizadas por Toyota (en una casa de demostración específicamente creada para ello) el robot se mueve por la cocina, limpia la mesa y coloca objetos en su sitio sin problemas. En el siguiente vídeo podemos verlo realizar este tipo de tareas junto a otras y los demás robots prototipo de la marca:

Los investigadores de Toyota también explican que estos robots se pueden entrenar mediante realidad virtual. Esta técnica consiste en controlar al robot mediante realidad virtual para que haga una vez las tareas y vea como se hacen. Después de eso el robot puede aprender a hacerlo por si solo. Es una tarea útil que a menudo ahorra más tiempo y dificultades que programar al robot desde cero. Lo hemos visto también, por ejemplo, a la hora de limpiar baños.

Sea como sea, de momento son sólo prototipos de Toyota, aunque la idea es desde luego ingeniosa. La realidad también ha demostrado que a menudo los robots trabajan correctamente en espacios de demostración diseñados para ellos pero muy diferente en un entorno real. Veremos en los próximos años si el robot colgante es una parte más del hogar o se queda en el olvido.

Vía | IEEE Spectrum
Más información | TRI



via Robótica e IA - Xataka https://ift.tt/3nagC84

jueves, 1 de octubre de 2020

Amazon ocultó los peligros de los robots que lesionan a sus empleados

La automatización de procesos industriales no es un fenómeno reciente. Desde hace un siglo se han introducido las máquinas en las cadenas de montaje. En los últimos años, sin embargo, se han acelerado los avances en el campo de la robótica y la Inteligencia Artificial hasta el punto que la transformación digital ha generado dudas sobre el futuro de los empleos. Una de las empresas que más ha invertido en cambiar las dinámicas de trabajo en los almacenes ha sido Amazon, que se suele poner de ejemplo como paradigma de la revolución del comercio electrónico. Pero una investigación global ha sacado a relucir algunas carencias. Una investigación elaborada por el Center for Investigative Reporting a partir de muestras de informes laborales de 150 centros durante cuatro años, revela que el empleo de robots por parte de Amazon en sus almacenes ha provocado más lesiones en los trabajadores humanos. Las lesiones graves son hasta un 50% más altas entre los empleados que trabajan con robots en comparación con quienes no los tienen en su entorno laboral. El informe denuncia una serie de «tergiversaciones» emitidas por la compañía estadounidense en los últimos años «para ocultar sus crecientes problemas de seguridad». Los documentos internos que han salido a la luz muestran que las instalaciones con robots tienen tasas de lesiones aproximadamente un 50% más altas. El año pasado -insiste la investigación- se registraron 14.000 lesiones «graves», un 33% que en 2016. ABC se ha puesto en contacto con la compañía sin recibir todavía una respuesta. Los robots, ha insistido Amazon en comunicaciones públicas, son «buenos» para los trabajadores. «Hacen que el trabajo sea más seguro», recalcó Jeff Wilke, uno de los dos directores ejecutivos de Bezos, al medio «PBS Frontline» en septiembre pasado. Los robots se introdujeron por primera vez en sus almacenes después de la adquisición de un fabricante de robótica en 2012 en su desafío por cambiar la logística. Ahora, tiene una flota de miles de máquinas programadas para llevar productos a los empleados de los centros de logística, también en sus centros ubicados en España. Fuentes sindicales han asegurado a ABC que la accidentalidad en los centros logísticos de la empresa supera en dos veces la media del sector a nivel nacional «especialmente en los centros automatizados». Aducen, pues, un factor determinante: los «especialmente altos ritmos de trabajo». «Se trabaja con bastante presión. Se mide el que más produce con el que menos y se extrae una media que la empresa presiona para cumplir», denuncian, al tiempo que ponen en valor la inversión en seguridad en los últimos años. Pero insisten en dos aspectos: «La productividad no puede bajar, esa es su máxima» y «su innovación ha pasado por el comercio electrónico, pero no por la cadena de suministros». En los últimos años la plantilla de centros como Madrid MAD4, en San Fernando de Henares (Madrid) ha secundado mayoritariamente varias huelgas programadas en fechas de alto consumo como Black Friday para reclamar un aumento de sus derechos laborales. La empresa con sede en Seattle (EE.UU.) también se enfrenta a otra situación en España. La Comisión Nacional de los Mercados y la Competencia (CNMC) ha concluido recientemente que Amazon realiza labores de operador postal y que debe cumplir con la normativa postal.

via Tecnología https://ift.tt/3cMEdqr