viernes, 25 de septiembre de 2020

Después de dominar el ajedrez y el Go, la inteligencia artificial pone a prueba su potencial en otro deporte: el curling

Después de dominar el ajedrez y el Go, la inteligencia artificial pone a prueba su potencial en otro deporte: el curling

A la inteligencia artificial la hemos visto ganar, y por goleada, en el ajedrez, en el Go y hasta en el 'Starcraft II'. Hasta ha sido capaz de derrotar a un piloto profesional en una simulación de batallas de aviones. El potencial de esta tecnología es increíble y ahora lo ha vuelto a demostrar en otro deporte: el curling. Y no lo ha hecho en una simulación, sino en una pista real.

Unos investigadores de la Universidad de Corea del Sur han desarrollado un marco de aprendizaje de refuerzo profundo adaptable que, según ellos, tiene el mismo rendimiento en robots que el de los jugadores humanos. Esta tecnología fue implementada en un robot, Curly, que realmente son dos robots en uno, y el resultado fue una victoria aplastante: tres victorias en cuatro partidas.

El robot se adapta al juego

El curling es un deporte de precisión que se practica sobre una pista de hielo. Consiste en un lanzar una piedra de 20 kilos y llevarla lo más cerca posible de la diana. Para ello, los jugadores deben ir barriendo la pista para modificar la velocidad de la piedra, alterar su trayectoria, etc. Es "parecido", entre comillas, a la petanca, pero en equipo y más minucioso.

Es una cuestión de físicas y, como explican en Scientific American, aunque las simulaciones de inteligencia artificial se hagan teniendo en cuenta las físicas, llevar la simulación a entornos reales sigue siendo un reto. Una de las claves de Curly, el robot que vemos en el vídeo, es que aprende "a compensar las incertidumbres y desestabilidades que son parte inevitable del curling", es decir, que se adapta conforme avanza el partido.

Curling

El robot, como decíamos, está compuesto por dos robots: uno que detecta la posición de las piedras en el campo de juego y otro que lanza la piedra. De acuerdo a los investigadores, los componentes pueden comunicarse para identificar errores en el lanzamiento, interpretar los cambios en el hielo y hacer los ajustes pertinentes de cara a siguientes lanzamientos.

Para poner a prueba su desarrollo, enfrentaron al robot contra un un equipo surcoreano "de alto nivel" y el resultado fue una victoria aplastante de tres a uno gracias, en parte, a que el robot tenía una buena capacidad de adaptación. De hecho, los propios investigadores concluyen que "estos resultados indican que la brecha entre los simuladores basados en la física y el mundo real puede reducirse".

Vía | Scientific American



via Robótica e IA - Xataka https://ift.tt/3hWKvVC

jueves, 24 de septiembre de 2020

Así es el robot Gundam de 20 metros capaz de mover la cabeza y caminar

Si creció entre los años ochenta y noventa del siglo pasado, seguramente recuerde haber visto alguna que otra serie o película protagonizada por robots enormes; ya fuese Mazinger Z, Transformers o Gundam. Ahora, si pudiese ir a la bahía de la ciudad japonesa de Yokohama, podría ver cómo se alza una imponente réplica de cerca de 20 metros del RX-78 Gundam. A diferencia de otras representaciones similares del popular robot de dibujos animados, esta es capaz de arrodillarse, girar la cabeza y señalar al cielo, según explica el portal Nerdist, que, además, se ha hecho eco de algunos vídeos en los que se puede observar como realiza el proceso.<blockquote class="twitter-tweet"><p lang="ja" dir="ltr">等速の動くガンダム! <a href="https://t.co/4BYqV2Nhwg">pic.twitter.com/4BYqV2Nhwg</a></p>&mdash; なんちゃん(祝ガンプラ40周年) (@nansei2) <a href="https://twitter.com/nansei2/status/1307505805961228288?ref_src=twsrc%5Etfw">September 20, 2020</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> El Gundam mecanizado tiene un peso de 22 toneladas y, como se puede apreciar en el vídeo, realiza todas las operaciones de forma lenta. También es capaz de subir los brazos y mover los dedos. Por el momento, el robot no está terminado y se espera que en el futuro pueda caminar y realizar todas estas acciones con mayor fluidez.<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Life-sized Gundam in Yokohama is now in testing mode.<a href="https://t.co/51HVoraPb7">pic.twitter.com/51HVoraPb7</a></p>&mdash; Catsuka (@catsuka) <a href="https://twitter.com/catsuka/status/1308068858541023232?ref_src=twsrc%5Etfw">September 21, 2020</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> La máquina será la principal atracción del Gundam Factory Yokohama. Un complejo de ocio conformado por restaurantes y tiendas. El plan inicial era enviar al robot a este espacio el pasado mes de julio. Sin embargo, como en tantos otros casos, la pandemia de Covid-19 ha obligado a fijar una nueva fecha. Según el portal CNET, el robot llegará a su nuevo hogar el próximo mes de octubre.

via Tecnología https://ift.tt/3mM3Uw3

lunes, 21 de septiembre de 2020

Antes teníamos la ley de Moore, ahora tenemos la 'ley de Huang' que perfila el futuro de NVIDIA y ARM

Antes teníamos la ley de Moore, ahora tenemos la 'ley de Huang' que perfila el futuro de NVIDIA y ARM

Los límites físicos están poniendo a prueba la célebre ley de Moore, pero desde hace unos años estamos viendo un fenómeno similar en el ámbito de la computación en el campo de la inteligencia artificial.

De hecho el avance de la capacidad de proceso en este escenario ha hecho que algunos hablen ya de la "Ley de Huang" en referencia al CEO de NVIDIA, Jensen Huang. La evolución de los chips de la compañía en este ámbito es incluso mayor que la que Gordon Moore formuló de forma informal hace 55 años para los microprocesadores de propósito general.

¿Adiós, ley de Moore?

A la ley de Moore se le acaba la cuerda. Es cierto que los avances en el segmento de los microprocesadores siguen siendo notables, pero es cada vez más difícil poder respetar aquella ley que Gordon Moore en realidad formuló como una apreciación más que como una predicción fiable de lo que ocurría en el mundo de las CPUs.

Moore La Ley de Moore muestra cómo se ha incrementado el número de transistores en los microprocesadores a lo largo de las últimas cinco décadas. Fuente: Wikipedia

Según la ley de Moore, cada dos años se duplica el número de transistores en un microprocesador. Dicha percepción acabó convirtiéndose en una ley no matemática o física, sino en esa singular predicción (e incluso reto tecnológico a lograr) que se ha ido cumpliendo en las últimas décadas.

Los procesos de producción y las litografías utilizadas en los últimos años han demostrado plantear un reto importante en este sentido, y eso ha hecho que sea poco probable que la ley de Moore vaya a durar otros 55 años.

Hola, 'ley de Huang'

Frente a ella, no obstante, nos encontramos con la 'Ley de Huang', bautizada así por Christopher Mims, un editor en The Wall Street Journal que ha mostrado cómo en los últimos años la progresión de la capacidad de cálculo se ha incrementado de forma aún más notable que lo que dictaba la ley de Moore.

Wsj El número de operaciones por segundo que son capaces de realizar los chips de NVIDIA (y también de otros fabricantes) en el ámbito de la IA se ha incrementado de forma espectacular desde 2012.

Los procesadores gráficos de NVIDIA han ido creciendo más y más en este segmento, y hace años que además de plantear mejoras en el rendimiento de nuestros juegos —algo que se ha vuelto a demostrar con las recientes RTX 3080han ido integrando más y más Tensor Cores, los núcleos de proceso que permiten alcanzar capacidades de cálculo asombrosas en el ámbito del aprendizaje profundo (deep learning) y la inteligencia artificial.

Bill Daly, Chief Scientist en NVIDIA —que recientemente hasta diseñó un respirador de bajo coste para enfermos de COVID— explicaba cómo desde noviembre de 2012 y mayo de 2020 el rendimiento de estos chips en cálculos en una de las disciplinas de la inteligencia artificial se ha multiplicado por 317 veces.

Eso supone un crecimiento aún mayor en estos años de lo que marca la ley de Moore, y desde luego hace pensar en lo rápido que han avanzado diversos campos en los que se están aplicando estos sistemas, como por ejemplo el de la conducción autónoma.

Esos avances están permitiendo también el auge de la llamada 'Edge Computing': mientras que antes esos cálculos complejos se realizaban en un servidor en la nube que luego nos enviaba los datos, los modernos procesadores con núcleos dedicados a estas tareas ya son capaces de procesar por sí mismos esos datos y dar la respuesta "en nuestro extremo (edge)" sin necesidad de que estemos conectados a la nube.

La compra de ARM por parte de NVIDIA podría fortalecer aún más ese concepto de la 'ley de Huang', y de hecho el CEO de NVIDIA ya dejó claro que entre los puntos claves de la hoja de ruta de esa operación estaría el impulso del desarrollo de chips ARM en el campo de la IA.

Nuestros móviles ya cuentan con procesadores con cada vez más potencia en ese sentido. La ayuda de esos chips se nota por ejemplo en un post-procesado espectacular de las fotos que tomamos a través de la fotografía computacional, pero sus aplicaciones son cada vez más diversas y la intención de NVIDIA parece ser clara a la hora de ofrecer más y más potencia de cálculo en ese sentido en los futuros chips diseñados por ARM, tanto si se aprovechan para smartphones como si se utilizan en sensores de todo tipo.

Vía | WSJ



via Robótica e IA - Xataka https://ift.tt/2FEzLhG

jueves, 17 de septiembre de 2020

La Unión Europa invertirá 150.000 millones de euros en proyectos tecnológicos como la plataforma en la nube GaiaX o la IA

La Unión Europa invertirá 150.000 millones de euros en proyectos tecnológicos como la plataforma en la nube GaiaX o la IA

Parece mucho dinero porque lo es, pero de momento es solo una cifra. Ursula von der Leyen, presidenta de la Comisión Europea, explicaba cómo esa inversión tratará de ser pilar de la recuperación económica tras la pandemia de COVID-19, el plan conocido como "Next Generation EU".

Los proyectos beneficiarios de esta inversión aún están por determinar, pero en la UE parecen tener claras las prioridades: volver a recuperar el control de los datos, apostar por la inteligencia artificial pero estableciendo límites y reglas claras, y reducir esa desigualdad que por ejemplo expone a áreas rurales en las que no hay acceso a internet de banda ancha.

Tres grandes áreas en los que se centrará la inversión

Von der Leyen explicaba cómo dirigir una quinta parte de los fondos de recuperación (que ascienden a 750.000 millones de euros) será crucial para la recuperación, y habrá tres grandes protagonistas: los datos industriales, la inteligencia artificial y las infraestructuras.

Eu Ursula von der Leyen, presidenta de la Comisión Europea.

La presidenta de la Comisión Europea admitió que Europa "ha sido demasiado lenta y ahora depende de otros" en el ámbito de los datos de los consumidores, pero las cosas pueden ser distintas en el caso de los datos industriales.

Es ahí donde proyectos como la plataforma de computación en la nube GaiaX puede plantear un reto importante, y de hecho ella lo calificó como "la aspiración digital más importante de nuestra generación".

Para von der Leyen "el 80% de los datos industriales se recolectan pero nunca se usan, son un desecho puro". Esos datos pueden ser cruciales para sectores como el energético o el de la sanidad, con empresas, universidades e investigadores teniendo acceso para colaborar en proyectos conjuntos.

También habló de la intención de invertir en infraestructura que logre dar acceso a internet de banda ancha a todos los ciudadanos sin importar dónde se encuentren: "por eso queremos enfocar nuestras inversiones en conectividad segura, en la expansión de 5G, 6G y fibra".

El tercer gran pilar de ese proyecto era la inteligencia artificial, un campo en el que la regulación se ha retrasado a pesar de las promesas y que no aparecerá hasta 2021. Aún así, explicaba, "queremos establecer reglas [en IA] que pongan a la gente en primer lugar. Los algoritmos no deben ser una caja negra, y debe haber reglas claras si algo va mal".

Vía | NewStateman



via Robótica e IA - Xataka https://ift.tt/3kiFkRs

jueves, 10 de septiembre de 2020

La inteligencia artificial se enfrentará a un piloto humano en un combate con aviones reales en 2024

La inteligencia artificial se enfrentará a un piloto humano en un combate con aviones reales en 2024

El pasado 20 de agosto asistimos a la última conquista de la inteligencia artificial: vencer a un piloto humano experimentado por cinco a cero en un combate de cazas F-16 simulado. Cinco minutos le bastaron a Heron Systems AI para derrotar al piloto en el simulador, pero ahora el Secretario de Defensa de Estados Unidos, Mark Esper, quiere ir un paso más allá y hacer la prueba en un entorno real.

Según ha confirmado el propio Esper en una conferencia sobre inteligencia artificial que ha tenido lugar esta semana en el Pentágono, en 2024 se celebrarán una serie de combates de prueba en los que la inteligencia artificial cogerá los mandos de un avión de combate para enfrentarse a un piloto humano. Asegura que la idea de llevar la IA al combate no es reemplazar a los humanos, sino ampliar las capacidades de los mismos.

Pilotos de emergencia y pruebas variables

Un F-16C Bloque 40 de la USAF volando sobre Irak en el 2008

Air Combat Evolution (ACE), que es como se llama este programa de inteligencia artificial aplicada a los combates de aeronaves, acogerá "cinco experimentos de campo" que buscan comprobar la colaboración humano-máquina. Por ello, "a los pilotos se les darán tareas de gestión de batalla de mayor nivel cognitivo mientras sus aviones vuelan en combate, y habrá sensores de factores humanos que midan su atención y estrés para medir cuánto confían en la IA".

Los eventos a gran escala, ha señalado el Secretario de Defensa, comenzarán en el año 2023. Se usarán aviones tácticos con pilotos de seguridad, por si algo va mal, y el programa contempla combates uno contra uno en el segundo trimestre de 2023, dos contra uno en el cuatro trimestre y dos contra dos en el primer trimestre de 2024. En algunos combates habrá equipos humano-máquina contra equipos solo humanos y en otros dos equipos humano-maquina compitiendo entre sí.

Prueba Combate simulado entre una IA y un piloto humano.

Esper ha dejado claro que la simulación del pasado mes de agosto demostró la capacidad de la IA para superar a los humanos en los combates aéreos, pero que esa simulación "culminará en una competición en el mundo real en un combate aéreo táctico a gran escala en 2024". Tocará esperar hasta entonces no solo para conocer los resultados, sino también el entorno de pruebas.

En la simulación del pasado mes de agosto, los pilotos (humanos y artificiales) no podían usar misiles y el combate quedó restringido al cañón delantero. La IA, por cierto, no podía usar lo aprendido durante los combates previos contra el piloto humano, sino solo aplicar el conocimiento previo a la "competición", entre comillas.

Durante el evento, que se retransmitió en YouTube, los comentaristas destacaron la capacidad de la IA para actuar en condiciones extremas, véase una fuera G demasiado alta, así como su capacidad para apuntar y acertar en el blanco. Las pruebas hablan por sí solas: todos los combates duraron menos de un minuto, salvo el quinto, en el que piloto humano consiguió sobrevivir más tiempo.

¿Qué busca Estados Unidos con este programa? Ciñéndonos a las explicaciones de Esper que recogen en Breaking Defense, liberar recursos humanos. Considera a la IA como una "herramienta para liberar recursos, tiempo y mano de obra para que la gente pueda dedicarse a tareas prioritarias y llegar a los momentos de decisión más rápido y con más precisión que la competencia".

Vía | Breaking Defense



via Robótica e IA - Xataka https://ift.tt/2Fffzm8

miércoles, 9 de septiembre de 2020

Creando habilidades de detección inteligentes para realizar tareas complejas

Recoger una lata de gaseosa puede ser una tarea simple para los humanos, pero sin duda es una tarea compleja para los robots. Estos tienen que localizar el objeto, deducir su forma, determinar la cantidad correcta de fuerza para usar y agarrar el objeto sin dejarlo caer. Estas son cosas que nuestro cerebro hace de manera intuitiva y el desafío de la ciencia robótica es poder hacer que los robots puedan hacerlo igual que nosotros. Pues bien, parece que lo han logrado.

Habilidades de detección inteligentes para robots

Un equipo de científicos informáticos e ingenieros de materiales de la Universidad Nacional de Singapur (NUS) ha demostrado recientemente un enfoque emocionante para hacer que los robots sean más inteligentes. Desarrollaron un sistema cerebral integrado sensorial que imita las redes neuronales biológicas, que pueden ejecutarse en un procesador neuromórfico eficiente en energía, como el chip Loihi de Intel. Este novedoso sistema integra sensores de visión y piel artificial, equipando a los robots con la capacidad de sacar conclusiones precisas sobre los objetos que están agarrando en función de los datos capturados por los sensores de visión y tacto en tiempo real.

El Profesor Asistente Benjamin Tee del Departamento de Ciencia e Ingeniería de Materiales de NUS. Co-dirige este proyecto con el profesor asistente Harold Soh del Departamento de Ciencias de la Computación de la NUS School of Computing y en una reciente conferencia de robótica dijo:

“El campo de la manipulación robótica ha progresado mucho en los últimos años. Sin embargo, fusionar tanto la visión como la información táctil para proporcionar una respuesta altamente precisa en milisegundos sigue siendo un desafío tecnológico. Nuestro trabajo reciente combina nuestras pieles electrónicas ultrarrápidas y nuestros sistemas nerviosos con las últimas innovaciones en detección de visión e IA para robots para que puedan volverse más inteligentes e intuitivas en las interacciones físicas”.

Este descubrimiento podría significar el desarrollo de un sentido táctil humano para robots. El permitir un sentido del tacto humano en la robótica podría mejorar significativamente la funcionalidad actual e incluso conducir a nuevos usos. Por ejemplo, en el piso de una fábrica, los brazos robóticos provistos de máscaras electrónicas podrían adaptarse fácilmente a diferentes elementos, utilizando sensores táctiles para identificar y agarrar objetos desconocidos con la cantidad adecuada de presión para evitar resbalones.

En el nuevo sistema robótico, el equipo de NUS aplicó una piel artificial avanzada conocida como Asynchronous Coded Electronic Skin (ACES) desarrollada por Asst Prof Tee y su equipo en 2019. Este nuevo sensor detecta toques más de 1,000 veces más rápido que el sistema nervioso sensorial humano. También puede identificar la forma, textura y dureza de los objetos 10 veces más rápido que un abrir y cerrar de ojos.

“Hacer un sensor de piel artificial ultrarrápido resuelve aproximadamente la mitad del rompecabezas de hacer que los robots sean más inteligentes. También necesitan un cerebro artificial que finalmente pueda lograr la percepción y el aprendizaje como otra pieza crítica en el rompecabezas”, agregó Asst Prof Tee, quien también forma parte del Instituto NUS para la Innovación y Tecnología en Salud.

Para abrir nuevos caminos en la percepción robótica, el equipo de NUS exploró la tecnología neuromórfica, un área de computación que emula la estructura neural y el funcionamiento del cerebro humano, para procesar datos sensoriales de la piel artificial. Como Asst Prof Tee y Asst Prof Soh son miembros de la Intel Neuromorphic Research Community (INRC), fue una elección natural utilizar el chip de investigación neuromórfico Loihi de Intel para su nuevo sistema robótico.

En sus experimentos iniciales, los investigadores colocaron una mano robótica con la piel artificial, y la usaron para leer braille, pasando los datos táctiles a Loihi a través de la nube para convertir los micros golpes que siente la mano en un significado semántico. Loihi logró más del 92 por ciento de precisión en la clasificación de las letras Braille, mientras usa 20 veces menos energía que un microprocesador normal.

Todo esto nos pone sin duda un paso más cerca del desarrollo de un cerebro humano para robots. Un hecho que en cierta forma emociona pero también nos asusta.

La entrada Creando habilidades de detección inteligentes para realizar tareas complejas se publicó primero en IntelDig.



via IntelDig https://ift.tt/3m4Mx9t

sábado, 5 de septiembre de 2020

La ayuda de robots multiplica por 100 el análisis de pruebas PCR

Una de las prioridades en la lucha contra la COVID-19 sigue siendo la rápida detección del virus. El área de microbiología de uno de los hospitales de referencia de Cataluña ha incorporado la ayuda de robots, que han multiplicado por 100 la capacidad diagnóstica analizando alrededor de 900 pruebas al día. [Coronavirus: última hora en directo]



Ver vídeo


via Ciencia y tecnología en rtve.es https://ift.tt/32276eM