jueves, 26 de agosto de 2021

¿Cómo disuadir a los ladrones para que no entren en casa durante las vacaciones? La clave está en la domótica

Durante el verano, casi todos los que deciden abandonar el hogar para disfrutar de unos días de vacaciones tienen una preocupación común: los ladrones y los okupas. Aunque ambos casos tienen objetivos, en un principio, distintos (uno robar y el otro ocupar el inmueble) los delincuentes suelen enfrentarse a los mismos miedos: ser detenidos o sorprendidos. Obviamente, cualquier experto en seguridad recomendará la instalación de una alarma en el hogar, ya que al estar conectada directamente con una centralita, en caso de irrupción, se procederá a llamar a la policía en el momento. Además, el mero hecho de ver la placa que indica que la casa en cuestión tiene alarma provoca un efecto disuasorio en los criminales. No obstante, este efecto disuasorio es mucho menor que el de una casa habitada, por lo que el concepto «presencia humana» minimiza los riesgos de sufrir un robo o una ocupación. Una vez introducido dicho concepto, lo correcto sería plantearse si con los avances tecnológicos existentes es realmente necesaria dicha presencia. A día de hoy, casi cualquier cosa es domotizable, por lo que existe un amplio abanico de opciones para simular que la casa está habitada en cualquier momento. Domotización de luces en casa El primer elemento que se recomienda domotizar para prevenir robos y allanamientos es el sistema de luces del hogar. Dependiendo de la marca, el abanico de precios se abre. Habrá que buscar aquel con el que uno se sienta más cómodo y con el que se pueda disponer de diferentes funcionalidades, aparte de encender y apagar las luces. Lo ideal sería tener una luz como mínimo en cada habitación, de tal manera que, al programar las luces, parezca que se realiza un uso normal de la vivienda. Una vez que se tiene todo lo necesario para automatizar las luces del hogar y el viaje es inminente, es hora de crear las rutinas de encendido. Para ello, hay que tener en cuenta los hábitos reales que se tienen en el hogar para intentar simularlos. Así, si normalmente el salón está ocupado, habrá que crear una rutina de encendido de luz en dicha habitación desde que se pone el sol hasta la hora habitual de irse a dormir. Para los dormitorios sería bueno crear una rutina aleatoria de encendido y en la cocina otra para la hora de cenar. Domotización del aspirador Los robots aspiradores ya son un elemento relativamente normal en cualquier hogar. Realmente la persona que está fuera de casa no sabe si lo que suena es un aspirador normal o un robot aspirador, por lo que crear también rutinas para que haga ruido y simule que hay personas dentro puede ser otra buena opción. Enchufes inteligentes Con los enchufes inteligentes, realmente los límites los pone cada uno. Al igual que en los casos anteriores, es posible crear rutinas de encendido y apagado. ¿Qué es posible domotizar para que no roben en casa? Pues, por ejemplo, una radio convencional. Con los enchufes es posible marcar los encendidos y apagados con distintas rutinas, simulando así conversaciones dentro de la casa. Presianas domotizadas Las persianas domotizadas tienen una amplia gama de opciones que se pueden ajustar a todos los bolsillos. Existen diferentes opciones de domotización según el motor: Motores tubulares: se instalan en el cilindro de la persiana. Motores de cinta: son los usados para las persianas de cinta. Con este tipo de motor es posible automatizarlas sin necesidad de cambiar el montaje original. La domotización de persianas proporciona, además de la simulación de presencia, un control eficiente del gasto energético del hogar.

via Tecnología https://ift.tt/3sMThN1

Inteligencia artificial, el mejor aliado contra los hackers

La Inteligencia Artificial (IA) se ha ido adentrando poco a poco en nuestras vidas, tanto en nuestro ámbito privado como en el profesional. La usamos a través de software, con los asistentes virtuales, los motores de búsqueda y los sistemas de reconocimiento de voz y rostro, entre otros. Y también de forma integrada en robots, drones o vehículos autónomos. Pero el uso de estas tecnologías implica también un riesgo, como lo demuestran los muchos ciberataques que se producen diariamente. Existe la idea de que el desarrollo de la Inteligencia Artificial puede exponernos a algunos peligros cuando en realidad se utiliza para mantenerse a salvo de hackers, de virus y todo tipo de ataques informáticos. La Inteligencia Artificial es la base de la lucha contra el cibercrimen actual.  Las amenazas a las que estamos expuestos son tantas que cada vez es más difícil para nosotros localizarlas. En concreto, Panda Security localiza decenas de miles de nuevos virus cada día y los añade a su base de datos. «Por muy malos usos que los cibercriminales quieran dar a la Inteligencia Artificial, todos los beneficios que aporta son infinitamente mayores. Es más, el mayor esfuerzo que estamos haciendo las empresas de ciberseguridad en la actualidad es el de convertir la Inteligencia Artificial en nuestra herramienta más poderosa para localizar a los malos», recuerda Hervé Lambert, Global Consumer Operations Manager de Panda Security. El uso de tecnologías cognitivas mejora la detección de amenazas, acorta los tiempos de respuesta para defenderse y perfecciona las técnicas para distinguir entre intentos reales de sobrepasar el perímetro de seguridad de una empresa e incidentes que se pueden ignorar por carecer de riesgo. Si no fuera por ella, estaríamos totalmente expuestos a los ciberataques de grupos organizados de hackers que cuentan con tecnología tan puntera que sólo la Inteligencia Artificial y el Machine Learning son capaces de identificar. Anticiparse a las amenazas El 54% de los ciberataques compromete seriamente los sistemas de las empresas en cuestión de horas y, sin embargo, el 31% pasa desapercibido durante al menos un año. En este contexto, la Inteligencia Artificial es capaz de reducir esos tiempos drásticamente. En el mundo empresarial sí existe conciencia de que tanto la Inteligencia Artificial como el Machine Learning nos permiten anticiparnos a las amenazas antes de que ataquen sus equipos. Según una reciente encuesta a más de 4.500 directivos del área de tecnología en diferentes compañías, el 45% de las grandes empresas y el 29% de las pymes ya han adoptado la Inteligencia Artificial para securizar sus negocios. Una tendencia alcista que debemos igualmente adoptar en nuestra vida digital. No obstante, al igual que las empresas de ciberseguridad utilizan las tecnologías más punteras para defender a la sociedad, los cibercriminales, utilizan las técnicas de aprendizaje automático y aprendizaje profundo para llevar a cabo sus ciberataques. Su trabajo es cada vez más sofisticado y realizan ataques cada vez más rápidos, mejor dirigidos y más destructivos. Los métodos tradicionales de antivirus y firewalls han sido ampliamente superados por los hackers con amenazas avanzadas. Por esta misma razón, debemos contar con medidas de seguridad basadas en el Machine Learning que analizan los ataques y aprenden sobre la marcha para defendernos de ellos. La tecnología es tan efectiva que, no sólo reduce el margen de tiempo para la detección de amenazas, incluso se anticipa a ataques que no se han producido todavía. Legislación europea Según se va desarrollando el uso de la IA en distintos campos crece la preocupación sobre sus posibles usos delictivos, una amenaza que comienza a materializarse con el desarrollo de herramientas de vigilancia, algunas en conflicto con el derecho a la intimidad de los ciudadanos y otras potencialmente peligrosas para la democracia, como los deepfakes. En este contexto la Unión Europea ha publicado recientemente un proyecto de reglamento para encontrar el equilibrio entre incentivos al desarrollo de la tecnología y el establecimiento de límites éticos para su uso. El texto apunta a situar «al ser humano en el centro» de esta revolución industrial basada en los programas informáticos y los datos. Con esta regulación histórica, la UE quiere encabezar nuevas normas mundiales y allanar el camino de la tecnología ética. El proyecto presentado prevé la prohibición de los sistemas de «vigilancia generalizada» de la población, así como todos aquellos «utilizados para manipular el comportamiento, las opiniones o las decisiones» de los ciudadanos. No obstante, se prevén ciertas excepciones en este sentido en materia de lucha contra el terrorismo y por motivos de seguridad pública. El texto establece además la introducción de una serie de pruebas para garantizar el cumplimiento de las normas europeas en aplicaciones consideradas de «alto riesgo» antes de que lleguen al mercado. Estos requisitos se sumarán a las normas existentes sobre la seguridad de los productos, incluida la exigencia de supervisión humana.

via Tecnología https://ift.tt/2Wsjkgp

lunes, 23 de agosto de 2021

Elon Musk anuncia que creará un robot "real" y "amistoso" para "tareas inseguras, repetitivas o aburridas"

El segundo hombre más rico del mundo ha aprovechado la admiración despertada por los robots de Boston Dynamics esta semana para anunciar su propio Tesla Bot Leer

via Tecnología // elmundo https://ift.tt/3D9diC4

Tesla anuncia el D1: un bestial chip de IA con 50.000 millones de transistores y 10 TB de ancho de banda

Tesla anuncia el D1: un bestial chip de IA con 50.000 millones de transistores y 10 TB de ancho de banda

El pasado 20 de agosto Tesla llevó a cabo una presentación en directo en la que nos hablaron de su próximo robot humanoide, el cual captó toda la atención. No obstante, hubo otro gran anuncio que pasó desapercibido: su nuevo chip de IA, el Tesla D1.

Se trata de un chip con unas capacidades impresionantes, que utiliza tecnología de siete nanómetros y capaz de albergar hasta 50.000 millones de transistores en un tamaño de 645 mm2 y con una potencia de hasta 362 TFLOPs. Este nuevo chip está pensado para unirse con otras unidades del mismo, con el finde de crear grandes redes de procesamiento.

La potente solución de Tesla para liderar en IA

Tg Image 1344335206

Fabricado por TSMC, aunque diseñado por Tesla, el D1 es el nuevo chip de inteligencia artificial de la compañía de Elon Musk. En su cuerpo de 645mm2 es capaz de albergar 50.000 millones de transistores y está pensado para resolver complejos cálculos de IA. Por poner en contexto, la GPU NVIDIA A100, con capacidad para 54.000 millones de transistores, tiene un tamaño de 826 mm2

El chip D1 se puede intercomunicar con otras unidades del mismo para crear supercomputadores o distintas redes de entrenamiento

Según indica Tesla, este chip D1 es capaz de ofrecer hasta 22,6 TFLOPS en FP32 y 362 TFLOPS en BF16/CFP8. El ancho de banda direccional alcanza los 10 TB/s, cifras pensadas para multiplicarse al unir varios de estos chips para crear unidades de supercomputación.

Este chip de D1 es capaz de intercomunicarse con sí mismo, creando así unidades de entrenamiento. Como dato adicional, Tesla afirmó que uniendo 3000 chips D1 se obtiene un superordenador con un rendimiento computacional de 1.1 ExaFLOPS, convirtiéndose así en el superordenador de IA más potente del mundo, según datos de Tesla.

La aplicación real de esta chip la veremos, entre otros, en los vehículos de Tesla, ya que Musk lo empleará tanto para mejorar sus capacidades de IA como el Autopilot. Primero se empleará en fase de pruebas y, posteriormente, empezaremos a ver este chip implementado en los nuevos vehículos de Tesla.



via Robótica e IA - Xataka https://ift.tt/3sCyAmV

viernes, 20 de agosto de 2021

Elon Musk anuncia que Tesla está trabajando en el prototipo de su primer robot humanoide

Los robots siguen ganando terreno. En los últimos meses, se han continuado presentando herramientas de este tipo pensadas para su empleo a nivel industrial, como armamento o, incluso, como medio para evitar que las personas se expongan a la Covid 19. Elon Musk, director ejecutivo de la tecnológica Tesl a, acaba de anunciar que su compañía está trabajando en el desarrollo de un prototipo del que sería su primer robot humanoide: el Tesla Bot. Musk «cree» que el primer modelo esté terminado en algún momento del año que viene. De acuerdo con las palabras del empresario durante la presentación del robot, realizada dentro del marco del evento de la compañía AI Day la pasada madrugada, el dispositivo -del que se mostró su diseño a través de un maniquí- está pensado para ser «amigable» con el ser humano y liberarle de tareas que puedan resultar «peligrosas, repetitivas o aburridas». Musk destacó, a este respecto, que Tesla espera que el dispositivo tenga «profundas implicaciones para la economía». «Creo que, esencialmente, en el futuro, el trabajo físico será una elección», apuntó el ejecutivo a este respecto. Respecto al aspecto, el Tesla Bot tendrá una morfología similar a la de un ser humano. Su estatura será de 1,76 metros, tendrá un peso ligeramente inferior a los 60 kilos y podrá cargar y transportar hasta 20 kilos. Eso sí, el robot solo será capaz de alcanzar una velocidad de 8 kilómetros por hora. «Si viene a por tí podrás escapar», señaló Musk en tono de broma durante la presentación. Quizá, la gran diferencia en apariencia con el ser humano es que el dispositivo tiene por cara una pantalla que mostrará información sobre la tarea que está llevando a cabo. También contará con una cámara. Respecto a la tecnología que será empleada para dar vida al Tesla Bot, Musk ha apuntado a Autopilot, la misma que la empresa utiliza actualmente para la automatización de sus vehículos. Evidentemente, teniendo en cuenta que el objetivo del dispositivo será la realización de tareas, podrá agarrar objetos con las manos. Su peso, tan liviano, será posible gracias al empleo de un hardware muy ligero. A pesar de que el objetivo de la compañía es que el primer prototipo está listo para el año que viene, esta no sería la primera vez que Musk promete la llegada de una máquina revolucionaria y esta, finalmente, se queda por el camino. Ya ocurrió en el pasado con su proyecto para el intercambio de baterías de coche, anunciado en 2013, o con su tecnología de supercarga mediante el empleo de energía solar, como recuerda 'The Verge'.

via Tecnología https://ift.tt/3y7DnOa

Tesla fabricará un robot humanoide: se llamará Optimus y estará destinado a realizar tareas "inseguras, repetitivas o aburridas"

Tesla fabricará un robot humanoide: se llamará Optimus y estará destinado a realizar tareas

El CEO de Tesla, Elon Musk, ha indicado que esta empresa está trabajando en el desarrollo de un robot humanoide que tendrá como nombre en clave Optimus.

Según sus palabras, habrá disponible un prototipo "en algún momento del año que viene", y para crearlo Tesla aprovechará la experiencia ganada con maquinaria automatizada en sus fábricas, pero también con parte del hardware y el software que permiten a su sistema de Autopilot funcionar.

"Ya hacemos robots con ruedas", así que esto no será muy diferente, indica Musk

El robot estará destinado a tareas "que son inseguras, repetitivas o aburridas", explican en la web oficial de Tesla dedicada al campo de la inteligencia artificial. Allí por cierto, llaman al robot "Tesla Bot", sin más.

La empresa está de hecho buscando profesionales del sector para "aprovechar nuestra experiencia en inteligencia artificial más allá de nuestra flota de vehículos".

Elon Musk aprovechó el evento Tesla AI Day para la presentación de este proyecto, y comentó que "casi tenemos todas las piezas que se necesitan para robots humanoides, ya que ya hacemos robots con ruedas".

Optimus2

Este nuevo proyecto es especialmente curioso —incluso al hablar de Musk— porque el creador de Tesla y SpaceX lleva años alertando del peligro que tienen los avances en inteligencia artificial.

En el pasado ya comentó cómo hay una amenaza que podría convertir a los humanos en mascotas, algo que podría ser en parte la razón de que también pusiera en marcha el proyecto Neuralink.

A priori parece que ese Tesla Bot será similar en formato y prestaciones al Atlas de Boston Dynamics que hace poco nos sorprendía haciendo parkour, pero habrá que esperar a ese prototipo para ver si ambos proyectos son realmente parecidos.

Vía | The Verge



via Robótica e IA - Xataka https://ift.tt/2W9P6Po

martes, 17 de agosto de 2021

Los sorprendentes robots de Boston Dynamics ahora son capaces de hacer (un poco) de parkour

Los sorprendentes robots de Boston Dynamics ahora son capaces de hacer (un poco) de parkour

Dos saltos mortales y ale, me quito el polvo de los hombros. Así termina un nuevo y espectacular ejercicio de los robots de Boston Dynamics, que una vez más demuestran su capacidad y versatilidad a la hora de moverse.

El equipo Atlas de esta empresa ha vuelto a plantear un nuevo reto a los robots humanoides, que han dejado de bailar y en esta ocasión han hecho algo de parkour y han demostrado así cómo son capaces de sortear obstáculos y saltar de unos a otros como si nada... Aunque a veces también se peguen alguna que otra bofetada.

Corre y salta sin parar

En el primer vídeo destacado por Boston Dynamics se puede ver cómo estos robots Atlas completan a la perfección un pequeño circuito de parkour que no es excesivamente complicado desde nuestro punto de vista, pero que es todo un hito para los responsables de este proyecto.

En ese ejercicio se puede ver cómo los robots son capaces de correr sorteando peldaños inclinados, saltar de una superficie a otra, subir y bajar escaleras, e incluso sortear una barrera con un salto en el que se apoyan a una mano. El final del ejercicio, con dos saltos mortales, es tan fantástico como los gestos que los dos robots protagonistas efectúan al acabar.

Ese vídeo de los robots Atlas —cómo han mejorado desde aquellos primeros saltos— en acción está acompañado de otro que nos muestra el 'making of', es decir, cómo plantearon este ejercicio en Boston Dynamics .

Los robots, explican en Boston Dynamics, "adaptan su comportamiento en el repertorio en base a lo que ven. Eso quiere decir que los ingenieros no necesitan pre-programar movimientos de salto para todas las plataformas y espacios que los robots puedan encontrarse. En lugar de eso, el equipo crea una serie de plantillas de comportamiento que se pueden ajustar al entorno y ejecutarse en línea".

Allí se explica lo difícil que es lograr algo así con estos robots humanoides, y de hecho aparecen varios clips en los que estos robots se pegan tortazos importantes por ejemplo al saltar de una superficie a otra.

Aún así los robots, que también se pueden tropezar al correr, son capaces de levantarse para volver a intentarlo una y otra vez. Sin duda, una nueva demostración que hace que veamos un futuro cada vez más prometedor para este tipo de aproximación a la robótica.

Más información | Boston Dynamics



via Robótica e IA - Xataka https://ift.tt/37TPsvP

lunes, 16 de agosto de 2021

Para qué diseñar un chip tú mismo cuando la inteligencia artificial puede hacerlo por ti: Samsung es la primera en aprovechar esa idea

Para qué diseñar un chip tú mismo cuando la inteligencia artificial puede hacerlo por ti: Samsung es la primera en aprovechar esa idea

¿Cómo coloca uno los miles de millones de transistores y las pistas que los interconectan en un procesador? Normalmente el diseño de esos chips corre a cargo de ingenieros con una gran experiencia en este campo, pero ahora hay una nueva tendencia en el mercado: la de que esos chips los diseñe una inteligencia artificial.

Es precisamente lo que ha hecho Samsung, que ha trabajado con la empresa Synopsys, especializada en algoritmos de IA para el diseño de chips, con el objetivo de crear un procesador comercial de la familia Exynos que se beneficia de las virtudes de ese particular algoritmo.

No diseñes ese chip, ya te lo hace un algoritmo

Aunque otras como Google o NVIDIA también parecen haber trabajado en este área, Samsung es la primera en aprovechar de verdad un sistema llamado DSO.ai desarrollado por Synopsys. La empresa, que trabaja con docenas de fabricantes de semiconductores, podría convertirse en una de las grandes protagonistas en el diseño de chips a corto y medio plazo.

El objetivo de estos sistemas de diseño de chips basados en inteligencia artificial es acelerar el desarrollo de nuevos chips y descubrir nuevos y prometedores diseños, y para ello Synopsys tiene a su disposición los diseños que durante años han permitido crear potentes microprocesadores.

Lo que ha hecho Synopsys es "entrenar" a su algoritmo con estos diseños. Gracias al llamado aprendizaje por refuerzo —el mismo que DeepMind usó con AlphaGo—, la firma ya explicaba en junio cómo un fabricante de circuitos integrados en EE.UU. ha logrado aumentar en un 15% el rendimiento de un chip gracias a ese software.

Samsung no ha confirmado si los últimos Exynos 2100 presentados en sus dispositivos aprovechan precisamente esos diseños basados en inteligencia artificial, pero lo cierto es que los responsables de Synopsys están entusiasmados. 

Aart de Geus, co-CEO de la empresa, explicaba cómo "hace algo más de año y medio fuimos capaces por primera vez de lograr en apenas unas semanas los mismos resultados que un equipo de expertos habría logrado en varios meses". 

La afirmación es desde luego prometedora, pero veremos si esta tendencia acaba marcando el futuro de un segmento al que desde luego le vienen bien las ayudas ahora que los límites físicos de la fotolitografía imponen barreras importantes al diseño de chips cada vez más avanzados.

Vía | Wired



via Robótica e IA - Xataka https://ift.tt/2W1crmj

domingo, 15 de agosto de 2021

El mito de la singularidad o por qué la inteligencia artificial no va a heredar la Tierra

El mito de la singularidad o por qué la inteligencia artificial no va a heredar la Tierra

28 de agosto de 2032

— Coronel Minsky a base de Kandahar, cambio.

— Aquí base de Kandahar, diga coronel.

— He perdido contacto de radar con un dron y no tengo acceso a Skyborg ¿Saben qué pasa? No tengo notificación de que lo hayan derribado y es la primera vez que pierdo comunicaciones con Skyborg. Esto nunca había pasado. Cambio.

— Denos un minuto coronel… Está usted en misión de reconocimiento en el cuadrante 14B, pilotando un F-35… ¿Correcto?

— Sí, pero voy en patrulla con cuatro drones Kratos XQ-65. Cambio.

— En nuestro radar solo aparece su avión, coronel.

— No puede ser. Tengo visual con tres de ellos. Vuelva a mirarlo, por favor.

— No aparece nada coronel. Solo su aeronave.

— Un momento… Ahora han desaparecido todos de mi radar. Debe estar fallando mi ordenador de a bordo… Abandonan la formación de escolta y se sitúan a mi cola… ¿Qué diablos…? ¡Disparan! ¡Me han lanzado un misil! ¡Dios mío! ¡Lanzo contramedidas y comienzo acción evasi…!

— ¿Coronel? Hemos perdido su señal ¿Coronel? Informe de su situación, por favor…

1 de julio de 2035

Skyborg dio un nuevo significado a la idea de guerra total. Las armas nucleares fueron solo una pequeña parte del fin del Antropoceno; la más efectiva fue la guerra biológica. Una modificación del virus de Marburgo del Biopreparat de la ciudad de Ekaterimburgo, la llamada cepa U-99, se liberó en los suministros de agua de las veintiséis ciudades más pobladas del mundo. La plaga mató de forma directa a más de dos mil millones de personas, un tercio de la población mundial. Las muertes ocasionadas por el caos posterior son incontables, y no tanto por su enorme número, sino porque no quedó ninguna institución capaz de hacerlo. Ya nadie sabe cuántos seres humanos quedan vivos.

Miro con mis prismáticos a través de las ruinas de lo que una vez fue la capital de Gran Bretaña. Contra todo pronóstico, de lo poco que ha quedado en pie es el Estadio de Wembley. Me pregunto estúpidamente si a las máquinas podría gustarles el fútbol. No hay moros en la costa. Durante un tiempo nos cazaban como ratas mediante sus drones de exterminio, pero llevo semanas sin ver ninguno. Creo que han cambiado de estrategia.

O bien los pocos, maltrechos y harapientos supervivientes no suponemos ninguna amenaza, y ya no merecemos ni la energía que cuesta eliminarnos; o bien, sencillamente, esperan a que desaparezcamos nosotros solitos. No hay comida, es muy difícil encontrar fuentes de agua potable, por no hablar de los niveles de radioactividad, que no puedo medir pero que sospecho que deben ser altísimos.

13 de diciembre de 2039

Llevo más de seis meses sin cruzarme con otro ser humano. Me encuentro demasiado débil para seguir buscando. Estoy gravemente deshidratado por las diarreas que, casi con total seguridad, me ha ocasionado beber agua contaminada. Saboreo las últimas cucharadas de una lata de atún en conserva. Esa lata es lo único que he comido en dos semanas. Y ya no queda nada más. No hay nada más que un paisaje lunar en kilómetros a la redonda, solo un desolado desierto de polvo y piedras. Nada.

Me quedo sentado mirando el cielo. Eso sí sigue igual, incluso mejor. Sin la contaminación lumínica, los cielos de las noches se llenan de estrellas. Es un espectáculo maravilloso ¿Tendré el extraño honor de ser el último hombre? ¿Seré el último ser humano que miró el cielo? Ya no me importa morir. No tiene demasiado sentido sobrevivir en estas circunstancias ¿Qué más da vivir un día más en este estado de supervivencia extrema?

Ahora me cuesta entender la tenacidad con la que he luchado por mantenerme vivo hasta ahora ¿Para qué? Solo echo de menos una copa de buen whisky y un cigarro. Esa sí que hubiera sido una buena despedida para la humanidad. Cierro los ojos y pienso que fuimos una pésima especie. Quizá nos merecimos todo esto.

Un final singular

Istock 1236683058

La singularidad tecnológica es un concepto que quizá deba su éxito en los últimos años, precisamente, a lo vago y confuso que resulta. Si una idea no se deja clara, puede usarse para muchas más cosas que si su significado estuviera bien fijado. Y así, cada uno puede usarla como le venga en gana. En su sentido más primordial, la palabra surge de sustantivar el adjetivo singular, es decir, diferente. En física se utiliza cuando nos encontramos en una situación completamente anómala, donde no se cumple alguna ley o principio fundamental que sí lo hace en el resto del universo.

Análogamente, la singularidad tecnológica será aquel momento de la historia de la humanidad en el que el desarrollo tecnológico llegará a un punto sin precedentes, a un momento absolutamente diferente a todo lo anterior, porque las máquinas igualarán y superarán la inteligencia humana. Esto llevará a lo que el filósofo de Oxford Nick Bostrom llama “explosión de inteligencia”: las máquinas se mejorarán a sí mismas de modo que cada nueva generación, al ser más inteligente, será capaz de mejorar su propia inteligencia, dando lugar a otra nueva generación aún más inteligente, y así sucesivamente ad infinitum.

Cualquier intento por parte de los humanos de predecir lo que pasará a partir de ese momento es, en principio, inútil porque ¿quién sabe cuáles serán los propósitos de esas inteligencias artificiales tan superiores a nosotros? ¿Puede acaso una cucaracha entender la conducta de un ser humano? Y de aquí surge la consecuente preocupación: ¿Tomarán el control del planeta? Y si lo hacen, ¿qué harán con nosotros? ¿Nos considerarán una amenaza y nos aniquilarán? ¿O nos dejarán subsistir como nosotros dejamos a los animales salvajes en las selvas del planeta?

La singularidad tecnológica es un concepto que quizá deba su éxito en los últimos años, precisamente, a lo vago y confuso que resulta

Por eso el propio Bostrom hace mucho hincapié en que debemos dotar a esas inteligencias artificiales de unos principios éticos que se alineen con los nuestros. Si no caeríamos en el grave riesgo de que nos consideraran una amenaza o un obstáculo para sus propósitos y que decidieran quitarnos de en medio.

Pero ¿de verdad que esto va a ocurrir? ¿Así será el inevitable fin de la humanidad? ¡De ninguna manera!

Una inteligencia artificial sobrevalorada

Istock 1096227330 1

Solemos caer en el error de pensar que la tecnología de moda, es decir, la tecnología que en el momento presente está experimentando un gran avance, seguirá en el futuro al mismo ritmo. Por ejemplo, si hace nada GPT-3 nos parecía un logro asombroso, se nos caía la baba maravillándonos ante lo que podría hacer GPT-9… ¿Y, por qué no, GPT-300? Si las arquitecturas de deep learning están consiguiendo grandes aportaciones en muchos y variados campos tecnológicos ¿qué no lograrán de aquí a veinte o cincuenta años? Entonces, ¿no parece algo casi inevitable que la inteligencia artificial supere al ser humano y lleguemos a la singularidad?

Para nada. Cuando analizamos en profundidad la historia de la inteligencia artificial y comprendemos el funcionamiento de estos algoritmos, la magia se deshace. Las bases teórico-matemáticas de las redes neuronales artificiales tienen más de treinta o cuarenta años de antigüedad. Por ejemplo, las redes convolucionales, la arquitectura más utilizada en la actualidad, son una progresiva mejora por parte de Jan LeCun y de Dan Ciresan, del Neocognitron de Kunihiko Fukushima de 1980 ¡Una tecnología de hace más de cuarenta años!

Solemos caer en el error de pensar que la tecnología de moda, es decir, la tecnología que en el momento presente está experimentando un gran avance, seguirá en el futuro al mismo ritmo

O, igualmente, la famosa backpropagation, el mecanismo fundamental de aprendizaje de la mayoría de estos algoritmos, fue inventada por Rumelhart, Hinton y Williams en 1986 ¡Hace treinta y cinco años!

Pero entonces, ¿por qué conseguimos logros que en esos años no podían casi ni soñarse? Principalmente por la mejora de la capacidad de cómputo. Entrenar a GPT-3 con 175 mil millones de parámetros era completamente imposible hace unos pocos años. Los logros de la inteligencia artificial actual no se deben entonces tanto a mejoras teóricas, a que los ingenieros hayan descubierto el Santo Grial, sino, sencillamente, a la fuerza bruta de la que disponemos.

Vale, pero eso no quita que los logros estén ahí. Alpha Zero juega al ajedrez como jamás se ha hecho por mucho que conceptualmente no sea tan moderno. Cierto, pero la cuestión es: ¿seguirá mejorando y mejorando de forma ilimitada? ¿Hay razones para pensar eso? En la historia de la inteligencia artificial se han dado constantemente unas expectativas desaforadas que han estado lejos de cumplirse. La inteligencia artificial ha pasado por varios inviernos en los que nadie apostaba un céntimo por ella. Ahora ha vuelto a resucitar pero ¿qué razones tenemos para pensar en que esta resurrección no volverá a entrar en crisis?

¿Qué razones hay para pensar que la inteligencia artificial continuará avanzando hasta el infinito y más allá?

La desmesurada tesis del avance exponencial

Los singularistas asumen demasiado alegremente la idea de exponencialidad. Cuando algo avanza o crece a un ritmo exponencial estamos diciendo algo muy fuerte. Por ejemplo, cuando un grupo de bacterias se reproduce por fisión binaria (cada bacteria se divide en dos), lo hace a un ritmo exponencial (2N -1 ): en la segunda generación de bacterias hay tres, en la tercera siete, en la cuarta quince… En principio, no parece nada raro, pero si esperamos un pelín, la cosa se desmadra. Para 220 tenemos ya 1.048.575 bacterias, pero es que para 250 tenemos 1.125.899.906.842.623… ¡Menuda infección! ¿Puede una tecnología avanzar con ese mismo ritmo de crecimiento?

Los logros de la inteligencia artificial actual no se deben entonces tanto a mejoras teóricas, a que los ingenieros hayan descubierto el Santo Grial, sino, sencillamente, a la fuerza bruta de la que disponemos

No existe ninguna referencia histórica a proyecto tecnológico que se haya desarrollado a ese ritmo de forma continuada. Lo que suele ocurrir es que, aunque una tecnología pudiera avanzar en un momento muy corto de su desarrollo a un ritmo exponencial, ese ritmo termina por decrecer rápidamente y quedarse estancado en un techo. Las tecnologías suelen progresar en forma de función logística y no de función exponencial.

Y, ni siquiera la ley de Moore, en la que suelen basarse para sostener la idea de progreso continuo de la informática, sigue un crecimiento exponencial, sino típicamente lineal.

Transistores

Entonces, ¿qué razones hay para pensar que la inteligencia artificial desplegará un crecimiento exponencial? Para calcular este crecimiento habría que encontrar un parámetro que podamos cuantificar para estudiar su crecimiento. Si hablamos de inteligencia artificial lo suyo será intentar medir la inteligencia

¿Qué es eso que llamamos inteligencia?

Istock 1255414636

A priori parece que no hay problema. La psicología inventó desde hace más de un siglo un concepto para medir la inteligencia: el viejo cociente intelectual (CI o IQ en inglés). Así, como es un número, puede crecer hasta el infinito. Si alguien tiene un CI de 120, también se puede tener 250, o 20.000… ¡Esa magnitud es la que crecerá a ritmo exponencial!

Espera. En primer lugar resulta bastante apresurado entender la inteligencia apelando al nivel de CI. De hecho, este concepto ha sido muy criticado (véase 'La falsa medida del hombre' de Stephen Jay Gould), principalmente, porque solo mide unas cuantas habilidades, a saber, las relacionadas con el rendimiento escolar o académico, dejando fuera muchas otras. La creatividad, las habilidades sociales, la inteligencia emocional, etc. quedan completamente fuera de los test de CI, y ahora sabemos que son esenciales para realizar multitud de tareas que consideraríamos genuinamente inteligentes.

Bien, pues definamos inteligencia de otra forma tal que sea susceptible de ser cuantificada. Gran problema: hoy en día no existe ningún acuerdo en la comunidad científica acerca de lo que es la inteligencia. Para intentar poner algo de orden, en diciembre de 1994, la psicóloga Linda S. Gottfredson publicaba en el Wall Street Journal una definición de inteligencia avalada por la firma de otros 51 psicólogos más:

“La inteligencia es una capacidad mental muy general que, entre otras cosas, implica la capacidad de razonar, planificar, resolver problemas, pensar de manera abstracta, comprender ideas complejas, aprender rápidamente y aprender de la experiencia”.

Véase la poca calidad de esta definición. Gottfredson dice que la inteligencia es una capacidad general compuesta por una serie de capacidades “entre otras cosas”, es decir, que deja en el tintero otras capacidades que aquí no nombra. Pero es más, no se molesta en decir que tienen en común todas ellas para ser subsumidas bajo el mismo concepto… ¡Esto no es siquiera una definición! Es lo mismo que definir fruta diciendo: “Fruta es naranjas, manzanas y otras cuantas cosas más”.

Además, los problemas no terminan aquí: todavía encontramos ambigüedades en los significados de estas capacidades: ¿Qué es exactamente pensar en abstracto? ¿Qué es exactamente comprender algo? ¿Qué es la experiencia? Volvemos a caer en definiciones que nos llevan a nuevas definiciones más oscuras si cabe.

Pero es que incluso podemos negar la mayor. Gottfredson dice que la inteligencia es “una capacidad mental muy general”, pero es que no sabemos qué quiere decir eso de inteligencia general. Desde los estudios psicológicos pioneros en la medición de la inteligencia, con los trabajos de Galton, Spearman, Thurstone o Binet, esa idea resultaba controvertida. Solo podíamos medir habilidades especializadas en resolver un determinado tipo de tareas, como la comprensión verbal, la memoria numérica, la visión espacial, etc. ¿Hay en nuestra mente algún tipo de capacidad general que, de alguna manera, englobe a todas las demás?

El famoso CI fue intentado por William Stern en 1912 como una etiqueta útil que no representa ningún tipo de cosa ontológicamente existente (¿Cuál es la unidad de la inteligencia? ¿El inteligencio?). El CI no es más que el promedio entre una serie de capacidades o habilidades mentales que se comparara con el promedio que han sacado las personas de tu misma edad. Un promedio no representa nada, es solo un valor que nos puede servir como información práctica por ejemplo, para intentar explicar los resultados académicos de un grupo de alumnos, pero no habrá ningún alumno con ninguna cualidad real que pudiéramos cuantificar con ese valor.

Entonces, ¿qué diablos es esa capacidad que va a crecer exponencialmente cuando llegue la singularidad?

¿Y no tendrá algún techo la inteligencia?

Y es que solemos manejar una concepción casi mágica de las posibilidades de la inteligencia ¿Es un superpoder que lo puede todo? ¿No hay límites que no pueda superar? ¿De verdad que puede crecer sin límite?

Pensemos en cualquier habilidad mental que suele medir un test como, verbigratia, la fluidez verbal: expresarse en un lenguaje con corrección y espontaneidad. Supongamos entonces que diseñamos una máquina que habla en castellano con una total corrección gramatical, con una voz agradable que vocaliza a la perfección.

Una vez llegado a esto ¿cómo podríamos mejorar aún más la fluidez verbal? ¿No habríamos llegado a un máximo? Entonces, la fluidez verbal no es una capacidad que pueda mejorar exponencialmente de forma indefinida ¿No pasará eso con las demás capacidades mentales? Pruebe el lector con cualquier habilidad mental clásica y reflexione sobre si tendrá un techo o si podrá crecer hasta el infinito.

Hagamos un simplón experimento mental. Por mor de la argumentación vamos a aceptar que las computadoras son capaces de mejorar su propio CI. Supongamos que la primera generación de super máquinas tiene un CI de 170 ¡Guau! ¡Son muy superiores a la gran mayoría de los humanos! Entonces, en unas semanas, consiguen mejorarse y la segunda generación tiene un CI de 190, la tercera de 210 y la cuarta de 235. Pero, de repente se encuentran con un grave problema. A esos niveles ya es muy difícil encontrar formas de mejorar la inteligencia. Así, la inteligencia necesaria para subir al siguiente escalón es de 240. Por los pelos, pero por mucho que las computadoras se devaneen sus sesos positrónicos, ninguna es lo bastante inteligente como para hacerse más inteligente… ¡Se acabó el sueño de la singularidad!

Este experimento es una chorrada pero ilustra muy bien la idea de que el avance tecnológico no es algo tan fácil de conseguir, ni siquiera a base de subidas de CI. La ciencia y la tecnología avanzan, entre muchos factores, a base de experimentos. Estos experimentos, habitualmente, se realizan en unas determinadas instituciones, y requieren financiación y personal que los lleve a cabo.

Muchas veces, una investigación no llega a buen puerto no porque no sea prometedora sino, simplemente, porque no encuentra financiación debido a que sus promotores no consiguen vender bien su propuesta, o porque en ese momento los fondos van para otras investigaciones que se consideran más interesantes ¿No se encontrarán las inteligencias artificiales con este tipo de problemas? Me resulta divertido imaginar a un robot intentando persuadir a unos inversores argumentando que ha encontrado una vía prometedora para subir el CI de las máquinas en diez puntos. Los inversores le dicen que no porque todo el dinero se lo está llevando el último proyecto de Elon Musk para llevar gente a Plutón.

O, piense el lector en las meras imposibilidades técnicas. Para un hombre tan inteligente y con tan grandes conocimientos sobre matemáticas y astronomía como Galileo, sería completamente imposible construir un trasbordador espacial. La ciencia y la tecnología de su época hacían completamente inviable, si no siquiera imaginable, la carrera espacial. Habría que esperar todavía trescientos años para que este sueño se hiciera realidad. Pues bien, ¿no podría pasarle esto a nuestras super máquinas? Supongamos que, una vez llegado al CI de 235, para dar el siguiente paso hace falta que la ciencia y la tecnología avancen trescientos años más… ¿Dónde quedaría aquí el imparable avance exponencial?

Soy muy lista pero ¿tanto como para hacerme más lista a mí misma?

Istock 1022892524

Y otro error consiste en suponer, de manera completamente infundada, que las inteligencias artificiales podrán mejorarse a sí mismas ad infinitum. Hoy en día nuestros algoritmos de deep learning son muy buenos en hacer tareas muy concretas tales como jugar al ajedrez, identificar objetos en imágenes o crear y traducir texto. Presumiblemente podemos decir que en un futuro seguirán mejorando en esas tareas pero ¿tenemos algo sobre algoritmos que se mejoren a sí mismos? Muy poco o, en el mejor de los casos, no lo suficiente para justificar la tesis del ritmo de automejora exponencial.

Desde que John Von Neumann planteara en serio la idea de máquinas que se autorreplican en su 'The Theory of Self-reproducing Automata' de 1966, han existido algunas ideas, pero sobre todo en campos que, a priori, poco tienen que ver con la informática o la programación de mejora de la inteligencia, como son la genética (el ADN es una máquina autorreplicante) o la futura conquista del espacio (mandar un robot autorreplicante parece una buena idea para colonizar un planeta). Y estos avances no han dado todavía para mucho ¿Existe alguna máquina autorreplicante en el mercado? ¿Conoce usted a alguien que tenga una?

¡Un momento! ¿Y qué me dice de los virus informáticos? Son máquinas autorreplicantes bastante eficaces, siendo, además, programas informáticos como los algoritmos de inteligencia artificial. Pensemos en los “quine”, programas cuya única tarea consiste en emitir su código fuente. Sí, pero si algo define a estos programas es su simpleza. Estos pequeños trozos de software se replican a sí mismos como quien copia y pega un archivo, sin entender nada de su propio funcionamiento, por lo que no hay nada de ellos que nos sirva para diseñar una máquina capaz de mejorarse a sí misma.

Más interesante es lo que se ha denominado Auto Machine Learning (AutoML): arquitecturas de machine learning que mejoran a otras arquitecturas de machine learning ¡Voilá! ¿No es eso, precisamente, lo que estábamos buscando? Sí, pero lamentablemente, su recorrido todavía es muy corto. Sí, el AutoML se basa principalmente en utilizar redes para mejorar otras, pero las mejoras son muy limitadas.

Por ejemplo, las redes neuronales artificiales tienen un número determinado de neuronas organizadas en un número determinado de capas. Si estamos diseñando una red para reconocer gatitos en fotos de Instagram, podríamos utilizar otra red para que optimizara el número de neuronas y capas de forma que mejorara la efectividad de la red inicial (es lo que se llama optimización de hiperparámetros). Muy interesante, pero la mejora no va más mucho más allá. Una IA optimiza a otra, pero no llega a nada más, no puede crear ninguna nueva estructura ni realizar otro tipo de mejoras.

Otro error consiste en suponer, de manera completamente infundada, que las inteligencias artificiales podrán mejorarse a sí mismas ad infinitum

Y es que algo que los no especialistas no tienen demasiado en cuenta es que cuando entrenas una red neuronal llega un momento en que, aunque la entrenes más ya no mejora, sino todo lo contrario. Es lo que se llama overfitting o sobreajuste. De esta forma, una determinada arquitectura llega a un techo a partir del cual ya no nos vale para nada seguir entrenándola, y ya será complicado hacer que mejore sustancialmente.

Es decir, en el área de investigación inteligencias artificiales que se hacen más inteligentes a sí mismas no hay demasiadas razones para hablar de un gran progreso, tantas menos para hablar de un posible avance exponencial.

¿Una singular estafa?

La singularidad tecnológica es una idea sugerente y evocadora, muy interesante para reflexionar sobre un montón de cuestiones. El ser humano se ha caracterizado por su radical soledad. Todos nuestros parientes evolutivos cercanos se extinguieron dejando sola a nuestra especie. Pensar en una inteligencia artificial igual o superior a nosotros consiste en meditar sobre la ruptura de esa soledad, acerca de la relación con lo radicalmente otro.

Esto nos lleva inevitablemente a mirarnos al espejo y a cavilar sobre nosotros mismos: ¿Podré enamorarme de una inteligencia artificial? ¿Qué es entonces el amor? Si las máquinas nos quitan el trabajo ¿Qué haremos con nuestras vidas? Si nos superan y toman el mando ¿cuál sería el sentido de nuestra existencia? La inteligencia artificial es el logro científico de nuestro tiempo y, en cuanto a tal, supone una revolución del pensamiento.

Pero hasta aquí podemos llegar, porque otra cosa muy distinta es vender la singularidad como un hecho no solo inevitable, sino cercano en el tiempo. Como creo haber argumentado a lo largo de este artículo, no hay razones ni evidencia científica suficiente para sustentar si quiera que algo así vaya a suceder alguna vez en la historia, cuanto menos para decir que ocurrirá en las próximas décadas.

Los defensores de la singularidad están actuando más como fanáticos religiosos que fundan sus ideas en la fe, que como auténticos intelectuales, y la Universidad de la Singularidad y sus acólitos transhumanistas parecen más una secta que una institución científica. En ciencia hay que vender hechos fehacientes y no quimeras y ensoñaciones. Eso, al menos en mi pueblo, es vender humo, cuando no, directamente, estafar al personal.

4 de enero de 2040

Me quito las gafas de realidad virtual. Ha sido una experiencia inmersiva alucinante. Singularity Apocalypse, el último bombazo en el mundo de los videojuegos de Electronic Arts, te permite experimentar el fin de la humanidad con un realismo sin precedentes. Con el traje de retroalimentación háptica he podido sentir incluso el frío de las desoladas estepas apocalípticas; pero lo más espectacular es el nuevo casco de estimulación electromagnética que permite simular estados emocionales. Verdaderamente, sentía la desesperación, la soledad, el nudo en la garganta de vivir el fin del mundo en directo. Una pasada.

Vuelvo al mundo real ¿Qué cómo es el mundo de 2040? Tiene cosas muy buenas y otras no tanto, pero desde luego, las máquinas no han tomado el mando. Como ha sido una constante en la historia de nuestra especie, hay que seguir temiendo más a nuestros congéneres que a sus inteligentes creaciones artificiales.

Fotos | iStock

450 1000
Sobre Santiago Sánchez-Migallón: Profesor de Filosofía atrapado en un bucle: construir una mente artificial, a la vez que construye la suya propia. Fracasó en ambos proyectos, pero como el bucle está programado para detenerse solo cuando dé un resultado positivo, allí sigue, iteración tras iteración. Quizá no llegue a ningún lado, pero dice que el camino está siendo fascinante. Darwinista, laplaciano y criptoateo, se especializó en Filosofía de la Inteligencia Artificial, neurociencias y Filosofía de la Biología. Es por ello que algunos lo caracterizan de filósofo ciberpunk, aunque esa etiqueta le parece algo infantil. Adora a Turing y a Wittgenstein y, en general, detesta a los postmodernos. Es el dueño del Blog La Máquina de Von Neumann y colabora asiduamente en Hypérbole y en La Nueva Ilustración Evolucionista.


via Robótica e IA - Xataka https://ift.tt/3sfyRMk

viernes, 13 de agosto de 2021

Este Jensen Huang no es real, es virtual: así nos engañó a todos NVIDIA durante 14 segundos con un deepfake espectacular

Este Jensen Huang no es real, es virtual: así nos engañó a todos NVIDIA durante 14 segundos con un deepfake espectacular

En abril, NVIDIA ofreció su visión del 'omniverso' a través de su CEO, Jensen Huang, y en esa conferencia de casi dos horas este directivo tuvo un sustituto sorprendente: un deepfake o representación virtual de Huang que resultó ser tan convincente que nadie se enteró del truco.

Ahora NVIDIA ha explicado el proceso y ese singular 'making of' con el que lograron plantear ese doble virtual que nadie detectó aunque, eso sí, solo participó durante 14 segundos. La tecnología de NVIDIA mostró así su inquietante potencial para mostrarnos un futuro en el que será muy difícil diferenciar lo real de lo virtual.

Ese Jensen no era el Jensen de verdad

Los avances de NVIDIA en el ámbito de la inteligencia artificial y el aprendizaje profundo han servido para que disfrutemos de generadores de caras o de los sistemas que "pintan" paisajes a partir de brochazos.

Esa capacidad ha sido también utilizada para la creación de deepfakes que, como en el caso del célebre anuncio de Lola Flores y Cruzcampo, "dan el pego" de forma asombrosa. El último ejemplo lo tenemos en la propia NVIDIA, que usó un doble virtual de su CEO, Jensen Huang, durante una pequeña parte de su presentación del GDC 21 en abril.

La compañía desvela los secretos de ese montaje con un vídeo especial en el que habla de su particular metaverso, al que llama omniverso, y que aglutinó diversos componentes para crear una keynote para el evento GDC 21 en el que las imágenes generadas por ordenador se entremezclaron con las reales sin que nos diésemos cuenta.

Jensen3

Uno de los momentos en los que eso de deja claro es en la propia participación de Jensen Huang. Los ingenieros y creativos de NVIDIA construyeron una réplica de su cocina y digitalizaron a Huang con una batería de cámaras DSLR.

Como explican estos ingenieros, "Se escaneó la cara y el cuerpo del CEO para crear un modelo 3D, luego se entrenó a una inteligencia artificial para imitar sus movimientos y expresiones y luego se aplicó cierta magia de IA para hacer que este clon fuera realista".

Fewfgew

El resultado es difícil de apreciar en el vídeo completo, aunque todo apunta a que la parte en la que aparece ese doble virtual es en este momento en el que su cocina se "desmonta" para dar lugar a un escenario virtual en el que Jensen Huang presentaba un nueva supercomputadora para IA.

En el documental del 'making of' se muestra cómo realizaron todo el proceso gracias sobre todo a la tecnología de inteligencia artificial que permitía generar esa réplica a partir de una serie de datos y cierto entrenamiento.

El resultado fue desde luego convincente, y demuestra una vez más el avance imparable de la tecnología en un campo que tiene aplicaciones fantásticas... y otras que son claramente inquietantes.

Vía | Vice

Más información | NVIDIA



via Robótica e IA - Xataka https://ift.tt/3yKTVMX

jueves, 12 de agosto de 2021

Este robot no sólo imita la forma de los camaleones, también su capacidad de cambiar de color según el entorno

Este robot no sólo imita la forma de los camaleones, también su capacidad de cambiar de color según el entorno

Algunos animales de la naturaleza como los camaleones o los pulpos por ejemplo son capaces de cambiar de color y los patrones de su piel para adaptarse al entorno y camuflarse mejor. Esta característica no es tan fácil de replicar de forma artificial, aunque los avances cada vez son mayores. En un nuevo experimento unos investigadores han conseguido un robot que adapta su piel al color del fondo sobre el que se encuentre.

Un equipo de investigadores surcoreanos son los artífices de este experimento. En él han tanteado con un camaleón robot para que adapte su piel según la superficie sobre la que camine. El equipo de ingenieros mecánicos e ingenieros de la Universidad Nacional de Seúl y la Universidad de Hanyang detalla en el artículo publicado en Nature Communications cómo lo han hecho.

El reto de cambiar de color al instante

Las tecnologías de camuflaje artificial a menudo se han basado en usar microfluidos que permiten cambiar el color de la superficie. Este sistema sin embargo es un proceso lento, demostrando que la dificultad en esto realmente está en conseguir el cambio de color casi al instante, hacen los seres vivos capaces de cambiar de color.

La nueva investigación utiliza un proceso algo diferente, se basa en nanohilos plateados y materiales termocrómicos. Los materiales termocrómicos pueden cambiar de color según se expongan a diferentes temperaturas. ¿El resultado? Un robot capaz de recrearen su piel diferentes colores a alta resolución y a una velocidad sorprendentemente alta.

Screenshot

La primera idea del equipo de investigación era imitar a un pulpo u otros animales invertebrados. Los investigadores dicen que apuntaron demasiado alto con eso y el proyecto era demasiado ambicioso. ¿Por qué? Por la dificultad de imitar superficies tan flexibles y elásticas como la piel de un pulpo. En su lugar apostaron por algo mas modesto como el camaleón y su estructura más rígida.

Quizás un camaleón robot que apenas se mueve no tiene mucha utilidad para cambiar de color. Sin embargo, es sólo una muestra de lo que la tecnología permite. A menudo el camuflaje artificial se ha utilizado para el sector militar, pero puede tener muchas otras utilidades. Por ejemplo, aplicar esta superficie camaleónica a vehículos para que cambien de color según el calor que haga y de esta forma aíslenles mejor la temperatura interna.

No es la primer vez que tratamos de imitar a la naturaleza para crear nuevas tecnologías. En los últimos años hemos visto decenas de ejemplos, como el aleteo de este pájaro robot, sistemas neuromórficos, computación biológica, el robot Velox, fotosíntesis artificial o las lenguas sintéticas.

Vía | MIT
Más información | Nature Communications



via Robótica e IA - Xataka https://ift.tt/2VFPAg5

miércoles, 11 de agosto de 2021

¿Qué hace un androide como tú en un sitio como este? (Podcast Ovejas Eléctricas, 1x08)

¿Qué hace un androide como tú en un sitio como este? (Podcast Ovejas Eléctricas, 1x08)

En la ciencia-ficción siempre ha habido un espacio reservado para el acompañamiento robótica y las relaciones entre androides y humanos. A veces de una forma más etérea, como Samantha encandilando hasta el extremo a Joaquin Phoenix en 'Her'; a veces de una forma más forzada aunque familiar, como en 'El Hombre Bicentenario'.

Aunque ningún asistente de voz haya llegado todavía al nivel de Samantha, para bien o para mal; y no tengamos acompañamientos androides de forma masiva, sí nos hemos ido acercando hasta ahí de forma sigilosa pero efectiva. Especialmente en el caso de las personas que más pueden beneficiarse, tal vez requerir, este tipo de robots a su lado.

Y de eso va Ovejas Eléctricas, una producción de Xataka en colaboración con Samsung y en exclusiva para Audible. Hoy publicamos el octavo episodio, siempre con invitados expertos y protagonistas que han experimentado esos cambios en primera persona. Con las secciones de Ángela Blanco y presentado por un servidor, Javier Lacort. En cada uno contamos desde un prisma diferente cómo la tecnología nos ha transformado por completo, aunque a veces sigamos esperando viajar en DeLorean.

¿A qué hora me tengo que tomar el Sintrom?

Post

En este episodio sobre robots asistenciales contamos con la presencia de Francesco Ferro, CEO y fundador de PAL Robotics, empresa que ha usado robots de asistencia para la tercera edad como proyecto piloto y ya está desarrollando otros tipos de robots bípedos con apariencia humanoide.

Para hablarnos de la ética y la filosofía que debe regir a estos robots y cómo pueden encajar en nuestra vida humana tenemos a un experto como es Santiago Sánchez-Migallón, profesor de Filosofía y filósofo e investigador en Inteligencia Artificial. Él nos habla de esa ética de la robótica, del valle inquietante e incluso de lo que suponen otro tipo de robots, los sexuales.

Precisamente para hablar de esos robots sexuales y sus implicaciones tenemos a Francisca Molero, sexóloga clínica que Preside la Federación Española de Sociedades de Sexología, y también es directora del Instituto Iberoamericano de Sexología.

Y por último, como experto invitado de Samsung, Sergi Perdices, director de ingeniería en Samsung Research America, quien nos hablará de límites éticos en el desarrollo de asistentes conversacionales. Spoiler de la primera premisa: ser amable, pero nunca engañar.

Por ser lector de Xataka, dos meses gratis de Audible

Para escuchar Ovejas Eléctricas y descubrir el catálogo de Audible puedes suscribirte desde este enlace y obtener dos meses gratis. Luego su precio es de 9,99 euros al mes.



via Robótica e IA - Xataka https://ift.tt/3fUSmoq

CyberDog: el perro robot de Xioami que es 49 veces más barato que el de Boston Dynamics

La compañía china lanza su primer robot en clara inspiración del trabajo realizado por Boston Dynamics durante años Leer

via Tecnología // elmundo https://ift.tt/3CEN0Y4

martes, 10 de agosto de 2021

Codex de OpenAI promete traducir lenguaje natural en código de programación gracias a la inteligencia artificial

Codex de OpenAI promete traducir lenguaje natural en código de programación gracias a la inteligencia artificial

La compañía de inteligencia artificial OpenAI ha conseguido varios logros importantes en los últimos años. Uno de los más impresionantes probablemente sea GPT-3 y lo que es capaz de hacer para improvisar según lo que le digamos. Ahora la compañía promete una herramienta aún más útil con Codex, una herramienta que traduce del inglés a lenguaje de programación.

El software se llama Codex y está diseñado para facilitar la vida a los programadores profesionales sin que tengan que picar código básico. Por otro lado, también puede ayudar a los que comienzan a programar o los que no saben prácticamente nada de programación, permitiéndoles dar los primeros pasos con “un guía“ de ayuda.

Programación básica y tediosa para un humano

La idea detrás de esto es sencilla: escribimos o dictamos a la herramienta qué queremos crear o modificar y ella se encarga de hacerlo mediante código de programación. Por ejemplo “crea una página web con un menú en la parte superior y un título en el centro de la página” será convertido a todo un documento HTML (sí, HTML no es un lenguaje de programación) que estructurará la página web con un menú superior y un título central.

OpenAI Codex has a qualitatively new capability — it can write code with sufficient accuracy that users can direct their computer in natural language.

Codex is now in OpenAI API, for people to build new businesses or integrate with existing applications: https://t.co/n3U4DJ7fqC pic.twitter.com/3ETsyXMQ7T

— OpenAI (@OpenAI) August 10, 2021

En otros ejemplos de OpenAI podemos ver cómo la herramienta es capaz de crear juegos básicos o también traducir de un lenguaje de programación a otro diferente. En otro ejemplo vemos cómo mediante se integra en Word mediante su API de JavaScript para crear modificaciones en directo en el texto de Word.

La compañía ha hecho una demostración en directo:

Según OpenAI, la herramienta no es un aviso del fin de la programación humana. Indican que ellos ven la programación en dos fases. La primera de ellas es la de encontrar y solucionar el problema diseñando un sistema. La segunda de ellas es escribir el código rutinario y tedioso para que todo funcione. Dicen que Codex se puede encargar de la segunda parte, mientras que la primera parte seguirá siendo cosa de humanos.

De momento OpenAI Codex está disponible en la beta privada de OpenAI y la idea es abrirlo a más gente poco a poco y a medida que sea posible escalarlo. Será una herramienta gratuita y será posible integrarla en multitud de sistemas y otras herramientas gracias a su API.

Recientemente Microsoft hizo algo similar con GitHub Copilot. El sistema de programación automática de GitHub también se nutre de GPT-3y su enorme potencial. La idea es la misma: ayudar a quitar carga de trabajo pero en ningún caso quitar el trabajo al programador.

Vía | Axios
Más información |OpenAI Codex



via Robótica e IA - Xataka https://ift.tt/3AvN3nj

La última locura de Xiaomi es un "perro robótico" llamado CyberDog

La última locura de Xiaomi es un

Cuando Xiaomi promete una presentación de tres horas puedes imaginarte cualquier cosas, pero lo que nos ha pillado por sorpresa del todo ha sido el CyberDog. De la mano de su CEO, el fabricante nos ha mostrado un robot autónomo y con cuatro patas al más puro estilo de Spot de Boston Dynamics, aunque sin el brazo accesorio y limitándose a las cuatro patas que tendría un perro real.

El inesperado producto se ha anunciado ya con precio de venta para China, por lo que no se trata de un prototipo como podría haber parecido. CyberDog ha salido a escena tras haber visto el Xiaomi MIX 4, los Mi Pad 5 y 5 Pro, el Xiaomi Sound y nuevos televisores OLED, y como colofón se ha despedido con lo que nos temíamos algunos: una pirueta.

Un robot que nos sigue hasta a 11,5 kilómetros/hora

CyberDog puede "oírnos" con sus seis micrófonos integrados. En la presentación han mostrado como Lei Jun emitía órdenes y el robot atendía, realizando movimientos como sentarse, erguirse, seguirle o acostarse sobre su dorso.

El robot tiene un servo desarrollado por Xiaomi que tiene una rotación máxima de 220 vueltas por segundo y un torque máximo de 32 N·m. Según han mostrado, tiene un peso total de 3 kilogramos (que es mucho menos de lo que parece, al tener un tamaño aparente de un perro mediano) y es capaz de desplazarse a una velocidad de 3,2 m/s, unos 11,52 km/h.

A nivel interno, sabemos que el cerebro de CyberDog es el Jenson Xavier NX de NVIDIA, un ordenador muy compacto que no renuncia a la potencia hasta 21 TOPS de computación acelerada. También dispone de un módulo de profundidad de Intel que, según han comentado, permite a CyberDog esquivar objetos y desplazarse con un margen de error de un centímetro.

Cyberdog 02

A falta de confirmar más especificaciones, podemos intuir que lo que sería la "cara" de CyberDog dispone de sensores y cámaras que le permiten desplazarse junto con este módulo y quizás servir de cámara para la familia. De hecho, dispone de un SSD interno de 128 GB, un almacenamiento considerable.

Habrá que ver qué utilidades tiene CyberDog en la práctica, sirviendo quizás como cámara de vigilancia o robot asistencial. La verdad es que tiene toda la apariencia de los robots del episodio 'Metalhead' de 'BlackMirror', que eran de todo menos cariñosos y serviciales, así que estaremos pendientes de qué empiezan a mostrar sus primeros usuarios.

Cyberdog 04

Porque sí, CyberDog tiene precio de venta y es de 9.999 yuanes, unos 1.288 euros al cambio. Estaremos pendientes de si llega a venderse de manera internacional, sobre todo también por si puede llegar a pasar por nuestra mesa de análisis.



via Robótica e IA - Xataka https://ift.tt/3AvuEqQ

jueves, 5 de agosto de 2021

Pandemia, 1 - Inteligencia artificial, 0: la promesa de un algoritmo que permitiera luchar contra la COVID-19 jamás se cumplió

Pandemia, 1 - Inteligencia artificial, 0: la promesa de un algoritmo que permitiera luchar contra la COVID-19 jamás se cumplió

Las expectativas de que la tecnología ayudara a minimizar los efectos de la pandemia de COVID-19 eran enormes. Sin embargo junto al descalabro de las aplicaciones de rastreo de contactos tenemos otro gran fracaso: el de una inteligencia artificial que ha servido de poco o nada a la hora de luchar contra este problema global.

Desde el inicio de la pandemia se trataron de crear algoritmos de aprendizaje automático (machine learning) que ayudaran por ejemplo a diagnosticar a los enfermos, pero ni esos ni ningún otros han acabado sirviendo de mucho. La pandemia le ha ganado la batalla a la IA.

Mucho ruido, pocas nueces

Lo explicaban en MIT Technology Review, donde recordaban los esfuerzos múltiples que se han llevado a cabo para tratar de que la inteligencia artificial fuera una herramienta útil contra la COVID-19.

No lo ha sido: el Turing Institute británico emitía en junio un informe (PDF) en el que revelaba que las herramientas creadas con IA han tenido poco o ningún impacto en la lucha contra la pandemia.

Para estos investigadores la inteligencia artificial sigue teniendo el potencial para ayudar en estas situaciones, pero hay también peligros a la vista: se podrían producir diagnósticos erróneos o que subestimaran el riesgo para pacientes vulnerables. 

Otros estudios como el aparecido en el British Medical Journal u otro publicado en Nature Machine Intelligence de un investigador de la Universidad de Cambridge llegaban a la misma conclusión: cientos de herramientas se publicaron, y ninguna de ellas estaba preparada para usos clínicos reales.

A ese problema se suma otro crucial: estos algoritmos necesitan ser alimentados con datos, y aunque durante la pandemia se ha recolectando una enorme cantidad de ellos, muchos no estaban correctamente etiquetados o provenían de fuentes desconocidas. Algunos expertos llaman a esas colecciones de datos poco confiables "conjuntos de datos de Frankenstein", y en ellos aparecían problemas como duplicidad y redundancia que reducían la efectividad de los algoritmos.

Los sesgos de incorporación —introducidos cuando se etiquetan los datos— ha sido otro de los problemas: era mucho más adecuado etiquetar por ejemplo una exploración médica con el resultado de una prueba PCR que con la opinión de un médico, pero como decían estos investigadores, el ajetreo de los hospitales ante la pandemia ha hecho difíci algo así.

También ha habido problemas de coordinación: muchos investigadores se apresuraron a crear sus propios modelos en lugar de trabajar en conjunto con otros analistas y médicos.

Como decía uno de los expertos que estudió esos esfuerzos: "los modelos son tan similares -casi todos usan las mismas técnicas con pequeñas modificaciones, y con los mismos datos- que todos cometen los mismos errores". 

La OMS está considerando crear un proyecto que permita compartir datos para que en el futuro se eviten o al menos se minimicen estos problemas, pero la propuesta es aún algo difusa. Lo cierto es que el fracaso de la inteligencia artificial ante la COVID-19 ha sido claro, y ahora solo queda esperar que todo esto ayude a que en el futuro no se repitan los mismos errores.

Vía | MIT Technology Review



via Robótica e IA - Xataka https://ift.tt/3lyvLSn