miércoles, 28 de abril de 2021

Un robot autónomo capaz de recolectar manzanas: la idea de unos investigadores para solucionar la falta de agricultores en Australia

Un robot autónomo capaz de recolectar manzanas: la idea de unos investigadores para solucionar la falta de agricultores en Australia

Con el avance en la robótica estamos viendo en los últimos años que quizás podrían ir reemplazándonos en algunos puestos de trabajo. Para eso (por suerte) aún parece quedar bastante, pero cierto es que la agricultura se ha convertido en un posible caso con la aparición de robots agricultores altamente eficientes.

Lo veíamos hace unos días con un robot autónomo que eliminaba las malas hierbas con rayos láser y hoy lo vemos con un robot que recolecta manzanas. Una idea que surge a raíz de que, debido al coronavirus, en Australia se han visto faltos de personal para la recolección de frutos.

Sin prisa, pero sin pausa

Así lo expone la publicación sobre este robot autónomo recolector, fruto de la investigación de los doctores Chao Chen, Wesley Au, Hanwen Kang y los investigadores Xing Wang y Hugh Zhou, de la universidad de Monash (en Australia). Como vemos, a nivel estructural el robot es básicamente un brazo mecánico conectado a una base, de manera que va tomando las manzanas, rotándolas para romper el tallo y lanzándolas a un capazo.

Tras esa aparente simplicidad, hay varias tecnologías clave que se requieren para que este robot sea completamente autónomo. Dispone de una serie de cámaras que trabajan junto a un conjunto de algoritmos de deep learning para reconocer los frutos del árbol. Es decir, hace un procesamiento de datos de forma, orientación y ubicación para recogerlo, sobre lo cual puntualizan que se ha tenido en cuenta que no se dañe ni el fruto ni el árbol (cuando la fruta no se recolecta bien se puede dañar la planta o bien crear un punto de predisposición de podredumbre).

El final del brazo mecánico es... Una mano mecánica. El robot tiene una especie de dedos neumáticos que actúan a modo de pinzas, además de un sistema de succión para atrapar la manzana. Este sistema de succión ayuda a que el fruto quede bien tomado sin dañar la copa ni las ramas, explica el Dr Chen.

Según los datos que exponen, el robot autónomo recolector es capaz de identificar el 90% de las manzanas en una distancia de 1,2 metros. Aseguran que tarda 200 milisegundos en procesar cada imagen de un fruto y que puede trabajar independientemente de las condiciones climáticas.

Las pruebas se realizaron en febrero y marzo, recolectando el 85% de los frutos "alcanzables" (según especifican). Alrededor de un 6% fueron dañados, si bien es fruta que aún puede venderse (pero se descarta por determinados motivos para la venta directa).

No sabemos a qué velocidad vemos al robot actuar en los vídeos, pero según los investigadores puede llegar a recoger una manzana en 7 segundos si va a máximo rendimiento, quedando en 12,6 segundos por recolección si se pone en marcha a media potencia. Esta velocidad aumenta a los 9 segundos por manzana en invernaderos con los árboles alineados.

A primera vista, pese al convencimiento de los investigadores, da la impresión que aún es un sistema con margen de mejora tanto por la velocidad como por la tasa de error, teniendo en cuenta que no queda claro que la autonomía implique el desplazamiento de un área a otra. Desde luego, la idea de robotizar la agricultura por falta de personal no es algo nuevo, ya con cierta alerta por parte de los trabajadores (cuando no escasean, sino todo lo contrario) por la inevitable condición de imbatible de una máquina con respecto a un ser vivo. Veremos si esto acaba siendo una solución si la falta de personal sigue.

Imagen | Monash University



via Robótica e IA - Xataka https://ift.tt/3u0pNei

martes, 27 de abril de 2021

Los deepfakes llegan a las imágenes satelitales: las IA ahora colocan edificios, vegetación y estructuras falsas

Los deepfakes llegan a las imágenes satelitales: las IA ahora colocan edificios, vegetación y estructuras falsas

Cuando hablamos de deepfakes generalmente nos viene a la cabeza vídeos donde se colocan caras de famosos, se modifican lo que los sujetos dicen o directamente crean anuncios. Pero hay más, ahora un grupo de investigadores ha demostrado que se pueden usar también para crear mapas falsos.

Tal y como detalla un equipo de investigadores de la Universidad de Washington, es posible generar imágenes satelitales deepfake utilizando la inteligencia artificial. Generando sus propios deepfakeS, los investigadores esperan ahora poder crear una herramienta más potente para detectar los deepfakes en imágenes satelitales.

Según indican, pudieron aplicar edificios, estructuras y vegetación de diferentes lugar a uno determinado. Por ejemplo, colocar en Cadiz edificios de Madrid y vegetación de Lugo. En sus pruebas aplicaron sobre un mapa de la ciudad de Tacoma en Estados Unidos vegetación falsa de Seattle y edificios de Pekín.

Screenshot

El valor de los deepfakes satelitales

Si bien estos mapas pueden ser de utilidad para comprender por ejemplo cómo era en el pasado un lugar o cómo se transformaría si se realizan determinados cambios... a menudo su uso no es ese. Según relatan los investigadores, los deepfakes en imágenes satelitales se pueden utilizar para desinformar.

No es ninguna novedad, desde hace milenios los mapas se han falsificado y modificado para engañar al enemigo. Sin embargo, cuando uno ve imágenes satelitales cree que sn reales porque a fin de cuentas son fotografías del lugar y no interpretaciones de un cartógrafo. No tiene por qué ser así, y los deepfakes de imágenes satelitales son la prueba.

Screenshot 1

Creen que si un intruso accede a las imágenes satelitales de un equipo militar por ejemplo, pueden añadir estructuras falsas como puentes para atrapar al enemigo. También se podrían ocultar edificios importantes y objetivos del enemigo con tal de que no sean descubiertos.

Para hacer estas imágenes satelitales falsas el equipo de investigadores utilizó redes GAN. Mediante este tipo de IA por confrontación es relativamente fácil crear nuevo contenido y es lo que se utiliza por ejemplo para crear rostros falsos. Ahora, mediante ingeniería inversa, esperan crear herramientas capaces de detectar fácilmente este nuevo tipo de deepfake.

Vía | University of Washington



via Robótica e IA - Xataka https://ift.tt/3sYX9J0

Este robot autónomo acaba con 100.000 malas hierbas por hora a base de rayos láser, 20 veces más que un humano

Este robot autónomo acaba con 100.000 malas hierbas por hora a base de rayos láser, 20 veces más que un humano

Carbon Robotics no produce robots humanoides o con forma de perro como Boston Dynamics. En su lugar se dedica a crear robots agricultores. Su robot de tercera generación tiene un sólo objetivo: acabar con las malas hierbas. Y lo hace 20 veces mejor que un humano.

Las malas hierbas roban espacio, luz y nutrientes a los cultivos de los agricultores. Así mismo, a veces pueden facilitar que las plagas de insectos se propaguen y dañen los cultivos. Es por eso que se suele realizar controles de malas hierbas para acabar con ellas y preservar los cultivos.

Hay diferentes opciones para los controles de malas hierbas, por ejemplo con herbicidas químicos o la recolección a mano de las hierbas. El primero de los métodos puede contaminar también el agua y el suelo, dañando en consecuencia los cultivos. El segundo de ellos es un trabajo lento y tedioso que no todo el mundo está dispuesto a hacer.

El robot agricultor

La solución de Carbon Robotics es un vehículo autónomo que se encargue de revisar los cultivos, detectar las malas hierbas y acabar con ellas. El vehículo es completamente autónomo y no requiere de un humano conduciéndolo o supervisándolo. Se encarga incluso de rastrear todo el campo pasando entre líneas de cultivo.

Screenshot 2

El arma del robot es una serie de láseres en la parte inferior que se encargan de eliminar las hierbas. Cuenta además con multitud de sensores y 12 cámaras que analizan el suelo para diferenciar las malas hierbas de los cultivos. Una vez hecho, dispara los rayos láser apuntando directamente a las malas hierbas y sin dañar el resto del cultivo.

Ls compañía dice que su robot autónomo puede eliminar más de 100.000 malas hierbas por hora y entre 15 y 20 acres de cultivos en un día. En contexto, un agricultor humano revisa un acre de cultivos por día aproximadamente.

Screenshot 4

El "pero" aquí lo encontramos en el precio a pagar por el robot agricultor. Carbon Robotics no ha querido desvelar el precio exacto, aunque indicaron a Seattle Times que son varios cientos de miles de dólares. De todos modos de momento no se va a poder comprar, ya han vendido todas las unidades disponibles de este 2021. Habrá opciones para alquilarlo también en vez de pagar el precio total.

Vía | Freethink
Más información | BusinessWire



via Robótica e IA - Xataka https://ift.tt/3gG2kuW

Disney revela Project Kiwi: su esfuerzo por crear robots animatrónicos lo más parecidos a la realidad

Disney revela Project Kiwi: su esfuerzo por crear robots animatrónicos lo más parecidos a la realidad

De la pantalla a la realidad. Ese parece ser uno de los grandes objetivos de Disney en los últimos años. La división de investigación y desarrollo de la compañía ha estado creando nuevos y mejores robots que se asemejen a los personajes de sus universos cinematográficos. La última prueba de ello es un Groot capaz de moverse de forma natural e interactuar con humanos.

Generalmente la gran deficiencia de los robots es la falta de naturalidad a la hora de imitar a un humano, animal o la forma que tengan. Hasta los robots más capacitados como los de Boston Dynamics tienen este problema. Disney se propone solucionar esto con sus animatronics.

Project Kiwi

Durante los últimos años la división de I+D de Disney ha estado trabajando en un proyecto para hacer animatornics lo más reales posibles. Llamado Project Kiwi, de aquí ha salido también el espectacular robot que parpadea y hace ligeros movimientos faciales. Disney también tiene otras experiencias en esto con el robot que hace acrobacias o la colaboración en el delfín robot más real hasta la fecha.

Screenshot

Ahora, Disney ha decidido compartir el progreso que llevan en esto, y lo hacen mostrando a su última creación: un robot animatronic de Groot. Iniciado en 2018, el objetivo del proyecto era crear un robot bípedo totalmente móvil con la semejanza y el tamaño exacto de un determinado personaje.

Según podemos ver en el vídeo, el robot bípedo camina de forma "natural". Natural entre comillas ya que camina como lo hace Groot en las películas de Disney, no exactamente como un humano. También sonrie y saluda a los humanos.

De momento el robot aún tiene algunas limitaciones y pruebas que superar. Por ejemplo, está conectado a un cable de conectividad y a veces a un arnés para caminar. Tampoco sabemos qué capacidades de interacción y autonomía tiene ahora mismo. En los próximos meses quizás sepamos más de él y otros robots animatronics que Disney pueda desarrollar basándose en esta plataforma.

Vía | Hackday



via Robótica e IA - Xataka https://ift.tt/3dQKnYX

lunes, 26 de abril de 2021

Roborock S7: un robot que aspira y friega y no se va mucho de precio

Aunque 549 euros es bastante dinero, el Roborock S7 hace sus dos funciones muy bien y es más barato que la competencia Leer

via Tecnología // elmundo https://ift.tt/3tXS1Gw

Engañan a varios políticos europeos a través de videollamada con un deepfake que imitaba a un opositor ruso

Engañan a varios políticos europeos a través de videollamada con un deepfake que imitaba a un opositor ruso

Los deepfakes como arma política. Varios parlamentarios europeos han sido engañados con esta tecnología, creyendo estar realizando una videollamada con la oposición rusa. Entre ellos se encuentra Rihards Kols, responsable de la comisión de asuntos exteriores de Letonia, Tom Tugendhat, presidente del comité de asuntos exteriores del Reino Unido, así como otros políticos de Estonia y Lituania, según describe The Guardian.

Los políticos europeos creían estar hablando con Leonid Volkov, aliado del líder opositor ruso Navalny. Sin embargo, según explica Kols, en realidad era un elaborado deepfake. "El Kremlin está tan débil [...] que están llevando a cabo reuniones falsas para desacreditar al equipo de Navalny", explica Tugendhat, otro de los afectados.

Los deepfakes ya causan estragos en la diplomacia europea

El propio Volkov explica lo mucho que se parece el deepfake a él: "lo más impresionante es 'mi' cara en la conferencia telefónica con los parlamentarios del Báltico. Parece mi cara real, pero ¿cómo se las arreglaron para ponerla en la llamada de Zoom? Bienvenidos a la era de los deepfakes".

Según describe Meduza, los políticos fueron contactados supuestamente por Volkov el pasado 16 de marzo y se solicitó una reunión con la comisión de exteriores para tratar sobre el intento de asesinato de Navalny y los políticos presos en Rusia. La reunión finalmente se produjo con Kols el pasado 23 de marzo, aunque días previos también habrían mantenido una videollamada con otros políticos lituanos.

El problema es que al otro lado de Zoom no estaban los verdaderos opositores rusos. Ese Volkov en realidad era un deepfake y todo era una trampa para dejarles en mal lugar, según explican los afectados.

"Está claro que la llamada era de la decadencia de la verdad o de la posverdad y los poshechos tiene el potencial de amenazar seriamente la seguridad y estabilidad de los países, gobiernos y sociedades locales e internacionales", argumenta Kols.

Pese a que hay mecanismos para detectar deepfakes con un alto porcentaje de eficacia, Europol ha alertado en su último informe de los desafíos de esta tecnología, animando a actuar para prevenir estos posibles peligros.

"Los deepfakes son el uso más conocido de la IA como vector de ataque y actualmente no existe una solución tecnológica que se adapte a la medida para detectar eficazmente todo tipo de deepfakes", explicaba el informe de la policía europea. Este reciente incidente con Rusia es la muestra pública de cómo los deepfakes se utilizan ya hoy en día para engañar y generar posibles conflictos.

En Xataka | "Resucitar" a Lola Flores (o a cualquier otra persona) para hacer anuncios con deepfakes: esto es lo que dice la ley



via Robótica e IA - Xataka https://ift.tt/3nj6Cda

sábado, 24 de abril de 2021

El día en que las máquinas puedan elegir: la paradoja del libre albedrío en robots

El día en que las máquinas puedan elegir: la paradoja del libre albedrío en robots

Año 2043. Reino Unido es el último reducto de la WCC (Western Countries Confederation) en Europa, ante el imparable avance del DAESH. Un dron de exploración británico realiza un barrido por las orillas del Támesis. Con su sensor térmico detecta el avance de un grupo de soldados enemigos. Analiza y evalúa: diecisiete soldados, todos hombres (sabe eso debido a que analiza la forma de caminar, y la complexión y proporciones corporales), armados con armamento ligero y un lanzagranadas.

En milisegundos, manda las coordenadas del objetivo a otro dron, esta vez a un bombardero X-54, quien, de nuevo en otros pocos milisegundos, lanzará una lluvia de misiles sobre los desdichados soldados. Sin embargo, los sensores del dron de exploración detectan nuevos enemigos. Entre las ruinas de lo que antes fue la abadía de Westminster, avanzan cuatro blindados autónomos de clase T-95. Son un objetivo estratégicamente muy jugoso (cada tanque de este tipo le cuesta al DAESH unos dos millones de dólares), mucho más interesante que el grupo de soldados.

Pero hay un problema. Los estrategas del DAESH descubrieron que había un tipo de blindaje para sus carros de combate, mucho más efectivo que el usual blindaje reactivo: el antiguo escudo humano. El objetivo era confundir la inteligencia artificial de las armas autónomas enemigas o, como mínimo, retrasar sus decisiones.

El cerebro positrónico de un dron de la WCC tomaba decisiones siguiendo a rajatabla la Convención de Massachusetts de 2036, en la que 136 países aprobaron un código ético mundial para armas autónomas, conocido popularmente como BH (el Bushido de HAL).

Según este código, un arma autónoma siempre evitará el mayor número de víctimas humanas posibles, por lo que a la hora de elegir el objetivo para un ataque, siempre elegirá a otra arma autónoma antes que a un grupo de soldados. La táctica del DAESH consistía en atar a unos cuantos prisioneros, si pueden ser civiles mejor, a lo largo de la carrocería de sus tanques.

Entonces el dron tenía dos opciones:

  1. Dirigir los misiles hacia el grupo de diecisiete soldados. Todo correcto a nivel ético y legal: se mata a personas pero son soldados enemigos ocupando territorio soberano.

  2. Dirigir los misiles hacia los T-95. Se ocasionarían víctimas humanas del propio bando, generando intencionalmente daños colaterales y, por lo tanto, violando claramente el BH. Sin embargo, eliminar esos carros enemigos supondría una ventaja decisiva en la batalla que, casi con total probabilidad, evitaría más muertes que ocasionaría.

¿Qué hacer? ¿Violar tu propio código ético, o ser práctico y ganar la batalla haciendo, quizá, un mal menor? El dron piensa y actúa: los blindados enemigos son destruidos. Los programadores de la empresa Deep Mind encargados de diseñar el cerebro computerizado de la máquina dejaron una puerta trasera mediante la que los compradores podían reprogramar la conducta de su arma a su antojo.

Los oficiales del ejército británico lo tuvieron claro: ganar la batalla era lo primero y unas cuantas bajas humanas, incluso de civiles, se justificaban en función de intereses estratégicos superiores.

Istock 499438915

La Batalla de Londres se venció e, igualmente que le pasó a Hitler justo un siglo antes, la invasión de Gran Bretaña fue un fracaso. El DAESH y la WCC llegaron a un armisticio temporal. Todo pareció salir bien hasta que se descubrió que uno de los fallecidos utilizados como escudos humanos era la hija de Walter Smithson, un influyente multimillonario, dueño de una de las cadenas de restaurantes más importantes del mundo. El 2 de junio de 2044 interpuso una demanda al ejército británico por la acción de su dron.

Legalmente la demanda era totalmente correcta: el dron había desobedecido la Convención de Massachusetts ocasionando bajas civiles. Correcto pero, ¿quién era el responsable de la acción? Los ingenieros de Deep Mind se lavaron las manos: ellos habían programado el dron para no desobedecer la ley. Si el ejército inglés lo había reprogramado para hacerlo, no era culpa suya.

Todas las miradas apuntaron entonces al general Pierce Montgomery, responsable de armas autónomas del ejército de su Majestad. Pero, cuando todo indicaba que el laureado militar pagaría el pato, sus abogados utilizaron una sorprenderse estrategia: alegaron que el auténtico responsable era el dron, ya que había decidido atacar a los civiles con total y absoluto libre albedrío.

¿Qué es el libre albedrío?

Istock 516593303

Definición de andar por casa: si nos encontramos ante la decisión de tener que elegir entre A o B, podemos elegir A o B sin que nada ni nadie nos obligue a hacerlo. La vamos desgranando: ¿qué quiere decir que algo o alguien nos obligue? Que alguien nos obligue lo entendemos muy bien (alguien apuntándome con una pistola), pero que “algo” nos obligue, ¿qué significa?

Un ejemplo: yo vuelvo a mi casa a las tres de la mañana y quiero abrir la puerta. Estoy completamente borracho por lo que no atino a meter la llave por la cerradura. Yo quiero, deseo con toda mi alma abrir la puerta pero algo, en este caso la insalubre cantidad de etanol que fluye por mis venas y atonta mi cerebro, me impide realizar la acción que yo quiero hacer. En este caso, el alcohol es lo que llamamos un condicionante: algo que nos obliga, o como mínimo inclina, a obrar de una determinada manera.

Es por eso que, en un juicio, los condicionantes se convierten en atenuantes. Los abogados de un presunto criminal aducen multitud de condicionantes para restar responsabilidad a las fechorías de su cliente. Un crimen cometido con premeditación y alevosía (es decir, con plena y total libertad) es castigado mucho más gravemente que otro que se cometiera bajo los efectos del alcohol o con la salud mental dañada (por eso los abogados de las películas alegan tanto la locura transitoria).

Grandes filósofos como Rousseau o Kant, entendían la libertad como autonomía, es decir, como darse normas a uno mismo, siempre que esas normas fueran fruto de una decisión racional

Incluso los crímenes pasionales son, igualmente, menos castigados que los cometidos a sangre fría, arguyendo que las emociones ofuscan o confunden nuestro libre albedrío y nos empujan a hacer actos que, en estado normal, no haríamos. Las emociones se consideran también condicionantes. Desde los antiguos griegos, un imperativo vital ha sido siempre no dejarse llevar por las emociones, controlarlas.

Actuar libremente, no consiste en actuar guiándote ni por altos o bajos instintos (pasiones) ni por ningún otro condicionante (cualquier tipo de estado mental alterado) ¿Qué es entonces lo que impulsa a actuar libremente? Una de las instancias más repetidas por la tradición occidental ha sido la razón práctica o deliberativa. Tenemos una facultad mental que nos permite decidir entre A y B. Los condicionantes pueden influirla pero, en último término, es ella la que elige.

Grandes filósofos como Rousseau o Kant, entendían la libertad como autonomía, es decir, como darse normas a uno mismo, siempre que esas normas fueran fruto de una decisión racional, es decir, hubieran sido meditadas por nuestra razón práctica. Si yo decido escoger A porque, después de pensarlo muy bien, creo que escoger A es lo mejor que puedo hacer, estaré obrando libremente.

Perfecto, pero aquí hay un grave problema ¿De dónde surgen las razones mediante las cuales yo guío mi acción libre? ¿Elijo mis pensamientos, mis razonamientos, las creencias que me orientan en mi vida? Parece que no.

El psicólogo norteamericano Daniel Wegner nos invita a hacer un simplísimo juego para demostrarlo: intentad no pensar en un oso blanco. Es difícil, tarde o temprano el oso blanco volverá a emerger a nuestra memoria consciente por mucho que intentemos no pensar en él. En Internet había una versión del juego llamado, con suma originalidad, the game, que consistía, precisamente, en intentar no pensar nunca en el propio juego. Lo divertido es que el ganador sería aquel que consiguiera olvidar que estaba jugando y, en cuanto a tal, jamás sabría que había ganado.

El filósofo holandés Baruch Spinoza argumentaba que el libre albedrío es solo una ilusión ocasionada por nuestro limitado entendimiento a la hora de conocer las causas de nuestra conducta

Entonces, si no elijo mis pensamientos y deseos y éstos determinan mis acciones, yo no elijo mis acciones… ¡No soy libre! Pero, ¿cómo es posible? ¡Yo siento que soy libre! Ahora mismo pienso en mover mi brazo y lo muevo… ¿cómo podríamos decir que yo no lo estoy moviendo libremente? Porque el libre albedrío es una ilusión.

Spinoza Baruch Spinoza (1632-1677)

El filósofo holandés Baruch Spinoza argumentaba que el libre albedrío es solo una ilusión ocasionada por nuestro limitado entendimiento a la hora de conocer las causas de nuestra conducta. Vamos a entenderlo con un ejemplo:

Juan asesina a su mujer disparándole con un revolver ¿Cuál fue la causa?

  • Causa 1: Juan encuentra a su mujer en la cama con un amante, por lo que decide libremente apretar el gatillo.
  • Causa 2: Luisa, la mujer de Juan, arriesgó mucho al pensar que Juan no volvería hoy del trabajo tan pronto. Si hubiese sido más prudente Juan no la hubiera descubierto con su amante.
  • Causa 3: Manuel, el jefe de Juan, se encuentra de buen humor porque el Getafe, su equipo de fútbol favorito, ha ganado hoy. Por eso deja salir a Juan una hora antes del trabajo.
  • Causa 4: Martín, el entrenador del Getafe, decidió sacar en el segundo tiempo a un prometedor jugador de la cantera con el que habitualmente no cuenta. Ese jugador, al borde del minuto 90, metió el gol de la victoria.
  • Causa 5: Eloy, promesa de la cantera del Getafe, estuvo a punto de abandonar su carrera futbolística debido a que no contaba para nada para los diversos entrenadores que habían pasado por el equipo. Sin embargo, su padre habló con él y le convenció para que no abandonará.

  • Causa 6: Marcos, el padre de Eloy, quiso también ser futbolista profesional. Sin embargo, dejó muy pronto su carrera deportiva porque le ofrecieron un trabajo muy bien pagado en una emergente empresa de informática llamada Apple. Siempre se arrepintió de haber dejado el fútbol, por lo que siempre animará a su hijo a que continúe.

Recapitulamos. Si cualquiera de estas causas no se hubieran dado, es muy probable que Juan no hubiese asesinado a su mujer. Todas estas causas están encadenadas como piezas de dominó, de modo que una es condición para la siguiente (es un ejemplo del conocido efecto mariposa) pero podemos hablar de más condiciones aún:

  • Causa 7: Pedro, el dueño de la armería, pospuso sus vacaciones una semana más, por lo que Juan pudo comprar su revólver al no encontrar la armería cerrada.
  • Causa 8: Carlos, el amante de Luisa, chocó accidentalmente con ella cuando caminaba distraído mirando los cuadros de un museo. Sin ese choque jamás se hubieran conocido.

Incluso podemos irnos a condiciones más lejanas pero, igualmente, necesarias para que ocurriera el crimen:

  • Causa 9: los chinos inventan la pólvora y múltiples desarrollos tecnológicos van perfeccionando su uso hasta llegar al revólver a principios del Siglo XIX. Sin todo ese progreso, Juan no hubiera podido usar esa arma.

Y, más lejos aún, podemos llegar a causas que hunden sus raíces en la física más elemental:

  • Causa 10: el oxígeno es necesario como comburente para que la pólvora explote y se produzca el disparo del revólver. Sin oxígeno en la atmósfera, jamás se podría haber disparado revólver alguno y, es más, la especie humana no existiría y la vida en la Tierra sería muy diferente a como es ahora.

Tenemos diez condiciones necesarias para que sucediera el asesinato pero, como bien podría hacer el lector como ejercicio de creatividad narrativa, con un poco de imaginación podríamos pensar una infinitud más (formando lo que en términos técnicos se llama nube causal). Sin embargo, decimos que el auténtico causante es, únicamente, el libre albedrío de Juan. A nadie se le ocurriría pensar que el culpable fuera el entrenador del Getafe, el dueño de la armería, los directivos de Apple o, más disparatado aún… ¡el oxígeno!

¿Por qué decimos que fue Juan? Spinoza lo tenía muy claro: es imposible conocer todas las causas que tuvieron algo que ver con el crimen por lo que, simplificamos a lo bestia con nuestros estúpidos cerebros de primate, y seleccionamos solamente una causa: el yo libre de Juan.

¿Sucesos aleatorios?

Istock 531316319

El universo está gobernado por una serie de leyes naturales que, hasta ahora que sepamos, siempre se han mantenido estables desde los orígenes de todo. Algunas de ellas, las más poderosas, son deterministas, es decir, se cumplen siempre y en todo lugar, siendo imposible violarlas (por ejemplo, la gravedad). Otras, sin embargo, son probabilísticas o estocásticas, es decir, que solo se cumplen con un determinado grado de probabilidad (por ejemplo, fumar provoca cáncer de pulmón).

Si todo lo que dirige nuestras vidas estuviese regido por leyes deterministas no habría lugar para el libre albedrío: tomaríamos nuestras decisiones de un modo tan obligatorio como el de una pelota cayendo hacia el suelo. Sin embargo, algunos han visto en las leyes probabilistas una vía de escape.

Si nuestro cerebro no es una máquina determinista sino que en su funcionamiento participan procesos estocásticos, es posible que allí esté nuestra libertad, en el azar, en la aleatoriedad. Pero, ¿existen realmente sucesos aleatorios? En el mundo a escala humana, parece que no, pero en el mundo cuántico, algunos físicos nos dicen que sí (y otros que no).

Si nuestro cerebro no es una máquina determinista sino que en su funcionamiento participan procesos estocásticos, es posible que allí esté nuestra libertad, en el azar, en la aleatoriedad.

¿Qué es un suceso aleatorio? Aquel que ocurre sin una causa que lo determine de modo que, incluso conociendo todas las variables que se dan en el proceso, sea imposible predecir su comportamiento. En este sentido, un suceso aleatorio podría parecerse mucho a un acto libre ya que, igualmente, el acto libre necesita no tener una causa que lo determine, necesita ser una causa sin causa o incausada.

¿Es entonces un suceso aleatorio un acto libre? Lo sentimos pero no. Que algo sea aleatorio solo implica dos cosas:

  1. Que, aceptando la verdadera aleatoriedad cuántica, sucede sin causa alguna, sin nada que determine su conducta. Pero eso no implica que sea fruto de una decisión libre. Aceptando que el lanzamiento de una moneda es un acto realmente aleatorio, la moneda no toma ninguna decisión, no delibera ni planifica ni desea hacer nada siguiendo un propósito. La moneda no es libre de elegir cara ni cruz.

  2. Que, realmente, lo único que pase es que no somos capaces de predecir su comportamiento debido a nuestras limitaciones observacionales o cognitivas, y que el suceso sea, en último término, tan determinista como cualquier otro. Estaríamos de nuevo ante la ignorancia de Spinoza: que desconozcamos las causas de un suceso no implica que éste obre libremente.

No amigos, por la aleatoriedad no llegamos a la libertad. Y es que para que una acción sea libre necesitamos no que no esté determinada por nada sino que esté determinada por nuestra voluntad, por nuestras preferencias, valores, deseos… y los actos aleatorios, evidentemente, no lo están.

¿El Yo como fuente de libertad?

Istock 467439059

Para que un acto sea libre tendremos que tener un Yo, una instancia que, realmente decida. Precisamente, el argumento actual más en contra de que las máquinas son libres es que no tienen un Yo, no tienen a nadie que decida en última instancia, solo siguen a rajatabla su programa, sin poder violarlo jamás.

¿Y qué es el Yo? Pregunta complicada donde las hubiere. Muchos lo han identificado con ciertos estados o fenómenos propios de nuestra mente: nuestra consciencia, nuestro “espacio interior” o subjetividad, nuestra sentience (capacidad de tener sensaciones), o ya, en términos religiosos, nuestra alma o espíritu.

Sin embargo, la neurología moderna ha ido poniendo en jaque esta idea de Yo:

  1. El Yo no puede observarse de ninguna forma, ni siquiera usando la introspección. Si yo me analizo a mí mismo pensando, recordando o sintiendo, lo único que encuentro son pensamientos, recuerdos o sentimientos, pero nunca a ese sujeto que los tiene. Nadie jamás ha observado su yo ni el de nadie ¿En ciencia no ese eso suficiente para negar la existencia de algo?

  2. La neurología contemporánea no ha encontrado ningún lugar en el cerebro donde pueda encontrarse el módulo del Yo (aunque hay intentos muy loables). Las investigaciones apuntan más a que cada elemento de la experiencia consciente se procesa en diferentes partes del cerebro. De hecho, uno de los grandes problemas de la neurología actual es el llamado binding problem: ¿cómo se integra y se sincroniza toda la información sensorial en una imagen mental coherente?

  3. Los famosos experimentos de Benjamin Libet y muchos otros posteriores, sobre libre albedrío, muestran que los sujetos son conscientes de tomar una decisión después de que la decisión haya sido tomada. La conclusión es totalmente revolucionaria: el Yo, si es que existe, no decide… por lo tanto, no tiene ninguna relación con la libertad.

Desde luego, si el libre albedrío es una noción oscura, la de Yo no le va a la zaga… ¿Qué nos queda entonces? ¿Tenemos que renunciar a una idea tan central en nuestro mundo como lo es la libertad?

El alegato del general Montgomery

Volvemos a la historia de los drones asesinos. Cuando todo parecía indicar que el responsable y, por lo tanto, culpable de todo era el general Montgomery, sus abogados elaboraron una sorprendente defensa: alegaron que el libre albedrío no existía, por lo que el general Montgomery ordenando que sus drones violaran la convención de Massachusetts, era tan poco libre como el dron ejecutando la orden. Entonces, o los dos no son libres y ninguno de ellos tiene responsabilidad en la muerte de la hija de Smithson, o los dos son igualmente libres y entonces, el dron, ejecutor de la acción, es el genuino responsable.

El juez comenzó a ponerse nervioso. Si no existía el libre albedrío nadie sería responsable de nada por lo que el sistema judicial era un fraude… ¡Todo el trabajo de su vida no tenía sentido! ¡Tranquilícese señoría! – Repuso uno de los abogados – Tal como defendió el filósofo escocés David Hume, es posible compatibilizar una cierta idea de libertad con el determinismo físico.

Se trata de definir como acción libre aquella que no está en contra de las determinaciones de mi propia voluntad. Mis pensamientos, creencias, valores, etc. que causan mi acción están completa y absolutamente determinados por causas anteriores y yo no soy más libre que el dron de combate.

Estoy, por decirlo en términos informáticos, programado de antemano por mi naturaleza y mi cultura. Sin embargo, si debido a éstas yo quiero elegir A, y algo externo a mí me impide que yo lo elija, estará poniendo trabas a mi libertad e impidiendo que yo obre libremente. Por decirlo de otra forma: ser libre es poder obrar conforme a lo que estoy determinado.

De este modo, podemos juzgar y condenar a cualquier criminal sin que el sistema judicial se venga abajo ¡Es posible justicia sin libertad! Por lo tanto, el dron, actúo siguiendo su programación sin que nadie se interpusiera entre su libre obrar y su objetivo, por lo que es culpable de sus actos.

Istock 474880282

La sentencia sorprendió al mundo: el 28 de agosto de 2044, el dron de combate de tipo R-6 Alpha C con nº de bastidor 365889725E, fabricado y ensamblado en Taiwan por la Hongji Corporation, para la empresa estadounidense Deep Mind, actualmente en propiedad del ejército británico, fue el primer robot de la historia juzgado y condenado en un juicio. El castigo fue ejemplar: desmontar el dron y reciclar sus piezas para otros drones, destruyendo así su individualidad como agente racional (el equivalente robótico a una condena a muerte).

No obstante, ni el general Montgomery ni la empresa Deep Mind se fueron del todo de rositas. El general por reprogramar el dron para que pudiese violar la convención de Massachusetts, fue condenado por cómplice e inductor del asesinato. Se le degradó de su rango y se le condenó a pasar tres años en una prisión militar (si bien al final, y de nuevo por la habilidad de sus abogados, no cumplió ninguno).

A Deep Mind le cayó una cuantiosa multa por violar ciertas leyes de protección de software que prohibían vender código abierto sobre ciertos productos militares (si bien al final no pagó nada. Se declaró en bancarrota e incapaz de pagar, cambió su nombre por Deep Neuron y se refundó, siendo hoy en día la empresa hegemónica en el diseño de drones de combate).

Pero lo más interesante es que esa sentencia creó jurisprudencia y, en cuestión de pocas semanas, los tribunales de todo el mundo estaban llenos de juicios en los que había inmiscuidos robots; y en cuestión de unos años, ya existía una rama del Derecho específica llamada Derecho Computacional, en el que se intentaba legislar para clarificar todo ésta difícil problemática acerca de las máquinas criminales.

450 1000
Sobre Santiago Sánchez-Migallón: Profesor de Filosofía atrapado en un bucle: construir una mente artificial, a la vez que construye la suya propia. Fracasó en ambos proyectos, pero como el bucle está programado para detenerse solo cuando dé un resultado positivo, allí sigue, iteración tras iteración. Quizá no llegue a ningún lado, pero dice que el camino está siendo fascinante. Darwinista, laplaciano y criptoateo, se especializó en Filosofía de la Inteligencia Artificial, neurociencias y Filosofía de la Biología. Es por ello que algunos lo caracterizan de filósofo ciberpunk, aunque esa etiqueta le parece algo infantil. Adora a Turing y a Wittgenstein y, en general, detesta a los postmodernos. Es el dueño del Blog La Máquina de Von Neumann y colabora asiduamente en Hypérbole y en La Nueva Ilustración Evolucionista.

Fotos | iStock



via Robótica e IA - Xataka https://ift.tt/3sNk9uC

viernes, 23 de abril de 2021

ANYmal D es el perro robot alternativa a Spot de Boston Dynamics: totalmente autónomo y listo para inspeccionar

ANYmal D es el perro robot alternativa a Spot de Boston Dynamics: totalmente autónomo y listo para inspeccionar

ANYbotics es una empresa suiza que durante años ha explorado diferentes soluciones para crear robots. La última de sus propuestas es ANYmal D, un perro robot que recuerda directamente al poplar Spot de Boston Dynamics. Al igual que este último, está pensado para caminar por todo tipo de lugares e inspeccionar entornos.

ANYmal D está pensado específicamente para esto. Además de tener forma de perro con sus cuatro patas, el robot también cuenta con todo tipo de sensores y software. Dicen que está específicamente diseñado para inspeccionar entornos industriales donde puede ser peligroso para un trabajador adentrarse.

Inspecciones en entornos no recomendados para humanos

Al contar con patas en vez de ruedas puede acceder a algunos lugares extra como espacios estrechos o escaleras. También le es más fácil evitar obstáculos o moverse por pendientes. Si por alguna razón pierde el equilibrio no hay problema, cuenta con un sistema para levantarse y caminar de nuevo.

Screenshot

Entre los sensores con los que cuenta destaca el LiDAR a sus espaldas que le permite analizar todo lo que le rodea y mapearlo en 3D. El módulo de la cámara ofrece una cámara 4K con zoom óptico de x20 y una cámara térmica con un rango de temperatura de -20 a 500 °C. También hay micrófonos direccionales para registrar mediciones acústicas.

Screenshot 3

La autonomía de ANYmal D es de hora y media, que variará según los sensores que utilice y la carga que lleve. Una vez la batería comience a agotarse el robot regresa sólo a una estación de acoplamiento para recargarse. Puede funcionar durante las 24 horas del día, es decir, no importa si es de día o de noche gracias a un proyector LED que le permite iluminar el entorno.

Desde ANYbotics no han querido detallar cuál es el precio final de este robot. Indican que comenzarán a ofrecerlo a los clientes con los que ya tiene acuerdos a finales de este año. El precio aquí va a ser la clave, si se quiere competir con Spot de Boston Dynamics en entornos empresariales.

Screenshot 1

Spot de Boston Dynamics, como hemos visto en múltiples ocasiones, es un robot que también se utiliza especialmente para la inspección. Lo utilizan en edificios en construcción, en plantas nucleares o hasta en lanzamientos de SpaceX.

Vía | TechXplore
Más información | ANYbotics



via Robótica e IA - Xataka https://ift.tt/3xlMICL

miércoles, 21 de abril de 2021

La Unión Europea pone límites a la Inteligencia Artificial y prohíbe el reconocimiento facial en espacios públicos

La Comisión Europea ha propuesto un paquete de nuevas normas destinadas a limitar el uso de Inteligencia Articial y el empleo de sistemas de reconocimiento facial en espacios públicos. El objetivo de estas medidas, de acuerdo con el organismo, es «garantizar la seguridad y los derechos fundamentales de las personas y las empresas» y fortalecer la adopción, la inversión y la innovación en IA. «Al establecer los estándares, podemos allanar el camino hacia la tecnología ética en todo el mundo y garantizar que la UE siga siendo competitiva en el camino. Nuestras normas, preparadas para el futuro y favorables a la innovación, intervendrán donde sea estrictamente necesario: cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE», ha destacado Margrethe Vestager, comisaria europea de Competencia, sobre el nuevo paquete de normas. Cuatro niveles de riesgo La Comisión ha establecido cuatro niveles de riesgo en el uso de Inteligencia Artificial que pueden ser perjudiciales para el ciudadano. El más peligroso recibe la categoría de «riesgo inaceptable». Dentro de este grupo figuran los sistemas considerados «una clara amenaza para la seguridad, los medios de vida y los derechos de las personas», que pasan a estar prohibidos con la nueva legislación. Ese es el caso de aquellos sistemas «que buscan manipular el comportamiento humano» (por ejemplo, juguetes que utilizan asistencia de voz que fomenta el comportamiento peligroso de los menores) y de aquellos que permiten la 'puntuación social' de los Gobiernos con el fin de diferenciar a los ciudadanos y, de este modo, crear sesgos. En segundo lugar figuran los sistemas de «alto riesgo». Dentro de este grupo se encuentra el empleo de sistemas de Inteligencia Artificial en infraestructuras críticas, como el transporte, en los casos en los que puedan poner en riesgo la salud del ciudadano. También figura el uso de sistemas para determinar el acceso a la educación y el curso profesional (por ejemplo, en la calificación de exámenes), su aplicación en cirugía asistida por robots, en reclutamiento de trabajadores, en servicios públicos o privados esenciales (como podría ser la solicitud de un crédito bancario), en inmigración y administración de la justicia. De acuerdo con la Comisión, todos los sistemas de «alto riesgo» estarán sujetos «a estrictas obligaciones» antes de que puedan comercializarse. Entre ellas se incluye el empleo de un análisis de riesgos, la posibilidad de trazabilizar los resultados, el empleo de documentación detallada, la supervisión humana y, además, los sistemas deben ser «robustos, seguros y precisos». En tercer lugar figuran los sistemas que representan «un riesgo limitado», como es el caso de chatbots. Cuando una empresa o institución los utilice «los usuarios deben ser conscientes de que están interactuando con una máquina para poder tomar una decisión informada de continuar o dar un paso atrás». En cuarto y último, la Comisión destaca los sistemas de «riesgo mínimo», que es en donde se engloban la mayoría de los que emplean IA, como es el caso de los videojuegos o de las aplicaciones de imagen. Por el momento, este reglamento es una propuesta, por lo que no ha entrado en vigor. La Eurocámara y los distintos gobiernos que conforman la UE deben aprobarlo, por lo que el proceso para su implementación podría llevar todavía algo más de un año. El reconocimiento facial, prohibido en espacios públicos El reconocimiento facial es uno de los principales problemas éticos a los que se ha enfrentado la tecnología en la última década. De acuerdo con la nueva normativa de la Comisión Europea, todos los sistemas de identificación biométrica, que permiten reconocer a un ciudadano por sus rasgos, pasan a formar parte del grupo de «alto riesgo» y su empleo estará sujeto a requisitos estrictos. De este modo, su uso en espacios públicos pasará a estar prohibido salvo en circunstancias muy puntuales. «Por ejemplo, cuando sea estrictamente necesario para buscar un niño desaparecido, para prevenir una amenaza terrorista específica e inminente o para detectar, localizar, identificar o enjuiciar a un perpetrador o sospechoso de un delito grave», destaca la Comisión. Además, su uso deberá ser autorizado previamente por un órgano judicial u otro organismo independiente y dentro de los límites adecuados en el tiempo, el alcance geográfico y las bases de datos buscadas.

via Tecnología https://ift.tt/2PdyZwO

martes, 20 de abril de 2021

Me he construido una bestia con seis RTX 3090, pero no para minar criptodivisas, sino para investigar en inteligencia artificial

Me he construido una bestia con seis RTX 3090, pero no para minar criptodivisas, sino para investigar en inteligencia artificial

Andrés Torrubia llama a su maquinón "Osado". El nombre no le va mal, porque esta bestia cuenta con nada menos que seis tarjetas gráficas NVIDIA GeForce RTX 3090, algo que convierte el equipo en pequeño supercomputador con una capacidad de cálculo brutal.

Lo primero que uno podría pensar es que usa esas seis gráficas para minar criptodivisas, pero en realidad aprovecha ese PC para un ámbito muy especial: la investigación en inteligencia artificial y en aprendizaje profundo. Esta es la historia de la creación de ese "monstruo".

El aprendizaje profundo es muy glotón

Andrés Torrubia (@antor) es un viejo conocido de esta casa: le hemos entrevistado y ha colaborado en varios temas relacionados con el ámbito de la inteligencia artificial. Fue ademáss invitado especial de dos de los episodios de Captcha (1x03 y 2x04), el vídeo/podcast que creamos en Xataka en 2018.

Andres Mini

Andrés, ingeniero de telecomunicaciones de formación, se autodefine como "Bruce Wayne de día (cofundador del Instituto de Inteligencia Artificial (IIA) y de Medbravo) y Batman del aprendizaje profundo de noche".

No es mala descripción: lleva años participando en competiciones de inteligencia artificial en las que lucha contra grandes gigantes tecnológicos, y a menudo les supera, como ocurrió en una competición organizada por Alibaba en 2019 que ganó con su equipo, llamado "sanchinarro" (un área residencial del distrito de Hortaleza, en Madrid).

Ese trabajo hace necesario contar con recursos de cálculo importantes, y aquí Andrés decidió montárselo por su cuenta. Este emprendedor nos contaba en una entrevista telefónica cómo "salvo mi MSX, mi Atari y los portátiles que he usado, me manejo a la hora de ensamblar equipos, y me he montado todos mis PCs".

Eso hizo que cuando comenzó a trabajar en el campo del aprendizaje profundo (Deep Learning o DL a secas), se montase un equipo destinado a este tipo de tareas. "A raíz de las competiciones de inteligencia artificial y de otros temas de trabajo acabé creando equipos para entrenar DL, y es que el DL es glotón e insaciable en recursos. Cuanto más, mejor".

Osado 4

Comenzó creando un equipo con una GTX 1080, que luego fue ampliando. Primero sustituyó esa gráfica por una 1080 Ti, luego añadió una segunda 1080 Ti y más tarde acabaría sustituyendo esas dos gráficas por las posteriores RTX 2080 Ti. Ese equipo, que también usaba para su sistema de cine en casa, se llamaba "Cinebuntu".

"El DL es glotón e insaciable en recursos. Cuanto más, mejor"

Como nos explicaba, "Hasta hace poco tenía tres RTX 2080 Ti acompañando a un AMD Ryzen Theadripper 1950x que tiene 16 cores y 32 hilos, además de usar 128 GB de RAM".

En su día los Threadripper (especialmente en la primera generación) daban problemas de compatibilidad si pinchabas 8 módulos, pero hoy en día ya no e incluso los Threadripper PRO además con 8 módulos el acceso a la memoria es más rápido porque usa 8 canales.

Osado 9 Módulos delante y, si osfijáis, módulos detrás.

Acompañar esas gráficas de un procesador más adecuado tenía cierto truco: los EPYC y los Threadripper PRO no se podían comprar de forma habitual, solo solían estar disponibles en máquinas de IBM. Afortunadamente, los Threadripper PRO ya están disponibles para el mercado entusiasta.

Mientras que para el consumidor final lo normal es poder acceder a micros que soportan cuatro módulos ("palos", como él decía) de memoria RAM, lo ideal sería acceder a los Threadripper más modernos, que soportan ocho "palos" y tienen menos limitaciones, e incluso dar el salto a los EPYC o los Threadripper PRO que tienen "cero limitaciones".

Osado 11 Parte del sistema de refrigeración líquida.

Esas limitaciones de los Threadripper más modernos, nos contaba, se centran sobre todo en la forma en la que gestionan las pistas PCIe: a los Threadripper domésticos "les caen menos pistas", pero como destacaba "si quieres poner dos o incluso tres tarjetas gráficas te has de ir a un Threadripper por las pistas PCIe". ¿Cuál es la configuración final?

  • CPU: AMD Threadripper 1950X
  • Gráficas: 6 x NVIDIA GeForce RTX 3090
  • Memoria: 256 GB de RAM
  • Almacenamiento: 10 TB en unidades SSD M.2 NVMe

No te olvides del extintor

La elección de las RTX 3090 no era trivial, y de hecho el interés de Andrés no se centraba tanto en la potencia de las gráficas (que también) sino en el hecho de que cada una de estas tarjetas cuenta con 24 GB de memoria GDDR6.

Osado 5

Él lo tenía claro, y sobre todo destacaba que aunque inicialmente los drivers aún estaban algo verdes, a día de hoy ya se puede disfrutar de esos "buenos" controladores para aprovechar la 3090 en DL. En juegos sí es rápida de narices, pero es que la mejora en DL es del 50% e incluso del 100% en ciertos procesos al compararla con las 2080 Ti".

Para él, nos insistía, "el motivo de elegir las 3090 es la memoria, que es clave para DL. Podría hacer lo que estoy haciendo con las 3080 y esperaría más tiempo, pero el problema era la memoria. En la 2080 Ti tenía 11 GB, y ahora doy un salto brutal a los 24 GB".

"Tenía un extintor y lo puse al lado por si acaso"

El montaje de esa bestia tiene muchas anécdotas simpáticas, pero hay una curiosa: cuando inició el montaje empezó colocando tres de esas tarjetas, y sabiendo el calor que disipan nos contaba cómo "tenía un extintor y lo puse al lado por si acaso".

Un equipo como este impone otras dificultades: "no hay cajas en las que puedas montar seis gráficas, pero lo que si que vi es todo lo que estaban haciendo los que montan rigs de minado de criptodivisas".

Osado 10

Los mineros independientes montan esos equipos en chasis abiertos con una estructura básica en la que se apoyan las gráficas y el resto de componentes.

Fue ahí cuando llegó la fase "bricomanía": "descubrí el concepto de perfil 20x20. Es como lo de las ventanas, si quieres puedes comprar perfiles de 20x20, que te los corten y te los manden por segmentos" para luego ir ensamblándolos y crear así un "armario" para que toda la máquina quede perfectamente montada allí.

Osado 8

Andrés tuvo que fabricarse los soportes para las fuentes de alimentación (a partir de ficheros STL, muy populares en el ámbito de la impresión 3D) y las gráficas . "Me quité de enmedio el 'rascacielos' de Noctua que usaba para refrigerar el procesador y puse un sistema de refrigeración líquida, no porque hiciera falta térmicamente, sino porque encima de donde estaba el rascacielos no podía poner ninguna tarjeta y ahora sí".

Montarse una máquina así no tiene nada que ver con montarse un PC

La idea era buena, pero eso no le libró de problemas. Hay, como nos explicaba, "una diferencia fundamental con las criptos. En ese ámbito la gente conecta las gráficas con risers USB, pero en mi caso necesitaba usar risers que son 'cablacos' (similares a los viejos cables IDE de los discos duros)  que van a todo el ancho de la ranura PCIe".

Osado 7 Cablaco.

"Para sostener la placa físicamente crean una obstrucción, y colocarlas todas es una historia", proseguía. El cable ancho que le vendían no le cabía en el armario, lo que le dejó claro que tenía que tener cuidado con las medidas de ese chasis-armario.

Otro de los elementos clave es el consumo: "cada una de estas gráficas consume de pico 350 W, si pones cuatro —siguió con ese número— son 1.400 W, y si además sumas el Threadripper y alguna cosa más le sumas otros 200.

"El bus PCI es muy sofisticado, pero en el PC se usa de forma limitada."

"Una fuente solo de 1.600 W va a ir un poco pillada". Qué hizo: colocar dos fuentes en lugar de una sola para ir sobrado y así "poder colocar dos gráficas más".

Ahí se encontró con el siguiente obstáculo: no conocía placas base "de consumidor y no tan de consumidor que tengan seis slots PCI. De Threadripper no hay, y la que él tenía admitía solo cuatro".

Fue en ese momento cuando "descubrí que hay un loco en Alemania, un ingeniero electrónico. Yo sé del tema, conozco el bus PCI, es muy sofisticado pero en un PC se usan de forma limitada. Tienen un montón de funciones, entre ellas la multiplexación". Por ahí llegó la solución a su problema.

Osado 6

Buscando con ese término acabé encontrando "un tipo que vendía divisores PCIe: te vendía placas que dividen una PCIe x16 en cuatro PCIe x4. Tu placa y tu BIOS ni siquiera tienen que soportarlo" La suya es ASRock y lo soporta, tiene BIOS AMI y está preparada para los AMD Threadripper.

Ahí apareció un nuevo problema: "pinché las tarjetas pero pillaba solo cinco, no las seis, al pinchar la sexta no arrancaba". Siguió trabajando con esas cinco gráficas hasta que resolvió el problema, que era un conflicto de la BIOS.

"Esto consume un huevo, pero claro, no te puedes quejar"

Otro de los retos de tener funcionando un equipo así es el del consumo energético. "Esto consume un huevo, pero claro, no te puedes quejar". Para aliviar esa carga ya ha encargado un estudio del consumo dirigido a la instalación de unas placas solares: quienes hacen el estudio dimensionan el proyecto según el consumo, y eso le permitirá que esa parte quede también solucionada.

Fabricarse su propio supercomputador doméstico sale a cuenta: la versión gráfica de la DGX100 con 384 GB de vídeo vale unos 200.000 euros, nos contaba: su equipo no es tan distinto, ciertamente es inferior en rendimiento y quizás llegue a un 40% de lo que da ese DGX100, pero él ha invertido 15.000 euros, no 200.000.

Perfil1

El resultado final es, asegura, espectacular. Hizo alguna prueba ligera con juegos. "Con Windows las detecta y funciona por ejemplo para jugar al Cyberpunk 2077, pero no aprovecha las seis tarjetas porque no tiene soporte multiGPU, pero con la 3090 no hace falta en realidad: con ella puedes jugar a tope en 4K, algo que con la 2080 Ti no se podía hacer".

"Con cinco tarjetas el equipo echa fuego en tareas de Deep Learning"

Sin embargo para su trabajo con aprendizaje profundo las usa con Linux. "Con cinco echa fuego", explicaba, y destacaba cómo NVIDIA está claramente por delante de AMD en este terreno. "Para juegos habrá discrepancias, en raytracing parece mejor NVIDIA, pero en DL no hay color, NVIDIA está muy por delante en tema de software. En AMD es experimental, y eso hablando de forma generosa. En las RTX puedes incluso modular el consumo para que no consuman más de 200 W".

Osado 2 Dos fuentes dan mucha manga ancha a la hora de poner el equipo a trabajar a tope.

Él de hecho ha tenido que limitar ese consumo "porque estaba cuando estaba cargando el coche eléctrico e iba a poner la lavadora me saltó el aviso de la potencia tiene 5 kW". Como curiosidad, nos contaba, "la función que tienen las placas solares aparte de gastar menos es lograr aumentar la potencia disponible durante las horas de sol, o sea, tengo 5,5 kW + lo que me estén generando".

De hecho él quiso ir más allá. "con el inversor quiero usar una API y le preguntarle en tiempo real cuánto está consumiendo, de forma que mida cuánta potencia disponible tengo y si ve que voy demasiado justo avise al ordenador para que reduzca el consumo".

"La velocidad es estupenda, pero lo realmente importante es que ahora también puedo hacer seis experimentos a la vez".

Al final, nos explicaba, la mejora en la velocidad a la que se realizan esas tareas es importante, pero "lo importante es que ahora también puedo hacer seis experimentos a la vez o hacer algo llamado validación cruzada: hay que entrenar la misma red típicamente cinco veces; y de este modo lo puedo hacer concurrentemente (y queda una libre por si quisiera hacer algo)".

Osado 12

Un buen ejemplo están en los modelos de lenguaje basados en transformadores, que como él explicaba "son muy glotones en memoria. No puedes meter modelos grandes, no los puedes ni cargar", pero este tipo de máquina le permite trabajar con modelos bastante grandes sin problemas. Ahora, a seguir ganando competiciones de aprendizaje profundo.



via Robótica e IA - Xataka https://ift.tt/3atbDL4

El futuro era que Isabel Allende te firmase un libro de forma remota usando un brazo robótico

El futuro era que Isabel Allende te firmase un libro de forma remota usando un brazo robótico

Esta semana se ha celebrado una firma de libros de lo más peculiar en el Espacio Abacus de Barcelona. No porque hayan participado en ella Isabel Allende, Jonas Jonasson, Alex Michaelides, Yuval Noah Harari, Niklas Natt och Dag y Pierre Lemaitr, sino porque los autores han firmado de forma remota usando un brazo robótico.

En esta robotizada firma de libros han participado Abacus Cooperativa, Penguin Random House (el grupo editorial) y SolidPerfil3D, una compañía especializada en impresión 3D que ha sido la que ha puesto el robot: DexArm, desarrollador por Rotrics.

Firma Allende, pero escribe DexArm

Para este evento se eligieron por sorteo a una serie de lectores que tuvieron la oportunidad de asistir al Espacio Abacus y volver a casa con un libro firmado. A diferencia de otras firmas de libros, los autores no estaban allí en persona, sino que estaban en sus casas de Estocolmo, California y Londres.

En lugar de tener un bolígrafo y el libro delante, los autores del grupo editorial Penguin Random House firmaban sobre una tableta. Dicha tableta enviaba los movimientos al brazo robótico DexArm, que emulaba en la distancia la escritura de los autores, que también aprovecharon para hablar con los asistentes mediante videollamada.

Según su ficha técnica, el brazo robótico de Rotrics tiene una precisión de 0,05 milímetros, por lo que no solo es capaz de trasladar una firma a mano, sino de imprimir en 3D o grabar con láser con un alto nivel de repetibilidad. De hecho, una de las cosas más interesantes es que el brazo es modular, por lo que se puede equipar con un portalápices, una grabadora láser o una impresora 3D.

Este robot tiene un precio de 786,50 euros en SolidPerfil3D e incluye el starter kit, es decir, el robot y el módulo de soporte para bolígrafo. Es un sistema relativamente asequible e interesante para acercar las firmas de libros a los lectores, ya que permite al autor hacerlo de forma remota. Un uso de lo más curioso de la tecnología, sin duda.



via Robótica e IA - Xataka https://ift.tt/2P4c2Mm