sábado, 30 de noviembre de 2019

En China los deepfakes se vuelven ilegales y distribuirlos será un delito penal a partir del 1 de enero de 2020

En China los deepfakes se vuelven ilegales y distribuirlos será un delito penal a partir del 1 de enero de 2020

En China se ponen serios ante la proliferación de los deepfakes, los famosos vídeos que ponen el rostro y hasta la voz de personas dentro de situaciones que no son reales. Como sabemos, todo inició con el porno, pero poco a poco se han ido extendiendo a más escenarios, como la política. Por tal motivo, algunas regiones ya buscan regular su uso, como el caso de California y ahora China.

China se está convirtiendo en el primer país del mundo en clasificar a los deepfakes como ilegales, donde aquellos que los distribuyan incurrirán en un delito de carácter penal que los llevará directo a prisión. Esto forma parte de una nueva ley con la que China busca erradicar las 'fake news' y el uso de deepfakes en cualquier escenario.

China es el primer país del mundo que toma estas medidas

De acuerdo a información de Reuters, la Administración del Ciberespacio de China (CAC) ha anunciado nuevas reglas para todo el contenido de audio y vídeo compartido en línea. Esto forma parte de una modificación a la actual ley de contenido multimedia, que entrará en vigor a partir del 1 de enero de 2020.

Las modificaciones a ley mencionan que a partir del primer minuto de 2020, todos los distribuidores de vídeo, como plataformas de streaming, cadenas de televisión, agencias de publicidad, y cualquier compañía que comparta vídeo de forma masiva, deberán indicar "claramente" cuando su contenido haya sido creado usando inteligencia artificial o realidad virtual.

Esto también está dirigido a todos los ciudadanos que compartan contenido en redes sociales. Sólo que en este caso queda completamente prohibido el publicar vídeos deepfake de creación propia. Es decir, las compañías sí podrán publicar vídeos falsos siempre y cuando se indique que no es real, mientras que los ciudadanos no podrán hacerlo.

En caso de no cumplir estas nuevas reglas, dicha acción será considerada un delito penal.

"La tecnología deepfake podría poner en peligro la seguridad nacional, perturbar la estabilidad social, perturbar el orden social e infringir los derechos e intereses legítimos de otros."

Dichas modificaciones a la ley fueron informadas a los proveedores la semana pasada, donde se incluyen compañías como Tencent Video, Youku, iQIYI, propiedad de Alibaba, así como plataformas de vídeo de corta duración como Kuaishou y Douyin, propiedad de ByteDance.



via Magazine - robotica-e-ia https://ift.tt/2OSvXd6

Una semana con el Roomba Braava jet m6, un aspirador que friega: ¿vale la pena?

La marca iRobot es el pionero de los robots aspiradora, décadas construyendo estos dispositivos le da una clara diferenciación sobre el resto de sus competidores. Algunos lo desconocen, pero la empresa de Boston ha participado en la construcción de vehículos autónomos militares y ha inspirado los Micro-Rover de la NASA, y todo esta experiencia está plasmada en sus últimos productos. El nuevo dispositivo que acaba de presentar en España, no es un aspirador, sino un robot friega suelos, el Roomba Braava jet m6. Este tipo de robots no llevan tanto tiempo en el mercado, y no son tan cómodos como lo podría ser un aspirador, al fin y al cabo, es necesario añadirles agua y limpiarlos más a menudo que una aspiradora. En definitiva, son menos autónomos. Eso sí, este modelo comparte todas las tecnologías de navegación que ya vimos en la Roomba i7, como iAdapt 3.0, vSLAM e Imprint Smart Mapping. Una combinación de mapeado y cámara que le otorga al m6 un más que preciso sistema para manejarse por el hogar, limpiar donde haga falta y no repetir constantemente zonas por las que ya ha pasado, optimizando todo el proceso. Además, uno de los mayores aciertos de iRobot, es que si tienes un i7 puedes programarlos para que después de pasar el aspirador, el equipo pueda fregar y actúen de manera coordinada. Vamos, el barrer y fregar de toda la vida, pero robótico. Lo malo, es que aunque se coordinen para limpiar, no comparten información entre ellos, como los mapas generados de la casa, algo que sería muy útil y nos ahorraría el mapeo previo. Nada más sacarlo de su caja lo que más sorprende es su pequeño tamaño y su forma más cuadrada, pensada para llegar a todas las esquinas, comparada a lo que es la clásica Roomba, más redonda y voluminosa. Podríamos decir que el diseño, en blanco, está muy logrado, y a los más nostálgicos nos traerá recuerdos de los pequeños robots de las naves de las películas del espacio. El m6 tiene dos modos de uso que se activan dependiendo del paño que le ajustemos por debajo. Este paño se ajusta con un sólo click, y determinará si pasará la mopa o fregará el suelo. Tenemos dos opciones, utilizar paños desechables u otros dos reutilizables que vienen incluidos. Un punto positivo no tener que tirar continuamente paños a la basura y adquirir nuevos de forma constante. Para el fregado, el m6 cuenta con un depósito de agua con bastante autonomía pese a su pequeño tamaño, capaz de fregar una cocina y tres baños con un sólo depósito en las pruebas que hemos hecho. La batería no es un problema, ya que se agotará antes el depósito de agua que ésta. Podemos usar el jabón líquido proporcionado por iRobot, el único recomendado, ya que podríamos dañar el dispositivo con un detergente más denso. Una pena porque no podemos usar los productos con los que habitualmente limpiamos la casa. La solución para usar nuestro detergente favorito, es meterlo en una botella con difusor y espolvorearlo por el suelo por donde va a pasar la m6, se tarda 2 segundos y el efecto es el mismo. El resultado del fregado es muy bueno, siempre que el paño esté limpio y el suelo también lo esté. En cuanto al pasado de la mopa para abrillantar suelos de madera, tiene el mismo efecto que si lo hiciésemos a mano, eso sí, siempre distribuyendo algo de abrillantador de madera por el suelo primero. El m6 en ambos modos, mopa y fregado, evita automáticamente las alfombras, ya que obviamente sería un desastre si intentase fregarlas o sacarles brillo, y lo hace correctamente. Lo malo, es que también es la razón por la que el Braava jet m6 no es capaz de superar ni el más pequeño desnivel, incluso la pletina que separa muchas veces la cocina del resto de la casa, así cómo una aspiradora Roomba sí puede franquearlos sin problemas. Es importante remarcar, para no incumplir expectativas, que el resultado es bueno, pero Roomba Braava jet m6 necesita mucha más intervención «humana» que un aspirador, al que sólo necesita que le vacíen el depósito de vez en cuando. En definitiva, el dúo de i7 o i7+ con una Roomba Braava jet m6 es una combinación ganadora, aspirado y fregado coordinado de forma cómoda y autónoma.

via Tecnología https://ift.tt/2OwLL6g

viernes, 29 de noviembre de 2019

El Ejército de EEUU pronostica que en 2050 desplegarán los primeros soldados cyborgs con súper vista, mejor musculatura y telepatía

El Ejército de EEUU pronostica que en 2050 desplegarán los primeros soldados cyborgs con súper vista, mejor musculatura y telepatía

Según un nuevo informe del Departamento de Defensa de Estados Unidos (DOD), en el año 2050 estarán en posición de enviar soldados mejorados cibernéticamente al campo de batalla, esto gracias a los avances tecnológicos y los desarrollos que hoy día están estudiando.

El informe titulado "Soldado Cyborg 2050: La fusion entre Humano/Máquina Fusion y las implicaciones del futuro del DOD" funciona como una especie de bola de cristal, donde el Ejército estadounidense trata de ofrecer pistas de sus proyectos y planes a futuro. Mejoras tecnológicas que, afirman, surgen basándose en el ritmo actual de desarrollo.

Cualquier soldado podría ser un "super soldado" en unos 30 años

Como suele ocurrir con la mayoría de los avances tecnológicos, éstos primero suelen ser usados en áreas militares debido a sus altos costes, que hacen que su producción esté limitada a unos cuantos. Una vez que superan esta etapa, empiezan a surgir compañías capaces de hacer producción a gran escala con una adaptación al mercado comercial.

El informe del DOD no sólo apunta a todas estas mejoras que ayudarían a los soldados en el campo de batalla, sino también a las implicaciones que tendrían en la sociedad cuando esta tecnología esté disponible para todos. Una cuestión que dependerá de las necesidades de cada país, en este caso en 2050.

El DOD se centra en cuatro pilares: mejoras oculares, restauración y control muscular, mejoras auditivas y comunicación cerebro a cerebro.

Actualmente, los soldados usan gafas de visión nocturna y dispositivos que ofrecen datos en tiempo real acerca del campo de batalla. La propuesta apunta a al posible desarrollo de lentillas con esta misma capacidad, quizás incluso con zoom digital y hasta realidad aumentada para proyectar datos, como posiciones enemigas, bases de aliados, rutas, y otra información.

Se habla de un traje, tipo armadura, que ayudaría a "reparar" los músculos cansados e incluso aumentar su volumen, esto para cuando se requieran misiones cuerpo a cuerpo o donde se necesite un amplio uso de la fuerza física.

Al igual que la vista, la audición es un sentido esencial. A día de hoy, los soldados usan voluminosos protectores auditivos con cancelación de ruido para protegerse del estruendo de las armas. En 2050, el objetivo sería desarrollar auriculares que se podrían incrustar en el oido, tanto para protegerlo de fuertes sonidos como para amplificar su alcance.

Y por último, el DOD habla de telepatía, una de las tecnologías que en caso de hacerse realidad sería la más revolucionaria, ya que se busca que cada soldado esté conectado vía cerebral e inalámbrica a su equipo. En teoría, esto permitiría que los soldados puedan compartir información cifrada instantáneamente sin el uso de dispositivos de comunicación.

Cabe recordar que esto se trata de un pronóstico por parte de Ejército de Estados Unidos, donde a día de hoy no hay ninguna garantía de que se vuelva realidad. Sin embargo, resulta interesante ver como, basado en sus actuales desarrollos y planes, el DOD se lanza a ofrecer pistas de lo que nos depara el futuro en cuanto a tecnología militar.



via Magazine - robotica-e-ia https://ift.tt/2LilOWj

miércoles, 27 de noviembre de 2019

De qué serán capaces la inteligencia artificial y el machine learning en 10 años: los mayores expertos nos responden

De qué serán capaces la inteligencia artificial y el machine learning en 10 años: los mayores expertos nos responden

Parece que el término Inteligencia Artificial no se nos cae de la boca desde hace un par de años, pero lo cierto es que fue en 1956 cuando un profesor universitario, John McCarthy, lo acuñó en una coferenecia académica. Aunque las Leyes de Turin y de Asimov son de 1950, habría que esperar 6 años para acuñar este término y referirse a ese conjunto de tecnologías con las que se pretende que las máquinas sean inteligentes.

Desde entonces (han pasado más de 6 décadas), los avances han sido llamativos: ordenadores capaces de ganar a campeones de ajedrez, máquinas que aprenden solas, coches que se conducen solos…

Pero, ¿qué será realmente la Inteligencia Artificial capaz de hacer dentro de 10 años? ¿Seguiremos llamando Inteligencia Artificial a la Inteligencia Artificial? ¿Qué hay de realidad y qué de ciencia ficción o esperanza en lo que se dice sobre estas tecnologías?

Hemos hablado con varios expertos en la materia: Nuria Oliver ingeniera en telecomunicaciones y doctora por el Media Lab del Instituto Tecnológico de Massachusetts, Richard Benjamins, Data & IA Ambassador de Telefónica, Andres Torrubia, ingeniero y CEO de Fixr y Pedro Larrañaga, Catedrático de Ciencias de la Computación e Inteligencia Artificial de la Universidad Politécnica de Madrid. Esto es lo que nos han contado.

Por qué es difícil hacer estos pronósticos

Dentro de 10 años, habrá muchas herramientas que permitan acabar con el problema de los sesgos y la discriminación

Si hacer predicciones a futuro es difícil, hacerlo sobre una tecnología como la Inteligencia Artificial se antoja complicada incluso para los propios expertos que trabajan en su desarrollo. Para entenderlo un poco mejor, Andrés Torrubia explica que todos los avances que estamos viendo a día de hoy provienen de la disciplina del deep learning o aprendizaje profundo. Una materia que, hace precisamente 10 años, “no funcionaba a nivel práctico. Esto nos da una visión de la complejidad de hacer predicciones a futuro, porque si hace 10 años me hubieras hecho esta misma pregunta, te hubiera contestado que estaba atascado”.

Por eso, los expertos que hemos consultado prefieren, como punto de partida, hacer un repaso de lo que se ha conseguido en esta década para intentar vislumbrar de qué será capaz en unos años.

Durante este tiempo, la tecnología ha aprendido a reconocer objetos y caras, a realizar análisis predictivos (que se aplican en anuncios o en medicina) o a generar juegos (tipo Pokemon go). Todos estos son modelos predictivos, pero también hay modelos generativos, los que son capaces de crear algo: escribir, pintar… O inventar caras de personas, por ejemplo.

Andres Andrés Torrubia

La conducción autónoma será técnicamente viable

Por eso, y subrayando que es muy difícil de saber qué será capaz de hacer la tecnología en el futuro porque, Nuria Oliver desgrana que si seguimos avanzando en las mismas áreas de los últimos 5 años (reconocimiento de patrones en video, texto, imágenes y audio, es decir, en datos no estructurados), la conducción autónoma será realidad desde el punto de vista técnico. “Tendremos las habilidades técnicas para tener una conducción autónoma segura, aunque hay otros factores no tecnológicos que determinarán si es realidad o no en el mercado”, avanza.

La personalización de la educación o los tratamientos médicos también serán una realidad de aquí a unos años

Richard Benjamins ahonda en el hecho de que, en estos momentos, los coches ya son capaces de reaccionar sobre lo que ven los sensores y lo que han aprendido. “Pero en el futuro podrán predecir los comportamientos de otros coches, conducidos por coches y personas”. Un componente que no está presente hoy, pero sí en el futuro, “imitando lo que hacemos los humanos”-

Cuando se habla de conducción autónoma, ésta se dividen en 5 niveles. Andrés Torrubia explica que si el nivel 5 es el de máxima autonomía, en 10 años muchas ciudades ya estarán en el nivel 4 (que aún sigue exigiendo que un humano lleve las manos en el volante). “A nivel 5 no se llegará por cuestiones puramente técnicas”, avanza, salvo en entornos muy cerrados y controlados.

Diagnósticos, medicina personalizada y moléculas bajo el prisma de la IA

Medicina será, según estos expertos, otra de las áreas en las que más avances veremos. Aunque hoy en día sigue es una de las temáticas de las que más se habla, según Andrés Torrubia aún no está desplegada con todo su potencial, por lo que cuando este se produzca veremos importantes adelantes. “Hoy ya está ayudando en el diseño de fármacos, pero las moléculas tienen que pasar por ensayos clínicos. La IA diseñará moléculas, pese a que, con razón, sigue siendo un sector muy regulado”.

Así pues, será un avance que irá lento “porque se tiene que validar muy bien”. Pero en el diseño de tratamientos, en el diagnóstico será cada vez más común que la Inteligencia Artificial se aplique a temas de imágenes y radiografías. Algo en lo que coincide Benjamins. “Seguro serán diagnósticos médicos muy buenos, incluso mejores que los realizados por los propios médicos expertos. Y es algo que ya se hace”. Pero, según su visión, la verdadera aportación a diez años vista será que también se podrá explicar cómo se ha llegado a este diagnóstico. Aunque ahora el Machine Learning y la IA pueden hacer estos diagnósticos, es muy difícil explicar este diagnóstico, tanto al profesional como al particular. “En 10 años sí que se podrá explicar. Tanto a nivel general como en casos concretos”, augura este experto.

Benjamins Richard Benjamins

La Inteligencia Artificial también ayudará a sugerir tratamientos. Según este experto, en 10 años lo veremos muy desplegado y esto ayudará a la eficacia del médico. “Será una herramienta, no sustituye a este profesional”, subraya.

Eso sí, según Torrubia, no deberíamos dejar a la IA dejar actuar en muchas facetas sin supervisión humana “porque la tecnología tiene limitaciones”.

Nuria Oliver, en este punto, considera que, como en el tema de la conducción, serán otros factores los que determinen si realmente llegaremos a usar tanto la IA en el campo de la salud. “Generemos muchos datos de nuestra salud, y cada vez más. Todas las pruebas médicas son digitales, secuenciamiento de ADN, informes médicos y radiografías. Es una gran fuente de datos no estructurados que son los que la IA puede interpretar y encontrar patrones. En radiología está ya en los primeros resultados. Los algoritmos ya pueden detectar tumores de diferentes tipos con una precisión superior a la de un radiólogo", expone.

Sin embargo, eso no quiere decir que toda la medicina del futuro se base en lo que diga la Inteligencia Artificial. "No es algo sencillo porque una única prueba médica no tiene la respuesta y tener un diagnóstico sino que se necesitan varias pruebas, pero los algoritmos nos ayudarán a avanzar en este campo”.

Lenguaje, escritura y otras comunicaciones

La IA se desarrollará tanto en los próximos años que seguramente nos cueste distinguir cuándo nos estamos comunicando con un humano y cuándo con una máquina.

Podremos hablar con las máquinas como con los humanos, con una fiabilidad del 98%

Oliver asegura que una de las grandes promesas que se ve son las capacidades de interactuar con naturalidad a la tecnología. Es decir, hablarle a la tecnología y que nos entienda. “Ahora lo empezamos a poder hacer con asistentes y teléfonos. Cada vez irá mejorando más, porque hay muchas cosas que no entienden. El progreso en procesamiento del lenguaje natural será grande”, asegura esta experta.

Para eso, Andrés Torrubia explica que la tasa de acierto debe ser superior al 98%. “Un 90% supone que en una de cada 10 palabras falla. Y a la mínima los asistentes no nos entienden. Pero en 10 años no, la interacción va a ser mucho más natural”, avanza este experto. Tanto que, en lugar de tener que adaptarnos nosotros a ellos serán ellos los que estén adaptados a nosotros.

Así que, como dice Richards, Google Duplex estará mucho más extendido sobre más dominios y podrán tener un lenguaje natural, tener una conversación con una máquina.

Pero esta interpretación del lenguaje natural no será solo oral, sino también escrito. Según Torrubia, las máquinas del futuro serán capaces de escribir y hacerlo bastante bien. “Ya escriben un comentario de texto, pero me atrevería a decir, siendo muy aventurado, que escribirán historias coherentes y largas”, asegura.

La personalización de la educación

Para Nuria Oliver otra área en la que la IA avanzará mucho en los próximos 10 años es todo lo que tiene que ver con educación. “En China ya están realizando experimentos, utilizando IA para tener educación personalizada y adaptar los curriculus a cada niño”, explica.

Aunque habrá que ver los resultados que estos experimentos ofrecen, Oliver no duda de que es un área de oportunidad. “Nos permite personalizar la educación y eso ahora mismo no es viable. Sabemos que los niños aprenden con diferentes estilos, ritmos y técnicas y hay un profesor cada 30 alumnos. Es muy difícil ofrecer esa personalización. Pero con IA sí se puede, además para la para detección temprana para dificultades como dislexia o discapacidad para que desaparezca este concepto porque se compense con la IA”.

Nuria Nuria Oliver

¿Sesgos? ¿Qué sesgos?

Tanto Torrubia como Richards explican que los sistemas de Inteligencia Artificial se basan en correlaciones, en búsqueda de patrones. Y ésa es, precisamente, una de las grandes diferencias con la Inteligencia Humana y lo que acaba provocando algunos problemas, como los conocidos sesgos. “Las personas diferenciamos correlaciones de causa-efecto, pero las máquinas no”, ahonda Torrubia. Por eso los sistemas fallan y tienen sesgos y están mal configurados y refuerzan sesgos negativos. "Es lo que han visto y no entienden las relaciones causa efecto a día de hoy”.

La inteligencia humana sigue siendo más compleja y completa que la artificial, por lo que los expertos no temen un dominio de las máquinas

Por eso, un área activa de investigación en los avances de IA en datos son las abordar las limitaciones de los sistemas existentes, como la discriminación y sesgos. “La aspiración es que al usar datos estos algoritmos no sufran los sesgos que tenemos los humanos”, detalla Oliver. “Nos damos cuenta de que los datos no son un reflejo objetivo de la realidad, sino que están sesgados. Y si le enseñas a un algoritmo esos sesgos, los puede maximizar”, avisa.

Pero, la buena noticia es que, según Benjamins, el tema de la discriminación y sesgos de datos estará resuelto en 10 años. Habrá muchas herramientas que podrán detectar los sesgos. “Será como una ingeniería y se podrán identificar muy bien y eliminar”, avanza. En su opinión, actualmente el problema a veces es que puedes tener un conjunto de datos en los que no esté establecido la raza, pero sí que tenga esos sesgos. “Quizá en 10 años este tema también esté resuelto”.

Dame datos y te daré personalización

Nuria Oliver incide en este punto que toda la IA se basa en datos. Los modelos más prometedores y los comerciales de más éxito son redes neuronales entrenadas con cantidades ingentes de datos. Para aplicar estas técnicas de IA en nuevas áreas como medicina y educación o justicia, lo primero es tener datos. Los algoritmos aprenden a partir de datos que se suponen que refleja de manera objetiva lo que quieres modelar.

“A partir de esos datos, si son suficientes para cada persona, puedes construir un modelo especifico a cada persona. Y adaptarte a esa persona. Ya hay modelos de personalización en los sistemas de recomendación en base a tus propios datos y comportamiento. Es un área inmensa la personalización y forma parte de la estrategia core de la mayoría de las empresas tecnológicas, sobre todo si tienen servicios que interaccionan con las personas. La clave es como aplicarlas en sectores no puramente digitales”, detalla esta experta.

Pero no son los únicos campos donde la aplicación de la IA es un reto. Para Andrés Torrubia también la implementación en robots, que hasta ahora no se ha beneficiado mucho de la IA, será un campo de desarrollo. “Hay muchas tareas del día a día aunque sean menos noticiable”. Un buen ejemplo es Amazon Go, que te reconoce cuando entras y coges el producto. Aunque de momento es un prototipo, Torrubia asegura que el llegar a que la IA pueda saber cuánto cobrarte por el peso de un producto concreto es un desafío brutal, sobre todo para implementarlo a escala. “Pero lo conseguiremos. Como que Zara te permita probarte las cosas virtualmente en tu casa y que te sugiere la ropa en función de tus gustos y de lo que tienes”, avanza.

Waymo Waymo, uno de los proyectos de coche autónomo

Además, este experto también confía en los resultados que pueden cosechar, de aquí a 10 años, algunos de los prototipos de investigación, como que escriba una novela entera tipo Harry Potter. O algoritmos que inventen una película entera. “Hay temas más distópicos como la generación de fake news que se podrá hacer a escala y eso existirá, tanto en texto como en vídeo”, aventura.

No es lo que haga, es lo que debería hacer

Según Pedro Larrañaga, todo esto se puede resumir en tres grandes puntos

  • Creará más trabajos de los que destruya.
  • Ayudará a los humanos en un buen número de trabajos.
  • Posibilitará un mundo más justo y con más posibilidades para la gente pobre que sea capaz de esforzarse en el estudio deje de serlo y mejore en sus condiciones de vida.

Y ese último melón es el que, precisamente, abren también algunos de estos expertos con los que hemos hablado. Nuria Oliver asegura que el desarrollo tecnológico es mucho más complejo que los algoritmos. “Debe estar contextualizada en una realidad y con impacto en la sociedad y en la vida de millones de personas. No se puede desarrollar de manera aislada. Hay un componente humano. No es solo capacidad técnica para ser más eficiente, sino también empatía, garantía de justicia”.

Seguirá siendo necesario controlar y supervisar a la Inteligencia Artificial

Es lo que ella denomina FATEN (Justicia, Autonomía, Confianza, Educación y No Maleficencia, por sus siglas en inglés). “Más allá de desarrollo de nuevos algoritmos debemos hacerlo en marco FATEN; si no, no será progreso. No toda innovación es progreso. Por eso debemos asegurarnos que no está discriminando, que no va a aumentar la diferencia entre ricos y pobres, o que solo funciona para una raza. Este marco debería ser donde hagamos el desarrollo”.

O, como dice el experto de Telefónica, debe haber una concienciación no solo de las oportunidades, sino también de los desafíos, por lo que debería haber muchos debates y conversaciones a diferentes niveles. “La Comisión Europea sobre confianza de la IA, pero hay más temáticas, responsabilidad, también en el plano jurídico, del trabajo si las máquinas van a quitar y cómo se sostiene el estado de bienestar. Hay mucho debate. La toma de decisiones autónoma en la administración pública afecta a las personas. No estamos preparados para que pase a gran escala. Necesitamos coger más experiencia y regulación para poder evitar que pasen cosas que o queremos”.

Además, considera que hay que trabajar en evitar la concentración de datos en pocas compañías que tienen mucho dinero. “El riesgo es que la mejor tecnología esté en manos de muy pocos y tengan el poder”, advierte.

La IA no tiene superpoderes

Seguramente la IA tenga mucho potencial de desarrollo, pero hay cosas que no será capaz de hacer.

¿Cuáles? El catedrático de la Complutense asegura que la respuesta a esto se relaciona con la [paradoja de Moravec](https://ift.tt/2M2KKTG, “es decir por qué la IA hace fácil lo difícil) (para un humano) y viceversa. Al parecer el esfuerzo necesario para copiar cada habilidad humana es proporcional a la antigüedad con que ésta apareció en nuestro árbol genealógico. El “amor”, la “creatividad”, la “empatía” probablemente sean aspectos del ser humano que le van a costar incorporar a un sistema de IA”.

Radiografia

Para Richard Benjamins, casi todo el éxito de la IA se basa en aprendizaje automático supervisado con redes Machine Learning. “Pero si ves como aprende un bebe, no sabe nada, observa, interactúa y recibe feedback y 18 meses más tarde ha construido su modelo del mundo en el que cada concepto que conoce se ancla en la realidad. Aprender así no se puede aún con la IA, pero se darán pasos para que se de. Si se consigue sería un gran hito, sería cambiar de aprender de manera supervisado con ML a no supervisado. Aún no sabemos cómo funciona”.

Además, tampoco tendrá sentido común, como los humanos. “Las máquinas no saben reaccionar”, asegura, aunque no descarta que se pueda llegar a producir.

Andrés Torrubia también asegura que la IA no va a ser como la humana. “No se va a volver contra nosotros. No tendrá autonomía”, asegura. “Atribuimos cualidades humanas a todo, incluso decimos que aprenden. Pero no lo hacen como una persona. Hacen ecuaciones y llegan a una conclusión pero eso no es aprender. Así que no tomarán el control”.

Y, sobre el peligro de que robe puestos de trabajo, este experto señala que solemos pensar demasiado en las amenazas de los robots. “Se cree que en el trabajo es más factible que tenga impacto en trabajos poco cualificados, pero no es cierto. Un fontanero no podrá ser un robot en 10 años”.

Por su parte, Nuria Oliver también subraya que los humanos somos mucho más que reconocimiento de patrones. “Tenemos muchos tipos de inteligencia: sentido común, capacidad de asociar, crear, conocimiento semántico del mundo del que carecen los algoritmos. Reconocen gatos, pero no sabe qué es un gato. Hay muchas áreas donde la inteligencia humana es muy compleja y multidimensional", como en el mencionado sentido común y la capacidad de razonamiento. Además, esta experta señala un punto débil de las máquinas: "tienen la fragilidad de que lo puedes hackear”.

Además, esta experta recuerda que el reconocimiento de patrones necesitan muchos más ejemplos que un humano para encontrar ese reconocimiento. “No aprenden incrementalmente y constantemente y sin olvidar lo que ha aprendido. Son sistemas supervisados. Los humanos somos más eficientes y hay muchas habilidades de un niño de 2 años que son muy complicadas para la IA”.

El riesgo de morir de éxito

Por último, Andrés Torrubia cree que a la IA le vamos a poner freno como sociedad. “Desgraciadamente hay tanto hype, tanta expectación, que muchas empresas sacan cosas mal hechas” con el consiguiente riesgo que ello conlleva. Y pone un paralelismo con la web de Renfe “famosa por lo mal que funciona”. El problema, en su opinión, es si trasladamos esa isma sensación a los primeros sistemas de reconocimiento facial que falle, por ejemplo.

“Es un tema social. Puede ser disruptivo a nivel económico y socialmente se frene o por malas implementaciones. Es un problema que hay que tratar de manera sensata. No tiene que estar mal ejecutado. Así que crucemos dedos para que no haya una web de Renfe en la implementación de la IA”.



via Magazine - robotica-e-ia https://ift.tt/2DplOiw

Cerebras CS-1, el super ordenador con tamaño de PC que alberga un procesador de 400.000 núcleos para inteligencia artificial

Cerebras CS-1, el super ordenador con tamaño de PC que alberga un procesador de 400.000 núcleos para inteligencia artificial

A finales del pasado mes de agosto un anuncio nos dejó con la boca abierta: una empresa anunciaba la creación de un impresionante chip más grande que un iPad en dimensiones y con 400.000 núcleos, 18 GB de memoria y 1,2 billones de transistores. Una verdadera bestia que sólo habíamos imaginado en nuestros sueños más locos.

La empresa responsable de esta barbaridad se hace llamar Cerebras Systems, que ahora acaba de anunciar su primer super ordenador, el cual será impulsado por la salvajada de procesador que anunciaron hace unos meses. Este ordenador ha sido bautizado como Cerebras CS-1, y no, no servirá para 'Minecraft' o 'Fortnite' en 4K a 60 fps, sino para tareas relacionadas con inteligencia artificial.

Dicen que ofrece el rendimiento de más de 1.000 GPUs combinadas

De acuerdo a la información ofrecida por la misma compañía, Cerebras CS-1 es un super ordenador que ofrecen como una "solución completa" diseñada para ser añadida a un centro de datos para manejar flujos de trabajo de inteligencia artificial. Según la compañía, a día de hoy no hay otro sistema en el mundo que sea más rápido en el procesamiento de cargas de trabajo de inteligencia artificial.

Andrew Feldman, fundador y CEO de Cerebras Systems, explicó que el CS-1 se entrega listo para instalarse y trabajar, y es compatible con los actuales modelos de inteligencia artificial existentes, como TensorFlow y PyTorch.

"Dependiendo de la carga de trabajo, el CS-1 ofrece cientos o miles de veces el rendimiento de las actuales alternativas que encontramos en el mercado, con una décima parte del consumo de energía y una décima parte del espacio por unidad de cálculo."

Cerebras WSE

La parte central del CS-1 está en el procesador Wafer Scale Engine (WSE), que es el primero en romper la barrera del billón de transistores, concretamente 1,2 billones de transistores. Su impresionante tamaño es de 46.225 mm cuadrados, es decir, unas 56 veces más grande que la GPU más grande jamás fabricada.

Gpu Saiz Cerebras Cs 1

A pesar de su tamaño, WSE cabe dentro del CS-1, que cuenta con un tamaño de apenas 67 cm de altura. Es decir, este ordenador ocupa sólo un tercio del espacio de un rack estándar de un centro de datos, pero sería capaz de sustituir a cientos o miles de GPUs que normalmente requerirían docenas de racks.

Con todo esto, el CS-1 incluye 400.000 núcleos de procesamiento, 18 gigabytes de memoria 'on-chip', 9 petabytes por segundo de ancho de banda, 12 conexiones Ethernet Gigabit para mover datos dentro y fuera del sistema, y un consumo de apenas 20 kilovatios de energía.

Cs 1 Exploded Transparent

De acuerdo a las especificaciones, todo este monstruo incluye un sistema de refrigeración por agua de alto rendimiento para mantener este gran chip y la plataforma funcionando a bajas temperaturas y evitar sobrecalentamientos.

En cuanto al software, Cerebras afirma haber creado una plataforma propia que permitiría a los desarrolladores utilizar sus actuales bibliotecas de machine learning, e integrarlas en sus flujos de trabajo de inteligencia artificial para usarlas desde CS-1.

Cs 1 Angled Black

De acuerdo a la información, el Laboratorio Nacional Argonne, que es el primer laboratorio nacional de investigación en ciencia e ingeniería en los Estados Unidos, es el primer sitio que usará un Cerebras CS-1 para sus tareas de investigación.

Según explican, el CS-1 se utilizará para acelerar las redes neuronales en nuevos estudios de cáncer, para tratar lesiones cerebrales traumáticas, así como para tratar de comprender mejor los agujeros negros. Una de sus ventajas, según sus responsables, es que debido a la gran capacidad de este super ordenador sería posible ejecutar todo un modelo de machine learning en local, y así no tener que depender de las actuales soluciones en la nube.

Cerebras Cs 1 1

Feldman mencionó que actualmente su compañía tiene 181 ingenieros trabajando en el desarrollo tanto de WSE como de CS-1, y ahora están tratando de impulsar sus ventas a nuevos clientes. Aunque no mencionó nada acerca de precios, que no debe ser nada barato.



via Magazine - robotica-e-ia https://ift.tt/2XP6p4C

martes, 26 de noviembre de 2019

Spot, el perro robótico de Boston Dynamics, ya se ha usado en entornos reales por la policía estadounidense

Spot, el perro robótico de Boston Dynamics, ya se ha usado en entornos reales por la policía estadounidense

Boston Dynamics lleva diez años mostrándonos sus avances en robótica. Antes propiedad de Google y ahora de Softbank, la compañía es conocida por dos dispositivos: Atlas, de aspecto humanoide, y Spot, un perro robótico que ya está disponible en su web y que la policía estatal de Massachusetts ya ha usado en entornos reales.

De acuerdo a unos documentos obtenidos por la American Civil Liberties Union (ACLU) de Massachusetts que analizan en la cadena estadounidense WBUR, la unidad de artificieros (Bomb Squad) del Estado ha tenido un préstamo de Spot durante tres meses (de agosto a noviembre) para "evaluar las capacidades del robot en la aplicación de la ley, particularmente en inspecciones remotas de entornos potencialmente peligrosos que pudieran contener sospechosos".

Usado en pruebas y también en incidentes

Según la policía estatal, Spot ha sido "utilizado en dos incidentes, además de en las pruebas", aunque no se detallan qué tipo de incidentes ni si el robot actuaba de forma autónoma o controlado por un operador de la unidad de artificieros. Estos, por cierto, son los únicos habilitados para acceder y usar Spot, tal y como se expone en el documento citado anteriormente. Según Michael Perry, VP de desarrollo comercial de Boston Dynamics:

"En este momento, nuestro interés principal es enviar al robot a situaciones en las que desea recopilar información en un entorno donde es demasiado peligroso enviar a una persona, pero en realidad no interactúa físicamente con el espacio".

Cabe destacar que Spot puede personalizarse a nivel de software por el organismo que vaya a hacer uso del robot. Desde la policía de Massachusetts afirman que no han usado esta función. Michael Perry, por su parte, señala que no quieren que Spot se arme y que en todos los contratos de arrendamiento se añade una cláusula que "exige que el robot "dañe físicamente o intimide a las personas"". Precisamente por este motivo prefieren hacer arrendamientos en lugar de ventas.

Y es que Spot está pensado para ser usado en situaciones que podrían poner en peligro la vida humana, como podría ser un escape de gases químicos o una bomba. Sin embargo, la American Civil Liberties Union se ha mostrado escéptica con respecto al uso de Spot y demás robots (la policía del Estado tiene una flota de 18 robots, principalmente rastreadores).

Kade Crockford, directora del programa de tecnología para la libertad de ACLU, afirma que "no sabemos lo suficiente sobre cómo la policía estatal está usando esto [refiriéndose a Spot]" y que "necesitamos alguna ley y alguna regulación para establecer un marco de protección para asegurar que estos sistemas no puedan ser mal utilizados o maltratados en manos del gobierno". Recordemos que en 2016 se usó un robot equipado con bombas para matar a un francotirador.

En un comunicado emitido a Gizmodo, Boston Dynamics ha hecho un llamamiento a la calma recalcando que el acuerdo con la policía estatal de Massachusetts es el único que tienen en el sector de la seguridad pública y que dicho acuerdo no permite dañar o intimidar personas:

"La policía estatal de Massachusetts es nuestra única relación centrada en la seguridad pública hasta la fecha. Creemos que en los próximos 5 a 10 años, los servicios de emergencia responderán utilizando Spot para vigilar situaciones peligrosas, inspeccionar paquetes sospechosos y detectar gases peligrosos en situaciones de emergencia. Usar un robot ágil como Spot en estas situaciones puede retirar a los humanos de entornos potencialmente mortales y proporcionar a los servicios de emergencia un mejor conocimiento situacional de una crisis. Estas son las mismas capacidades que utilizarán clientes de las industrias del petróleo y el gas, servicios eléctricos, desmantelamiento nuclear y minería para realizar inspecciones críticas de seguridad sin exponer a personas al riesgo.

Nos gustaría enfatizar que nuestro acuerdo con clientes de Spot no permite el uso de Spot para ningún propósito que pueda dañar o intimidar a las personas".

Spot salió a la venta a finales de septiembre. El perro robótico de Boston Dynamics es capaz de alcanzar una velocidad de 1,6 metros por segundo, tiene una batería que da una autonomía de 90 minutos y visión de 360 grados y es resistente al agua y al polvo. Asimismo, dispone de un brazo robótico en la zona superior que, como se aprecia en el GIF sobre estas líneas, le permite abrir puertas. No se vende a particulares, solo a compañías a través de un formulario web en el que deben exponer cómo lo van a usar y en qué sector.

Vía | WBUR



via Magazine - robotica-e-ia https://ift.tt/2Dhkyht

lunes, 25 de noviembre de 2019

Nuevas tecnologías y derechos laborales

El cambio tecnológico está siendo considerado erróneamente como una amenaza para el empleo

via Robótica https://ift.tt/35r5SZ6

viernes, 22 de noviembre de 2019

Google hace realidad a WALL-E y desarrolla un robot que aprende por sí solo a separar residuos orgánicos de material reciclable

Google hace realidad a WALL-E y desarrolla un robot que aprende por sí solo a separar residuos orgánicos de material reciclable

En 2017 Google y su matriz, Alphabet, vendieron Boston Dynamics a Softbank: sus sorprendentes robots cuadrúpedos y bípedos no parecían ser ya interesantes para el gigante de internet, que no obstante ha vuelto a apostar por la robótica a través de su X Lab y el llamado The Everyday Robot Project.

Estos nuevos robots quieren ayudar a realizar tareas cotidianas, y uno de los primeros es el destinado a organizar y separar unos residuos de otros. Lo sorprendente no es solo que lo logra, sino que lo hace aprendiendo por sí solo gracias a técnicas de inteligencia artificial.

Un robot que recuerda mucho a WALL-E

Los responsables del proyecto explicaban cómo ese reto de ordenar residuos orgánicos de otros como plásticos era una de las claves de ese primer robot útil y práctico en el día a día. El desafío no es sencillo y afecta al reconocimiento de objetos y a la destreza de los robots y sensibilidad a la hora de coger esos objetos sin romperlos al ir organizándolos.

Manip

Normalmente en otras aproximaciones al problema se habría enseñado a los robots a reconocer ciertos objetos, pero el X Lab ha hecho uso de ámbitos como la simulación, el aprendizaje por refuerzo y el aprendizaje colaborativo.

Para empezar, los robots no solo aprenden ejecutando la tarea físicamente: una simulación virtual permite también contribuir a ese aprendizaje, algo que luego puede ser "transmitido" al robot normal para que este luego aplique ese aprendizaje virtual al mundo físico. De hecho la cosa no queda ahí, porque lo que ese robot físico aprende también pasa al robot virtual para que ese ciclo de aprendizaje reforzado y colaborativo sea continuo.

Los resultados son desde luego prometedores, y vuelven a demostrar la validez de esa técnica de la inteligencia artificial que es el aprendizaje por refuerzo. De hecho es el mismo principio que DeepMind ha usado en AlphaStar, el sistema que juega a StarCraft II mejor que la mayoría de seres humanos de nuestro planeta.

Los robots de X Labs lograron reducir el nivel de contaminación de los residuos de un 20% en esa especie de bolsa de basura inicial sin organizar a un 5% en la basura distribuida y organizada en distintos tipos para poder ser reciclada. Es solo el principio, y en Google creen que en el futuro estos robots podrían servir por ejemplo de gran ayuda a las personas de edad avanzada para asistirlas en su día a día.

Más información | X Company



via Magazine - robotica-e-ia https://ift.tt/2qDT56V

jueves, 21 de noviembre de 2019

De las fábricas a los bancos: las máquinas plantean revoluciones en el empleo de obreros, pero también de oficinistas

De las fábricas a los bancos: las máquinas plantean revoluciones en el empleo de obreros, pero también de oficinistas

Cuando hablamos de robots y de cómo afectarán al futuro del empleo muchos imaginamos a máquinas de todo tipo sustituyendo a obreros en tareas relativamente rutinarias. Esas tareas son desde luego las más afectadas a corto plazo, pero es que no solo se restringen al ámbito de los obreros de cualquier fábrica.

De hecho en Deutsche Bank han anunciado un plan para despedir a 18.000 empleados, el recorte más importante de su historia, y para poder hacerlo sin que su operativa se vea afectada la idea es reemplazarlos con máquinas... o más bien, con algoritmos.

Oficinistas robóticos

Mark Matthews, director de operaciones de Deutsche Bank, revelaba que su proyecto "Operations 4.0" tiene como objetivo plantear un ahorro de 6.600 millones de dólares en los próximos tres años.

Según este directivo, la plataforma de inteligencia artificial que han comenzado a usar en algunas áreas de negocio ha "incrementado la productividad de forma masiva", y ya se han ahorrado "680.000 horas de trabajos manuales" que hasta ahora recaían en oficinistas.

Esos trabajos "white collar" (o "de cuello blanco", en referencia a que estos trabajadores suelen ir vestidos con chaqueta, camisa y corbata) son por tanto los afectados por una revolución que según Matthews ha permitido implantar bots para procesar 5 millones de transacciones en el banco corporativo y realizar 3,4 millones de comprobaciones en el banco de inversión.

La inteligencia artificial, destacaban en Axios, va a por los oficinistas. Es cierto que los obreros de plantas de producción ya están viendo los efectos de la automatización y los robots, pero cada vez más empleos de oficinista están también afectados por sistemas de inteligencia artificial que pueden realizar esos trabajos, en parte repetitivos y rutinarios, sin demasiados problemas.

Esos estudios no son infalibles, no obstante: los robots perdieron la batalla contra trabajadores humanos en las plantas de Adidas recientemente, y lo mismo ha ocurrido en el caso de Boeing, que ha vuelto a un proceso de fabricación más "humano" y menos basado en máquinas para garantizar ciertos parámetros de calidad.



via Magazine - robotica-e-ia https://ift.tt/37qpcHV

Lidl continúa su ofensiva contra Thermomix: pone a la venta su robot Monsieur Cuisine por 200 euros en fechas del Black Friday

 Leer

via Tecnología // elmundo https://ift.tt/2QACJ9T

La automatización digital impactará negativamente a los empleos de alta cualificación

Un nuevo estudio anticipa que los trabajadores mejor pagados afrontarán los mismos retos que los empleos productivos

via Robótica https://ift.tt/2XzN7QQ

martes, 19 de noviembre de 2019

La NASA probará un robot en la Antártida con el objetivo de buscar vida extraterrestre en una luna de Júpiter

  • La agencia prevé viajar al satélite Europa en 2025, donde cree que puede encontrar formas simples de vida 

Leer la noticia completa

via Ciencia y tecnología en rtve.es https://ift.tt/2s0wL83

La voluntad de sobrevivir podría llevar a la IA al siguiente nivel

Aunque la ciencia ficción nos ha mostrado robots que desarrollan sentimientos, en la vida real estos sistemas todavía no existen. Sin embargo, los neurocientíficos Kingson Man y Antonio Damasio tienen una hipótesis acerca de cómo dar sentimientos a los robots.

Para estos neurocientíficos solo hace falta construir un robot con la capacidad de sentir el peligro de su propia existencia, y en ese caso se vería obligado a desarrollar sentimientos para guiar los comportamientos necesarios para asegurar su propia supervivencia.

En ese sentido, Man y Damasio proponen una estrategia para imbuir a las máquinas (como robots o androides humanos) con el “equivalente artificial de la sensación”. Los expertos creen que el principio biológico de la homeostasis haría que los robots fueran más inteligentes. Solo habría que poner a las máquinas a observar el principio biológico de la homeostasis, la idea de que la vida debe regularse a sí misma para permanecer dentro de un rango estrecho de condiciones adecuadas.

Hacer a las máquinas conscientes de las características análogas de su estado interno equivaldría a la versión robótica de los sentimientos. Y según los neurocientíficos, tales sentimientos no solo motivaran el comportamiento de la autoconservación, sino que inspirarán una nueva IA que emule más de cerca la realidad.

Las máquinas inteligentes están diseñadas para una tarea específica, como predecir una enfermedad, jugar Go, conducir un automóvil, etc. Pero la inteligencia humana por su lado es más general y puede hacer frente a cualquier tipo de situaciones. Los científicos han buscado durante mucho tiempo la fórmula para que los robots sean más inteligentes a nivel general, y ahora según Man y Damasio, la clave está en los sentimientos.

Esto, basados en la idea de que los sentimientos surgen de la necesidad de sobrevivir. Cuando los humanos mantienen un robot en un estado viable (todos los cables conectados, la cantidad correcta de corriente eléctrica, la temperatura cómoda), el robot no tiene que preocuparse por su propia conservación y por tanto no necesita sentimientos (señales de que necesita algo).

Los sentimientos motivan a los humanos a buscar estados óptimos de supervivencia, ayudando a garantizar que los comportamientos mantengan el equilibrio homeostático necesario. Una máquina inteligente con un sentido de su propia vulnerabilidad debería actuar igual ante las amenazas a su existencia.

Pero para percibir las amenazas, un robot debe estar diseñado para comprender su propio estado interno. Podría hacerse a partir del aprendizaje profundo, un descendiente moderno de la vieja idea de las redes neuronales artificiales, que requiere múltiples capas de redes neuronales para clasificar e identificar patrones.

Un robot inteligente, por supuesto, necesitaría identificar muchas características en su entorno, al tiempo que realiza un seguimiento de su propia condición interna. Sin embargo, la capacidad de detectar estados internos no importaría mucho, a menos que la viabilidad de esos estados sea vulnerable a los ataques del medio ambiente.

¿Recuerdas cuando David, interpretado por Haley Joel Osment, en la película Inteligencia Artificial en la escena del desguace de robots era el único que experimentaba el miedo a la muerte? En este caso podía percibir su estado interno y al mismo tiempo analizar los ataques del medio ambiente, de esas percepciones venían sus sentimientos y por lo tanto, un estado de inteligencia superior, más cercana a la humana.  

La entrada La voluntad de sobrevivir podría llevar a la IA al siguiente nivel se publicó primero en IntelDig.



via IntelDig https://ift.tt/34akzjn

lunes, 18 de noviembre de 2019

Automatización

El proceso de sustitución de trabajadores por máquinas exige políticas inclusivas

via Robótica https://ift.tt/2CT6xGA

Cortana se desvanece en móviles: Microsoft la retirará de iOS y Android en países como España o México en enero de 2020

Cortana se desvanece en móviles: Microsoft la retirará de iOS y Android en países como España o México en enero de 2020

Microsoft parecía tener en Cortana a un potente aliado para plantar cara a Google, Amazon y Apple en el terreno de los asistentes de voz. La plataforma de Redmond era interesante y la empresa la impulsó para formar parte de Windows, de su navegador Microsoft Edge e incluso lo quiso integrar en iOS y Android para contar con esa opción en las plataformas móviles que dominan ese segmento.

La jugada no parece haberle salido bien, porque el asistente de voz de Microsoft se desvanece en móviles. La empresa ha anunciado que la aplicación móvil de Cortana para iOS y Android dejará de estar disponible a partir del 31 de enero en países como Reino Unido, Canadá, Australia, Alemania, México, China, España e India. El foco ahora está en su integración con Office 365, afirman desde Redmond.

Cortana se queda en Windows (y en Office 365)

Un portavoz de la empresa indicaba en The Verge que "Cortana es parte integral de nuestra gran visión de llevar la potencia de la computación conversacional y la productividad a todas nuestras plataformas y dispositivos".

Cortana2

Para ello, destacaba, integrarán Cortana de forma más profunda en las aplicaciones de productividad de Office 365, pero "parte de esa evolución incluye abandonar el soporte de la aplicación móvil de Cortana en Android e iOS".

De momento otros países mantendrán esa aplicación en los catálogos de iOS y de Android, pero en los países mencionados no solo desaparecerá la aplicación, sino que Cortana también dejará de estar presente en el lanzador de Microsoft para Android.

El documento de soporte oficial revela que "el contenido de Cortana que creaste como recordatorios o listas" no funcionarán ya en esas aplicaciones, aunque "podrán seguir utilizándose en Cortana bajo Windows".

A pesar del esfuerzo de Microsoft por impulsar Cortana -las aplicaciones móviles aparecieron en diciembre de 2015- su popularidad se ha visto comprometida por el éxito de sus rivales: tanto Amazon Alexa como Google Assistant son ahora claros referentes en Android mientras que Siri lo es en iOS.

Hace tiempo de hecho que Microsoft parecía haber visto peligro en este segmento: sus responsables llegaron a un acuerdo con los de Amazon para que ambos asistentes de voz, Alexa y Cortana, pudieran coexistir en productos basados en soluciones Microsoft y Amazon. Desde Xataka nos hemos puesto en contacto con los responsables de Microsoft en España, que nos han confirmado esta información.

Vía | The Verge



via Magazine - robotica-e-ia https://ift.tt/2r5dJN6

domingo, 17 de noviembre de 2019

La apertura de Abe a la que se resiste Japón

Los intentos del primer ministro de abrir el país al exterior política y económicamente chocan con una renuencia social hacia los cambios

via Robótica https://ift.tt/2KwsMGJ

Humanismo tecnológico

Hay que digitalizar a Protágoras y proclamar que el ser humano es la medida de todas las cosas que pasan en la Red

via Robótica https://ift.tt/2KsNg2R

viernes, 15 de noviembre de 2019

Facebook se purga

La red social más usada del mundo desactivó entre abril y septiembre de este año 3.200 millones de cuentas falsas, en su mayoría gestionadas por robots, a la vez que eliminó 11,4 millones de contenidos que incitaban al odio

Facebook se purga



from INFORMACION - Tecnología https://ift.tt/378KfyB
via IFTTT

El temor a la inteligencia artificial surge del recelo hacia los intereses económicos

Un estudio pionero apunta que el recelo hacia la tecnología proviene de la desconfianza hacia los intereses de quienes pagan su desarrollo y los problemas de privacidad

via Robótica https://ift.tt/32QJCWU

Robots y destrucción de empleo, una ecuación todavía sin resolver

Más que pensar en qué empleos sobrevivirán a la nueva revolución industrial, debemos reflexionar sobre cómo será el trabajo en la nueva era

via Robótica https://ift.tt/2rIZHBb

De los ‘compañeros del metal’ a los compañeros de WhatsApp

Los nuevos entornos laborales ponen en tensión las viejas formas de organización y reivindicación de los empleados. ¿Conseguirán adaptarse y sobrevivir los sindicatos tradicionales?

via Robótica https://ift.tt/2q5quaC

El futuro del empleo que ya pasó

Aunque es fácil imaginarse la destrucción de miles de empleos, el cambio tecnológico tiene implicaciones más complejas y menos catastróficas

via Robótica https://ift.tt/2Xef1BD

Entre el buen trabajo y el empleo basura en la era de los robots

La revolución tecnológica está trastocando muchos elementos del mundo laboral que precisan una revisión para asegurar la calidad del empleo

via Robótica https://ift.tt/2NO9heU

Mi compañero de trabajo es un robot

Son más fuertes y más resistentes, pero no pueden competir con el ser humano a la hora de improvisar para resolver imprevistos. Este minidocumental analiza la relación entre el hombre y la tecnología en el entorno laboral

via Robótica https://ift.tt/2NMbQhs

miércoles, 13 de noviembre de 2019

Los robots pierden sus trabajos a manos de los humanos: Adidas cerrará sus fabricas automatizadas para centrar su producción en Asia

Los robots pierden sus trabajos a manos de los humanos: Adidas cerrará sus fabricas automatizadas para centrar su producción en Asia

En 2016 Adidas anunció la inauguración de Speedfactory, una fabrica automatizada con robots con la que buscaban cambiar de estrategia al descentralizar su producción en Asia. La idea de estas fabricas era reducir los tiempos de producción y entrega hacia el cliente final, además de reducir costes en empleados y gastos de envío desde Asia. Adidas anunció que sus dos Speedfactory cerrarán en abril de 2020.

La primera Speedfactory abrió sus puertas en Ansbach, cerca de su sede en Alemania, mientras que la segunda se inauguró en 2017 cerca de Atlanta, Estados Unidos. Según Adidas, han tomado la decisión de cerrar ambas plantas y llevar toda la producción a sus fabricas en China y Vietnam al ser "más económico y flexible".

Humanos 1 - Robots 0

La estrategia que había planteado Adidas con sus Speedfactory era acercar la producción a los usuarios, ya que en ese momento se pronosticaba un aumento en los salarios en Asia y los gastos de envío desde esa región a todo el mundo. Adidas buscaba construir una red global de estas fabricas automatizadas, y así con el paso del tiempo abandonar la dependencia a Asia.

Adidas no ofreció una explicación del porqué estaba cerrando estas fabricas, pero como mencionan en TechCrunch, todo apunta a los altos costes de operación. Ambas fabricas son operadas por la compañía alemana Oechsler, y en ellas hay aproximadamente 160 personas cuyo trabajo es monitorizar la producción y configurar los sistemas de acuerdo al producto.

Según TechCrunch, estas fabricas robóticas son difíciles de reconfigurar y echar a andar tras estos cambios, ya que antes se deben hacer pruebas para confirmar que todo está en orden. Adicional a esto, se necesita mano de obra especializada, que sepa reparar y configurar los brazos robóticos y los sistema de visión por ordenador. Es decir, costes sumamente elevados si los comparamos con una fabrica que se basa en mano de obra con herramientas estándar.

Según Reuters, Adidas basa su producción en fabricas subcontratadas en China y Vietnam donde hay más de un millón de trabajadores, lo que a día de hoy resulta ser más rentable que tener dos fabricas automatizadas con robots.

Martin Shankland, director de operaciones globales de Adidas, mencionó:

"Las Speedfactories han sido fundamentales para fomentar nuestra innovación y nuestras capacidades de fabricación. Ese fue nuestro objetivo desde el principio. Lamentamos mucho que nuestra colaboración en Ansbach y Atlanta haya llegado a su fin. Utilizaremos las tecnologías de Speedfactory para producir calzado deportivo en dos de nuestros proveedores en Asia."



via Magazine - robotica-e-ia https://ift.tt/2QcoUhL

Marc Vidal: «El trabajo del futuro es más que probable que se parezca más a ir a la escuela que a la oficina»

El lugar no puede ser más apropiado, la Fundación Rafael del Pino. Un espacio céntrico en Madrid que se dedica a formar dirigentes, impulsar los principios del libre mercado y la libertad de empresa y emprendimiento. En ese enclave, rodeado de una escasa vegetación urbana, acude Marc Vidal, una de las figuras más influyentes en la disrupción tecnológica. Conocido conferenciante y tertuliano, el divulgador expone en su nuevo libro, «La era de la humanidad: Hacia la quinta revolución industrial» (Deusto, 2019), los cambios e innovaciones que la sociedad va a vivir en los próximos años, así como el impacto que tendrá no solo en sus vidas, sino en todos los negocios. Su mensaje, pese a la marejada que viene de otra orilla, es más optimista. Todavía no hemos alcanzado la Cuarta Revolución Industrial y usted ya se va directo a la quinta. Normalmente, la mayoría de las revoluciones industriales nos enteramos de ellas cuando ya estamos ahí, en medio del meollo, con lo que todas las consecuencias negativas nos las comemos antes que nada; destrucción de empleo, deflación del capital. Diferentes aspectos que son característicos de las diferentes revoluciones tecnológicas nos avisan cuando estamos en ella. La llamada Cuarta Revolución Industrial nos hemos enterado de que lo que estábamos viviendo (una crisis financiera, inmobiliaria) tenía un trasfondo que tenia más que ver con una revolución tecnológica. No es que estemos cerca de la «Quinta», pero sí la podemos prever. Podemos interpretar que la singularidad tecnológica hay diferentes aspectos que tienen que ver con la automatización de nuestra vida económica y social, y van a afectarnos y mucho. Si alguien piensa en aquellos trabajos de echar carbón a la locomotora hace cien años, debería darse cuenta que la tecnología permitió que esa actividad fuera más eficiente y cómoda para el empleado. ¿La tecnología es una oportunidad o una amenaza? La tecnología siempre ha traído cosas buenas en términos generales. Obviamente, el ser humano tiene una mente retorcida y la utiliza para cosas no tan buenas. En principio, en ámbitos económicos y en el sentido humano, ha aportado cosas positivas. La Primera Revolución Industrial permitió que unas personas que trabajasen 16 horas al día, en el momento en el que entraba una máquina de vapor en una fábrica textil en el sur de Londres de 400 personas, dejasen de trabajar muchos menos. En esa época, además, lo llamaban «crisis industrial» no «revolución». Ahora los cambios son más rápidos, pero con cuarenta años después se entendió que aquello era para reducir de alguna manera la jornada laboral para que la gente hiciera otras cosas. Y que esa tecnología que en esos momentos se debía ejercer la fuerza bruta -como empujar utensilios- se pudiera realizar por una máquina. Ahí es donde empieza la cadena positiva de la tecnología. Ahora, por ejemplo, un 22% de las cosas que no hacemos los trabajadores las realiza un algoritmo o una inteligencia artificial. Calculo que para 2040 se le habrá dado la vuelta, con un 80% haciéndolo la máquina. ¿Qué hacer con el tiempo que nos resta? Esa es la clave de esta historia. Cómo convertimos este nuevo tiempo que antes ocupábamos en hacer una serie de aspectos que tenían que ver con la idea de trabajar en una actividad que nos haga más humanos, y que además no perdamos ningún tipo de flujo económico con ello. Desde hace tiempo se nos viene diciendo que vienen los robots; que en Europa se van a eliminar cincuenta millones de empleos en los próximos años por culpa los procesos automatizados. ¿Cómo se recicla o reutiliza a la gente que se queda fuera? Siempre habrá empresarios, como habrá trabajadores, que aprovechen esta circunstancia para convertirla en algo a favor y que, además, daña a otro sector. Pero eso ocurre en todos los ámbitos. Está claro que quien entienda bien lo que supone tecnificar y ser más eficiente lo que sucede en su empresa desde el punto de vista tecnológico sacará ventaja. Y esa ventaja, a veces, no es que vayas a reducir el número de trabajadores sino que vas a aumentar la eficiencia de esos trabajadores gracias a que ahora les voy a facilitar herramientas tecnológicas que van a ser mucho mejores. Esto va de colaborar y, cuanto colaboremos con la tecnología, más diferente va a ser nuestro empleo pero seguramente más eficiente. Y tendremos más tiempo para otras cosas. El trabajo del futuro es más que probable que se parezca ir a la escuela que ir a la oficina. Un mensaje optimista… Es optimista porque al final refleja la evolución. Obviamente se van a destruir empleos, se ha hecho siempre. El ser humano lo que hace al final es convertir en eficiencia todos los problemas. Y ese problema que va a tener que ver con el régimen laboral, unos países lo harán antes, otros peor, otros mejor. No sabemos si la jornada laboral será de ocho horas o seis o cuatro, ni tampoco si habrá tres días para el fin de semana, pero la propuesta de que eso se hable parte del error de que eso sea automático. Para ello, hay que cambiar el modelo de producción, el modelo de crecimiento de un país, porque tiene que ser más tecnológico. Uno de los epígrafes del libro se titula «No era una crisis». ¿Qué era entonces? Fue una crisis, pero fue más una consecuencia. No fue tanto el origen de nada. Desde el punto de vista técnico, y más allá de lo que significa una crisis, fue una deflación del capital. Que es una de las características que tienen habitualmente las revoluciones tecnológicas. Una de ellas es «servitizar» las cosas -que se conviertan en servicios muchos productos cambiando la cadena de valor- y otra es la deflación del capital. Si comparamos todo lo que era necesario hace quince años para hacer las cosas que hace hoy en día un teléfono móvil necesitábamos quince dispositivos. Eso antes junto costaba 15.000 euros; ahora todo eso lo hace un aparato que vale apenas mil euros. La pregunta que se hicieron los economistas en World Economic Forum hace unos años fue que «¿dónde estaba ese dinero?». El problema es que hemos vivido aparte de esa crisis que en realidad era una consecuencia de algo -la tecnología- que estaba cambiando el mundo hemos vivido otra que llaman «recuperación». Y estamos viviendo una recuperación que en realidad es una deflación social. Es decir, que todo aquello que podíamos ganar por una serie de tareas que hiciéramos durante el día,. ahora es prácticamente imposible. Es decir, hemos vivido una deflación del capital en lugar de una crisis y, ahora, estamos viviendo una deflación social en lugar de una recuperación. Duras palabras, pero hacía dónde vamos… Las cifras parecen indicar que vamos hacia una crisis. Las crisis son algo más complejo que una desaceleración. Estamos en una fase de desaceleración, unos países más que otros. Que eso se convierta o no en una crisis dependerá de muchos factores. Es evidente que con las pocas medidas que se están tomando en algunos países como España para enfrentarse a eso que se nos avisa con claridad, nos puede sumir en una crisis profunda. Lo más probable que como en nuestro país no va a pinchar ninguna burbuja, que fue la hecatombe anterior, el problema es que no tienes nada que recuperar. Nada que volver a construir. España depende de un 16% del turismo y un 15% del sector inmobiliario. Es decir, un tercio de la economía española depende de sectores de poco valor añadido. Como no cambiemos ese modelo económico vamos a tener un problema grave. Puede que no sea profunda, pero sí que sea larga. Y los efectos pueden ser incluso peores. El tren de la modernidad ya ha salido. Hay países que tienen un plan integral de Inteligencia Artificial en desarrollo para ver cómo se enfrenta a la próxima década. Hay países que estudian en cómo nos enfrentaremos a la reducción del empleo por la tecnología o la reducción de la jornada para que sea más eficiente. Y nosotros, España, todavía mirando a ver si ha dimitido un señor [en relación a Albert Rivera, exlider de Ciudadanos]. Los gobernantes de uno u otro signos siempre prometen que quieren crear un «Silicon Valley en España». ¿Cree que eso es posible? Algunos se deben pensar que Silicon Valley es un polígono industrial moderno. O no han estado o no se lo han explicado bien. Silicon Valley es una cosa que es difícil incluso de reconocer. Es un espacio donde hay mucho talento, pero sobre todo mucho dinero que ha generado que ese talento tenga salida. Hay una apuesta empresarial pero también ha habido apuesta institucional desde hace muchos años. Pero además de ese capital, hay que facilitar las cosas para que ese capital tenga ganas de invertir. Hay gente que se cree que es poner varias empresas al lado en una especie de «coworking» -trabajo compartido- . Al final no es así. Y, de hecho, cada país tiene que asumir cuál es su realidad. España, por ejemplo, no tiene petróleo con lo que para qué vamos a plantearnos un futuro con combustibles fósiles. España tampoco tiene un Silicon Valley. No somos creadores de empresas tecnológicas nuevas. España es un país turístico. Tiene innovación en «biotecnología» que se podría potencial. Pero si tienes el Turismo que es un porcentaje importante de la economía española, modernicemos ese sector. En aquello que sabes que eres una potencia mundial, ¿por qué no lo reconvertimos y le damos más valor tecnológico? La idea es cómo utilizar los aspectos en los que somos mejores para que la tecnología nos lo haga mucho mejor y no tengamos competidores. «Europa se ha quedado, sinceramente, detrás de la innovación. Se ha vuelto vieja. No se le hace demasiado favor que se le examine tanto a las tecnológicas» La tecnología de consumo y la innovación se maneja ahora mismo de dos frentes, Estados Unidos y China. ¿Pinta algo Europa? El discurso fácil es que en Europa hay mucho talento, pero la realidad es que las empresas europeas que han sido capaces de convertirse en primeras potencias mundiales se han tenido que ir a Estados Unidos para buscar fórmulas alternativas u otras han tenido que relacionarse con China. Europa se ha quedado, sinceramente, detrás de la innovación. Se ha vuelto vieja. No se le hace demasiado favor que se le examine tanto a las tecnológicas. No son todo bondad, pero lo que nos han traído muchas cosas que nos hacen mejores. Habría que ser capaces de jugar otros papeles, no tanto de árbitro, pero sí de estimulante. De hecho, pone siempre de ejemplo el modelo de Kodak. Esta empresa vivió una realidad curiosa. Es sintomático de cómo a veces teniendo la solución delante de tus narices no se aprovecha. Kodak había patentado la cámara digital y se negaron a poner en marcha un plan de producción para sacarlo adelante y de incorporarla en su negocio porque consideraban que tenían un problema con el stock de papel. Se encontraron con el debate de que si ellos ponían la pista de que el mundo de la fotografía pasaba por la cámara digital muchas empresa que no se dedicaban a ese sector podrían ser potenciales competidores. Pero también pensaron que nunca los seres humanos preferiría ver imágenes en cámaras pequeñas. Y desaparecieron justo cuando la fotografía estaba siendo más usada. Nunca hemos hecho más fotografías que ahora. El problema no era hacer fotos sino el soporte, que ya se había digitalizado. Y en el momento en el que se digitaliza algo cambia todo. ¿Cómo superan esas grandes estructuras ejecutivas el miedo a la tecnología? Una gran compañía que quiere enfrentarse a la potencial disrupción tecnológica tiene que asumir un comportamiento más de ser muchas «startups» dentro de ella. Una gran compañía es un transatlántico y una «startup» es una lancha. Es imposible hacer que el transatlántico funcione como una lancha, pero sí que esté compuesto por muchas lanchas. Ese modo de trabajo requiere cuatro cambios imprescindibles: modificar el conocimiento del cliente, los procesos tienen que ser inteligentes, generar nuevos modelos de negocio y, por último, es que hay que formar a las personas de una manera muy distinta. Hay que hacerse una pregunta: «¿Cuántas de las cosas que voy a hacer en dos años las va a hacer una máquina?» Y ahí descubrirás qué porcentaje de tu trabajo va a ser sustituido. El porcentaje que no va a ser sustituido es la clave, porque es el que debes potenciar. Hace mención también al sector bancario, otro sector que ha estado sufriendo innumerables crisis. ¿Cómo vislumbra el futuro del dinero? Que el dinero sea digital es el objetivo de la administración pública y de las entidades financieras porque es más fácil de identificar. Va a mejorar todo lo que significa el sistema monetario y esas fluctuaciones de dinero que no sabemos muchas veces qué sucede, y será además más fácil de detectar cuando una persona hace algo malo. El efectivo tiene los días contados. Incluso la tarjeta de crédito empieza a tener poco uso. La disrupción en este sector va más allá de si habrá o no dinero, si será criptográfico o no. Las nuevas discográficas son los bancos porque le van a venir sus «Spotify», su «Napster». Y tiene que ver porque la gente va a empezar a preferir tener productos financieros vinculados a aquello que compra. Esa perspectiva es en donde la banca tradicional va a tener que hacer un mayor esfuerzo. ¿Aboga por una especie de renta básica universal? El hecho de que vayamos al trabajo a aprender no será optativo por una razón: cuando nos encontremos que hay una máquina o un software que va a hacer cosas que antes hacíamos nosotros. Sabemos que las máquinas son muy buenas respondiendo pero son muy malas creando preguntas. Las preguntas las creamos los seres humanos. Cuando más sepa de esa máquina mejores respuestas me dará. Y cuantas mejores respuestas obtenga, mejor trabajador seré. El buen matemático es aquel que interpreta que con una calculadora puede hacer grandes cálculos. La calculadora no le sustituye a él, sustituye el tiempo que antes dedicaba a operaciones a mano. La renta básica universal u otras fórmulas que se puedan adoptar digo siempre que no va ser ni de izquierdas ni de derechas, va a ser inevitable. Porque al fin y al cabo vamos a tener que racionalizar que mucha gente no va a poder alcanzar ese punto pero a la vez vamos a tener que ser capaces de distribuir lo que sí se haga a través de esas máquinas y esas personas.

via Tecnología https://ift.tt/2O4yTD7

martes, 12 de noviembre de 2019

El director de inteligencia artificial de Tesla nos explica en vídeo cómo entrenan sus redes neuronales para el uso de Autopilot

El director de inteligencia artificial de Tesla nos explica en vídeo cómo entrenan sus redes neuronales para el uso de Autopilot

Mucho se ha comentado acerca de Autopilot, la función de conducción autónoma de los coches Tesla, pero pocas veces hemos tenido oportunidad de ver qué es lo que hay adentro y cómo llegaron hasta ahí. Con el paso de los años, Tesla se ha ido abriendo al ofrecer más detalles, donde a grandes rasgos se trata de una genialidad de la ingeniería con inteligencia artificial.

Hace unos días, Andrej Karpathy, director de inteligencia artificial y visión por ordenador de Tesla, ofreció una interesante charla sobre cómo hacen en Tesla para entrenar sus redes neuronales para crear el sistema de conducción autónoma conocido como Autopilot. Por fortuna, el vídeo de la charla ya está en YouTube y en él podemos finalmente tener una mirada más técnica de los desarrollos de Tesla en inteligencia artificial.

Lo más impresionante es que todo se desarrolla dentro de la misma Tesla

Antes de continuar detengámonos un segundo para analizar la carrera de Andrej Karpathy, una de las mentes más brillantes dentro del campo de la inteligencia artificial actualmente. Karpathy obtuvo en 2015 su doctorado de la Universidad de Stanford en machine learning centrado en deep learning en visión por ordenador y procesamiento de lenguaje natural.

En 2016, Karpathy se unió a las filas de OpenAI, la empresa de investigación en inteligencia artificial de Elon Musk. Al mismo tiempo, Karpathy se empieza a hacer de renombre tras impartir una clase en Stanford de Redes Neuronales Convolucionales para el Reconocimiento Visual.

Ya para 2017, Elon Musk se entera de las capacidades de Karpathy y lo ficha como director de inteligencia artificial en Tesla, quien llega en un momento justo cuando la división de Autopilot empieza a perder a algunos de sus más importantes ingenieros.

Es decir, Karpathy sólo tiene dos años en Tesla, y en este poco tiempo se ha vuelto la cara de la inteligencia artificial en la compañía, ya que sus conferencias y presentaciones suelen ser sumamente didácticas y llenas de detalles técnicos, algo que Tesla no solía hacer.

Andrej Karpathy

Andrej Karpathy se presentó recientemente en PyTorch, una biblioteca de código abierto de machine learning en Devcon, donde ofreció en poco más de 10 minutos algunos detalles de cómo Tesla utiliza machine learning para entrenar redes neuronales hacia la meta de la "conducción autónoma total", que Musk viene prometiendo desde hace varios años.

De hecho, durante la pasada entrega de resultados financieros, Elon Musk anticipó que si todo iba de acuerdo a los planes, su anhelada "conducción autónoma total" llegaría a finales de año para algunos usuarios. Esto permitiría hacer, por ejemplo, un viaje desde California a Nueva York sin la intervención del conductor.

Volviendo a Karpathy, su charla nos deja claro cómo Tesla se diferencia del resto de fabricantes y van en su propio sentido y ritmo. Y es que Tesla todo lo desarrolla por su cuenta, como su recién lanzado super ordenador FSD (Full Self Driving), que cuenta con doble CPU redundante capaz de ofrecer más de 144 Tera Operations Por Segundo (TOPS) de rendimiento de red neuronal.

Tesla Inteligencia Artificial 2

Pero lo más impresionante es que Tesla no usa sensores LIDAR para captar el entorno de sus coches, sino que se basa en un sistema de ocho cámaras externas equipadas con visión por ordenador. Y aquí es donde entra el FSD, que es capaz de procesar todo la información que recibe, con una capacidad de hasta 2,5 gigapíxeles por segundo y 36,8 TOPS.

Su memoria RAM opera a 4266 Gbps y cuenta con un ancho de banda máximo de 68 Gbps. El ordenador FSD integra sus propios procesadores de señal de imagen de 24 bits y compatibles con mapeo de tonos avanzado y reducción de ruido, que pueden realizar operaciones de hasta un gigapíxel por segundo.

Un punto clave en el desarrollo de Tesla está en el llamado 'Operación Vacación', que es lo que permite seguir entrenando redes neuronales mientras el coche sigue circulando. Es decir, todos los coches Tesla colaboran para crear una gran base de datos que sirve para entrenar estas redes neuronales. De hecho, Karpathy menciona que él y su equipo podrían tomar asiento y dejar que las redes mejoren de forma automática gracias a la gran cantidad de datos que llegan diariamente.

Tesla Inteligencia Artificial 1

Un ejemplo de la capacidad de recolección de datos que ha conseguido Tesla se demuestra con los más de 1000 millones de millas de operación de Autopilot, sólo en Norteamérica. Aquí se incluyen más de 200.000 cambios de carril automáticos, la operación en más de 50 países, así como más medio millón de sesiones de Smart Summon, la nueva función para invocar de forma autónoma a nuestro Tesla. Aquí hay que añadir que Musk mencionó que Smart Summon ya superó el millón de sesiones en Estados Unidos.

Finalmente los dejamos con la charla de Karpathy, donde por supuesto hay más detalles interesantes del uso de la inteligencia artificial en Tesla.



via Magazine - robotica-e-ia https://ift.tt/2O0S00U