lunes, 30 de septiembre de 2019

Los grandes hitos del Wifi en sus primeros 20 años

En pleno despliegue de las redes 5G y aprobado el protocolo sobre el que se regirarán las redes Wifi de sexta generación, esta tecnología cumple este lunes 20 años del lanzamiento de la red inalámbrica Wifi. Una autopista virtual por la que circula un 56% de todo el tráfico de Internet en España. Este modo de conexión lo crearon en 1999 las empresas 3Com, Airones, Intersil, Lucent Technologies, Nokia y Symbol Technologies, bajo la alianza WECA (Wireless Ethernet Compatibility Alliance), con el fin de promover la tecnología inalámbrica con compatibilidad de equipos. Se produjo en el lanzamiento del estándar inalámbrico 802.11b. Fue el primero denominado «Wi-Fi», presentado por la alianza y adoptado masivamente por los principales proveedores de hardware. «Con la llegada de Wi-Fi, la vida de los internautas cambió drásticamente», relatan fuentes de Cisco en un comunicado. En la actualidad, el Wifi copa el 56% del tráfico por la Red en España, frente al 38% celular y 6% el cableado. Se calcula que en 2022 representará el 64%, superando ampliamente al tráfico cableado (24%) y al celular (12%), según una encuesta de Cisco.En estas dos décadas siguientes, la industria ha pasado por varias generaciones de WiFi. Además, ya está disponible el último estándar (802.11ax o WiFi 6), que supondrá un gran avance en términos de velocidad, latencia, capacidad, fiabilidad y eficiencia energética. El WiFi 6, además de ser más veloz que la quinta generación y 500 veces más que la primera, ofrecerá un 400% más de capacidad, mejorando el rendimiento por usuario. Y al incluir innovaciones similares a 5G -como OFDMA para la transmisión simultánea de múltiples canales de datos- es un complemento ideal para 5G. Las estimaciones de Cisco para los próximos tres años son muy ambiciosas. Habrá en España 344 millones de dispositivos conectados a Internet (7,4 por persona), desde los más de 200 millones actuales (4,4 por habitante). Y muchos de ellos como «smartphones», robots, líneas de producción y dispositivos médicos, se comunicarán sobre una red inalámbrica, lo que cambiará notablmente la manera de relacionarse. Igualmente, resulta más efectivo en entornos de alta densidad -como estadios, aeropuertos y hospitales- donde suele ser complejo desplegar conexiones celulares. La latencia mejora enormemente, facilitando una operativa casi en tiempo real para aplicaciones como fábricas conectadas, vehículos autónomos y realidad virtual y aumentada. Y reduce hasta cuatro veces el consumo de batería en los dispositivos conectados. Grandes hitos del WiFi 1997: Nace la primera versión del estándar 802.11. 1999: Varias compañías tecnológicas incluyendo Aironet -después adquirida por Cisco- crean la Wireless Ethernet Compatibility Alliance (WECA), que el 30 de septiembre lanza el estándar 802.11b, conocido como WiFi. 1999/2000: Los primeros chips Wi-Fi se incluyen en portátiles de consumo. 2002: WECA se convierte en WiFi Alliance y Cisco lanza el programa gratuito Cisco Compatible eXtensions para que los productos WiFi de terceros proveedores funcionen con las redes inalámbricas de forma segura. 2004: primer vuelo comercial donde los pasajeros pudieron conectarse a WiFi. 2009: Llega el nuevo estándar 802.11n (Wi-Fi 4), multiplicando por 9 el ratio máximo de transmisión mediante la tecnología MIMO (de 54 Mbps a 450 Mbps). 2012: Uno de cada cuatro hogares del mundo están conectados mediante WiFi. 2013: El estándar WiFi 5 alcanza una velocidad máxima superior a 1 Gbps. 2019: Llega la sexta generación WiFi 6, con una base tecnológica similar a 5G. Cisco completa diversas pruebas de interoperabilidad con Broadcom, Intel y Samsung sobre esta tecnología y valida que el primer dispositivo Wi-Fi 6 de la industria -Samsung Galaxy S10-.

via Tecnología https://ift.tt/2mi4abR

domingo, 29 de septiembre de 2019

Hacia una sociedad superinteligente

La revolución 5.0, dominada por la automatización y la robotización, está ya en camino

via Robótica https://ift.tt/2nxdPLM

jueves, 26 de septiembre de 2019

Megabots, quien inició las batallas entre robots gigantes, se declara en bancarrota y subasta a su robot en eBay

Megabots, quien inició las batallas entre robots gigantes, se declara en bancarrota y subasta a su robot en eBay

Lo que apuntaba a convertirse en uno de los nuevos deportes más espectaculares del siglo XXI está llegando a su fin. Matt Oehrlein, cofundador de Megabots, está confirmando que las deudas están afectando el estado de la compañía, esto mientras el interés por las batallas de robots gigantes cae drásticamente, por lo que ha decidido abandonar el negocio y subastar su robot en eBay.

Para quienes no lo recuerden, Megabots es una startup que nació en 2014 con el objetivo de organizar batallas de mechas, o robots gigantes reales, como entretenimiento y buscando crear un torneo internacional. Tras la primera, y anticipada, batalla entre Estados Unidos y Japón en 2017, el interés se diluyó rápidamente ya que al final no resultó ser lo que todos esperábamos.

"Nos hemos quedado sin dinero. Ya no hay interés del público"

A través de un vídeo en YouTube, Oehrlein explica las razones para abandonar el proyecto, donde menciona que no ha conseguido que este negocio sea rentable, mientras que los intereses del préstamo que pidió hace un años se lo están comiendo al no poder pagar. Por esta razón, han decidido vender los activos de la compañía, como el robot 'Eagle Prime', previo a declararse en bancarrota en los próximos días.

Oehrlein también comenta que ahora mismo no tienen dinero para cubrir los pagos de intereses del préstamo, el alquiler del almacén, el seguro médico de sus empleados, las reparaciones y el mantenimiento de los robots, y su propio salario.

Y es que Megabots apostó todo por este proyecto, en 2017, antes de la primera batalla, Brinkley Warren, el otro cofundador de la compañía, mencionaba que estas batallas tenían todo para convertirse en "uno de los tres deportes más importantes del mundo dentro de 10 años en términos de audiencia global, ingresos y ruido mediático".

Oehrlein afirma que a día de hoy no hay interés para mantener a flote este deporte/espectáculo. Apunta que la primera batalla, Estados Unidos vs. Japón, tuvo cerca de 5 millones de visitas en YouTube durante las primeras dos semanas, mientras que el vídeo de la segunda batalla, Estados Unidos vs. Canadá de abril de este año, sólo ha tenido 25.000 visitas durante el mismo período de tiempo.

"Creo que es una señal bastante clara de que ya no hay interés, o un interés para un mercado masivo, por las peleas de robots gigantes a nivel internacional. Pero esto no significa que no se pueda hacer, sólo significa que yo no fui capaz de hacerlo. Y ahora estoy totalmente feliz de pasar la antorcha."

Y es que sólo basta recordar que la primera batalla terminó siendo un encuentro grabado, editado y totalmente descafeinado que terminó en empate. Después de eso, Megabots inició una campaña en Kickstarter con el objetivo de conseguir dinero para hacer algo más grande, un torneo mundial que ahora sí sería centrado en el espectáculo. Al final no consiguieron la meta y terminó en la batalla entre Estados Unidos y Canadá, la cual no tuvo todo el ruido que consiguió la primera.

El robot ya supera los 62.000 dólares en eBay

Para tratar de solventar todo esto, Megabots arrancó una subasta de un dólar en eBay para su robot 'Eagle Prime', y que al momento de escribir esto ya supera las 81 ofertas y los 62.000 dólares.

De acuerdo a la descripción, 'Eagle Prime' es un robot de 15 toneladas impulsado por un motor LS3 V8 de 430 CV, el mismo del Chevrolet Corvette. Mide aproximadamente 4,8 metros de alto, fue fabricado en 2017, está usado y tiene unas cuantas abolladuras.

Eagle Prime

El robot está actualmente en un almacén de Oakland, California, por lo que el ganador de la subasta deberá tener en cuenta los gastos de traslado que correrán por cuenta propia del comprador. Oehrlein estima unos costes adicionales entre 4.000 y 17.000 dólares dentro de los Estados Unidos, y de unos 50.000 dólares para enviarlo a otro país.

Según Oehrlein, quedarse con 'Eagle Prime' podría ser un gran negocio, ya que se puede usar para espectáculos privados o alquilarlo para eventos, con lo que cree que se podrá recuperar la inversión en poco tiempo.

En los próximos días publicará un vídeo con el resultado de la subasta y los detalles de lo que hará la compañía tras la venta del robot.



via Magazine - robotica-e-ia https://ift.tt/2mO1NgG

martes, 24 de septiembre de 2019

Boston Dynamics pone a la venta a 'Spot', su perro-robot, mientras que 'Atlas' aprende nuevas e impresiones rutinas de gimnasia

Boston Dynamics pone a la venta a 'Spot', su perro-robot, mientras que 'Atlas' aprende nuevas e impresiones rutinas de gimnasia

Han pasado 10 años desde que conocimos la existencia de Boston Dynamics con un vídeo que nos mostraba el desempeño de un robot bípedo que nos dejó a todos con la boca abierta. Durante todos estos años la cosa no ha cambiado mucho, cada vídeo que lanza Boston Dynamics nos deja con la misma expresión en el rostro, de entre terror y asombro.

En estos 10 años Boston Dynamics ha pasado de ser una compañía independiente a ser propiedad de Google y ahora de SoftBank. Otro detalle es que en todo este tiempo ni un sólo robot ha salido a la venta, todos se han mostrado con proyectos en etapa de desarrollo. Hasta hoy.

Hoy Boston Dynamics está haciendo su anuncio más importante, ya que por primera vez está poniendo a la venta uno de sus robots y además, ha publicado sus especificaciones, algo que nunca antes habían hecho. Este robot es 'Spot', que al final no se llamará 'SpotMini', y hasta hicieron un atractivo anuncio que muestra todas las bondades y posibles funciones del robot.

Conozcan a Spot, el primer robot a la venta de Boston Dynamics

Cómo bien se explica en el vídeo y en la web de la compañía, 'Spot' será capaz de moverse a una velocidad de 1,6 metros por segundo, contará con una batería recargable e intercambiable con una autonomía de 90 minutos. Como ya hemos visto en una gran cantidad de vídeos, gracias al diseño de 'Spot' podrá moverse por lugares complicados, en superficies de todo tipo.

El robot podrá levantarse solo, aun si cae de lado, y empleará una gran cantidad de sensores y cámaras estéreo para tener una visión de 360 grados de su entorno. Esto le permitirá moverse ya sea de forma autónoma, fijando un punto de destino, o bien, podemos trazar una ruta completa. Todo esto evitando obstáculos y recuperándose ante posibles impactos.

'Spot' contará con certificación IP54 a prueba de lluvia y polvo, ideal para moverse en entornos industriales, según la compañía, y podrá operar en temperaturas de entre -20°C y 45°C.

Spot

El perro/robot 'Spot' podrá cargar hasta 14 kilogramos de peso para transportarlo de un lugar a otro. Y la que sin duda es su característica más atractiva es que será modular, ya que podremos añadir nuevos aditamentos al robot para ampliar sus posibilidades y pueda hacer nuevas tareas.

Spot Robot Arm

'Spot' no está dirigido a un usuario final y sólo estará a la venta para aquellas compañías que llenen un formulario en la web de Boston Dynamics. Aquí deberán poner las razones por las que creen que necesitan a 'Spot' en su operación diaria y el uso que le darían.

Boston Dynamics asegura que tienen la capacidad de fabricar miles de robots 'Spot' cada año, pero sólo se venderán a aquellas compañías que demuestren verdadero interés y donde el robot signifique una mejora significativa en la operación. Por tal motivo, hasta el momento no hay un precio publicado, pero se cree que podría costar lo mismo que un coche de lujo.

'Atlas' ya está listo para los Juegos Olímpicos

Mientras 'Spot' sale a la venta, Boston Dynamics no quiere que nos olvidemos del que fue su primer robot y que a día de hoy es una de las máquinas más impresionantes que existen actualmente. Aquí por supuesto nos referimos a 'Atlas', un robot humanoide que hemos visto en una gran cantidad de escenarios y tareas.

Pues Boston Dynamics acaba de publicar un nuevo vídeo que nos muestra a 'Atlas' realizando una especie de rutina de gimnasia, la cual sería ideal para unos próximos Juegos Olímpicos Robóticos.

Y para aquellos que no recuerden aquellos vídeos de 'Atlas', los tienen a continuación para que admiren, y se aterroricen, del nivel que ha conseguido Boston Dynamics en sólo 10 años.

De hecho, debido a estas impresionantes capacidades, los chicos de Corridor Digital hicieron un vídeo ficticio que imitaba el estilo de los de Boston Dynamics, donde supuestamente 'Atlas' se revelaba en contra del maltrato de los humanos. Tal fue el impacto del vídeo que muchos pensaron que era real.



via Magazine - robotica-e-ia https://ift.tt/2mZ01tj

Robots que escriben noticias en español: las máquinas, las nuevas herederas de Larra

Robots que escriben noticias en español: las máquinas, las nuevas herederas de Larra

“El Real Madrid destroza con 3 goles al Atlético de Madrid, que dejó el marcador a 1 el pasado sábado. El Real Madrid comienza la jornada con 42 puntos y en la posición tercera; una buena oportunidad para alcanzar al Atlético de Madrid”.

“El Real Madrid se llevó el derbi en el Wanda Metropolitano en un choque intenso en el que el VAR fue protagonista. Los de Solari fueron superiores a los de Simeone, a los que mantuvieron bien controlados, y aprovecharon sus llegadas al área de Oblak”.

Dos crónicas deportivas. Ambas en el mismo idioma, con idénticos protagonistas y sobre el mismo partido. Pero con una diferencia radical: una de ellas —publicada en AS— está escrita por una periodista especializada; la otra, por un robot, un sistema de generación automática de contenidos en español bautizado como LeoRobotIA. La pregunta del millón es: ¿Cuál es cuál?

Los periodistas ya no están solos al ejercer su oficio en el idioma de Mariano José de Larra, Gabriel García Márquez o Eduardo Galeano. La Inteligencia Artificial (AI) y el machine learning han permitido alumbrar softwares capaces de generar textos informativos en español. Leo, desarrollado por LeoRobotIA y Dail Software —empresa especializada en IA y Procesamiento de Lenguaje Natural (PLN)— es un buen ejemplo. Narrativa, startup española que ha despertado incluso el interés de inversores de Emiratos Árabes Unidos (EAU), otro.

A pesar de su juventud —ninguna pasa de los cinco años—, ambas herramientas han logrado una implantación notable en los medios en castellano. A mediados de julio Narrativa y EFE firmaron un acuerdo por el que la agencia dirigida por Fernando Garea distribuirá y comercializará productos de Narrativa. Como detallaba la propia EFE en su web, el convenio le permite incorporar a su oferta “contenidos generados por inteligencia artificial” relacionados con la información deportiva, financiera, meteorológica, los datos estadísticos o sondeos y resultados electorales.

La Agencia EFE se suma así a la amplia cartera de clientes de Narrativa, entre los que ya figuran algunos de los diarios más seguidos en idioma español, tanto en papel como digitales: Sport, 20 Minutos, El Periódico, El Confidencial, El Español, Heraldo, El Independiente o La Información. También aporta contenidos para webs especializadas y de empresas, como Noon, Intigral, Property Finder, The Social Audience o la app deportiva Matchapp.

Hojas de Excel y resultados deportivos

Tras una rutilante trayectoria que ronda los cuatro años —precisa el CEO de Narrativa, David Llorente— la startup colabora a día de hoy “con más de 25 medios”. “Para cada uno generamos una versión distinta. Producimos noticias en tiempo real y únicas por cliente”, señala. La forma en que Narrativa y Leo obtienen contenidos es similar. En ambos casos recurren a tablas de datos mesurables: estadísticas con resultados deportivos, financieros, loterías, meteorología, balances económicos… que convierten en textos informativos. Al menos de momento, ese requisito deja fuera géneros como el reportaje literario, la crónica política, judicial y de viajes, la cobertura de sucesos o las entrevistas. “La idea es transformar datos estructurados, por ejemplo una hoja de Excel, con columnas y datos identificados, en noticias”, comenta Llorente.

Llorente David Llorente, CEO y cofundador de Narrativa.

La mecánica es similar en Narrativa, si bien sus responsables inciden en el uso del PLN. “Partiendo de datos estructurados que nos proporciona un proveedor enseñamos a la máquina a escribir de fútbol, smartphones, coches, resultados financieros… y le enseñamos a escribir además como quiere el cliente”, apunta Juan Carlos F. Galindo, CEO y cofundador de la firma LeoRobotIA: “Le meto el libro de estilo de ese cliente o medio de comunicación y la máquina es capaz de escribir como quiere y además con una variabilidad infinita; es decir, cada vez, con los mismos datos, yo puedo elaborar un texto distinto infinitas veces”.

“Una vez que he entrenado a la máquina, que le he definido cómo son los datos, que la he entrenado como quiere el cliente, es automático. La máquina bebe de la fuente de datos directamente, automáticamente el medio de comunicación decide cuándo y cómo publica y en milésimas de segundo el robot es capaz de publicar informaciones de mil, dos mil, tres mil… caracteres, lo que quiera el cliente”, señala Galindo antes de incidir en que —a diferencia de otros sistemas parecidos— Leo no recurre a plantillas estándar que el programa se encarga de rellenar.

Los robots que generan noticias emplean datos estructurados, como resultados de partidos, partes meteorológicos o balances financieros

“La diferencia de nuestro robot es que es el primero que escribe en lengua castellana usando datos estructurados, generando textos en milésimas de segundo y con una variabilidad infinita. Hay otros sistemas que, al igual que se empezó hace cuatro o cinco años en EEUU, lo que hacen es usar una plantilla con huecos que el sistema se encarga de rellenar. Eso existe, pero no tiene ni la riqueza ni la variabilidad lingüística que ofrece nuestro sistema”, resalta el impulsor de Leo.

Detrás de Leo están, además de F. Galindo, José Manuel Nieves, Pilar Bernat, Javier López Tazón, Jesús Cardeñosa y Enrique Pascual. El CEO de la firma, veterano periodista especializado en tecnología, recuerda que en un inicio se planteó —junto al resto de compañeros periodistas que fundaron la empresa— lanzar un medio online centrado en ciencia y tecnología.

“Pensamos en que tuviera tres capas de información. Una capa automatizada, otra para información elaborada por expertos y otra creada por la primera y segunda. Nos pusimos a buscar a alguien que nos ayudara con la primera, la automatización en castellano. Nos costó, pero dimos con él hace como año y medio. Encontramos una spin off de la Universidad Politécnica de Madrid que se llama Dail Software, que es experta en IA, machine learning, PLN en castellano… Y con ellos, de momento, hemos dejado de lado la idea de crear un medio especializado para centrarnos en generar contenidos”, recuerda F. Galindo. Aunque sin concretar nombres, avanza que la firma está “trabajando ya en proyectos de automatización” ligados al ámbito deportivo, la tecnología e incluso empresas que recurren a la IA para “posicionarse con sus clientes y fidelizarlos”.

Una fórmula testada por grandes medios

Los softwares generadores de noticias no son exclusivos del español. Tampoco nuevos. Agencias internacionales como Press Association, Associated Press (AP), Reuters o Bloomberg recurren desde hace tiempo a la IA para producir contenidos basados en datos estructurados y plantean reforzar su apuesta durante los dos próximos años. Reuters y Bloomberg, de hecho, ya generan más de un 30% de sus piezas informativas con este tipo de sistemas. Como recuerda EFE en la nota en la que anunciaba su acuerdo con Narrativa, en Gran Bretaña se ha lanzado incluso Reporters and Data and Robots (RADAR), un proyecto pionero impulsado por Press Association (PA) en colaboración con Urbs Media que permite a medios locales disponer de piezas generadas de forma automática. Desde mediados de 2018 suma más de 180.000 artículos.

Img 20181223 Wa0001 Cuatro de los socios fundadores de Leo: José Manuel Nieves, Pilar Bernat, Juan Carlos F. Galindo (tercero por la izquierda) y Javier López Tazón.

En los últimos años se han subido al carro también medios de alcance. Entre los pioneros destacan el New York Times, Forbes o Los Angeles Times. El diario de LA protagonizó de hecho una sonada polémica en 2017, cuando notificó por error de un seísmo que en realidad se había registrado en 1925. El autor de la noticia fue Quakebot, un sistema conectado a la base de datos del US Geological Survey (USGS) para informar de forma rápida y eficiente de cualquier cambio geológico. El problema en 2017 fue que la USGS actualizó los datos sobre el terremoto anotado en la década de 1920, el bot lo tomó como un reporte nuevo e inmediatamente lanzó la alerta.

Resbalones como el de Quakebot o Tay, el chatbot que Microsoft tuvo que retirar en 2016 porque publicaba comentarios xenófobos y sexistas en Twitter, no ha impedido que el uso de robots vaya en aumento en las redacciones. El Washington Post, por ejemplo, recurre a Heliograf para escribir noticias sobre deportes o ciertas piezas políticas. A principios de año trascendía también que Forbes estaba probando una herramienta llamada Bertie. El propio Google ha invertido alrededor de 700.000 euros a través de su división Digital News Iniciative en el impulso de RADAR.

Más alcance para los medios

Gracias a esa apuesta la tecnología ha experimentado un desarrollo considerable en muy poco tiempo. Galindo recuerda cómo los robots de hace cuatro o cinco años tardaban un minuto en escribir una página. Hoy, apunta el presidente de Leo, su sistema es capaz de generar informaciones de miles de caracteres a una velocidad inimaginable hace un lustro escaso. Más allá de la mejora de la técnica, los sistemas automáticos triunfan por su atractivo para las redacciones: ofrecen rapidez a los medios, que consiguen además un mejor posicionamiento SEO y pueden incluso cubrir ámbitos que antes —recurriendo únicamente a redactores de carne y hueso— no lograban abarcar.

“En el pasado apenas hubiéramos podido contar los partidos más significativos de la semana. Ahora podemos cubrir cualquier encuentro para el que tengamos datos, dando a los equipos y aficionados una cobertura casi instantánea para leer y compartir”, señala Jeremy Gilbert, de The Washington Post, en unas declaraciones recogidas por El País sobre el uso de Heliograf: “Crea nuevos modelos de cobertura local”.

“Nos encontramos en un momento en el que necesitamos contenido online, tenemos que abrir público”, explicaba Xabier Ortuño, director adjunto de Sport, durante una ponencia en la que explicaba la llegada de Narrativa a la redacción del diario. Una de las claves en las que incidía es la hibridación en los medios. En resumen: ¿Cómo es la convivencia entre robots y periodistas de carne y hueso? Al igual que las empresas que desarrollan los bots u otros profesionales con cargos directivos, como Pete Clifton, redactor jefe de PA, Ortuño señala que los robots liberan a los periodistas de las labores más mecánicas y les facilita elaborar piezas con mayor valor.

“Podemos centrarnos en trabajar temas más pensados para el lector que lo que es la crónica pura, que ya está en manos de Narrativa. Podemos enfocarnos en destacar a un jugador que creemos que es interesante para nuestros lectores y destacarlo más que la crónica pura o destinar el tiempo a rellenar la ficha técnica de un partido”, anotaba el director adjunto de Sport.

Robot 2 1 Diarios y agencias de influencia internacional se han lanzado ya al uso de robots.

"¿Cómo será la convivencia con los periodistas? Va a ayudar a que hagan un trabajo de mayor calidad, más humano y de más interés”, coincide Llorente. Gracias a los robots los redactores —reflexiona el CEO de Narrativa— se verán aligerados de labores rutinarias, como escribir piezas con los resultados de la lotería o el parte meteorológico. “Cubrimos noticias que el medio no puede cubrir o para las que necesita una pequeña versión que su periodista pueda editar”, remarca.

Juan Carlos F. Galindo apunta también las ventajas para la investigación periodística de sistemas que son capaces de analizar con rapidez grandes bases de datos que a un reportero de carne y hueso le llevaría años estudiar. “Son capaces de encontrar tendencias, patrones, informaciones… que un equipo a lo mejor tardaría años en encontrar”, anota el impulsor de Leo.

Su otra gran ventaja, en la que coincide con Llorente, Ortuño o Clifton es que deja margen a los periodistas para elaborar piezas más personales: “Todos estos textos son editables. Pueden publicarse tal cual o añadirle valor para que el texto sea diferencial. Ese es el verdadero quiz de la cuestión y la razón por la que las empresas de medios en EEUU están teniendo tanto éxito. Al liberar de tiempo al periodista este puede darle valor y personalizar esa información”. Associated Press asegura de hecho que gracias al uso de robots aproximadamente el 20% de su plantilla ha dejado de elaborar artículos simples para asumir investigaciones de mayor envergadura.

A pesar de las voces que insisten en las virtudes y las múltiples ventajas que tendrán los robots para los reporteros tradicionales y el alcance de mayores audiencias, sobre la mesa sigue el debate de si terminarán eliminando empleo. En febrero Magnet recogía en un artículo varios datos que invitan, cuanto menos, al recelo: en juego podrían estar el 7% de los analistas políticos y un 89% de los escritores técnicos. La Universidad de Oxford y la Sociedad Americana de Editores de Noticias rebajan el porcentaje de trabajadores en riesgo por la automatización al 10%.

Medios e impulsores de la generación automatizada de contenidos informativos defienden su utilidad para los periodistas de carne y hueso; hay estudios sin embargo que concluyen que destruirán empleo tradicional

Hoy por hoy el principal aliado de los reporteros humanos son las limitaciones de los robots. Al trabajar con estadísticas y datos numéricos, los nuevos sistemas aún no acceden a los géneros más elaborados y con mayor presencia de la subjetividad. “La inteligencia artificial, en nuestra versión, no debe generar ni opinión ni emociones. Debe informar. Un periodista que haga una crónica personal va evidentemente a añadirle esa emoción, esa opinión”, reconoce Llorente.

Juan Carlos F. Galindo incide en otro punto clave: la credibilidad de las fuentes, en especial a la hora de manejar herramientas que —empleadas con una intención dudosa— pueden convertirse en grandes propagadoras de fake news. Las campañas de Trump en EEUU o Bolsonaro en Brasil son una buena prueba del alcance que puedan tener las informaciones inventadas bien diseminadas. “Todo se puede hacer para bien o para mal y evidentemente habrá cosas con las que haya que tener cuidado porque hay gente que utiliza herramientas de este tipo para información falsas”.

Por cierto, y por si no lo habías adivinado: de las dos crónicas que encabezan este artículo, la elaborada por un robot es la primera. Las máquinas han llegado al oficio de Larra... Y todo indica que para quedarse.

Imágenes: Flickr (AdNorrel), Flickr (John Davey)



via Magazine - robotica-e-ia https://ift.tt/2l8XkF6

Facebook compra CTRL-Labs, la startup que desarrolla una pulsera para controlar ordenadores con la mente

Facebook compra CTRL-Labs, la startup que desarrolla una pulsera para controlar ordenadores con la mente

Facebook ha anunciado la compra de la startup CTRL-labs, que está centrada en la interfaz neuronal y se encuentra desarrollando una pulsera que "lee el cerebro" transmitiendo sus señales eléctricas a la interfaz de un ordenador. Con ello, se pretende poder controlar dispositivos electrónicos con la mente o pequeños gestos sin tener que interactuar físicamente con ellos.

El anuncio lo ha hecho Andrew "Boz" Bosworth, responsable de Facebook Reality Labs, la sección de Realidad Virtual y Aumentada de la empresa de Zuckerberg en su perfil de Facebook. En este anuncio no ha dado cifras, pero medios como CNBC aseguran que la adquisición estará cifrada entre 500 y 1.000 millones de dólares. Menos, por lo tanto, de los 2.000 millones de dólares que Facebook gastó en la compra de Oculus en 2014.

"Sabemos que hay formas más naturales e intuitivas de interactuar con dispositivos y tecnología", ha dicho "Boz" Bosworth. "Y queremos construirlos". Luego, el responsable de AR y VR de Facebook ha explicado que la visión de la startup que han adquirido es la de crear una pulsera que permita que la gente controle sus dispositivos como "una extensión natural del movimiento", una tecnología cuyo desarrollo quieren acelerar con la unión para convertirla pronto en productos de consumo.

Qué es exactamente lo que ha comprado Facebook

No, Facebook ha comprado una empresa que desarrolla una pulsera que lee nuestra mente, pero no pienses que podrá saber lo que piensas. Más bien, es un intento de crear una interfaz directa entre tus pensamientos e intenciones y el dispositivo que quieras controlar. Y de momento, ni siquiera funciona únicamente con pensamientos.

La tecnología funciona de la siguiente manera, tal y como ha explicado el responsable de AR y VR de Facebook. Tenemos neuronas en nuestra médula espinal, que le envían señales eléctricas a los músculos de nuestras manos para decirles que se muevan de maneras específicas. Por ejemplo, para mover el dedo y pulsar un botón o hacer clic en el ratón.

La idea final es que se puedan controlar los dispositivos de tu casa mediante órdenes neuronales o con pequeños gestos en vez de interactuar físicamente con ellos.

La pulsera que está desarrollando CTRL-labs busca decodificar estas señales, y traducirlas en señales digitales que puedan ser entendidas por los dispositivos. De esta manera, la idea final es que se puedan controlar los dispositivos de tu casa mediante órdenes neuronales o con pequeños gestos en vez de interactuar físicamente con ellos.

Facebook lleva tiempo tratando de crear este tipo de trecnologías. En 2017 ya nos presentaron su Building 8, un laboratorio experimental con el que pretendían crear sistemas que nos permitiesen escribir en un ordenador con la mente. Esta iniciativa no tuvo éxito y no logró producir investigaciones ni productos significativos, y cerró dividiendo sus proyectos entre otras divisiones de la empresa.

Parte de estos proyectos se unificaron en los Facebook Reality Labs, los laboratorios de realidad virtual y aumentada supervisados por Bosworth. Y aunque desde entonces no habíamos tenido grandes noticias sobre cómo estaban evolucionando estos proyectos para las interacciones entre cerebros y máquinas, la compra anunciada demuestra que Facebook sigue persiguiendo este objetivo y que no teme gastar dinero para intentar sacar productos finales que lo consigan.

Crear una pulsera u otro dispositivo capaz de traducir nuestras señales cerebrales tampoco es el único objetivo del Facebook Reality Labs. De hecho, también tiene proyectos que tienen más que ver con las realidades virtual y aumentada tal y como las conocemos hoy en día, y por ejemplo hace unas semanas supimos que quieren crear sus propias gafas de realidad aumentada con Ray-Ban para el año 2023.



via Magazine - robotica-e-ia https://ift.tt/2l24lYd

lunes, 23 de septiembre de 2019

The Ifs: así son los robots para aprender a programar desde los tres años sin pantallas ni cables

The Ifs: así son los robots para aprender a programar desde los tres años sin pantallas ni cables

Tienen forma de cubos rompecabezas de colores, pero nada más lejos de la realidad. Bajo esa apariencia sencilla se esconden unos robots con sensores y actuadores y una misión: enseñar a programar a niñas y niños desde los 3 años sin necesidad de una pantalla. Con esta premisa se presenta The Ifs, un proyecto surgido de un equipo multidisciplinar integrado por cuatro inventores jóvenes españoles.

En un futuro no muy lejano todos tendremos que tener unas nociones mínimas de programación. Sin ir más lejos, la robótica se está introduciendo progresivamente en las aulas, bien sea como extraescolar o como parte del temario de asignaturas de ciencias. Eso sí, los métodos de aprendizaje distan mucho del papel y el boli o una pantalla en negro sobre la que picar órdenes.

Así, robots como Zowi o los Mindstorms y WeDo de LEGO. No obstante, la oferta para acercar la programación sigue aumentando y la edad para hacerlo cada vez es más baja. Así, 'The Ifs' pone la cifra en los tres años de edad, un momento en el que el reclamo de las luces, sonidos y colores abren las puertas a ir interiorizando el concepto "If... then".

If Then

The Ifs, cuatro robots que son familia

The Ifs son cuatro cubos con diferentes sensores y actuadores, pero necesitan un conjunto de órdenes para hacerlos funcionar: toda acción tiene una reacción, o lo que es lo mismo, si hacemos algo, entonces sucederá otra cosa.

En este kit de robots no hay pantallas, pero tampoco hay cables o dispositivos adicionales de por medio. Así, el proceso de programar se convierte en encajar un conjunto de piezas de colores imantadas que vienen marcadas con símbolos intuitivos en las cabezas de los robots y esperar un efecto. Gracias a este sistema con dibujos y piezas no es necesario saber leer o escribir para elaborar sencillos programas.

Cubo

The Ifs consta de cuatro robots en forma de cubo con unas habilidades diferentes, de modo que aunque pueden experimentar con ellos por separado, son juntos cuando se ofrece una experiencia más completa.

Y para que los más peques logren identificarlos, han asignado sus diferentes propiedades a una familia. Así, el padre integra un sensor de movimiento y presencia, la madre genera luces de diferentes colores en función de la acción, uno de los hijos es el "travieso" que aporta el movimiento y la vibración y finalmente la otra hija transmite emociones mediante sonidos y alarmas.

Esta familia de robots es compatible con Arduino, lo que abre las puertas a una comunidad que puede aportar ideas y mejoras en el concepto. Asimismo, incluyen conectividad NFC, Wi-Fi, Bluetooth 4.0 para conectarlos con otros elementos y radiofrecuencia para "entenderse" entre los miembros de la familia.

The Ifs, precio y disponibilidad

Nacido en 2016, The Ifs es un proyecto que ha ido creciendo y evolucionando a lo largo de estos años, pero que todavía no se encuentra en fase de comercialización.

Según explican en su página web, la idea de sus creadores es lanzar un crowfunding en noviembre a través de Kickstarter a partir de 129 euros.



via Magazine - robotica-e-ia https://ift.tt/2kCa8U8

Google promete reducir los audios almacenados por Assistant y avisar cuando configures que se compartan tus audios

Google promete reducir los audios almacenados por Assistant y avisar cuando configures que se compartan tus audios

Google mueve ficha en las polémicas que se iniciaron a principio de verano en torno a cómo permitían que terceros escuchasen nuestras grabaciones en Google Assistant, una polémica que también ha salpicado a otras empresas que hacían prácticas similares como Apple o Amazon. Lo ha hecho asegurando que reducirá la cantidad de grabaciones de audio que se recopilan y que se informará mejor a los usuarios sobre cómo se tratan los datos.

Lo han explicado en un post de su blog, en el que han insistido en que el asistente tiene desactivadas por defecto las opciones de grabación de audio. También se han comprometido a reducir la cantidad de audio que almacenan de cada usuario, prometiendo borrar pronto la gran mayoría de las grabaciones de los usuarios que hayan decidido contribuir con ellas a "la mejora del servicio", que es para lo que insisten que las almacenan.

"Por defecto, no almacenamos tus grabaciones de audio", han defendido en la entrada de su blog. "Para almacenar tus datos de audio, puedes optar por la configuración de Actividad de voz y audio (VAA) cuando configures el asistente". Se trata de una de esas opciones que casi te invitan a activar prometiéndote mejoras como un mejor reconocimiento de tu voz.

Por lo tanto, esta práctica no va a cambiar, pero lo que sí ha dicho Google que hará es reducir la cantidad de grabaciones que almacenan de forma automática y sin que los usuarios tengan que hacer nada.

"Para todos los que tengáis activada la opción de VAA, pronto empezaremos a borrar automáticamente la gran mayoría de los datos de audio asociados con tu cuenta que tengan más de unos meses", ha asegurado Google en su blog. "Esta nueva política llegará a VAA a finales de este año".

La empresa del buscador también dice que va a cambiar los textos de su configuración para dejar claro que si activas el VAA tus audios pueden ser escuchados por revisores humanos para mejorar la tecnología de reconocimiento. Recordamos que la ausencia de esta aclaración por parte de las grandes empresas fue parte de la polémica. Además, si eres un usuario que ya tiene activada la opción, se te solicitará que revises la configuración para confirmar que quieres seguir con ella.

Otros cambios prometidos por Google

En la entrada de su blog, Google también ha asegurado que su asistente borrará automáticamente el audio que recoja cuando detecte que ha sido activado por error por algún sonido similar al comando de activación. Aseguran que se van a centrar en este área mejorando la manera de detectar estas activaciones inintencionadas y excluir las grabaciones del proceso de análisis humano.

Google asegura que "pronto" también se va a añadir un método para configurar la sensibilidad del asistente para reducir las activaciones accidentales o, en el caso de que prefieras maximizar la sensibilidad, asegurarse de que puedas activarlo en ambientes ruidosos.

También habrá cambios en el proceso de transcripción en el que intervienen personas humanas que acceden al audio. Según la empresa del buscador, las muestras que se les mandan nunca están asociadas a una cuenta de usuario. Prometen que los expertos lingüistas sólo acceden al 0,2% de las grabaciones obtenidas de los usuarios, y siempre sólo cuando estos activan el VAA. A este proceso se le va a añadir nuevas capas de seguridad.

Con todo, lo que ha hecho Google en su comunicado es asegurar que el proceso es transparente, ya que los usuarios siempre tienen que activar esa opción de Actividad de voz y audio. Pero claro, todos sabemos que a veces esta activación se hace confusa, por lo que viene bien que Google diga que va a dejar claro que si la activas tus audios serán revisados por empleados humanos.

También prometen que pronto podrás ajustar la sensibilidad del asistente para evitar activaciones por error, y que borrará estas activaciones erróneas cuando las detecte. Pero claro, de momento todo queda en promesas, y habrá que esperar a ver cómo lo implementan todo. Han prometido transparencia, o sea que deberíamos ver cómo cumplen con su palabra.



via Magazine - robotica-e-ia https://ift.tt/2QoZA9Y

Una mano artificial inteligente para amputados fusiona el control robótico y manual

Una mano artificial inteligente para amputados fusiona el control robótico y manual gracias a la combinación de dos campos científicos como lo son la robótica y la neuroingeniería. Esto ha permitido que se abran nuevos caminos en el nuevo campo interdisciplinario de control compartido para las tecnologías neuroprotésicas. En el siguiente post te contamos de qué se trata.

Los científicos de EPFL están desarrollando nuevos enfoques para mejorar el control de las manos robóticas, en particular para los amputados, que combinan el control individual de los dedos y la automatización para mejorar el agarre y la manipulación. Esta prueba de concepto interdisciplinaria entre neuroingeniería y robótica se probó con éxito en tres amputados y siete sujetos sanos. Los resultados fueron publicados en la última edición de Nature Machine Intelligence.

La tecnología combina dos conceptos de dos campos diferentes. La implementación de ambos en conjunto nunca se había hecho antes para el control manual robótico, y contribuye un gran avance al campo emergente de control compartido en neuroprotésica. Un concepto, de la neuroingeniería, implica descifrar el movimiento intencionado del dedo de la actividad muscular en el muñón del amputado para el control individual del dedo de la mano protésica que nunca antes se había hecho. El otro concepto perteneciente a la robótica, permite que la mano robótica ayude a agarrar objetos y mantener contacto con ellos para un agarre robusto.

“Cuando sostienes un objeto en la mano y comienza a resbalar, solo tienes un par de milisegundos para reaccionar”, explica Aude Billard, quien dirige el Laboratorio de Algoritmos y Sistemas de Aprendizaje de EPFL. “La mano robótica tiene la capacidad de reaccionar dentro de los 400 milisegundos. Equipada con sensores de presión a lo largo de los dedos, puede reaccionar y estabilizar el objeto antes de que el cerebro pueda percibir que el objeto se está deslizando”.

 Este algoritmo primero aprende a decodificar la intención del usuario y lo traduce al movimiento de los dedos de la mano protésica. El amputado debe realizar una serie de movimientos de la mano para entrenar el algoritmo que utiliza el aprendizaje automático. Los sensores colocados en el muñón del amputado detectan la actividad muscular, y el algoritmo aprende qué movimientos de las manos corresponden a qué patrones de actividad muscular. Una vez que se comprenden los movimientos de los dedos previstos por el usuario, esta información se puede utilizar para controlar los dedos individuales de la mano protésica.

“Debido a que las señales musculares pueden ser ruidosas, necesitamos un algoritmo de aprendizaje automático que extraiga actividad significativa de esos músculos y los interprete en movimientos”, dice Katie Zhuang, primer autor de la publicación.

Los científicos diseñaron el algoritmo para que la automatización robótica se active cuando el usuario intenta agarrar un objeto. El algoritmo le dice a la mano protésica que cierre los dedos cuando un objeto está en contacto con sensores en la superficie de la mano protésica. Este agarre automático es una adaptación de un estudio previo para brazos robóticos diseñado para deducir la forma de los objetos y agarrarlos basándose solo en información táctil, sin la ayuda de señales visuales.

Quedan muchos desafíos para diseñar el algoritmo antes de que pueda implementarse en una mano protésica disponible comercialmente para amputados. De momento, el algoritmo aún se está probando en un robot provisto por una parte externa.

La entrada Una mano artificial inteligente para amputados fusiona el control robótico y manual se publicó primero en IntelDig.



via IntelDig https://ift.tt/2AIqkY4

miércoles, 18 de septiembre de 2019

PLUTO, un perro-robot autónomo diseñado para rescatar personas en túneles profundos, rocosos y sin mapear

PLUTO, un perro-robot autónomo diseñado para rescatar personas en túneles profundos, rocosos y sin mapear

'Team PLUTO' es el equipo detrás del último perro robot autónomo. Más allá ser un nombre muy apropiado, se trata del acrónimo de 'Penn Laboratory for Underground Tunnel Operations'. Estamos ante un grupo de investigadores y técnicos de la Universidad de Pennsylvania, Exyn Technologies y Ghost Robotics, una veintena de ingenieros que se ha unido para participar en el 'DARPA Subterranean Challenge', uno de los múltiples desafíos que organiza La Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA) de los EE.UU para encontrar robots autónomos capaces de desenvolverse en todo tipo de entornos y ayudar en las tareas de rescate más duras y peligrosas.

De este tipo de concursos acabó surgiendo el robot Atlas, el popular robot humanoide de Boston Dynamics capaz de saltar y hacer volteretas. En esta ocasión destacamos el Ghost Robotics Vision 60, nombre técnico del aparato, un robot en forma de perro diseñado para avanzar a través de túneles rocosos y ayudar en misiones de rescate.

La estabilidad de los robots cuadrúpedos ya les permite moverse en túneles complejos

Stix Platforms

El robot del 'Team PLUTO' es capaz de avanzar por su propia fuerza, detectar abismos para detenerse y reconocer objetos como extintores. Sin embargo, a diferencia de otros robots, no se basa en un sistema de mapas preestablecido sino que a medida que camina va mapeando el entorno en tres dimensiones y lo envía al equipo técnico de la superficie.

El objetivo del desafío de DARPA es crear equipos autofinanciados a desarrollar nuevos enfoques para navegar por diferentes tipos de laberintos subterráneos, tanto naturales como una mina o artificiales.

Muchas de las alternativas utilizan drones en el aire para mapear el entorno, como por ejemplo hemos visto en conceptos de conducción autónoma como el Audi AI: Trail. También suelen ser robots con ruedas. No así el Ghost Robotics Vision 60 de PLUTO que imita la forma de un perro con sus cuatro patas como los ALMA de ETH Zurich o Spot, de Boston Dynamics. Como hemos visto a lo largo de los años, se trata de un diseño que ofrece un gran nivel de estabilidad y permite a estos robots cuadrúpedos salvaguardar todo tipo de obstáculos.

Ghost 1

En el caso del Ghost Robotics Vision 60 se ha utilizado una plataforma basada en Nvidia Jetson Xavier, Ouster OS1-64, Intel RealSense, Stereolabs ZED y un sensor ToF PMD pico flexx. Un equipo que permite ir generando mapas en 3D en tiempo real de los túneles que va recorriendo el robot.

Como describe un miembro del equipo PLUTO a TheRegister, "Los sistemas con patas pueden proporcionar una movilidad mejorada en terrenos irregulares y duraciones de misiones extendidas, mientras que los vehículos aéreos son más adecuados para explorar entornos 3D complejos".

Durante las pruebas, el robot de PLUTO recorrió 240 metros de forma completamente autónoma. Por el momento ha sido utilizado para arrastrar personas ni ha conseguido sacarlas del túnel, pero ese es precisamente uno de los objetivos finales de este tipo de robots-perro autónomos.

En Xataka | Boston Dynamics nos muestra que sus robots no sólo son hábiles, sino también fuertes: 10 SpotMini para remolcar un camión



via Magazine - robotica-e-ia https://ift.tt/2M0dk5C

martes, 17 de septiembre de 2019

Armas autónomas: estos son los grandes peligros de los «robots asesinos» de combate

La tecnología no sólo está cambiando completamente la forma en la que los seres humanos se comunican. Desde hace tiempo, ejércitos de todo el mundo se encuentran volcados en la fabricación de armas que funcionan de forma totalmente autónoma. Sin necesidad de que haya una persona monitorizando su funcionamiento. Sin embargo, ¿qué nos garantiza que estas nuevas armas no van a cometer un error y, en un momento dado, asesinaran a miles de civiles?. Lo cierto es que, según la ingeniera informática irlandesa Laura Dolan, absolutamente nada. «(Este tipo de armamento) podría provocar accidentes a gran escala al comenzar a actuar de forma inadecuada. Es por ello, que cualquier dispositivo armamentístico debería estar sujeto a control humano. De lo contrario, deberían ser prohibidos, porque resultan demasiado impredecibles y peligrosos», ha apuntado la científica en declaraciones al medio británico «The Guardian». Dolan habla con conocimiento de causa. La ingeniera pasó varios años trabajando para Google, y desde 2017 lo hizo, según afirma, dentro del Proyecto Maven. Un plan, creado por el Departamento de Defensa de Estados Unidos, con el objetivo de reclutar a empresas expertas en inteligencia artificial para emplear su tecnología de reconocimiento por imagen en zonas de guerra; como Irak, Siria o Afganistán. Teóricamente, gracias a la IA, los dispositivos autónomos del ejército norteamericano serían capaces de reconocer a sus objetivos y atacarlos, por lo que no habría necesidad de que una persona tuviese que estar vigilando su actividad. Algo que, como apunta la ingeniera, supone un grave riesgo, ya que nadie garantiza, por ejemplo, que una máquina no pueda confundir en un momento dado «a un combatiente de 18 años de un joven de 18 años que está cazando». «Las armas totalmente autónomas podrían decidir quién vive y quién muere sin necesidad de que un ser humano intervenga; algo que supone un gran aprieto moral. Como máquinas, carecen de características humanas, como la compasión, que son necesarias a la hora para tomar decisiones éticas complejas», explican desde el grupo Campaign to Stop Killer Robots, al que pertenece Dolan. Google da marcha atrás La participación de la firma de Google en este proyecto levantó ampollas entre sus trabajadores. Tanto, que enviaron una carta al director ejecutivo de la compañía, Sundar Pichai, a modo de queja. Algunos, como Dolan, fueron más allá y tomaron la determinación de abandonar la compañía: «Aunque no participé directamente en acelerar el reconocimiento de video, me di cuenta de que era parte de la cadena de asesinatos; que esto conduciría en última instancia a que más personas fuesen atacadas y asesinadas por el ejército de Estados Unidos en lugares como Afganistán». Debido a la fuerte oposición de sus empleados, Google terminó optando por dar marcha atrás y dejar que el contrato de colaboración que la ataba al proyecto del ejército estadounidense se extinguiese. «Siempre hemos dicho que esto fue un contrato de 18 meses, por lo que terminará en marzo de 2019. Después de esto, no seguiremos en el Proyecto Maven», recalcó en junio de 2018 Diane Greene, consejera delegada de Google Cloud. El ejército de Estados Unidos, por su parte, es consciente de la impopularidad del Proyecto Maven. Debido a ello, informó hace pocos días de que está buscando un experto en ética que ayude a utilizar el armamento autónomo de forma correcta. «Estamos pensando profundamente acerca del uso ético, seguro y legal de la inteligencia artificial», afirmó en rueda de prensa Jack Shanahan, director del Centro de Inteligencia Artificial del Departamento de Defensa de EE. UU. Shanahan, a su vez, llamó la atención acerca de que otros países como China o Rusia no estén mostrando ninguna preocupación sobre los peligros existentes detrás de este tipo de armamento. Sin embargo, se mostró terminantemente en contra de la prohibición: «sería contraproducente prohibir por completo cosas en las que las personas ni siquieran entienden por completo a lo que se refieren cuando dicen "prohíbe esto"». Por el contrario, espera que su adopción se acelere lo máximo posible. Falta de control Como ocurre con tantas otras cosas, hasta el momento no existe una legislación que regule, o prohiba, el empleo de armamento militar autónomo. La ONU lleva años tratando de dar solución a este problema. Sin embargo, por el momento los avances son escasos. «(Estas armas) son políticamente inadmisibles, moralmente reprobables y deberían estar prohibidas por el derecho internacional», señaló en un escrito el secretario general de Naciones Unidas, António Guterres, durante la reunión del pasado mes de marzo, en Ginebra, de un grupo de expertos gubernamentales de la organización en el ámbito de los sistemas de armas autónomas. La ONU ha levantado la voz ya en varias ocasiones acerca de los peligros que esconde este tipo de armamento. Sin embargo, como hemos expresa, países como Estados Unidos, Rusia, Israel, China o Reino Unido, que están trabajando en el desarrollo de este tipo de tecnología, se muestran tremendamente reacias respecto a un posible acuerdo internacional de prohibición. Algo de lo que numerosas asociaciones llevan años quejándose. «Aún no es tarde para cambiar de rumbo. La prohibición de los sistemas de armas totalmente autónomos podría impedir algunos escenarios realmente distópicos, como una nueva carrera de armas de alta tecnología entre superpotencias mundiales que provocaría que las armas autónomas proliferaran de forma generalizada», señala Rasha Abdul Rahim, investigadora sobre inteligencia artificial y derechos humanos de Amnistía Internacional. Desde otros grupos, como Campaign to Stop Killer Robots, apuntan que es imprescindible que los estados reconozcan los potenciales peligros que esconde este tipo de armamento, el cual, sostienen firmemente, debe ser prohibido. A su vez, hacen un llamamiento para que empresas, como Google, no colaboren en la elaboración de este tipo de sistemas. Importantes personalidades del mundo de la tecnología, como Ellon Musk, también han alzado su voz contra el empleo de este tipo de tecnología. El consejero delegado de Tesla no se ha cortado a la hora de manifestar en varias ocasiones la necesidad de que las armas autónomas sean prohibidas. «Hasta que no haya robots matando gente no sabrán cómo reaccionar, porque lo ven como algo etéreo, algo que simplemente podría no suceder», expresó Musk hace dos años en una conferencia junto a políticos estadounidense.

via Tecnología https://ift.tt/34NF5qp

viernes, 13 de septiembre de 2019

Los lingüistas que enseñan a leer, hablar y escuchar a las máquinas

Cada vez más empresas e instituciones necesitan incorporar a filólogos y traductores para desarrollar asistentes virtuales, ‘chatbots’ y otras tecnologías que procesan el lenguaje natural por medio de la inteligencia artificial

via Robótica https://ift.tt/2ZTJEjE

jueves, 12 de septiembre de 2019

El Ejército de EEUU recluta a un "militar ético" para controlar a sus robots de asesinos

El Tío Sam Quiere conocer hasta dónde puede llevar a sus robots de combate y qué podrían hacer China y Rusia con esta tecnología Leer

via Tecnología // elmundo https://ift.tt/34KNlrx

Los asistentes de voz se cuelan en la universidad

«Alexa, ¿qué asignaturas he aprobado?». «Alexa, ¿cuándo tengo tutoría?». «Alexa, ¿qué actividades tengo la semana que viene?». Estas son algunas de las cuestiones que, poco a poco, van a empezar a realizarse a través de los asistentes digitales ante la irrupción de la voz como vehículo para interactuar con las máquinas. Un proyecto piloto realizado conjuntamente entre la universidad Cardenal Herrera CEU y Amazon Web Services promete mejorar la experiencia del alumnado con su centro de estudios a través de un chatbot bilingüe que funciona desde los altavoces inteligentes y dispositivos móviles. Desde el servicio digital los estudiantes van a poder gestionar muchas de las tareas que debido a la tardanza de un ámbito convencional puede ocasionar frustración como solicitar la reserva de una pista de pádel o conocer, sencillamente con simples instrucciones de voz, los horarios de clase. Este proyecto muestra, una vez más, el camino de la educación que vive una profunda transformación digital impulsado, en parte, por los nuevos hábitos de los usuarios. La mayoría, sobre todo, jóvenes en edades muy precoces que emplean plataformas digitales y teléfonos móviles para relacionarse entre ellos. Este asistente, diseñado de manera interna por el equipo de soporte informático del centro en cuatro meses, aprovecha los algoritmos y la tecnología de voz de Amazon. De esta forma, se configura una interfaz de voz que es capaz de mantener una conversación natural y que facilita la interacción de los estudiantes con los servicios y utilidades. El resultado es una «skill», una microaplicación disponible para dispositivos con Alexa bajo el nombre de «Abre CEU», que los usuarios pueden activar y recibir información personalizada. Este tipo de desarrollos, sin embargo, suscitan algunas preocupaciones en materia de privacidad, aunque los responsables del proyecto garantizan la seguridad de la información hasta el punto de que no es posible suplantar la identidad de los estudiantes. «En el plano de la privacidad, les hemos informado a los usuarios de la política de privacidad de los dispositivos Alexa», destacó a este diario Iñaki Bilbao, delegado del rector para la Transformación Digital en la Universidad CEU Cardenal Herrera, quien asegura que en lo que respecta a la «información personalizada no es posible, salvo que sea hackeado, hacerse pasar por otra persona porque es necesario introducir previamente un nombre de usuario y contraseña». En su opinión, las nuevas generaciones de universitarios se llegan a sentir más cómodos hablando a una máquina que a un humano en la ventanilla de secretaría. «Prefieren una interacción con un robot para resolver sus primeras dudas», aseguró. El mundo educativo es un mundo que está en evolución y en continua transformación. La tecnología en la «nube», en ese sentido, ha empezado a brindar importantes posibilidades para, entre otras cosas, crear servicios de todo tipo que contribuya a facilitar las cosas a los ciudadanos. En opinión de Pilar Torres, vicedirectora del Sector Público de Amazon Web Services, se trata de una tecnología que se utiliza para muchas cosas diferentes de cara a mejorar los servicios y mejorar la relación con sus estudiantes. El objetivo es ser «más eficientes» en el trabajo educativo. Esta iniciativa «va a enriquecer y mejorar la educación presencial de los alumnos», apuntó por su parte Rosa Visiedo, coordinadora del Área de Universidades CEU. «La utilización de recursos digitales los va a permitir estar más cerca de los estudiantes, sobre todo de las nuevas generaciones en donde la tecnología forma parte de sus vidas.La utilización de estos recursos nos permite conectar mejor con ellos, con un Lenguaje que les resulta natural y más cercano a ellos», añadió durante su presentación en Madrid. Los software de voz han empezado a desembarcar en el mundo educativo en los últimos años. Servicios como Alexa o Google Assistant se han empleado, incluso, en la enseñanza de idiomas. Pero ofrecen muchas aplicaciones prácticas relacionadas con el entorno educativo, como traducción en tiempo real, calculadora o la posibilidad de añadir fechas de exámenes. Según un estudio de la consultora Deloitte, se espera que para 2021 se registren más de 1.800 millones de personas utilizando asistentes digitales de voz. Las “skills” educativas ofrecen, a juicio de los expertos, grandes posibilidades y representan un negocio cada vez más floreciente.

via Tecnología https://ift.tt/2Adsj6B

domingo, 8 de septiembre de 2019

Soy programador y esto es lo que creo sobre si la inteligencia artificial podrá quitarme el trabajo

Soy programador y esto es lo que creo sobre si la inteligencia artificial podrá quitarme el trabajo

Hemos leído muchas noticias sobre los efectos que tecnologías como la Inteligencia Artificial pueden tener en el mundo laboral. Aunque se sabe que estas herramientas también crearán nuevos puestos de trabajo y que, echando la vista atrás, la tecnología siempre ha creado más oferta laboral que la que destruye, las alarmas están ahí. Se calcula que la automatización eliminará 75 millones de empleos para 2025. Otros estudios estiman que entre 400 y 800 millones de personas serán desplazadas de sus puestos de trabajo en 2030 debido a la automatización.

Este impacto se hará notar en disciplinas tan diversas y variadas como los radiólogos, preparadores de hamburguesas, taxistas y repartidores o periodistas.

Pero, ¿qué pasa con los programadores y desarrolladores de código? ¿Cuánto de su trabajo es puramente rutinario y puede ser, por tanto, altamente automatizable? ¿Programar será en el futuro una cosa de máquinas?

La IA hará parte de mi trabajo, pero no me preocupa

Hemos hablado con varios desarrolladores y todos coinciden en que sí, que su trabajo también se verá afectado por las herramientas de Inteligencia Artificial. Pero, lejos de verlo como un problema o con miedo por su futuro laboral, todos ellos lo ven como algo positivo: desde el trabajo aburrido que les va a eliminar hasta la oportunidad de centrarse en lo que verdaderamente les gusta o la posibilidad de seguir creciendo a nivel profesional.

Img 3628 Elena Torró es desarrolladora software frontend en Carto

“Es perfectamente posible que mi trabajo lo pueda hacer en el futuro una máquina. Pero no me preocupa en absoluto porque la tecnología avanza tan rápido que te tienes que reimaginar constantemente. No solo por la IA, sino porque aparece una nueva librería de código que te pedirán en los próximos meses”. Elena Torró es desarrolladora software front ¡end en Carto desde hace 2 años y no le parece mal que haya tecnología que supla su trabajo. “Pueden automatizar cosas y hacerlas más sencillas. Antes las farolas las encendería una persona y ahora es un proceso más eficaz”, pone como ejemplo.

“Todo lo que se automatiza son cosas horribles, tareas repetitivas, que no te sientes realizado haciéndolas” Laura Lacarra

Jorge Ferreiro, Frontend Software Engineer en Eventbrite, piensa parecido. “La IA es una oportunidad de mejora como desarrollador, salvo para los que estén acomodados, que no quieran evolucionar y opten por estancarse en ciertas tecnologías. Pero no es una amenaza diferente a las nuevas bibliotecas u otras tecnologías”, asegura. En opinión de este ingeniero, herramientas como la utilizada por Facebook, que analiza bugs y errores de tu anterior código y te da sugerencias, permite a los desarrolladores mejorar el código.

¿Automatizar tareas aburridas? Sí, por favor

Como todo proceso, la llegada de herramientas de Inteligencia Artificial al mundo del desarrollo de software no se producirá de la noche a la mañana. De hecho, estos profesionales ya ven cómo en ciertos terrenos la IA está ya presente en las herramientas que emplean en su día a día.

 T8a2149c Jorge Ferreiro, Frontend Software Engineer en Eventbrite

VS Code, por ejemplo, es un editor que les sugiere nombre de variables y funciones. Hay herramientas de Machine Learning capaces de analizar el contexto en el que trabajan los desarrolladores y escribir código por ellos. Tabnine compara y hace recomendaciones a la hora de escribir código, lo que, en opinión de Ferreiro, ahorra tiempo a la hora de escribir. Otras herramientas, como Codota, completa líneas de código basadas en millones de programas Java y su contexto, lo que le ayuda a codificar más rápido con menos errores.

Herramientas como Tabnine o Codota son capaces de analizar el contexto en el que trabajan los desarrolladores y escribir código por ellos

Ninguno de los programadores con los que hemos hablado ha probado estas herramientas, algunas de las cuales permiten programar en pareja con la particularidad de que el partner no es una persona, sino la Inteligencia Artificial. Sin embargo, todos ellos se han mostrado más que encantados con la aparición de dichas herramientas.

Laura Lacarra, ingeniera de BI & Big Data en Telefónica, nos explica que ella misma ha automatizado tareas que costaban más de 4 horas de trabajo dos veces a la semana. “Ahora se ejecutan diariamente y se hacen solas. No es que no haga falta hacer ese trabajo, sino que se han incorporado nuevas funcionalidades”, detalla. Para ella, “todo lo que se automatiza son cosas horribles, tareas repetitivas, que no te sientes realizado haciéndolas”. Por eso, poder contar con un programa que automatice ese trabajo “te permite pasar a una siguiente fase: de hacer algo manual siempre igual a mejorarlo, mantenerlo”. Y, dado que “siempre hay cosas nuevas cosas que automatizar”, Lacarra asegura que “no he perdido trabajo, sino que he generado más”.

Lauralacarraarcos Laura Lacarra, ingeniera de BI & Big Data en Telefónica

No me preparo para la IA: me mantengo al día

Estos programadores con los que hemos hablado no se preparan de ninguna manera especial ni concreta ante el avance o la llegada de la IA a sus puestos de trabajo. “Hay que estar al día. Hay que reinventarse sin querer”, explica Elena Torró, quien asegura que ahora hace cosas que hace 2 años ni se planteaba. “Hay que aprender bajo demanda”, sentencia. En su opinión, la gente se tiende a agobiar mucho por estar al día y hacer cosas. “Es importante estar al día si te interesa lo que quieres hacer y no por presión del entorno”, recomienda.

“Hago cursos sobre IA, voy a conferencias y charlas y voy a hackatones, pero procuro que apliquen a mi trabajo, para ver cómo me pueden ayudar" Jorge Ferreiro

Algo parecido asegura Lacarra. “En la profesión que hemos decidido hay que estar al día de los cambios que pasan”. Así, recuerda cómo ella empezó con Java y ahora trabaja con Python.

Elena Torró sí que ha empezado a hacer un curso de Coursera sobre datos, con una visión general de Data Science, visualización, tratamiento con aspectos prácticos. En su opinión, “si te preocupa que la IA te vaya a afectar a tu trabajo, deberías entender la IA”.

Por su parte, Jorge Ferreiro apuesta por saber cuáles son las nuevas tendencias, cómo le afectan y leer artículos sobre estas nuevas tendencias. “Hay que completarlo con cursos y documentos. Ver conferencias y charlas sobre IA y acudir a hackatones. En mi caso, procuro que apliquen a mi trabajo, para ver cómo me pueden ayudar”, explica.

Un ingeniero que enseña a las máquinas cómo aprender

De entre los programadores con los que hemos hablado, hay uno que merece una mención aparte: es ingeniero experto en Machine Learning. Es decir, les enseña a las máquinas cómo deben aprender para ser inteligentes. Este profesional nos pide no identificarle. Entre otras cosas porque trabaja para varios clientes en varios proyectos.

Program

Aunque sabe que ahora mismo se piden muchos profesionales del área de programación y desarrollo de software (entre otras razones para crear y mantener estas herramientas de Inteligencia Artificial), cree que en un futuro (“me costaría dar un tiempo o estimación de fechas”), cada vez se automatizará más la creación de herramientas de IA, así que tendrá un impacto en este tipo de trabajo.

Ciberseguridad es, en su opinión, uno de los campos en los que más está entrando la IA para detección de amenazas en base a patrones de comportamientos y análisis de datos de servidores. “En esa labor de vigilancia sobre lo que está ocurriendo en los sistemas quizá cada vez sea menos necesario la intervención humana porque la IA se vuelve más potente cuantos más datos le des para entrenarla”, explica. “Será uno de los primeros en los que se note el descenso de necesidad humana”.

“Claro que me planteo si estoy alimentando a la bestia”

Este experto, como los otros desarrolladores con los que hemos hablado, no está intranquilo por su futuro. “Estoy en una situación privilegiada ahora mismo porque estoy en un campo en crecimiento. De aquí a unos años puede cambiar, pero no me inquieta especialmente porque creo que tengo bastante adaptabilidad. Si no encuentro trabajo de esto buscaré otra cosa. No tengo miedo a quedarme sin trabajo”, explica.

Adult Close Up Code 1181263

Donde sí muestra más dudas o recelos es en la esfera social. “Hay trabajos muchos más vulnerables que el mío y el impacto va a ser muy fuerte”, reflexiona.

"A veces te preguntas si es positivo o no que contribuyas al avance de la IA cuando tiene efectos en la sociedad"

Unos trabajos que, quizá, peligren por la irrupción de máquinas a las que él entrena. “¿Sientes que estás alimentando a la bestia?”, le preguntamos. “En ocasiones sí”, reconoce. “Trabajo para muchos clientes y muchas veces te planteas cuáles son las consecuencias de los proyectos en los que trabajas. Y, en general, ante algo que puede tener consecuencias negativas a futuro es una pregunta que, al menos yo, me planteo: si es positivo o no contribuir a ese avance”, reflexiona.

Sin embargo, este profesional se muestra convencido de que la Inteligencia Artificial puede tener muchas más partes positivas que negativas a largo plazo. El tema está en que todo “depende de cómo se gestionen esas cosas negativas. Ahí entran variables muy complejas como tema legislativo, político…”.

No obstante, y mirando siempre el vaso medio lleno, cree que a largo plazo “nos readaptaremos y ajustaremos a la nueva realidad”, pese a que entiende que estamos en un momento de transición y de cambio muy rápido en el que se producen crisis. “La IA es una herramienta que permite dar nuevas habilidades y capacidades a la gente a la hora de hacer un trabajo concreto. Me parecería extraño que todas las grandes empresas utilizaran ese gran cambio para abaratar costes, despedir plantilla y suplir trabajadores por IA en lugar de sacar más productividad y avanzar más rápidos”, concluye.



via Magazine - robotica-e-ia https://ift.tt/2ZKxnhZ

lunes, 2 de septiembre de 2019

Deepfakes que te convierten en DiCaprio en el móvil en 8 segundos: así es ZAO la app china que está arrasando

Deepfakes que te convierten en DiCaprio en el móvil en 8 segundos: así es ZAO la app china que está arrasando

¿Quieres que tu cara sustituya al protagonista de 'Titanic' o 'Juego de Tronos'? Ahora hay una aplicación móvil que te permite hacerlo con deepfakes: se llama ZAO, es la nueva sensación viral llegada de China y está arrasando en descargas en el gigante asiático.

La nueva herramienta aprovecha esta técnica de inteligencia artificial y con una foto tuya logra resultados aparentemente espectaculares. El problema, indican los analistas, es el nuevo riesgo para la privacidad que plantea su uso.

Deepfakes desde el móvil

La empresa desarrolladora de esta aplicación, llamada Momo, lanzó esta aplicación el pasado viernes para iOS tras triunfar también con Tantan, algo así como el 'Tinder' chino-, y desde entonces su éxito ha sido arrollador: con ella es posible poner tu cara en cualquier serie o película con un simple selfie.

Un usuario de la herramienta lo dejó claro al sustituir su cara por la del actor Leonardo DiCaprio en algunos clips de sus películas. Como explicaba en su mensaje, esos deepfakes se generaron en apenas 8 segundos a partir de una única foto de su cara.

La aplicación móvil no persigue una precisión absoluta, indican quienes la han probado, pero el resultado subjetivo es destacable y mantiene la estructura facial del actor original y sitúa encima los rasgos de la fotografía que se usa.

Para algunos esto podría dar lugar a una nueva corriente en el segmento del entretenimiento en el que los productores de las películas permitan ese uso y habiliten que "te conviertas en protagonista" de esas películas y series. Por ejemplo, el espectador podría ver una película de los Vengadores en la que él aparecería como uno de los miembros de este grupo de superhéroes.

ZAO también se puede usar en clips de videojuegos, lo que parece también plantear un futuro aún más llamativo en el que los protagonistas de los videojuegos a los que jugamos tengan nuestras caras o las caras de gente real que queremos que aparezcan en esos videojuegos.

Zao4

De momento ZAO trabaja con unos pocos clips preseleccionados de películas -no se puede aplicar a cualquier clip de vídeo de cualquier película- que probablemente han entrenado en sus sistemas de inteligencia artificial para luego aplicar las fotos de los usuarios de forma rápida.

Otra potencial amenaza a la privacidad, apuntan los analistas

La herramienta también sirve para sustituir nuestra cara por la de los rostros que aparecen en memes y generadores de memes muy populares, pero algunos analistas indican que ZAO vuelve a imponer un debate sobre la privacidad.

Según el medio cultural chino RADII, una de las cláusulas de la aplicación establecía por ejemplo que las imágenes subidas y creadas en la plataforma podrían ser utilizadas por el desarrollador de forma totalmente libre y gratuita. Así pues, ZAO se "apropiaba" de las imágenes subidas por los usuarios para generar esos deepfakes.

La amenaza que para algunos plantean estos vídeos ha hecho que por ejemplo la red social WeChat haya comenzado a bloquear los vídeos de ZAO, que no pueden ser compartidos en dicha red, donde algunos usuarios abogan por borrarla y que la gente elimine sus cuentas y fotos.

Los responsables de ZAO han querido no obstante aclarar esos términos y han revisado esos términos de uso, indicando que los contenidos generados con la aplicación no se usarán para otros propósitos sin el consentimiento previo del usuario. Además, destacan, si uno borra la cuenta de usuario de ZAO eliminará también todas las imágenes de las bases de datos de la plataforma.

De momento la aplicación está disponible solo para iOS en China, pero su éxito muestra el interés del gran público por los deepfakes que asombran cada vez más por su precisión pero que también preocupan por su potencial uso para fraudes y engaños a pequeña y gran escala.



via Magazine - robotica-e-ia https://ift.tt/2kcqcMa