miércoles, 30 de octubre de 2019

Si no puedes viajar, o no quieres, un robot lo hace por ti: en Japón los robots de telepresencia permiten que cualquiera pueda viajar

Si no puedes viajar, o no quieres, un robot lo hace por ti: en Japón los robots de telepresencia permiten que cualquiera pueda viajar

Ya sea por la edad, una enfermedad o simplemente fobia a subirse a un avión, muchas personas no pueden viajar y eso les limita el poder conocer otros sitios. En Japón han pensado una solución a esto y quieren que cualquier persona tenga la posibilidad de viajar sin salir de casa.

Se trata de un proyecto de la aerolínea japonesa ANA, quien pondrá robots de telepresencia a la disposición de algunas personas que no puedan subirse a un avión para que realicen un viaje de un día.

Un robot que sirve de avatar para subirse a un avión

El proyecto ya está en marcha, y ANA planea desplegar 1.000 robots de telepresencia conocidos como 'Newme', con los cuales se podrán efectuar viajes de un día de duración a alguno de los destinos de la aerolínea.

La compañía ofrecerá el servicio completo de viaje, que va desde embarcar el vuelo, transporte a un hotel, visita a centros comerciales, con compras incluidas, así como visitas a atracciones turísticas como conciertos o eventos deportivos. Es decir, las personas podrán experimentar la experiencia de viajar pero sin estar físicamente ahí.

Como ya mencionamos, Newme es un robot de telepresencia y es fabricado por la compañía OhmniLabs. Es una tableta de 10,1 pulgadas conectada a un poste donde está el mecanismo de movimiento y los componentes. Es capaz de transmitir vídeo en resolución 2K y se mueve a una velocidad de 3 km/h.

Uno de los problemas es que su batería sólo dura unas tres horas de forma continua, pero en todo momento el robot será custodiado por una persona de ANA, quien se encargará de cargarlo y llevarlo de un sitio a otro de acuerdo a las instrucciones y peticiones del "viajero".

La idea del proyecto es que cualquier persona pueda hacer un viaje a su ritmo y bajo sus condiciones sin depender de algún familiar o amigo. ANA espera terminar con el despliegue de robots en verano de 2020, a tiempo para el arranque de los Juegos Olímpicos de Tokio. Hasta el momento no hay detalles de los precios, ya que esto dependerá del paquete de viaje y las opciones que se deseen.



via Magazine - robotica-e-ia https://ift.tt/2C2ORaZ

Estos robots limpian las ventanas por ti

Probamos tres dispositivos pensados para limpiar cristales de forma autónoma. ¿Funcionan?

via Robótica https://ift.tt/2Pwkdiu

lunes, 28 de octubre de 2019

Chamanes y curanderos frente a las leyes de la robótica

Roger Bartra reflexiona sobre los límites entre la conciencia del yo de los humanos y la conciencia de sí mismos de los robots del futuro

via Robótica https://ift.tt/2WltGu4

Los riesgos de seguridad en el futuro de la robótica

La influencia que los robots “sociales” ejercen sobre las personas y la inseguridad que esto puede ocasionar no deben subestimarse

from RSS de lo último publicado en 'Computing España' https://ift.tt/2BM3Hm7
via IFTTT

domingo, 27 de octubre de 2019

La responsabilidad tecnológica de las empresas

La cuestión con la robotización no es la cantidad de empleo, sino la calidad del trabajo que genera

via Robótica https://ift.tt/32Ozz5v

viernes, 25 de octubre de 2019

Una compañía ofrece casi 130.000 dólares a la persona que permita que su rostro sea usado en una nueva línea de miles de robots

Una compañía ofrece casi 130.000 dólares a la persona que permita que su rostro sea usado en una nueva línea de miles de robots

¿Alguna vez se han preguntado en qué o quién se inspiran las compañías cuando asignan un rostro a un robot humanoide? En el caso del famoso robot Sophia, sus creadores mencionaron que era un diseño basado a partir de la apariencia de la actriz Audrey Hepburn. Pero en el caso del robot sexual Harmony, su creador se ha negado a ofrecer los detalles.

Es decir, ¿es posible licenciar nuestro rostro para que sea usado en una línea de robots? A día de hoy no está claro, pero una compañía quiere ser la primera en iniciar con esta práctica. Se llama Geomiq y ofrece 100.000 libras esterlinas para que una persona renuncie a los derechos de su cara, ya que sería usada para darle un rostro a miles de robots humanoides.

¿Qué precio tiene tu rostro?

Geomiq es una compañía británica de ingeniería y producción, quien a través de una convocatoria pública en su sitio web está buscando una persona interesada en ser la cara de un nuevo "robot humanoide de última generación", el cual estaría siendo desarrollado por una empresa de la que se desconoce su identidad.

Según la compañía, se trata de un proyecto secreto por lo que no pueden ofrecer muchos detalles, pero afirman que la empresa que desarrolla estos robots es conocida mundialmente y ahora buscan lanzar la nueva generación de uno de sus productos.

Geomiq menciona que estos robots han estado operando en los últimos cinco años, y para esta nueva versión buscan crear un acompañante robótico que sirva de compañía y cuidado para ancianos. Por tal motivo, los candidatos deben tener un rostro "amable y amistoso", ya que su cara será reproducida en miles de versiones de este robot a nivel mundial durante 2020.

Terminator

También mencionan que dicha empresa misteriosa ha recibido inversiones por parte de varios fondos privados en todo el mundo, así como de un gran fondo de inversión con sede en Shanghai.

No hay detalles de edad o género, por lo que, en teoría, cualquier persona puede participar. Los interesados deben enviar fotos de sus rostros a faces@geomiq.com y esperar a ser elegidos como posibles candidatos. Estos candidatos, que serían una especie de finalistas, son los que recibirían más información acerca de este robot y cómo sería usado su rostro.

Sin embargo, sólo se elegirá un solo rostro y la persona recibirá unos 128.500 dólares a cambio de renunciar a los derechos de uso y comercialización de su cara.

"Sabemos que se trata de una petición extremadamente única, y renunciar a la licencia de su rostro es sin duda una decisión muy importante."



via Magazine - robotica-e-ia https://ift.tt/2pbTdtJ

miércoles, 23 de octubre de 2019

¿Necesitamos «robots asesinos»? Ya están aquí pero el mundo no tiene claro qué hacer con ellos

Los «robots asesinos», armas capaces de decidir y ejecutar ataques sin intervención humana, son ya una realidad al alcance de varios Gobiernos, pero el mundo sigue dividido sobre cómo responder. La amenaza, que hasta hace poco sonaba casi a película futurista, lleva años discutiéndose en Naciones Unidas sin resultados tangibles pese a que la urgencia no hace más que crecer. «Estas no son tecnologías del mañana, son posibles hoy, aunque resultan muy poco seguras», explica a Efe la experta Liz O'Sullivan, miembro de la Campaña Para Detener los Robots Asesinos. Esta coalición de 130 ONG, respaldadas hasta ahora por 29 Estados, está promoviendo la negociación de un tratado internacional para prohibir este tipo de armamento. Entre sus miembros figura la estadounidense Jody Williams, ganadora en 1997 del Nobel de la Paz por liderar una iniciativa parecida contra las minas terrestres que logró convencer a países de todo el mundo. Para Williams, los «robots asesinos» son «inmorales» y tienen que ser prohibidos cuanto antes. «Permitir que máquinas, en teoría a través de algoritmos, decidan qué es un objetivo y atacarlo es una de las enormes razones por las que consideramos que cruzan un rubicón», explica la activista. Los grandes obstáculos Los intentos para frenar el desarrollo de este tipo de armamento se han encontrado hasta ahora con la oposición de grandes potencias que están invirtiendo en la tecnología. «El mayor obstáculo para negociar un tratado sobre 'robots asesinos' son Estados Unidos y Rusia», señala abiertamente la coordinadora de esta campaña, Mary Wareham. En declaraciones a Efe, Wareham defiende que «la gran mayoría de países» son favorables a legislar, pero están siendo frenados por las «potencias militares». Aunque son los ejemplos más claros, EE.UU. y Rusia no son los únicos que están apostando por el desarrollo de «robots asesinos». China, Corea del Sur, Israel o el Reino Unido están trabajando también en este ámbito. Los activistas, además, no descartan que otros como Turquía e Irán puedan estar haciéndolo también. Según fuentes diplomáticas, las potencias, en general, no se oponen de forma explícita a un tratado, pero han ido retrasando y buscando rebajar la ambición de las posibles medidas. ¿Es demasiado tarde? «Nunca es demasiado tarde para regular», responde rápidamente Wareham, que subraya que lo que no quieren las ONG es esperar a que haya un número masivo de víctimas para que el público demande la prohibición de este armamento. Por ello, poco a poco, están tratando de despertar el interés de la sociedad, recurriendo a herramientas como un dicharachero robot que pasea por el mundo para advertir sobre el peligro de sus parientes «asesinos». «Uno que me preocupa un montón es quién toma la responsabilidad en caso de las consecuencias, que son víctimas» Los jóvenes resultan un público clave y comienzan a tener su voz, como mostró esta semana Mariana Sanz, una estudiante de la Universidad de los Andes en Bogotá, que intervino en un acto en Naciones Unidas para pedir apoyo a los Estados miembros. «Resulta muy importante en este momento porque ya hay muchos países en proceso de desarrollo de estas máquinas, de estas armas, y viene con muchos problemas no solo éticos, legales, morales...», explica a Efe. «Uno que me preocupa un montón es quién toma la responsabilidad en caso de las consecuencias, que son víctimas», apunta. Activistas y expertos avisan, entre otras cosas, del riesgo de que con estas armas las guerras se conviertan en algo aún más habitual o de que un error de una computadora puedan desencadenar un gran conflicto que sea imposible detener. Gobierno, expertos y ciudadanos con dudas Gobiernos de todo el mundo comenzaron a debatir oficialmente en 2014 sobre los «robots asesinos», unas discusiones que se celebran regularmente en Ginebra. En las conversaciones se deben analizar entre otras cosas los límites legales y éticos, con una pregunta clave: ¿debe un robot poder decidir sin intervención humana si es preciso matar a alguien? La ONU lo tiene claro: «la perspectiva de máquinas con el criterio y el poder para acabar con vidas humanas es algo moralmente repugnante», advirtió el jefe de la organización, António Guterres, a los líderes internacionales reunidos el pasado año en la Asamblea General. Entre quienes defienden los avances en este ámbito hay quienes aseguran que estas tecnologías pueden reducir el número de errores y daños colaterales y, de hecho, proteger vidas. Pero las máquinas tienen que aprender de alguien y ello amenaza con hacer que se repitan patrones que terminan por perjudicar siempre a los más vulnerables. «Todos los modelos de inteligencia artificial están sesgados», explica O'Sullivan, que recuerda que esos modelos tienden a ir contra quienes no participan en su creación, es decir, comunidades de color, mujeres o personas con discapacidades. Pero ¿qué es un «robot asesino»? Un «robot asesino» no tiene por qué ser un humanoide de metal armado hasta los dientes como los que ha imaginado a menudo la ciencia ficción. De hecho, su apariencia puede ser la de un simple tanque, avión, barco o sistema de misiles. La diferencia está en si opera de forma autónoma, tomando decisiones sin la participación directa de un humano. Los especialistas ven probable que la tecnología se incorpore en un primer momento a drones, pero que luego se extienda a otro tipo de vehículos. Liz O'Sullivan, que dejó la compañía en la que trabajaba cuando sus superiores se negaron a prometer que sus algoritmos no iban a usarse en «robots asesinos», asegura que la tecnología para crear esas armas ya está disponible, pero subraya que cualquiera que diga que puede producirlas de forma «segura» está mintiendo. «Tenemos que trabajar juntos para asegurar que estas armas nunca vean la luz», insiste.

via Tecnología https://ift.tt/2W55nAE

Una empresa ofrece 115.000 euros por poner tu cara en un ejército de robots

La industria de la robótica se ha planteado en innumerables ocasiones si era preciso producir humanoides con una fisionomía humana. Es un debate complejo. Diversos estudios psicológicos han recomendado evitar esta visión del futuro por el miedo que despierta en las personas: no es lo mismo interactuar con una máquina de brazos hidráulicos y metálicos que hacerlo con una con rostro y gestos de una persona común que te puedes encontrar por la calle. Como si los «replicantes» que protagonizan la película «Blade Runner» traspasaran la última frontera, una empresa británica llamada Geomiq ha publicado una oferta que puede sonar a ciencia ficción: ofrece 130 mil dólares (116 mil euros) por obtener la cesión de la cara de una persona. Su objetivo es fabricar «amigos virtuales» destinados al cuidado de personas mayores. Eso sí, la venta de derechos de imagen tiene una contrapartida: se hace de por vida. Algo que puede suponer un riesgo mayor de lo que se cree por las posibles consecuencias futuras. La empresa de ingeniería, con sede en Londres, ha desvelado que los requerimientos para ser aprobado pasan por tener un aspecto «amable y amigable». No todos pueden servir para la causa. Y habrá que ver cómo se decide. El único dato que piden es una fotografía personal hasta encontrar la cara correcta que mejor se adapte a las circunstancias. «Esto implicará que la cara de la persona seleccionada se reproduzca en miles de versiones de los robots de última generación por todo el mundo», explican en un comunicado fuentes de la empresa. Los candidatos que pasen a la siguiente fase recibirán más información sobre el proyecto final, aunque aquellos que no sean aceptados desconocerán los motivos porque no serán contactados a través de comunicaciones oficiales. Aunque se desconocen más detalles de la iniciativa, la firma asegura que trata de un cliente cuyo nombre se desconoce por motivos de confidencialidad pero que está apoyado por importantes fondos de inversión, algunos de ellos de procedencia China. El proyecto, en fase de desarrollo desde hace cinco años, tiene previsto la comercialización de sus robots el próximo año, pero más allá del negocio sirve para lanzar una reflexión acerca del modelo de Inteligencia Artificial y robótica asistencial que se va a imponer a partir de ahora. Debido a la crisis demográfica de los países occidentales y regiones asiáticas como Japón, el sector de la robótica ha virado hacia un modelo de robótica asistencial diseñada para cuidar y acompañar a personas mayores, niños pequeños y colectivos con discapacidad. Un negocio al alza que se reforzará en los próximos años. El mercado de la robótica moverá, según las estimaciones que maneja la Comisión Europa, unos 60.000 millones de euros cada año a partir de 2020.

via Tecnología https://ift.tt/31wS9xK

martes, 22 de octubre de 2019

Nvidia EGX Edge, el supercomputador capaz de procesar más de 1,6 TB por segundo con el objetivo de llevar el 5G a todos lados

Nvidia EGX Edge, el supercomputador capaz de procesar más de 1,6 TB por segundo con el objetivo de llevar el 5G a todos lados

Nvidia acaba de anunciar una importante colaboración con Red Hat, Microsoft y Ericsson para desarrollar tecnología relacionada con redes 5G, con la cual se busca ayudar en el despliegue de las redes de próxima generación más allá de los smartphones. En el centro de todo esto se encuentra Nvidia EGX Edge, una plataforma de computación de alto rendimiento e inteligencia artificial lista para que las compañías se sumen al 5G sin complicaciones.

Esta nueva plataforma de supercomputación está dirigida por el momento a empresas, y a día de hoy ha sido adoptada por compañías como Samsung, Walmart, BMW, entre otras, según Nvidia.

Nvidia, Red Hat, Microsoft y Ericsson unidos en este proyecto

Nvidia EGX Edge es impulsado por software CUDA-X y hardware Jetson Nano de Nvidia, el cual se basa en servidores Tesla T4. Esta tecnología cuenta con el respaldo por Microsoft, ya que soporta aplicaciones en la nube de Azure y Azure AI.

Según Nvidia, en Las Vegas y San Francisco ya están usando esta plataforma en diversas implementaciones. Mientras que el caso de Walmart es uno de los más grandes, ya que la compañía implementó EGX Edge en su laboratorio de Levittown, Nueva York, con el objetivo de mejorar la experiencia de compra en las tiendas. Según explican, la plataforma está conectada a cámaras, sensores y aplicaciones móviles que avisan a los empleados que, por ejemplo, necesitan abastecer carritos de la compra, o que algún pasillo se ha quedado sin productos, o que necesitan abrir más cajas debido a la afluencia de clientes.

EGX Edge también cuenta con el soporte de la plataforma OpenShift de Red Hat, lo que trae el uso de contenedores Kubernetes para construir una infraestructura de telecomunicaciones nativa en la nube. Con esto, las empresas pueden adoptar redes 5G capaces de soportar cargas de trabajo extremas.

Y por último, Ericsson es quien proporciona el soporte para los estándares de redes 5G dentro de EGX Edge. Debido a esto, tenemos software que se ejecuta en una plataforma nativa de Red Hat, usando la nube de Microsoft y conectándose a varios dispositivos usando redes desarrolladas por Ericsson, todo dentro de un ordenador de Nvidia.

Jensen Huang, CEO y fundador de Nvidia, mencionó:

"La era de la informática inteligente ha llegado. Las industrias más grandes del mundo quieren tener la computación basada en inteligencia artificial para extraer información de los flujos continuos de datos, y para sentir, razonar y actuar de inmediato. Con el tiempo, este será el sistema informático de mayor escala jamás creado, conectando billones de sensores inteligentes. Las plataformas de Nvidia y Microsoft encajan para ofrecer a los clientes una solución de extremo a extremo desde el borde hasta la nube".

Junto a EGX Edge también tenemos Aerial, un kit de desarrollo de software para la construcción de redes de acceso radioeléctrico (RAN) inalámbricas 5G, que dependen de la memoria de la GPU para su funcionamiento. Con esto, se ofrece el kit completo para que las empresas desarrollen e implementen sus propias redes 5G con inteligencia artificial para un sinfín de tareas automatizadas.



via Magazine - robotica-e-ia https://ift.tt/2ByaiRb

Una empresa de robótica te paga 116.000 euros por 'la cara'

Ofrece 100.000 libras a quien ceda sus derechos de imagen Leer

via Tecnología // elmundo https://ift.tt/31EaKIa

El futuro de los robots está en la nube

En 2023 el 40% de las grandes corporaciones mundiales habrá conectado al menos el 30% de sus robots a una plataforma en la nube, según un estudio de IDC.

from RSS de lo último publicado en 'Computing España' https://ift.tt/2MCkL4m
via IFTTT

jueves, 17 de octubre de 2019

Gita es el carrito eléctrico que te sigue donde vayas para llevar tu carga por ti, pero no será nada barato

Gita es el carrito eléctrico que te sigue donde vayas para llevar tu carga por ti, pero no será nada barato

Estamos rodeados de nuevos vehículos eléctricos personales que facilitan que nos desplacemos de un lado a otro con facilidad: patinetes, bicicletas o monociclos nos acompañan desde hace tiempo, pero otras ideas afloran no para llevarnos a nosotros, sino para cargar con lo que necesitemos de un lado a otro.

Es el objetivo de Gita, un robot eléctrico y autónomo que nos sigue donde vayamos y que es como una pequeña "nevera andante" con dos ruedas que permite que no tengamos que cargar con pesadas bolsas o mochilas.

De la Vespa a los Gita

La responsable de esta creación no es otro que Piaggio, célebre fabricante italiano de motocicletas como la mítica Vespa y que ya hace tiempo creó una especie de laboratorio de ideas en Boston llamado Piaggio Fast Forward (PFF).

Este grupo de investigadores ya ofreció un vistazo al primer prototipo de Gita y de otro robot llamado Kilo en 2017, pero se han dedicado a refinar el producto en los dos últimos años, y hoy tenemos el primer resultado de ese esfuerzo: la versión definitiva de Gita.

Estos robots autónomos saldrán a la venta el próximo 18 de noviembre de 2019, y lo harán a un precio ciertamente elevado: costarán 3.250 dólares, algo que desde luego hará que muchos se planteen si no compensa más hacer ese esfuerzo extra y cargar con las cosas como siempre lo han hecho.

Gita tratará de convencernos de que no es así. El robot tiene una capacidad interior de 38 litros y cuenta con una serie de cámaras en su parte frontal que permiten que circule de forma autónoma y que también son la clave para seguir a su propietario, al que reconocen en base a su forma para diferenciarlo de otros viandantes.

No parece por tanto que sigan al propietario a través de una señal que por ejemplo provenga de un dispositivo móvil. Gita puede circular a velocidades que se acercan a los 10 km/h y cargar con hasta 18 kg, y se mantiene a una distancia aproximada de entre uno y dos metros de su propietario según la velocidad a la que este se desplace.

Amazon ya había explorado una idea similar con sus robots Scout, pero Gita es un robot personal que eso sí, tiene limitaciones importantes en cuanto a los terrenos por los que puede moverse: lo pasará muy mal (o no pasará directamente) en barro, hierba alta, arena o nieve. Tampoco puede subir escalones y las pendientes deben tener una inclinación máxima de 16°.

Tampoco es un producto ligero: de por sí pesa casi 25 kg, lo que hace que si tenemos que cogerlo y encima va cargado el robot hará que tengamos que hacer un esfuerzo importante. Puede no obstante ser una ayuda interesante para ciertos escenarios, pero ese precio desde luego será un gran obstáculo para quienes estén interesados en esta singular "mula de carga" adaptada a los nuevos tiempos.

Vía | VentureBeat



via Magazine - robotica-e-ia https://ift.tt/2VOsG1l

Confiar en un robot o en tu director

Una investigación global de Oracle subraya cómo la IA está cambiando la relación entre las personas y la tecnología en el trabajo.

from RSS de lo último publicado en 'Computing España' https://ift.tt/32lpjBK
via IFTTT

miércoles, 16 de octubre de 2019

Videojuegos «indies», la clave de la supervivencia de los estudios españoles

Los videojuegos no se terminan en «FIFA» y «Call of Duty». Más allá de las grandes propuestas que copan año tras años las estanterías de las tiendas, existe una enorme cantidad de títulos independientes que, poco a poco, van ganando peso. Y parte de la culpa la tienen los pequeños estudios españoles. A pesar del reconocimiento que han recibido gracias a obras como «Gris», «Maldita Castilla» o «Rime», las desarrolladoras lamentan que en el país siga sin apostarse con firmeza por un sector que, a pesar de su juventud, ha demostrado tener un enorme potencial. Tanto a nivel cultural como económico. Así lo demuestra, sin ir más lejos, el que el año pasado, solo en España, los videojuegos facturasen 1.530 millones de euros, según se apunta en el Libro Blanco de los Videojuegos de AEVI (Asociación Española de Videojuegos). Un 12, 6 por ciento más que en 2017, momento en el que ya se había convertido en la primera opción de ocio audiovisual, muy lejos del cine (585,7 millones) y la música grabada (237,2 millones). Datos que, además, colocan al país como el noveno gran consumidor a nivel global, pero que no se traducen en un mayor apoyo por parte del Estado a los estudios nacionales. Y si no es por falta de oportunidad de negocio, según los expertos tampoco es por falta de talento. «España cuenta con una cantera muy potente de creadores de videojuegos. Desde animadores hasta guionistas o arquitectos, necesarios para crear los niveles. Si se juntasen, y se les diese apoyo, todo sería posible. Falta intención política y que se ofrezcan más subvenciones. Una ayuda que es muy importante cuando estás empezando», explica a ABC Pablo López, animador del estudio británico Media Molecule. A pesar de que lleva jugando a los videojuegos desde que era un niño, López nunca había imaginado ganarse la vida gracias a ellos. Todo cambió cuando pasó un año estudiando en Colonia y tuvo la oportunidad de acercarse un poco más a la industria. «En Alemania, por ejemplo, el sector de los videojuegos es uno de los que más peso tiene. Hay muchas más oportunidades para los estudios que en España», dice mientras asiente con la cabeza. Tras completar sus estudios y desarrollar un par de títulos, comenzó a trabajar como «freelance» en diferentes proyectos en Reino Unido. Ahora lleva dos años como animador en la «first party» de PlayStation Media Molecule. Uno de los estudios más potentes que existen en Europa, y que está detrás de la saga «Little Big Planet» o del futuro «Dreams», obra en la que el español ha trabajado activamente. Corazón y originalidad Los jóvenes que deciden dedicarse al desarrollo de videojuegos no siempre son conscientes de que no va a ser un camino de rosas. Que sí quieren que sus proyectos salgan adelante, van a tener que dedicarlos mucho esfuerzo y mucha pasión. Cuando Manuel Pérez formó el estudio 3D2 Entertainment junto a un grupo de amigos hace siete años en Sevilla, tenía claro que se adentraba en una industria muy difícil. «Al ser un estudio “indie” pequeño y no tener muchas ayudas siempre es complicado salir adelante. En el videojuego en el que estamos ahora concentrados empezamos siendo cinco personas. Sin embargo, por la falta de presupuesto algunos fueron dejándolo. A día de hoy somos tres personas», apunta a este periódico. Pérez y sus compañeros están puliendo los últimos detalles de su segunda obra, llamada «Arima». Un título, que estará disponible para PC y Nintendo Switch a principios de 2020, en el que la música y el ritmo son la clave. A lo largo del título, el usuario controla a una niña encerrada en una especie de castillo. Para escapar, debe enfrentarse a los enemigos que encuentra por el camino haciendo uso únicamente de su flauta: «A todos en el estudio nos gusta mucho el género RPG. Nos hizo gracia la idea de crear un juego en el que la música fuese la clave del combate». Una bola de papel A pesar de la falta de ayudas económicas, las grandes compañías son conscientes del potencial que esconden los pequeños estudios. Sony Interactive Entertainment España lanzó en 2015 la iniciativa PlayStation Talents, ideada para apoyar el trabajo de las desarrolladoras nacionales y que sean capaces de explotar todo su potencial. El estudio catalán Open House Games, conformado por tres chicos que apenas superan los 20 años, se alzó en 2018 con el premio al mejor juego dentro de este proyecto gracias a su obra «A Tale of Paper». «No hemos recibido ninguna ayuda económica del Estado por el momento. Hemos solicitado algunas, pero por el momento no hemos recibido nada», dice Pau Tarés, uno de los miembros del estudio. A pesar de ello reconoce que muchas veces se le ha solicitado a él y a sus compañeros que ofreciesen más de lo que es posible para tres personas que acaban de finalizar sus estudios de FP: «Muchas veces se nos pide que trabajemos como profesionales. Nunca lo hemos sido, así que vamos preparándonos sobre la marcha». Y es que, en su caso, llevan tan solo tres años trabajando. Algo que no ha impedido que «A Tale of Paper» se haya convertido ya, a escasos meses de su lanzamiento para PlayStation 4, en uno de los títulos más prometedores dentro de la escena española. Durante el título, que es un plataformas con unos gráficos y unas animaciones bastante interesantes, el jugador controla a una bola de papel que es capaz de cambiar de forma en función de las exigencias del juego. De este modo, puede convertirse en rana para saltar hasta una ventana y así escapar del aspirador robot que la persigue. También puede desplegarse y dejarse llevar por el viento cuando está dentro de un conducto de ventilación. Una propuesta, en definitiva, muy original que se escapa de lo que ofrecen los pesos pesados de la industria. «Los estudios "indie" ofrecemos títulos diferentes, con más carácter y más personalidad. El desarrollador pone el alma detrás del producto. Las grandes desarrolladores nunca dejan de hacer lo mismo. Activision, por ejemplo, va a seguir haciendo año tras año "Call of Duty". Nosotros tenemos otras inquietudes», apunta Tarés. Una tabla de skate Otra obra que llegará en los próximos meses a la sobremesa de Sony es «Skapp»; o lo que es lo mismo, el intento de otros tres jóvenes, en este caso de Albacete, por hacerse un hueco en la industria. «Empezamos haciendo una aplicación para móvil que simplemente reconociese los movimientos típicos que se hacen en skate. El año pasado decidimos llevar la idea más allá y realizar un videojuego. Así que nos apuntamos al PlayStation Games Camp», explica Victor Sánchez a este diario. Sánchez, de 24 años, es uno de los integrantes de Boand Games, el estudio detrás de este título, que llegará a PS4 a mediados del año que viene. En «Skapp», el jugador controla una tabla de skate a través de una aplicación móvil. En función como se interactua con la pantalla del «smartphone», el monopatín va hacia delante, gira sobre si mismo o se desliza por una barandilla, entre muchas otras opciones. «Desde el principio, afrontamos la creación del título con mucha ilusión. Al final si no te gustan los videojuegos no puedes dedicarte a esto. No solo hay muchas dificultades a la hora de hacer un juego, sino también a la de promocionarlo. Las oportunidades no son tan buenas como se pueda creer. Es muy difícil entrar en esta industria», lamenta Sánchez. En su caso, y en el de sus dos compañeros, tuvieron que cambiar Albacete por Valencia para poder llevar a cabo su trabajo. Si no hubiese sido por el apoyo económico de sus familias lo hubiesen tenido mucho más difícil. «Se lo toman como si nos estuviesen pagando un máster», explica Sánchez. A pesar del esfuerzo que ha dedicado a este proyecto es realista sobre las perspectivas de futuro: «Nos buscamos la vida. Es importante a muchas ferias y ser muy proactivo y creer en tu proyecto. Sino es muy difícil. Tienes que mover cielo y tierra solo para ver tu proyecto terminado. Algo que, al final, tampoco te garantiza nada». Victor Sánchez es consciente de que, para que un estudio como el suyo prospere, no solo es necesario apoyo y un altavoz, como el que le ofrece Sony, sino también la complicidad del público. Que el usuario, especialmente el que solo compra un par de obras al año, se de cuenta de que los videojuegos no son solo los grandes títulos que salen cada año. Que como pasa con los libros, con el cine y con la música, hay montones de obras que merecen la pena. Solo hace falta echar un vistazo.

via Tecnología https://ift.tt/2IUps7s

lunes, 14 de octubre de 2019

¿Qué pasa con Fortnite? ¿Cuándo vuelve Fortnite?

Agujero negro Fortnite

Ayer domingo, los chicos de Epic Games despidieron la temporada 10 con un esperado evento que todo el mundo podía seguir directamente en el juego entrando a una partida o bien a través de Twitch, Twitter o YouTube. Los rumores asociados al posible cambio de mapa con la llegada de la temporada 11, colapsaron tanto el juego como Twitch, y muchos usuarios no pudieron seguirlo en directo.

Si tuviste la oportunidad de disfrutar el evento, ya sea a través del juego o a través de YouTube, Twitter o Twitch posteriormente, habrás visto como todo el mapa, incluyendo los jugadores, fueron tragados por un agujero negro, agujero negro que hasta el momento es lo único que nos muestra en estos momentos si accedemos al juego.

Que pasó en Fortnite

Cada vez que finaliza una temporada y comienza la siguiente, Epic Games lanza una actualización obligatoria necesaria cerrando el acceso a los servidores durante unas horas. Una vez hemos descargado la actualización, ya podemos disfrutar de la nueva temporada junto con los cambios que habitualmente nos presenta, cambios en algunas zonas del mapa, mapa que se conserva prácticamente igual que la primera temporada.

Pero con la finalización de la décima temporada, hace ya más de 12 horas, Epic Games no ha lanzado ninguna actualización y actualmente no es posible jugar, tan solo podemos ver un agujero negro en movimiento. De vez en cuando se muestran una serie de números que probablemente indicaran algo, pero en este momento nadie sabe a qué se refieren.

El agujero negro de Fortnite

Agujero negro Fortnite

En estos momentos y desde que finalizó el evento del juego se muestra un agujero al entrar en el juego, un agujero negro en movimiento que no da pistas acerca de cuándo volverá a estar disponible. Muchos han sido los streamers que han seguido transmitiendo, durante varias horas, el agujero negro esperando a ver si en algún momento se podía volver a acceder al juego, en un movimiento que muestra el nivel de enganche que ha llegado a alcanzar Fortnite entre los usuarios más fieles.

¿Se ha acabado Fortnite?

Fortnite Battle Royale

Durante la décima temporada que acaba de finalizar, muchos han sido tanto usuarios como streamers que han criticado duramente el juego por la introducción de elementos como BRUTO, el robot que introdujo la compañía para que los usuarios más noveles tuvieran la oportunidad de luchar hasta el final con los usuarios más pro, aunque posteriormente redujo su poder que tenía para tratar de contentar a la comunidad más comprometida con el juego.

Viendo el panorama que se le venía encima, Epic anunció hace unas semanas un nuevo sistema de emparejamiento junto a la introducción de bots, para los usuarios que empiezan a jugar o quieren intentarlo no abandonen al juego a las primeras de cambio al ver como el enemigo construye la muralla china en medio segundo mientras que este apenas ha logrado encontrar los botones para poner una simple pared.

Es probable que desde Epic hayan querido darle un escarmiento a los más críticos con el juego y de momento no ha dicho cuándo volverá a estar disponible Fortnite si es que llega a estar disponible otra vez. Y digo esto por que tanto la web de Epic como la cuenta de Twitter han eliminado todo rastro de Fortnite, como si nunca hubiera existido. Por si fuera poco, la cuenta de Twitter en inglés ha borrado todos los tweets que había publicado desde el lanzamiento del juego.

¿Cuándo vuelve Fortnite?

Fortnite es una máquina de hacer dinero a través de las diferentes skins de personales y armas que pone a disposición de los usuarios a través de la tienda propia, ya que el juego está disponible para su descarga de forma totalmente gratuita en todas las plataformas donde está disponible: Android, iOS, PC, Mac, Xbox, PS4 y Nintendo Switch.

Será el próximo 15 de octubre a las 12 de la mañana (hora española),  cuando desde los servidores de Epic se cuelgue la actualización de la temporada 11, una temporada que nos ofrecerá un nuevo mapa, nada que ver con los cambios en algunas localizaciones que hemos visto en la temporadas anteriores.

Otros rumores apuntan que no será hasta el próximo 17 de octubre, cuando el juego volverá a estar disponible, aunque es poco probable que Epic deje castigados a sus jugadores durante 4 días sin jugar.

Puede que esté cambio del mapa, sea el revulsivo que necesitaba el juego para poder volver a reinar en el mundo de los videojuegos y una vez más se convierta en el juego más stremeado tanto en Twitch como en YouTube y Mixer. De momento, tan solo tenemos que esperar a mañana para ver todas la novedades que llegarán de la mano de la undécima temporada de Fortnite.

Esta fecha no es oficial. Esta fecha se ha encontrado en algunos líneas de código de la última actualización disponible de Fortnite para ordenadores. Epic no ha anunciado la fecha de inicio de la nueva actualización, por lo que es probable que sufra algún retraso si se encuentra algún problema en las próximas horas en el desarrollo del juego.

Lo que está claro es que durante las primeras horas de lanzamiento de la próxima actualización, lo más probable es que tardemos más de lo normal es descargarla, ya que mucho millones de usuarios intentarán ser los primeros en probar el nuevo mapa y ver todos los cambios que llegan de la mano de la undécima temporada.

Alternativas a Fortnite si hablamos de Battle Royale

PUBG - Alternativa a Fortnite

Cuando llegues esta tarde o noche a casa después de estudiar o trabajar, ya sabes que Fortnite nada de nada, por lo que puede que sea un buen momento para salir y ampliar nuestras relaciones personales, algo que muchos de los que jugamos a Fortnite no hacemos regularmente, al menos no con la asiduidad que necesitaríamos.

O bien, es un buen momento para jugar a Minecraft, un juego que en los últimos meses se ha convertido en uno de los más populares con unas cifras de visualizaciones muy similares a Fortnite. Si no te gusta Minecraft, puedes optar por jugar a Apex Legends, gratuito y disponible en PC, PS4 y Xbox, o bien a PUBG, aunque este último es de pago.



via Actualidad Gadget https://ift.tt/318UvCI

Blockchain, grillos, robots... el futuro de la alimentación que ya está sobre la mesa

Así están transformando la tecnología y la innovación un sector primario como el agroalimentario. Nutrición, sostenibilidad y la experiencia del consumidor, los ejes del cambio Leer

via Tecnología // elmundo https://ift.tt/35ygq9W

jueves, 10 de octubre de 2019

Los robots periodistas, cada vez más cerca

Los robots están cada vez más presentes en nuestra sociedad y ya desempeñan muchas profesiones que hasta ahora correspondían a personas: los hemos visto de camareros, de telefonistas o de limpiadores. Y a partir de ahora parece que también van a poder ser periodistas.



Ver vídeo


via Ciencia y tecnología en rtve.es https://ift.tt/2q2tUdK

Este robot policía "cobra" lo mismo que un policía humano, sin embargo no fue capaz de brindar ayuda cuando se le solicitó

Este robot policía

Imaginemos la escena. Dentro de un aparcamiento se desata una pelea, una de las personas que está ahí presente va a buscar ayuda y se encuentra con un robot policía, que cuenta con un botón de emergencia que envía una alerta a las autoridades. Al tratarse de una emergencia, la persona presiona el botón para recibir apoyo policial. Sin embargo, la respuesta no es la esperada, ya que el robot sigue su camino y hasta le pide a la persona que se quite de su camino.

Bueno, pues esto sucedió recientemente en Huntington Park, California. Según la NBC, una persona, de nombre Cogo Guebara, solicitó ayuda a uno de los nuevos y flamantes robots del Salt Lake Park después de que se iniciara una pelea. De acuerdo a la información, Guebara presionó varias veces el botón de emergencia del robot y éste sólo le pidió que se apartara de su camino.

Todo esto significó más tiempo de espera, ya que, según explican, alguien más tuvo que pedir ayuda al servicio de emergencias 911 y esperar a que llegaran las autoridades. Al final tuvo que llegar una ambulancia para dar primeros auxilios a una mujer con una herida en la cabeza.

Humanos 1 - Robots 0

En NBC mencionan que el robot policía no tiene su botón enlazado al departamento de policía, ya que se trata de una prueba piloto. Este botón, en teoría, se enlazaría con las oficinas de Knightscope, fabricantes del robot. Sin embargo, hasta el momento el departamento de policía ni la compañía fabricante han dado declaraciones acerca de esto.

Este robot se trata del K5 de Knightscope, el cual fue presentado en 2013 como una solución de vigilancia a aquellos sitios que desearan tener seguridad las 24 horas durante los 365 días del año. Lo curioso de todo es que este mismo robot ya había presentado algunos problemas.

En 2016 arrolló a un niño de apenas 16 meses y en 2018 uno de estos robots cayó en una fuente. De hecho, este tipo de robot también ha sido usado para evitar que acampe gente sin hogar al lado de unas oficina en San Francisco.

En el caso de este robot, el Departamento de Policía de Huntington Park decidió implementar una prueba piloto bajo el nombre de HP RoboCops, con la que se busca transmitir seguridad en esta región dentro de la ciudad de Los Ángeles. Algunos habitantes de la zona dijeron a NBC que la presencia del robot los hacía sentir más seguros.

El detalle es que cada robot representa un arrendamiento de entre 60.000 y 70.000 dólares al año, que es lo mismo que gana un policía de Huntington Park.

Ahora ante lo ocurrido en Salt Lake Park, será interesante conocer la opinión de los habitantes, y ver si cambia la percepción que tenían tras ver el robot patrullando sus parques y zonas públicas.



via Magazine - robotica-e-ia https://ift.tt/2OBazum

miércoles, 9 de octubre de 2019

martes, 8 de octubre de 2019

Las dos tecnologías que marcarán el futuro de la industria

Es muy fácil relacionar el 5G con «smartphones», «Smart TVs», coches y «wearables», precisamente porque son los temas de los que más se habla al ser de interés para una gran variedad de audiencias. A pesar de ello, los mayores avances en el campo del 5G no se han creado para el usuario final, sino para un usuario más industrial. En Qualcomm calculamos que para 2035 el 5G haya aportado cerca de 5 billones de dólares únicamente en cinco sectores: la manufacturación, el transporte, la construcción, la minería y servicios públicos. Esto será posible gracias a la capacidad del 5G para multiplicar la velocidad de todos los servicios ya existentes, pero donde realmente supondrá una auténtica revolución será en su aplicación al IoT. Con el 5G es posible aumentar el número de dispositivos conectados al millón por kilómetro cuadrado, una opción que entiendo que al usuario particular de un «smartphone» no le llegue a interesar, pero que al director general de una planta de transporte alimenticio le resulte de lo más atractiva. La hiperconectividad como ventaja competitiva: cuando hablamos de tantos dispositivos conectados hablamos de hiperconectividad, y algunos expertos estiman que, a finales de esta década, se llegue a los 10 billones de objetos conectados, unos 1.400 objetos «Internet of Things» (IoT) por persona. Esto significa que la adopción del 5G hará posible una reducción de costes en dispositivos de radio para conectar equipos y descenderá la barrera de entrada de dispositivos «IoT», como pueden ser coches conectados, robots, contenedores de embarque, campos agrícolas, sistemas de tráfico, etc. Para entenderlo pongamos como ejemplo una granja eólica y uno de sus técnicos de mantenimiento. Debido a la baja latencia que ofrece el 5G, el técnico puede obtener información sobre los molinos que tiene asignados en tiempo real. Esta información puede venir tanto de un dron de inspección, como de los sensores de la turbina y las aspas, los sensores ambientales o incluso de todos ellos a la vez. Con esta información el técnico decidirá qué acción realizar con los molinos y que éstos las lleven a cabo en cuestión de un milisegundo. El 5G agiliza esta era en la que vivimos, la de la información, acercándonos a un volumen cada vez mayor de datos y de manera inmediata. Cualquier experto en su campo sabe que hoy en día para avanzar con pie firme en el mundo de los negocios es necesario tener la última información, por lo que conceptos como ciudades o flotas conectadas no tendrían que ser temas desconocidos. En este contexto, creo firmemente que el acceso a la información que todos estos dispositivos conectados van a empezar a intercambiar de forma masiva puede ser la clave para el éxito de una organización, especialmente para aquellas que lideren el cambio. El 5G es la generación de la velocidad y la hiperconectividad. Un negocio veloz e hiperconectado está claramente aventajado sobre aquellos que aún confían en los métodos tradicionales que les funcionaban en el pasado. Evolucionar es sobrevivir, y el 5G es el siguiente paso a dar. Eloy Fustero es director de Desarrollo de Negocio de Qualcomm España

via Tecnología https://ift.tt/2oe4ucG

domingo, 6 de octubre de 2019

Cómo la inteligencia artificial ha cambiado (y sigue cambiando) radicalmente el ajedrez: entrevista a Miguel Illescas, campeón de España y cocreador de Deep Blue

Cómo la inteligencia artificial ha cambiado (y sigue cambiando) radicalmente el ajedrez: entrevista a Miguel Illescas, campeón de España y cocreador de Deep Blue

Miguel Illescas tiene todo el ajedrez en su cabeza. Al menos todo lo que cabe en un cerebro humano. Ocho veces campeón de España, Illescas formó parte del equipo de IBM que creó Deep Blue, el ordenador que ganó a Garry Kaspárov en el legendario match de 2017. Habla sin descanso de las máquinas, Stockfish y Alpha Zero así como del estado del ajedrez y de sus proyectos actuales. Illescas es director de la única revista de ajedrez en castellano, Peón de Rey, de la tienda online Ajedrez21 y de la escuela de ajedrez en colegios, EDAMI. Y sobre todo, habla mucho de ajedrez, su pasión.

Comienza la entrevista entre bromas refiriéndonos a mi pobre nivel de ajedrez. Una suerte para ti, comenta, así has podido hacer una carrera profesional; el ajedrez es muy absorbente. El comentario me recuerda la anécdota de nuestro grandísimo Premio Nobel, Santiago Ramón y Cajal. Obsesionado como estaba por el ajedrez, se dedicó a fondo para ser campeón de su club, cosa que hizo, y así poder dejarlo para siempre. La ciencia mundial está de suerte en que Cajal abandonara el ajedrez y se dedicara a la neurociencia.

“Hay que estar entre los 30 mejores jugadores del mundo para ganar un buen salario”, dice. Los otros pocos que pueden vivir del ajedrez sacan el dinero dando clases.

Deep Blue

Maxresdefault Equipo creador de Deep Blue (de izquierda a derecha): Chung-Jen Tan, Murray Campbell, Joe Hoane, Feng-Hsiung Hsu y Jerry Brody

Deep Blue comenzó a desarrollarse en la Universidad de Carnegie Mellon en los 80 con el nombre de Deep Thought. El proyecto científico de IBM era desarrollar la computación paralela. Entonces las máquinas eran single chip. Deep Blue hizo avanzar la computación paralela, la supercomputación y sus resultados están actualmente en todas partes.

El equipo de IBM de Deep Blue estaba formado esencialmente por ingenieros y grandes maestros. En el año del segundo y definitivo match, el 97, se incorporó mucha más gente. "Los de Comunicación tomaron el mando", comenta Illescas. Recomendaron al resto del equipo hacerse visibles y cuándo sonreír y cuándo no. En alguna ocasión apareció Lou Gestner, presidente de IBM. Los líderes eran Feng Hsu y Murray Campbel. La arquitectura está publicada por sus creadores.

Miguel Illescas participó en un encuentro con una versión previa en Barcelona y fue fichado por el equipo de IBM. “Hay que jugar con ellos cuando son pequeños. Luego se vuelven intratables” (en referencia a varios campeones del mundo con los que Illescas ha hecho tablas y al propio Deep Blue). “A la máquina de hecho le gané 1,5 a 0,5” (en el año 95). En el 96 Illescas explicó a IBM: “No tenéis ninguna posibilidad con Kaspárov. Os va a comer vivos. Vosotros sois científicos, no tenéis mala leche”. El equipo de IBM quedó muy sorprendido, pero contrató a Joel Benjamin por sugerencia de Illescas y cambió de estrategia.

Preguntado sobre los temores de IBM, ¿perder?, ¿hacer el ridículo?, Illescas es claro: IBM no tenía miedo a hacer el ridículo. “La máquina del 96 ya tenía un buen nivel y es eso fácil de saber porque haces pruebas”. El objetivo de IBM era ganar. La versión del 96 tenía un espíritu más científico, pero la del 97 estaba diseñada para ganar a Kaspárov. Pero eso no era todo. “El objetivo de IBM era ganar la simpatía del público”. El público neoyorquino y mundial iba con Kaspárov pese a que este enarbolaba la bandera rusa e IBM la americana. En IBM no querían ser los malos, por lo que hicieron hincapié en que “detrás había un equipo de personas y por eso, los miembros del equipo tuvimos bastante visibilidad”.

El objetivo de IBM era ganar. La versión del 96 tenía un espíritu más científico, pero la del 97 estaba diseñada para ganar a Kaspárov

“Mi papel fue hacer una máquina más competitiva. A mí me contrataron para ganar aquel encuentro.” Deep Blue comenzó siendo un proyecto científico, pero resultó siendo una joya y su importancia fue creciendo dentro de IBM. Illescas, por ejemplo, ayudó a introducir en la máquina la teoría de aperturas. No solo un amplio conjunto de ellas, sino “buenas formas de manejar las aperturas”. En general, Illescas contribuyó a traducir en lenguaje máquina el ajedrez. Antes las máquinas se basaban solo en el cálculo. “Se hizo un esfuerzo muy grande en que la máquina entendiera conceptos ajedrecísticos”.

Illescas pone un ejemplo. Las valoraciones de las máquinas se basaban en el material, pero eso no es bastante. Es necesario resaltar el valor dinámico de las piezas. Un caballo en el centro controla 8 casillas pero en una esquina solo 2. Es como poner a Messi a jugar de portero. Había que introducir ese conocimiento en Deep Blue. Por ejemplo, “le explicamos que cuando las estructuras de peones ofrecen puntos débiles, los caballos valen más. Introdujimos más de tres mil conceptos estratégicos de todo tipo”

IBM logró lo que quería, ganar. “La pega fue que Kaspárov lo tomó muy mal”. Aún sigue protestando como se comprueba 20 años después en su muy recomendable libro 'Deep Thinking'. En la segunda partida deslizó que a Deep Blue le había ayudado la mano de Dios, en referencia al infausto gol de Maradona.

Dice Illescas que IBM trató correctamente a Kaspárov, es decir, cumplió el contrato. Lo que era injusto era el contrato en sí. “Kaspárov firmó un contrato que era muy ventajoso para la máquina”. “Yo, cuando asesoré a IBM, pedí cosas y para mi sorpresa Kaspárov las aceptaba”. La más notable era cambiar la configuración de la máquina entre partidas. Pero asegura que “no me consta que se hiciera nada que no fuera limpio”.

Illescas ayudó a introducir en la máquina la teoría de aperturas. No solo un amplio conjunto de ellas, sino “buenas formas de manejar las aperturas”. En general, Illescas contribuyó a traducir en lenguaje máquina el ajedrez

El resultado de la primera partida “provocó que Kaspárov se confiara. Pensó que iba a ser un match más fácil y que IBM se iba a centrar de nuevo en la parte científica y no entendió que IBM en el año 97, a diferencia del 96, se había vuelto ambiciosa y lo que quería era ganar a toda costa”.

Podían haber jugado una revancha que permitiera a Kaspárov quedar como “fair looser”, pero este no fue lo bastante listo y se aferró a sus críticas. IBM había conseguido lo que pretendía y dejó el ajedrez y a su enfurecido campeón. Deep Blue siguió un tiempo después como máquina de demos y ahí quedó todo en la relación entre IBM y el ajedrez. En lo que se refiere a la computación, todos tenemos un trozo de Deep Blue con nosotros.

Stockfish

Ways1

Illescas habla también de los fieles compañeros de los jugadores: Komodo, Houdini, Stockfish, Fritz, Shredder, etc. Son los programas, también llamados módulos. Aclara que no es un experto programador, pero sí un usuario avanzado.

“Stockfish y los demás módulos mejoraron mucho aumentando la compresión del ajedrez desde el punto de vista estratégico”. “El problema de las máquinas no es el cálculo, es la valoración. El problema es dónde parar de calcular”. “Stockfish o Houdini, a lo largo de los años han ido incorporando rutinas, herramientas, algoritmos, podíamos decir patrones, que les han permitido entender mejor el ajedrez. Los patrones en ajedrez son modelos que incluyen una determinada configuración de piezas, que da lugar a combinaciones típicas”, explica Illescas.

“Con las aperturas (millones de partidas) y las tablas de finales se está resolviendo el ajedrez y dejando en el centro el medio juego donde todavía hay algún espacio para la creatividad”. “Un programa de ajedrez tiene dos elementos básicos: el cálculo y la valoración, con apoyo en aperturas y bases de datos de finales”.

¿De qué forma han cambiado los programas de ajedrez este juego y el entrenamiento y rendimiento de los maestros?

Cpd 4978

“El cambio es total, de arriba abajo. En los 80 era muy importante investigar y saber si una posición crítica es buena o mala. Esto te podía llevar muchos días o semanas”. Esto en la actualidad es una tarea que los ordenadores resuelven con sencillez.

“Hoy es más importante sorprender al rival, antes era importante conocer tus variantes mientras que en el presente se trata de no caer en una preparación casera del rival. No te enfrentas al rival; te enfrentas a su ordenador”.

“Ahora es muy importante memorizar y antes era importante entender. Los jugadores jóvenes te meten una variante que ni siquiera entienden pero la han memorizado y son imbatibles. Hoy en día dedican muchas horas a estar frente al ordenador para conocer la verdad”.

Repite Illescas el término verdad, esa verdad tan escurridiza incluso para las poderosas máquinas en el todavía casi infinito mundo del ajedrez.

“El éxito está asegurado si demuestras que la máquina se equivoca. Vas a pillar a la gente porque confía ciegamente en la máquina. Pero a veces la máquina se equivoca, sobre todo en aperturas complejas, muy ricas estratégicamente. También ocurre que la máquina te dice que una variante no es buena, pero tienes muchas posibilidades de ganar porque los cálculos para el contrario son muy difíciles enfrentado a un reloj en marcha”.

Alpha Zero

Chess 1403622 1280

Hablando de máquinas llegamos a Alpha Zero, el ingenio que está cambiando el ajedrez y en buen medida el mundo. Alpha Zero no solo deja obsoletos a los humanos. También al resto de las máquinas.

“Alpha Zero ha revolucionado en menos de 2 años la relación de los humanos con la tecnología del ajedrez. Las máquinas resolvían el ajedrez mediante fuerza bruta junto con las enseñanzas humanas. Alpha Zero ha dicho; no es tan importante el cálculo como entender de verdad el ajedrez". "Los módulos evalúan la posición en unidades de peón. Alpha Zero valora de una forma más humana. Yo no valoro en unidades de peón. Alpha Zero valora en probabilidad de ganar, valora en torno a patrones y experiencia adquirida”.

"Se trata de una red neuronal que acumula conocimiento de las partidas previas. Le dijeron a la máquina: olvídate de Kaspárov y de Fisher, estas son las reglas del ajedrez, juega contra ti misma y aprende sola y, sorprendentemente, esto dio un resultado fantástico en el juego del Go y posteriormente en el ajedrez. Esto tiene una lectura poética: los humanos no servimos para nada. Deja de contarme lo que habéis aprendido en 500 años, lo aprendo en 4 horas yo sola”. Illescas va más allá. “Nosotros le queríamos forzar a jugar como humanos y las máquinas tienen que pensar como máquinas”.

A la pregunta de si Alpha Zero vapuleó a Stockfish, el Gran Maestro responde: “Vapulear no es la palabra correcta. Stockfish tiene un nivel casi imposible de ganar. Lo que hizo Alpha Zero fue ganarle algunas partidas, lo cual es un logro increíble y no perder casi nunca”. La revista Peón de Rey, editada por Illescas, ha publicado varios números desde el 132 al 141 con estadísticas y partidas analizadas de Alpha Zero en todos los ejemplares.

“Alpha Zero jugó 44 millones de partidas contra sí misma. Cuando ve una posición la compara con las de los 44 millones de partidas y sabe si es buena o mala y qué jugadas son más prometedoras”. Dedica poco tiempo al cálculo pero se basa en una red neuronal con muchas partidas de aprendizaje.

Alpha Zero no tiene conocimientos de ajedrez previos. Pregunto a Illescas si esto significa que todo el conocimiento ajedrecístico puesto en Stockfish es un prejuicio y una desventaja. “Se está demostrando que el conocimiento de los últimos 20 años es muy verdadero y lo maravilloso es que una máquina llegue en pocas horas a las mismas conclusiones que los humanos en siglos de práctica”. Algunas estrategias conocidas han tomado mayor importancia como el avance de peones de torre, el llamado “ataque a la bayoneta”. El vigente campeón del mundo, Magnus Carlsen, está usándolo ahora más desde la llegada de Alpha Zero.

Inicialmente se publicaron 10 partidas que fueron un bombazo, pero hay ya mucho material. Illescas recomienda el libro Game Changer de los GM Matthew Sadler y Natasha Regan. “Los maestros están usando Alpha Zero ya porque hay un programa en código abierto que es LEELA que usa el mismo código que usaba Alpha Zero”

Illescas pronostica que en el futuro se van a usar programas híbridos que usen el conocimiento humano pero piensen por sí mismas. Eso es lo que Illescas hizo con Deep Blue y las aperturas. “Yo no quise darle un libro rígido y permití que consultara la base de datos pero también tomara sus propias decisiones y ahí está el origen de la derrota en la 6ª partida contra Kaspárov”.

“Es una caja negra. Entendemos lo que hace y porqué lo hace pero no sabemos cómo ha llegado a esa conclusión.” Por ejemplo, “usa el ataque a la bayoneta porque en esas 44 millones de partidas ha visto que funciona.”

¿Se resolverá el ajedrez?

“Con la tecnología de silicio es imposible resolver el ajedrez”, dice Illescas evocando la futurible computación cuántica.

El asunto es apasionante porque el ajedrez es aun virtualmente infinito incluso para los mayores supercomputadores. Un ordenador de la potencia de Deep Blue tardaría 853 horas en calcular todas las posibilidades de las primeras cinco jugadas por bando. Curiosamente ha empezado a resolverse por el final. Las tablas de finales de 7 piezas están resueltas. Son las tablas de finales de Lomonosov, en referencia al supercomputador de la Universidad de Moscú que las resolvió en 2012. Añadir una pieza más multiplica el cálculo por 100. La posición más larga para dar mate requiere 545 jugadas (obviando la regla de los 50 movimientos creada para los humanos). Kaspárov comenta en su libro que no entiende lo que hace la máquina durante los primeros 500 movimientos y solo después vislumbra el plan.

“Es como el famoso cuento de los granos de trigo: son progresiones geométricas que hacen inviable resolverlo por ese camino.” “Es más viable resolverlo por el camino del reconocimiento de patrones. Así como el número de partidas es infinito, no es tanto el número de patrones valiosos en ajedrez. Se dice que un GM puede tener 50, 100 o 200 mil patrones. Estas son cifras ridículas para una máquina.” “El camino que está emprendiendo Alpha Zero es ese”. “Que le pongas una posición en la jugada 5 y te diga si está perdida o ganada, lo cual es un poco como resolver el ajedrez”. Illescas recomienda un artículo denominado “Pensó la máquina” en el número 141 de Peón de Rey. En el movimiento 10 la máquina LEELA ya sabe que va a ganar la partida. “El ajedrez está marcando el camino” Deep Learning nos está llevando a situaciones que pueden parecer ciencia ficción pero que pueden ser reales en 20 años. Illescas pone el ejemplo de un juicio en el que, basada en la jurisprudencia, los indicios, los jueces y abogados, la máquina sabe el resultado antes de celebrarse.

2263 es el año en el que siguiendo la Ley de Moore y empezando por los finales y yendo hacia atrás se resolverá el ajedrez según algunos expertos. Illescas opina otra cosa: con esta tecnología basada en patrones se va a saber la verdad del ajedrez en pocos años. “El sentido común dice que la jugada 1 es tablas, el ajedrez bien jugado desde el principio es tablas”. “Me atrevo a decir que el campeón mundial Magnus Carlsen si quiere, hace tablas contra Alpha Zero: cambia todas las piezas y juega sólido y no hay forma de ganarle”.

¿Sigue el ajedrez entusiasmando?

Illescas no lo duda. “Se sigue practicando el atletismo aunque alguien en coche sea más rápido, sigue habiendo halterofilia aunque un robot pueda levantar un peso muy superior”.

Illescas habla de que los desafíos siguen muy vigentes para los humanos. “Cuando hablamos de bueno o malo (aperturas o líneas de juego), hablamos de porcentajes bajísimos”. Y cuenta una sorprendente confidencia: “Me dediqué un tiempo a ganarme la vida jugando al Black Jack en los casinos porque contaba cartas y con eso tenía un 52% a favor”.

“Seguimos jugando al ajedrez. Internet ha sido un revulsivo increíble. Se juega más que nunca. El ajedrez está pasando una fase fantástica, no solamente en su faceta lúdica sino también como herramienta pedagógica”

Los proyectos de Illescas

Illescas está en plena forma y habla apasionadamente de sus proyectos. “Empezamos a vender por Internet antes que el Corte Inglés”, dice respecto a su tienda Ajedrez 21. “Edito la única revista que existe sobre ajedrez en español, Peón de Rey”. El número 132 es gratis. También se dedica a asesorar empresas, dar conferencias, hacer coaching y alguna vez ha entrenado a algún ajedrecista joven.

Pero lo que le apasiona es el ajedrez educativo.

“Llevo 20 años llevando el ajedrez a los centros escolares a través de mi escuela EDAMI” La escuela tiene 2000 alumnos en Barcelona en 60 colegios.

“Yo creo que el ajedrez es una escuela de pensamiento, enseña a tomar decisiones. En cada jugada tienes que tomar una decisión. Muchas veces la posición es mala pero tienes que jugar igualmente, como en la vida. Muchas veces no tienes claro lo que va a pasar, hay incertidumbre, tomas una decisión de forma intuitiva, no puedes calcularlo todo. Creo que es una herramienta fantástica para enseñar a los alumnos a enfrentarse a los problemas, a hacerlo solos, con concentración, con disciplina, a gestionar el fracaso, pero también el éxito, porque entiendes que a veces has ganado por suerte porque estabas perdido, entiendes que puedes aprender algo de cada derrota o que tienes que aprender si quieres mejorar, tienes que enfrentarte a tus demonios, tienes que ver lo que haces peor e intentar mejorarlo, entrenar lo que no te gusta hacer. Creo que hay pocas asignaturas capaces de atrapar al alumno en lo que al fin y al cabo es un juego. Los niños están deseando que llegue la clase de ajedrez porque se lo pasan bien”.

Recorrer el mundo del ajedrez, de la Inteligencia Artificial, que sigue teniendo en él uno de los principales campos de prueba o de la competición es sumamente excitante. Cuando lo haces de la mano del Gran Maestro Miguel Illescas es un placer y un lujo.

“Cuando me preguntaron después del match del 97 si la máquina era inteligente tuve que responder que no porque todo lo que máquina sabía se lo habíamos enseñado nosotros. Sin embargo si me preguntan ahora si estas máquinas entienden ajedrez y son inteligentes tengo que responder que sí”. Miguel Illescas



via Magazine - robotica-e-ia https://ift.tt/2Ok8KSx

jueves, 3 de octubre de 2019

111011

En los servicios de urgencias de Estados Unidos, los pacientes negros reciben un 40% menos de analgésicos que los blancos

via Robótica https://ift.tt/2o0iFSr

miércoles, 2 de octubre de 2019

Esta app dice poder idenfiticar a los inversores que tienes cerca utilizando reconocimiento facial

Esta app dice poder idenfiticar a los inversores que tienes cerca utilizando reconocimiento facial

Imagina que tienes una idea para tu proyecto o startup y andas buscando inversor. Pero en lugar de ir a reuniones o eventos, pudieras reconocer a los inversores con los que te cruzas por la calle para "venderles" tu idea. Suena a capítulo de 'Black Mirror', pero es lo que promete AngelFace, una app capaz de identificar a más de mil inversores del área de San Francisco mediante reconocimiento facial, según sus inversores.

Tosh Velaga e Igor Nefedov están detrás de AngelFace, una aplicación que ya está disponible en la Play Store para dispositivos Android de forma gratuita, por lo que podemos probarla estemos donde estemos.

Curiosamente no era su primera idea: se había presentado a los inversores con un software de reconocimiento facial para identificar a las personas que roban en las tiendas, pero no cuajó al entrañar el riesgo de equivocarse con el potencial infractor.

Así que le dieron una vuelta y acabaron con una aplicación que identifica a potenciales inversores. Porque bueno, asaltar a alguien por la calle para contarle tu idea de negocio siempre será mejor que acusar a alguien sin pruebas.

AngelFace, la app para dar un match con tu futuro inversor

La idea consiste en apuntar con la cámara trasera de tu teléfono móvil al rostro de los viandantes por un segundo, pulsar el botón et voilà, si se produce el match y la aplicación lo reconoce, veremos el perfil de la persona en cuestión, pudiendo acceder a páginas personales como sus cuentas de LinkedIn o Twitter. También podría resultar útil para verificar si ese potencial inversor es quien en realidad dice ser.

Eso sí, el banco de imágenes disponible para comparar no es infinito ni mucho menos, sino que se encuentra en desarrollo para mejorar su precisión y por el momento incluye personas del área de San Francisco. Como detallan en The Verge, Velaga y Nefedov han sido capaces de recopilar más de mil imágenes de inversores de diferentes industrias procedentes de Google Imágenes o de Signal.

No obstante, la idea es que la base de datos de fotografías de inversores vaya creciendo e incorporando nuevas localizaciones, siempre y cuando la legislación permita el reconocimiento facial por la vía pública.



via Magazine - robotica-e-ia https://ift.tt/2oyILeZ

Conozcamos a DeepScale, la startup de visión computarizada que acaba de ser adquirida por Tesla para impulsar sus coches autónomos

Conozcamos a DeepScale, la startup de visión computarizada que acaba de ser adquirida por Tesla para impulsar sus coches autónomos

El pasado 22 de abril, Tesla celebró por primera vez algo que llamaron el "Día de la Autonomía de Tesla", donde Elon Musk dio una gran cantidad de detalles técnicos y novedades acerca de Autopilot. Entre estos anuncios se destacaba el lanzamiento de su super ordenador 'Full Self-Driving' (FSD), que actualmente está instalado en los todos los nuevos Tesla, así como su servicio de taxis autónomos compartidos, o 'robotaxis', que llegaría en algún momento de 2020.

Desde entonces, Tesla se ha enfrentado a un par de problemas tras la salida en mayo de Stuart Bowers, vicepresidente de Autopilot, que a su vez provocó la salida de al menos 11 ingenieros de la división de conducción autónoma de Tesla.

Tras estas salidas, hoy se ha dado a conocer, según información de CNBC, que Tesla adquirió DeepScale, una importante startup centrada en el desarrollo de tecnología de visión computarizada para sistemas de conducción autónoma, la cual llega a complementar la división de Autopilot en la compañía de Elon Musk.

Pero ¿quién es DeepScale? Vamos a ello.

Una empresa con una visión novedosa de cómo los coches deben "ver" el mundo que los rodea

DeepScale es una compañía relativamente nueva con sede en Mountain View, California, que fue fundada en 2015 por el Dr. Forrest Iandola y el Profesor Kurt Keutzer. La compañía nació con el objetivo de desarrollar redes neuronales profundas y eficientes para los sistemas avanzados de asistencia al conductor y los vehículos autónomos.

Lo que hace DeepScale es usar estas redes neuronales en pequeños sensores y procesadores de bajo coste y bajo voltaje, cuya utilidad está pensada para ser instalada en vehículos para mejorar la precisión de sus sistemas de percepción. Estos sistemas de percepción, que se basan en sensores, sistemas de cartografía, planificación y control para interpretar y clasificar los datos en tiempo real, son esenciales para el funcionamiento de los vehículos autónomos. Es decir, estos sistemas permiten a los vehículos "comprender" el mundo que les rodea.

La mayor parte del desarrollo de DeepScale proviene de Forrest Iandola, quien es un informático y empresario estadounidense, egresado de la Universidad de California, Berkeley, con un doctorado en ingeniería eléctrica e informática. Mientras realizaba sus estudios, Iandola desarrolló SqueezeNet, una red neuronal profunda y ligera que se ha implementado en dispositivos móviles empleando cantidades relativamente pequeñas de memoria.

Deepscale

De hecho, el mismo Iandola fue quien confirmó tras actualizar su perfil en LinkedIn y en Twitter, que se unía a Tesla como científico senior de machine learning.

Durante estos cortos cuatro años, DeepScale ha conseguido una inyección de capital por 18 millones de dólares. Esto tras presentar un innovador método que se basa en utilizar sensores y procesadores de bajo voltaje, y supuestamente también de bajo coste, que permiten ofrecer asistencia al conductor y conducción autónoma a vehículos en todos los niveles de precio.

Tesla y su anhelada "conducción autónoma total"

A pesar de que Tesla no ha confirmado la adquisición, dos personas familiarizadas con el acuerdo confirmaron a CNBC que todo el equipo de DeepScale se integraría a la división de Autopilot en Tesla, esto después de que la compañía de Elon Musk había adquirido la empresa. Hasta el momento se desconocen los términos financieros de la compra.

Hoy día los coches Tesla están certificados bajo un nivel de autonomía SAE 2, pero Elon Musk asegura que su hardware está listo para ofrecer un nivel SAE 4, de hecho la reciente incorporación de su super ordenador FSD habría hecho esto posible. Sin embargo, Musk afirma que ahora mismo el problema es el software, aunque garantiza que continuamente estarán mejorando los sistemas hasta alcanzar la automatización completa.

Y aquí es donde entra DeepScale, que podría ser es pieza que le falta ahora mismo a Tesla, ya que hay que recordar que sus coches no usan sensores LiDAR, toda su plataforma autónoma se basa en ocho cámaras, 12 sensores ultrasónicos y un radar. Es decir, Elon Musk busca desarrollar una plataforma de inteligencia artificial que sea capaz de reconocer una amplia variedad de objetos en carretera en condiciones que no son ideales usando el hardware actual. Que es precisamente lo que hace DeepScale.

Tesla Autopilot 1

Todo lo aprendido y desarrollado por Tesla a día de hoy, sumado a los desarrollos de DeepScale, podrían se un buen inicio para dar vida no sólo a la "conducción autónoma total" que busca Elon Musk, sino también la ambiciosa plataforma de robotaxis que piensan lanzar en 2020.

Ahora sólo falta conocer los planes que tiene Elon Musk con DeepScale y cómo piensa aplicarlos en los próximos meses o años.



via Magazine - robotica-e-ia https://ift.tt/2nuFWf7