martes, 31 de mayo de 2022

Valencia, capital europea del 5G

València es, estos días, la capital de la tecnología 5G. En unas jornadas en la Universitat Politècnica se pueden encontrar robots, aplicaciones para conducir con gafas de realidad virtual o experiencias de turismo inmersivo con cámaras de 360 grados. Es una oportunidad para debatir sobre el futuro de la tecnología y descubrir qué se puede hacer con el 5G.



Ver vídeo


via Ciencia y tecnología en rtve.es https://ift.tt/YZdHw91

miércoles, 25 de mayo de 2022

Esta imagen ha sido creada por una IA a partir de un puñado de palabras

La tecnología sigue avanzando a velocidades de vértigo. Si se cumplen las previsiones de analistas y tecnológicas, en unos años soluciones como el metaverso o la web3 pueden transformar radicalmente la forma en la que empleamos Internet y nos relacionamos. Un futuro en el que la inteligencia artificial, sin duda, seguirá teniendo mucho que decir. También en lo que se refiere a la generación de imágenes a partir de texto. Toda una tendencia dentro de este campo. Google ha anunciado la creación de una nueva IA llamada 'Imagen' que es capaz de generar imágenes hiperrealistas a partir de las descipciones escritas de los usuarios. Algo similar a lo que permite la herramienta DALL-E de Microsoft. La imaginación del usuario es el único límite. La herramienta ya es plenamente funcional aunque, al menos, por el momento no está abierta para que todo el mundo pueda utilizarla. Google, no obstante, ha compartido algunos resultados. Entre las imágenes, de gran calidad, se puede ver a dos robots sentados a la mesa con la torre Eiffel de fondo, el retrato de un mapache ataviado como si de un rey se tratase, o a un perro de raza Corgi moviéndose en bici por el centro de Nueva York. Imagen Imagen Para conseguir crear todas estas imágenes, solo fue necesario introducir en el software una breve descripción de apenas un puñado de palabras. Por ejemplo: «Un águila calva hecha de chocolate en polvo, mango y crema batida».No hace falta absolutamente nada más. La inteligencia artificial se ocupa del resto. De acuerdo con el índice DrawBench, elaborado por los investigadores de Google, la IA del buscador comete menos errores y ofrece mejores resultados que el resto de herramientas pensadas para transformar el texto en imágenes. Entre ellas, DALL-E. Problemas de sesgos Por el momento, se desconoce si, en algún momento, el usuario corriente va a poder hacer uso de Imagen. Google señala a este respecto que, en este momento, ha decidido no lanzar el código o una demostración pública debido a «los riesgos potenciales de uso indebido». La empresa también reconoce que Imagen registra algunos problemas. Entre ellos, «codifica varios sesgos y estereotipos sociales, incluido un sesgo general hacia la generación de imágenes de personas con tonos de piel más claros y una tendencia a imágenes que retratan diferentes profesiones para alinearse con los estereotipos de género occidentales». Dicho de otro modo, si un usuario, por ejemplo, escribiese 'empresario' a la hora de emplear la IA, es bastante probable que esta crease una imagen en la que aparece un hombre blanco. En caso de que se optase por poner 'auxiliar de enfermería', el software podría decantarse en la mayoría de los casos por mostrar a una mujer.

via Tecnología https://ift.tt/Rogxm25

Dyson lleva años trabajando en secreto para ir más allá de las aspiradoras. Su futuro son los robots

Dyson lleva años trabajando en secreto para ir más allá de las aspiradoras. Su futuro son los robots

Dyson es conocida por sus aspiradoras, pero su fundador siempre se ha caracterizado por intentar alcanzar cotas mucho más altas. Ahora la compañía británica anuncia que están construyendo el mayor centro de investigación robótica de Reino Unido. Un proyecto en el que llevan años trabajando en secreto y que ahora han decidido anunciar. El mensaje es claro: Dyson quiere convertirse en una marca de robots domésticos.

Para 2030, Dyson quiere llegar a ser conocida como una marca de robots domésticos, dejando atrás sus actuales productos como las aspiradoras de mano, los ventiladores y los secadores. ¿A qué se refieren por robots? Por el momento nos han enseñado varias ideas, entre las que encontramos unos brazos robóticos para limpiar muebles, para recoger platos y una máquina que recoge un osito de peluche, quién sabe si para ordenar la habitación.

Más de 3.200 millones de euros para robótica

Dyson ha explicado en el marco de la Conferencia Internacional sobre Robótica y Automatización (ICRA) que su idea es crear robots autónomos capaces de realizar tareas domésticas. Para ello deberán solucionar los actuales problemas de estos robots, que normalmente son demasiado rígidos para agarrar objetos de la casa. Si Dyson consigue que sus robots sean suficiente hábiles para manejar objetos frágiles, la idea de tener robots en casa podría empezar a ser más viable.

Lavaplatos Dyson

Estos desarrollos se realizarán en el aeródromo de Hullavington (Wiltshire), en un nuevo laboratorio cercano a su actual laboratorio. Durante los últimos seis meses, Dyson explica que ha trasladado un total de 250 expertos en robótica, pero planean una contratación mucho mayor. Según explica la marca, este año contratarán a 2.000 personas, de los cuales el 50% serán ingenieros, científicos y programadores.

Según describen, se trata de la mayor campaña de contratación de su historia y esperan añadir unos 700 expertos en robótica durante los próximos cinco años. Algunos de los campos donde buscan expertos es en visión por ordenador, el aprendizaje automático, los sensores y la mecatrónica.

En total, Dyson plantea una inversión de 2.750 millones de libras en nuevas tecnologías, productos e instalaciones. Esto es, unos 3.230 millones de euros en pivotar la compañía hacia los robots, de los cuales unos 600 millones de libras se gastarán este año.

Estas cifras suponen una fuerte inversión, pero Dyson se enorgullece de sus buenos resultados pese a la pandemia y la crisis de semiconductores. En 2021, sus ingresos se situaron en los 6.000 millones de libras, con unos beneficios de unos 1.500 millones de libras.

Los robots actualmente se utilizan en el ámbito industrial de manera habitual, pero todavía no han logrado irrumpir en el ámbito doméstico. Desde Dyson creen que su estrategia por los robots puede ser un terreno inexplorado y lo consideran una "gran apuesta".

Brazo Dyson

No es la primera vez que la compañía de James Dyson intenta un proyecto mucho más ambicioso que su actual catálogo. Desde 2018 intentaron construir su propio coche eléctrico, invirtiendo unos 560 millones de euros y dedicando unas 400 personas. Si bien, fue una inversión propia del multimillonario británico y no un proyecto de la compañía con un peso tan grande. Esta vez, la apuesta por los robots sí parece mucho mejor definida. Veremos si consiguen desarrollar robots suficiente interesantes para que los consumidores apuesten por meterlos en sus casas.

En Xataka | Qué aspirador sin cable Dyson comprar: mejores recomendaciones en función del uso de los aspiradores verticales de su catálogo



via Robótica e IA - Xataka https://ift.tt/8EPThoq

Quiero ese jersey de la foto: Google Lens se integra en Chrome para ofrecer una búsqueda supervitaminada de imágenes

Quiero ese jersey de la foto: Google Lens se integra en Chrome para ofrecer una búsqueda supervitaminada de imágenes

Google Lens gana terreno. La herramienta visual de la empresa lleva tiempo disponible como aplicación separada en nuestros móviles y poco a poco ha ido cobrando mayor relevancia: ahora Google Lens es parte ya del navegador Google Chrome, y eso significa una cosa: búsqueda supervitaminada de imágenes.

La opción, que se podrá elegir al pinchar con el botón derecho de ratón sobre cualquier imagen, permite realizar búsquedas relacionadas, detectar texto para copiarlo o incluso traducir el texto de la imagen entre distintos idiomas.

Encuéntralo todo en una imagen

La compañía ya había adelantado que estaba trabajando en una característica que permitiera integrar Google Lens tanto en la aplicación de Google en el iPhone como en su navegador de escritorio. Ahora esa promesa se hace realidad, y lo cierto es que la función es llamativa.

Basta con hacer clic con el botón derecho del ratón en cualquier imagen para que entre las opciones disponibles aparezca la de "Buscar imagen con Google Lens".

Captura De Pantalla 2022 05 25 A Las 9 58 40

Eso abrirá un panel a la derecha del navegador en la que aparecerá la imagen y una serie de opciones que permitirán encontrar por ejemplo imágenes similares y relacionadas —Google incluso tratará de encontrar el origen de la imagen—, pero también operar con la información visual de la imagen.

Google además es capaz de adivinar con qué propósito estamos buscando más información sobre cierta imagen. Si elegimos una de un artículo de nuestros compañeros de Trendencias con un nuevo jersey que parece estar de moda, Google Lens muestra dónde comprar jerseys similares.

Captura De Pantalla 2022 05 25 A Las 10 00 41

Lo mismo ocurre por ejemplo si queremos identificar un plato de comida que nos ha parecido sabroso en una mesa en una foto de Instagram, por ejemplo: Google incluso es capaz de que al señalar el recipiente en el que mantenemos el vino frío se nos proporcionen sugerencias para encontrar productos parecidos, aunque aquí los resultados dirigen a tiendas en EEUU.

Captura De Pantalla 2022 05 25 A Las 10 07 00

Así pues, la herramienta se convierte en una singular ayuda para identificar todo tipo de elementos en una imagen y obtener más información sobre ellos.

Su integración en Chrome es desde luego una interesante noticia para los usuarios de este navegador, y queda por ver qué recorrido tiene un Google Lens que va ganando más y más enteros en la estrategia de Google para "organizar la información del mundo y hacerla universalmente accesible y útil", que es el fin último de esta compañía según su mensaje corporativo.



via Robótica e IA - Xataka https://ift.tt/1cKiSXM

Para qué programar un app cuando puedes dibujarla: así funciona la nueva IA "No-Code" de Microsoft

Para qué programar un app cuando puedes dibujarla: así funciona la nueva IA

Ayer se inició el evento Microsoft Build 2022 orientado a desarrolladores, y entre las novedades hubo una especialmente curiosa: un nuevo sistema "No-Code" que permite desarrollar la interfaz de usuario de las aplicaciones no programándola, sino dibujándola.

El sistema forma parte de la plataforma Power Apps, una serie de herramientas para desarrollar aplicaciones sin tener que lidiar apenas con su código —lo que popularmente se conoce como "No-Code"—. La idea es desde luego llamativa, y permite transformar por ejemplo formularios desde el papel en formularios en una aplicación móvil.

No-Code, No-Code, No-Code

Aquel célebre "¡Desarrolladores, desarrolladores, desarrolladores" de Microsoft ha evolucionado un poco desde que un exaltado Steve Ballmer pronunciara esas palabras —el 'mix' que le dedicaron fue también épico—.

Es cierto que el segmento de la programación ha ganado muchos enteros y es ahora una profesión cada vez más reputada y demandada, pero también lo es que cada vez aparecen más herramientas para ayudar a quienes no programan a que comiencen a hacerlo.

Entre ellas están todas las que pertenecen a la programación 'Low-Code' y 'No-Code' que precisamente tratan de facilitar enormemente esa creación de aplicaciones.

Lo último de Microsoft en herramientas 'No-Code' es la función 'Express Design' de la plataforma Power Apps. Con ella es posible dibujar la interfaz de una aplicación incluso en papel y en modo muy básico para luego hacer una foto e importarla en esta herramienta.

A partir de ahí la inteligencia artificial integrada en esa plataforma para desarrolladores es capaz de reconocer el diseño y transformarlo en la interfaz de usuario de una aplicación de forma automática y transparente. Power Apps hace uso de detección de objetos gracias a los Azure Cognitive Services.

El funcionamiento de la función, como puede verse en el vídeo —no os lo perdáis— es realmente sorprendente, y permite que un sencillo formulario dibujado en papel acabe siendo un formulario de una aplicación móvil que luego podemos afinar con diversas opciones de personalización.

Este tipo de solución se une a otras que gracias a la inteligencia artificial han comenzado a ahorrar tiempo y esfuerzo a los desarrolladores en todo el mundo. CoPilot, el sistema de generación automática de código de GitHub, está siendo otro de los éxitos recientes de este nuevo paradigma.

Así pues, aunque ciertamente el desarrollo tradicional de aplicaciones sigue siendo la principal vía de creación de software, estas nuevas plataformas destapan una alternativa llamativa para otro tipo de usuarios y desarrolladores.



via Robótica e IA - Xataka https://ift.tt/SKJTEyo

martes, 24 de mayo de 2022

DALLE-2 ha sido superada: así es IMAGEN, la nueva IA de Google para crear imágenes ultrarrealistas

DALLE-2 ha sido superada: así es IMAGEN, la nueva IA de Google para crear imágenes ultrarrealistas

DALL-E 2 ha sido lo más llamativo en el campo de la inteligencia artificial de los últimos meses. Pero Google no ha dicho su última palabra. Hoy han decidido presentar IMAGEN, su nueva IA capaz de crear imágenes ultrarrealistas a partir de una breve descripción. Una alternativa a la herramienta de OpenAI que, según las pruebas y las investigaciones de Google, consigue unos resultados más precisos.

Al contrario que DALL-E 2, que este verano ha prometido liberar su herramienta a más usuarios, Google ha presentado IMAGEN como una investigación, argumentando que por motivos éticos es mejor que siga sin ser un producto comercial y se mantenga como una herramienta para académicos y expertos.

Llevando el fotorrealismo con IA a nuevas cotas

Descripcion Ia Google

El funcionamiento de IMAGEN es similar al de DALL-E 2. La IA convierte un pequeño texto en una imagen con todo lujo de detalles que coincide con lo descrito. Las combinaciones son casi ilimitadas y en la mayoría de ocasiones, DALL-E 2 conseguía ofrecernos una imagen muy parecida a lo que le pedimos. Ahora Google asegura que ha resuelto algunas de las lagunas de la herramienta de OpenAI y ha logrado generar imágenes que los humanos prefieren.

IMAGEN se basa en el modelo Transformer T5, presentado en 2020. Originalmente la IA produce imágenes de 64 x 64 píxeles, pero luego son escaladas a 1.024 x 1.024 píxeles. La misma resolución que DALL-E 2. Esta idea de escalado es la que permite aliviar la potencia de cálculo y permitir la generación de imágenes en pocos segundos.

Benchmarks

Para comprobar qué IA es la que logra producir mejores imágenes, desde Google han creado el benchmark 'DrawBench'. Según los resultados mostrados por el paper, la IA de Google comentió menos errores de comprensión a la hora de construir la imagen. Un ejemplo lo ponen con "Un panda haciendo latte art". La IA de Google entendió que era el animal quien debía realizar la acción, mientras que DALL-E 2 puso directamente un café con la cara de un panda.

Demo Imagen Gato

Jeff Dean, VP de Google AI, ha publicado en su perfil de Twitter varios ejemplos de lo que es capaz IMAGEN. Adicionalmente, los usuarios tenemos una pequeña demo interactiva de cómo funciona esta IA, pudiendo intercambiar entre distintos animales, ropa, vehículo y fondo.

Lamentablemente Google sigue preocupada por los malos usos de esta IA, algo que también ocurre con DALL-E 2, y por ello ha decidido no ponerla a disposición de los usuarios, por el momento. Pese a todo, es fascinante comprobar cómo la IA está mejorando poco a poco. A este ritmo, quién sabe qué podremos hacer dentro de unos años.



via Robótica e IA - Xataka https://ift.tt/EXgBCoJ

Así son los robots que pueden hablar por nosotros después de nuestra muerte

Los sistemas de aprendizaje automático de máquinas (machine learning) se cuelan cada vez más en nuestras vidas cotidianas, desafiando nuestros valores morales y sociales y las normas que los rigen. Hoy en día, los asistentes virtuales amenazan la intimidad del hogar; los sistemas de recomendación de noticias modelan la manera en que entendemos el mundo; los algoritmos de predicción de riesgo aconsejan a los trabajadores sociales a qué niños proteger de abusos; mientras que las herramientas de contratación basadas en el procesamiento de datos clasifican nuestras posibilidades de conseguir un trabajo. Sin embargo, la ética del aprendizaje automático sigue siendo un ámbito difuso. Buscando artículos sobre el tema para los jóvenes ingenieros que estudian Ética y Tecnologías de la Información y de la Comunicación en la UCLouvain (Bélgica), me llamó especialmente la atención el caso de Joshua Barbeau, un hombre de 33 años que utilizó un sitio web llamado Project December para crear un robot conversacional –un chatbot– que simulara una conversación con su prometida, Jessica, fallecida a causa de una enfermedad rara. Robots que imitan a personas muertas Conocido como deadbot, este tipo de chatbot permitía a Barbeau intercambiar mensajes de texto con una «Jessica» artificial. A pesar de la naturaleza éticamente controvertida del caso, rara vez encontré materiales que fueran más allá del mero aspecto factual y lo analizaran desde una perspectiva explícitamente normativa: ¿por qué sería correcto o incorrecto, éticamente deseable o reprobable, desarrollar un deadbot? Antes de abordar estas cuestiones, pongamos las cosas en contexto: Project December fue creado por el desarrollador de videojuegos Jason Rohrer con el objetivo de permitir a la gente diseñar chatbots con aquella personalidad con la que quisieran interactuar, siempre que pagasen por ello. El proyecto se construyó a partir de una API de GPT-3, un modelo de lenguaje que permite generar texto de forma automática, de la empresa de investigación de inteligencia artificial OpenAI. El caso de Barbeau generó una disputa entre Rohrer y OpenAI, dado que las normas de uso de la empresa prohíben explícitamente que GPT-3 se utilice con fines sexuales, amorosos, de autolesión o de acoso. Tras calificar la posición de OpenAI de hipermoralista y argumentar que las personas como Barbeau son «adultos con capacidad de dar su consentimiento», Rohrer desconectó la versión de Project December basada en GPT-3. Aunque todos tenemos ciertas intuiciones sobre si está bien o mal desarrollar un deadbot de aprendizaje automático, explicar sus implicaciones no es una tarea fácil. Por eso es importante abordar las cuestiones éticas que plantea el caso, paso por paso. ¿Es suficiente el consentimiento de Barbeau? Dado que Jessica era una persona real (aunque muerta), el consentimiento de Barbeau para la creación de un deadbot que la imite parece insuficiente. Incluso cuando mueren, las personas no son meras cosas con las que otros pueden hacer lo que les plazca. Por eso, nuestras sociedades consideran que está mal profanar o ser irrespetuoso con la memoria de los muertos. En otras palabras, tenemos ciertas obligaciones morales relativas a los muertos, en la medida en que la muerte no implica necesariamente que las personas dejen de existir de una forma moralmente relevante. Asimismo, el debate está abierto sobre si debemos proteger los derechos fundamentales de los muertos (por ejemplo, la privacidad y los datos personales). Desarrollar un deadbot que replique la personalidad de alguien requiere grandes cantidades de información personal, como los datos procedentes de sus redes sociales (véase lo que proponen Microsoft o Eternime), que pueden revelar rasgos muy sensibles. Si estamos de acuerdo en que no es ético utilizar los datos de las personas sin su consentimiento mientras están vivas, ¿por qué lo sería tras su muerte? En ese sentido, al desarrollar un deadbot parece razonable solicitar el consentimiento de aquella persona cuya personalidad se imita, en este caso Jessica. Cuando la persona imitada da luz verde Así, la segunda pregunta es: ¿el consentimiento de Jessica sería suficiente para considerar ética la creación de su deadbot? ¿Y si resultase degradante para su memoria? Los límites del consentimiento son, en efecto, una cuestión controvertida. Tomemos como ejemplo paradigmático el caníbal de Rotenburgo, que fue condenado a cadena perpetua pese a que su víctima había aceptado ser comida. En este sentido, se ha argumentado que no es ético consentir ante cosas que puedan ser perjudiciales para nosotros mismos, ya sea físicamente (vender los órganos vitales) o de una forma más abstracta (alienar los propios derechos). En qué sentido puede algo ser perjudicial para los muertos es una cuestión especialmente compleja que no analizaré en detalle. No obstante, cabe señalar que, aunque no es posible causar daños u ofender a los muertos del mismo modo que a los vivos, esto no significa que sean invulnerables a las malas acciones, ni que éstas sean éticas. Los muertos pueden sufrir perjuicios en su honor, reputación o dignidad (por ejemplo, si se lanzan campañas póstumas de desprestigio), y la falta de respeto hacia los muertos también perjudica a sus allegados. Además, tener malos comportamientos hacia los muertos nos conduce a una sociedad más injusta y menos respetuosa con la dignidad de las personas, en general. Por último, dada la maleabilidad e imprevisibilidad de los sistemas de aprendizaje automático, existe el riesgo de que el consentimiento proporcionado por la persona imitada (en vida) no represente mucho más que un cheque en blanco ante su posible evolución. Teniendo en cuenta todo esto, parece razonable concluir que, si el desarrollo o el uso del deadbot no se corresponden con lo que la persona imitada haya aceptado, su consentimiento debe considerarse inválido. Además, si atenta clara e intencionadamente contra su dignidad, ni siquiera su consentimiento debería ser suficiente para considerarlo ético. ¿Quién asume la responsabilidad? Una tercera cuestión es si los sistemas de inteligencia artificial deben aspirar a imitar cualquier tipo de comportamiento humano (independientemente aquí de la discusión sobre si esto es posible). Esta es una preocupación que viene de lejos en el campo de la IA y está estrechamente relacionada con la disputa entre Rohrer y OpenAI. ¿Debemos desarrollar sistemas artificiales capaces, por ejemplo, de ejercer cuidados o de tomar decisiones políticas? Parece que hay algo en estas habilidades que diferencia a los humanos de otros animales y de las máquinas. Por ello, es importante tener en cuenta que instrumentalizar la IA hacia fines excesivamente tecno-solucionistas, como reemplazar a los seres queridos, puede llevar a una devaluación de aquello que nos caracteriza como seres humanos. La cuarta cuestión ética es quién se hace responsable de los resultados de un deadbot, especialmente en el caso de que tenga efectos indeseables. Imaginemos que el deadbot de Jessica aprendiera autónomamente a actuar de un modo degradante para su memoria o que dañara irreversiblemente la salud mental de Barbeau. ¿Quién asumiría la responsabilidad? Los expertos en IA responden a esta resbaladiza cuestión desde dos enfoques principales: unos consideran que la responsabilidad recae en quienes participan en el diseño y el desarrollo del sistema, en tanto que lo hacen de acuerdo con sus intereses y sus visiones del mundo particulares; otros entienden que, como los sistemas de aprendizaje automático dependen necesariamente del contexto, la responsabilidad moral de sus resultados debe distribuirse entre todos los agentes que interactúan con ellos. La primera posición se ajusta más a mis ideas. En este caso, al existir una cocreación explícita del deadbot en la que participan OpenAI, Jason Rohrer y Joshua Barbeau, parece lógico analizar el nivel de responsabilidad de cada parte. En primer lugar, sería difícil responsabilizar a OpenAI tras haber prohibido explícitamente el uso de su sistema con fines sexuales, amorosos, de autolesión o de acoso. Sin embargo, parece razonable atribuir un nivel significativo de responsabilidad moral a Rohrer porque: (a) diseñó explícitamente el sistema que permitió crear el deadbot; (b) lo hizo sin prever medidas para evitar posibles resultados nocivos; (c) era consciente de que incumplía las directrices de OpenAI; y (d) se benefició económicamente de ello. Y, en tercer lugar, dado que Barbeau personalizó el deadbot basándose en rasgos particulares de Jessica, parece legítimo considerarlo corresponsable en caso de que este degradara su memoria. Ético, bajo ciertas condiciones Así que, volviendo a nuestra primera pregunta sobre si es ético desarrollar un deadbot de aprendizaje automático, podríamos dar una respuesta afirmativa bajo la condición de que: 1.- Tanto la persona imitada como la que personaliza el deadbot e interactúa con él den su libre consentimiento ante una descripción lo más detallada posible del diseño, desarrollo y usos del sistema; 2.- Se prohíban los desarrollos y usos que no se ciñan a lo que la persona imitada consintió o que vayan en contra de su dignidad; 3.- Las personas implicadas en su desarrollo y quienes se beneficien de él asuman la responsabilidad de sus posibles resultados (especialmente si son negativos). Tanto de forma retroactiva, para dar cuenta de los hechos ocurridos, como de forma prospectiva, para prevenir activamente que ocurran en el futuro. Este caso ejemplifica por qué la ética del aprendizaje automático importa. También ilustra por qué es esencial abrir un debate público capaz de informar mejor a los ciudadanos y ayudarnos a desarrollar políticas que hagan que los sistemas de IA sean más abiertos, socialmente justos y respetuosos con los derechos fundamentales. Sara Suárez-Gonzalo es investigadora postdoctoral en la Universidad Oberta de Cataluña. Este artículo fue publicado originalmente en 'The Conversation'

via Tecnología https://ift.tt/kLgTvqd

lunes, 23 de mayo de 2022

Hemos probado NVIDIA Maxine: por fin puedes mirar a los ojos al hacer videoconferencias (sin hacerlo realmente)

Hemos probado NVIDIA Maxine: por fin puedes mirar a los ojos al hacer videoconferencias (sin hacerlo realmente)

Hace años un amigo me dijo "no me fío de la gente que no me mira a los ojos cuando hablo". Con las videoconferencias este chico tendría un problema, porque nadie mira a los ojos, o, más bien, a la webcam: siempre parece que estamos mirando a otro lado porque, efectivamente, miramos a la pantalla.

Ahora la plataforma NVIDIA Maxine tiene solución para ello: propone mejoras en el ámbito de las videoconferencias, pero nosotros hemos podido probar una especialmente llamativa: la llamada 'eye contact' que permite que aunque estés mirando a otra parte, tus ojos parezcan estar siempre mirando directamente a la webcam. Es como si mirases a tu interlocutor, y la característica funciona realmente bien.

Mírame cuando te hablo

Te conectas a una videoconferencia y siempre pasa lo mismo: quien habla contigo no te está mirando a los ojos, algo que hace que la conversación no sea tan directa. Tendríamos que mirar todo el rato a la webcam, pero normalmente está situada encima del monitor.

La comunicación es así algo más irreal e indirecta, pero NVIDIA Maxine plantea el uso de la inteligencia artificial para arreglarlo. La compañía lleva tiempo sorprendiéndonos con diversos experimentos que nos pintan fotos mientras hablamos o que generan caras imposibles de distinguir de las reales.

En Xataka pudimos disfrutar de una demo exclusiva de la tecnología: para ello usamos una pequeña aplicación interna ejecutada en un portátil con una webcam integrada —se puede utilizar una webcam externa sin problemas—.

La aplicación muestra una pantalla dividida que en el lado izquierdo registra en todo momento nuestra cara, cómo la movemos y, sobre todo, donde miramos. A partir de ahí la inteligencia artificial hace el trabajo de "crear" por realidad aumentada unos ojos que siempre miran a la cámara.

El efecto es sorprendente. No es perfecto, desde luego, y en ocasiones parece claro que los ojos no acaban de encajar en la imagen de forma precisa, pero en una conferencia normal probablemente sea difícil apreciarlo.

La tecnología de NVIDIA es capaz de emular pestañeos y de "recolocar" los ojos y la mirada cuando vamos mirando a otras zonas e incluso cuando giramos un poco la cara.

En una de nuestras pruebas forzamos un poco la máquina y de hecho miramos fuera de la pantalla para ver cómo se comportaba el sistema, que la mayoría del tiempo se adaptaba sin problemas aunque en algún momento podía haber algún pequeño conflicto.

El funcionamiento general era no osbtante fantástico, sobre todo porque en una videoconferencia lo que hacemos constantemente es mirar a la pantalla, no a la webcam.

Si hacíamos eso en nuestras pruebas, nuestros ojos no aparecían mirando un poco hacia arriba o hacia abajo (que es lo que ocurriría en un escenario sin esta tecnología), sino que aparecían mirando siempre al frente, como si miráramos directamente a los ojos de nuestro interlocutor.

Pudimos probar además una de las pequeñas aplicaciones que se usan de forma conjunta con este desarrollo y que permitía crear la malla de nuestra cara, creando una máscara en la parte derecha que imitaba los gestos y movimientos de nuestra cara.

El seguimiento era también notable, y desde luego demostraba que este tipo de tecnología puede ayudar a hacer que las videoconferencias que cada vez están más presentes en nuestra vida sean más "inmersivas".

Maxine y el futuro de las videoconferencias

Esta demo técnica dejó claro que el funcionamiento de este tipo de tecnología —hablamos de ella en octubre de 2020— es realmente prometedora y plantea ventajas en el futuro de la videoconferencia.

Con esta plataforma se plantean varias mejoras para el futuro de la videoconferencia en forma de SDKs. No hay una aplicación específica de NVIDIA que ofrezca esas opciones, sino que la empresa plantea tres SDKs con efectos distintos para que los desarrolladores puedan aprovecharlos. Son los siguientes:

  • Efectos de audio: estos algoritmos de inteligencia artificial están diseñados para mejorar la calidad del audio y por ejemplo eliminan ruido o el eco de la habitación.
  • Efectos de vídeo: basándose en la entrada de la webcam, se usa aprendizaje profundo para mejorar la resolución del vídeo (Super resolution) o para crear fondos virtuales de calidad.
  • Efectos de realidad aumentada: aquí es donde entra en juego el seguimiento facial o de gestos y poses, y gracias a ello se pueden reconocer los movimientos que hacemos con la boca o los ojos. Entre las características ofrecidas está la creación de una precisa malla para nuestra cara y también la característica de contacto visual ("Eye contact") que hemos podido probar.

La pregunta, claro, es cuándo veremos este tipo de mejoras en nuestro día a día. Tras la demo técnica pudimos disfrutar de una sesión de preguntas y respuestas con Alex Qi, una de las responsables del grupo de Software de Inteligencia Artificial en NVIDIA.

Como nos explicaba Qi, los SDKs están ya preparados para poder ser utilizados por empresas y desarrolladores. Queda por ver por tanto si plataformas como Zoom, Teams o Skype la integran en sus servicios, lo que sería el primer elemento clave para poder disfrutar de esta opción.

El otro requisito —aparte de la webcam convencional, claro— es contar con una gráfica RTX de NVIDIA que permita procesar esos algoritmos de inteligencia artificial, pero en realidad incluso esa parte no sería estrictamente necesaria: el trabajo se puede delegar en centros de datos que serían los encargados de procesar la señal de vídeo para que pudiéramos usar la característica "Eye contact" y el resto en cualquier equipo por modesto que fuese.

Qi nos explicaba cómo en cualquier caso siguen trabajando en mejorar la característica de contacto visual, que desde luego plantea retos: el color de los ojos o el hecho de que el pelo pueda taparnos parte del rostro y los ojos suponen un desafío en algunos escenarios, como también son las condiciones de luz.

Aún así, el software es capaz de trabajar en todas esas condiciones y simplemente hay aquí un trabajo de perfeccionamiento de los algoritmos, que por ejemplo funcionan sin problemas si el usuario usa gafas aunque los reflejos en los cristales de esas gafas —si existen— pueden suponer otro reto para estos algoritmos.

Lo cierto es que el estado de esta tecnología nos hace desear que esté disponible lo antes posible, pero no hay fechas estimadas. Aquel amigo mío, por cierto, estaría de lo más contento.



via Robótica e IA - Xataka https://ift.tt/4bd7yNB

martes, 17 de mayo de 2022

El primer gran barco autónomo ya se desplaza 500 millas sin ayuda humana. Es solo el principio

El primer gran barco autónomo ya se desplaza 500 millas sin ayuda humana. Es solo el principio

Se habla mucho de coches autónomos, pero lo cierto es que esa tecnología está dando muchas mejores noticias en el mar. Un barco de mercancías llamado Suzaku ha logrado completar el primer trayecto comercial y autónomo del mundo, y lo ha hecho gracias a pruebas preliminares y, sobre todo, a un avanzado sistema de inteligencia artificial.

Un éxito prometedor. El barco Suzaku llevaba una carga de 749 toneladas y ha recorrido 491 millas (790 kilómetros) sin intervención humana el 99% de ese trayecto. El viaje, con una duración de 40 horas, tuvo como origen la Bahía de Tokyo y como destino en el puerto de Tsumatsusaka en la Bahía de Ise.

Bienvenida, Orca AI. El secreto de este éxito está en el sistema de inteligencia artificial utilizado en el trayecto. Su nombre es especialmente conveniente: Orca AI, y se trata de un desarrollo que hace uso de diecioho cámaras que proporcionan una visión 360º —pero nada de LiDAR, como dicen en Tesla— con la que es posible ofrecer detección, seguimiento, clasificación y estimación de distancia con otras naves y obstáculos en tiempo real.

El sistema lleva un año siendo entrenado para este trayecto, y eso le permitió atravesar con éxito una de las zonas marítimas con mayor congestión del mundo. Durante su viaje, el barco realizó de forma autónoma 107 maniobras para impedir colisiones, y evitó a entre 400 y 500 barcos.

Una potencial revolución.. Los proyectos que rodean a los barcos autónomos son menos conocidos, pero llevan también tiempo en desarrollo. En 2018 la división marítima de Rolls Royce colaboró con Intel para crear el Falco, un ferry convencional al que añadió ese "kit" de inteligencia artificial para dotarlo de autonomía en la navegación.

El año pasado ya hablamos de los "barcotaxis", y la empresa noruega Yara International también tiene preparado su Yara Birkeland, su primer buque de carga autónomo y, atención, eléctrico. Las ideas aquí son también variadas, y lo demuestra el IBM Mayflower que quiso cruzar el atlántico de forma autónoma y siendo alimentado por paneles solares.

... con retos por delante. Otras empresas como la surcoreana Avikus plantean esa misma revolución, aunque los sistemas, afirman en Nikkei Asia, no están aún preparados para largos trayectos sin algún tipo de asistencia humana. Hay otro problema: la regulación internacional, que debe ser actualizada antes de que esta tecnología se pueda implementar de forma masiva.

La Unión Europea ya contempla ese futuro, y tiene una guía operativa para los llamados Maritime Autonomous Surface Ships (MASS). En ello está también la International Maritime Organization (IMO), la agencia de Naciones Unidas responsable de proteger el medioambiente marino. Este organismo incluso define cuatro niveles de autonomía, similares a los que se usan en coches.

Orca1

Todo son (o parecen ser) ventajas. Según un estudio de Allianz, los accidentes marítimos son provocados en un 75-96% de los casos por errores humanos, y la tecnología de navegación autónoma podría hacer más seguros esos viajes. Además, indica, este tipo de sistemas son capaces de seguir las rutas de navegación de forma más precisa, lo que también ayuda a ahorrar combustible. Y luego está lo otro: se reducirían de forma notable los costes asociados a las tripulaciones, aunque ahí se derive un potencial problema serio por el desempleo que estos sistemas podrían generar.

Vacaciones en el mar. Estos sistemas no solo son muy interesantes para el transporte de mercancías, sino también para los viajes de placer. Se construyen unas 500.000 embarcciones ade recreo al año, y hay por tanto una oportunidad para dotarlas de estos sistemas y permitir que sus propietarios no tengan que invertir tiempo y dinero en sacarse el PER (Patrón de Embarcaciones de Recreo), el popular título para poder navegar con este tipo de naves.



via Robótica e IA - Xataka https://ift.tt/arXhp6Z

miércoles, 11 de mayo de 2022

Inteligencia artificial: así funcionan los robots que usan las empresas para decidir a quién contratar

Los algoritmos y la inteligencia artificial están cada vez más presentes en todos los ámbitos; desde el de la seguridad hasta el de la educación. Según Josep Curto, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universidad Oberta de Cataluña (UOC), su uso también se está generalizando en las empresas. Y la selección de personal no es una excepción. «En el contexto de recursos humanos y, en particular, en la selección de personal, la tecnología puede ayudar a automatizar tareas repetitivas así como mejorar el resto. Lo que se espera es que cada vez tengamos mejores herramientas que soporten el proceso de contratación completo. Desde la creación y publicación de la oferta de trabajo hasta la entrevista de trabajo», explica Curto a ABC. Desde UOC señalan que, desde hace años, grandes empresas como Telepizza, L'Oréal, Unilever, Vodafone o McDonald's utilizan herramientas de IA para mejorar sus procesos de selección de personal. Compañías especializadas en las entrevistas de trabajo impulsadas por esta tecnología, como HireVue, informaron de un aumento de servicios durante la pandemia. Como explica Curto, el uso de algoritmos puede ayudar a automatizar la criba de currículums basados en las características relevantes para el puesto de trabajo, reduciendo la cantidad de candidatos. Estos, después de ser preseleccionados para la entrevista, pueden recibir una invitación automática en la que se realiza segundo filtrado basado en un chatbot (un sistema automatizado que se dedica a realizar preguntas al entrevistado) para, por ejemplo, evaluar el nivel de conocimientos en un dominio determinado. «En la siguiente etapa, con una entrevista en tiempo real o grabada se analizaran las respuestas a las preguntas (y las palabras escogidas), la personalidad, las emociones mostradas,… durante la entrevista para determinar si hay un encaje cultural», apunta el profesor. El peligro de los sesgos Pero ¿cómo funciona esta herramienta basada en aprendizaje automático en una entrevista de trabajo por vídeo? Los expertos afirman que se tiene en cuenta lo que decimos, cómo lo decimos y cómo es nuestra respuesta corporal. Para empezar, el algoritmo analiza las preguntas predefinidas e identifica aspectos clave de las respuestas. Es decir, transforma el audio en texto, lo analiza, lo clasifica, extrae contenidos y asigna una valoración. Además, escanea los gestos faciales para identificar emociones y reacciones, y algunas preguntas se vinculan a evaluar la personalidad del candidato. Por último, puesto que se deben medir otras competencias, el proceso de selección puede combinarse con otros mecanismos, que pueden incluir ludificación, test o ejercicios, lo que permite evaluar esas competencias (por ejemplo, pensamiento crítico, analítico o computacional) y asociarlas a los resultados de la entrevista. Con todo, Curto alerta de que, como cualquier tecnología, la IA también puede cometer errores. Incluso discriminar a candidatos plenamente capacitados para el puesto de trabajo que se oferta. «Estos sistemas no son infalibles, se fundamentan en patrones históricos. Y como ya hemos comentado existen diferentes tipos de sesgos. No es suficiente con desplegar la tecnología, también hay que asegurarse de que las decisiones tomadas son las correctas y comprendemos las razones detrás. En este punto, muchas empresas están atrasadas y, otras que parecen más avanzadas, no lo están tanto puesto que es un aspecto sumamente complicado», dice el profesor. Curto remarca que «descartar a una persona adecuada para el puesto por un error puede tener múltiples impactos: la decisión no será justa para el candidato, la empresa pierde la oportunidad de contratar a la persona adecuada, y, cuando la regulación este en marcha y si la empresa no tiene mecanismos de gestión de este tipo de riesgos, potencial exposición a multas en el caso de demostrar que hay discriminación».

via Tecnología https://ift.tt/RMZWqlJ