martes, 30 de agosto de 2022

Francia llevaba años buscando piscinas privadas no declaradas. Hasta que se topó con la inteligencia artificial

Francia llevaba años buscando piscinas privadas no declaradas. Hasta que se topó con la inteligencia artificial

En Francia las autoridades han utilizado un software de inteligencia artificial para descubrir miles de piscinas privadas que no habían sido declaradas como tales y que han hecho que sus propietarios hayan tenido que pagar impuestos por ellas. En España ya había habido iniciativas similares en el pasado.

Esa piscina no estaba ahí. El sistema desarrollado por Capgemini usó imágenes aéreas de Google y también del Instituto Nacional de Información Geográfica y Forestal (IGN) para compararlas con el catastro francés y detectar así piscinas no declaradas. El experimento, lanzado hace un año en nueve departamentos (el equivalente a nuestras provincias) franceses, ha descubierto 20.356 piscinas privadas, y este éxito ha hecho que el programa vaya ahora a extenderse al resto del país.

A pagar tocan. Esas modificaciones en las propiedades privadas deben ser declaradas a las autoridades competentes en los 90 días siguientes a ser completadas. Y dado que son mejoras, el impuesto sobre bienes inmuebles (IBI) se incrementa para los propietarios que realizan tales modificaciones.

No solo pagas por piscinas. Una piscina que por ejemplo tenga una superficie de 30 metros cuadrados plantea un incremento de unos 200 euros al año. El descubrimiento de esas miles de piscinas ha hecho que en total el fisco francés recaude casi 10 millones de euros. Las piscinas desmontables no cuentan, por ejemplo, pero sí aquellas que plantean una obra civil, como también sucede con otras estructuras como pérgolas permanentes.

El sistema no es perfecto. Aunque la solución desarrollada con la ayuda de inteligencia artificial ha realizado un gran trabajo, no es ni mucho menos perfecta. Como señalaban en la exclusiva de Le Parisien, "a veces la IA confundía las lonas azules con piscinas registraba las piscinas sobre el suelo o se olvidaba de ellas [...]". Según los expertos, la tasa de error ronda el 30%.

Cuidado: en España Hacienda también vigila. Nuestro país lleva años persiguiendo este tipo de actividades y detectando piscinas no declaradas. Hacienda no parece usar inteligencia artificial, pero sí se aprovecha la tecnología de los drones o también vuelos fotogramétricos que se realizan de forma periódica. En esos vuelos se capturan imágenes digitales del terreno y se comprueban irregularidades urbanísticas al compararlas con datos del Catastro.

Regularización catastral. Este tipo de procesos se iniciaron en 2013 y en cinco años se detectaron irregularidades en cerca de dos millones de viviendas, aunque en muchos casos los propietarios protestaron. Se detectaron 100.000 piscinas construidas y no declaradas, y solo en Madrid se descubrieron 11.500, aunque por supuesto los casos se repiten por toda la geografía española.

Sin multa, pero con incremento del IBI.  Aunque no se impone una sanción, los propietarios deben abonar una tasa de 60 euros por cada inmueble por regularizar, además de pagar el IBI con el incremento de valor aplicable en cada caso, además de los atrasos en los pagos del gravamen de un máximo de cuatro años. Al igual que ocurre en el caso francés, hay excepciones como piscinas hinchables o pérgolas desmontables, pero si has realizado alguna mejora permanente y no la has declarado —puedes hacerlo en el Catastro—, puede que este tipo de procesos acaben detectándola.

Imagen | Bruce Christianson



via Robótica e IA - Xataka https://ift.tt/GSjlmPy

Hay quien está combinando la IA StableDiffusion con Photoshop. El resultado es estupendo

Hay quien está combinando la IA StableDiffusion con Photoshop. El resultado es estupendo

Los programas de inteligencia artificial (IA) que nos permiten generar imágenes a partir de descripciones textuales se están convirtiendo en una herramientas creativa de gran valor. Durante los últimos meses nos hemos maravillado (y divertido) con las creaciones de Craiyon, DALL-E 2, Midjourney y StableDiffusion, por mencionar algunos ejemplos, pero es ahora cuando empezamos a ver un uso más complejo.

Hay quien está combinando el potencial de estos programas de generación de imágenes de IA con otras herramientas para hacer un trabajo estupendo. William Buchwalter, un exingeniero de Machine Learning de Microsoft Research ha utilizado las capacidades generativas de StableDiffusion con un complemento de Photoshop llamado Alpaca para crear una sorprendente "pintura digital" con su ordenador.

IA's, creatividad y desafíos

Buchwalter no es dibujante ni ilustrador digital. De hecho, confiesa que no sabe utilizar una tableta de dibujo. Sin embargo, sí parece tener la habilidad para que el generador de imágenes elegido sea capaz de producir exactamente lo que él quiere. En lugar de dibujar "una casa sobre una colina", este joven se lo pide a StableDiffusion. Lo mismo hace con, por ejemplo, "una pequeña granja" y otras cosas que imagina.

A medida que en generador de imágenes va haciendo su trabajo, Buchwalter se encargada de ir ubicando las imágenes en diferentes partes de un lienzo de Photoshop y, utilizando sus habilidades de edición, se encarga de combinarlas. ¿El resultado? Una creación completamente nueva que las habilidades humanas o StableDiffusion independientemente no habrían sido capaces de generar.

El artista Martin Nebelong es otro de los interesados en explorar y explotar las capacidades de las nuevas herramientas de generación impulsadas por IA. En su caso, sí aplica técnicas de dibujo, pero también utiliza StableDiffusion, pero con una plataforma de arte colaborativo llamada Artbreeder. Algunos de sus trabajos más recientes se pueden ver en su perfil de Twitter, como el que incluimos a continuación.

Con este tipo de posibilidades emergiendo con fuerza, tengamos en cuenta que estos son tan solo unos pocos ejemplos, surgen diferentes opiniones. Hay quienes se muestran a favor, y aseguran que las nuevas herramientas ayudarán a democratizar la la narración visual, otros se lamentan por haber estudiado arte, quizá temiendo que en el futuro sean las máquinas las que hagan su trabajo.

Pero no es el único dilema con esta cuestión. Un punto clave que también hemos explorado aquí en Xataka tiene que ver con los derechos de autor de las imágenes. Las IA's utilizadas para la generación de imágenes han sido entrenadas con enormes conjuntos de datos provenientes de Internet que pueden incluir trabajos de fotógrafos profesionales e ilustradores digitales.

¿Estamos frente a problemas de copyright? ¿Qué pasa con las imágenes combinadas? La Organización Mundial de Propiedad Intelectual (OMPI) señala que solo las personas pueden ser autoras de obras creativas. Entonces, como una IA no es una persona no habría infracción. Sin embargo, estas organizaciones están considerando adaptar sus normas a estos nuevos tiempos donde los generadores de imágenes adquieren un rol cada vez más protagónico.

Con el paso del tiempo veremos qué rol ocuparán estos sistemas de generación imágenes y se convertirán en la norma para las futuras creaciones de arte. Lo cierto es que la inteligencia artificial está avanzando a pasos agigantados. ¿Hubieras imaginado un escenario así hace un par de años? Posiblemente no. A este ritmo, lo más sorprendente todavía podría estar por venir.

En Xataka | Las IA tienen un problema: son opacas y cerradas. BLOOM es el gran proyecto open source que quiere cambiarlo todo



via Robótica e IA - Xataka https://ift.tt/4VS8mGx

martes, 23 de agosto de 2022

Un nuevo (e impresionante) generador de imágenes por inteligencia artificial está disponible: StableDiffusion

Un nuevo (e impresionante) generador de imágenes por inteligencia artificial está disponible: StableDiffusion

Estamos presenciando en directo la evolución de los generadores de imágenes impulsados por inteligencia artificial (IA). No solo hay cada vez más propuestas de este tipo, sino que muchas de ellas están traspasando la barrera de la investigación, llegando a estar disponibles para todos los usuarios. Hace poco más de un mes se anunciaron las betas abiertas de Midjourney y DALL-E 2. Ahora es el turno de StableDiffusion.

Puede que no hayas oido hablar de StableDiffusion, pero se trata de un modelo difusión capaz de generar imágenes fotorrealistas a partir de cualquier texto desarrollado por una startup llamada Stability AI junto a investigadores de la Universidad de Heidelberg (Alemania). Las imágenes que genera esta alternativa tienen un nivel de detalle impresionante, y se asemejan más a DALL-E 2 que a otras propuestas como Midjourney, cuya esencia es más artística y menos realista.

StableDiffusion, disponible para todos

Al igual que otras propuestas, StableDiffusion fue entrenada con datos provenientes de Internet. En este caso se utilizó LAION-Aesthetics, un conjunto con millones de imágenes filtradas y clasificadas por IA con el que le enseñaron al modelo a aprender las asociaciones entre conceptos escritos e imágenes. Desde la compañía afirman que si bien esta técnica es muy efectiva, está expuesta a "los sesgos sociales y el contenido no seguro disponible en la red", por lo que piden que sea usada responsablemente.

Después de estar disponible inicialmente para colaboradores del proyecto e investigadores seleccionados, ahora todos pueden acceder a StableDiffusion. La versión estable está disponible a través de DreamStudio, un front-end y una API de pago. La buena noticia es que el registro es gratuito, y al iniciar sesión recibes 200 créditos para la generación de imágenes. Aunque, eso sí, 1 crédito no siempre equivale a una imagen. Veamos.

Al ingresar a DreamStudio encontrarás una interfaz sencilla y amigable. Para generar una imagen simplemente debes introducir el texto deseado (en inglés) en el cuadro con la leyenda "I want to dram of..." y ajustar el ancho de la imagen, la altura, y otros parámetros de generación. A medida que muevas los controles aumentará o disminuirá la cantidad de créditos que tendrás que pagar.

Dreamstudio 2

En nuestra prueba, por ejemplo, hemos pedido "una metrópolis futurista, con coches voladores y rascacielos de cristal", con los ajustes que puedes ver en la captura de pantalla. DreamStudio ha "cotizado" su trabajo en 11 créditos. Nos ha parecido bien, hemos hecho clic en Dream y ha arrojado la imagen superior. Pero esta no es la única opción disponible.

Stablediffusion 12

La compañía también ha liberado públicamente una demostración que es mucho más fácil de utilizar. En este caso solo debes introducir el texto y hacer clic en Generate image. Aquí hemos probado con "un día soleado con una casa con un enorme jardín", y el resultado ha sido bastante realista. Como podemos ver se trata de una herramienta más para dar rienda suelta a nuestra creatividad y evaluar el progreso de estos sistemas.

Cabe señalar que los creadores de StableDiffusion aseguran que seguirán trabajando para mejorar las capacidades del modelo, entre ellas las capacidades para eliminar resultados no deseados. Más adelante lanzarán una versión que podrá ejecutarse de manera local. Aunque eso sí, necesitará como mínimo tarjetas gráficas como la Nvidia GeForce GTX 1660.

Si te parece que hay muchas IA's disponibles y no sabes por dónde empezar, te recomendamos ver este interesante hilo de Twitter del investigador Fabian Stelzer, que ha comprado los resultados de DALL-E 2, Midjourney y Stable Diffusion.

En Xataka | Las IA tienen un problema: son opacas y cerradas. BLOOM es el gran proyecto open source que quiere cambiarlo todo



via Robótica e IA - Xataka https://ift.tt/bRGsJuX

lunes, 22 de agosto de 2022

ILIFE L100, review y súper promoción

Volemos por Actualidad Gadget con el accesorio por excelencia cuando hablamos de limpieza en el hogar. Son ya varios los robots de aspirado autónomo los que hemos podido revisar. En esta ocasión hemos podido usar durante algunos días el ILIFE L100, y a continuación os lo contamos todo sobre él.

La experiencia de haber podido probar varios gadgets de este tipo resulta esencial para poder hacer una recomendación. Tampoco es el primer dispositivo de la firma ILIFE que hemos podido probar en los últimos años, incluso en éste 2.022 ya pudimos hacer review del ILIFE A11. Una firma que sigue ofreciendo alternativas que consiguen hacernos más fácil la limpieza doméstica.

ILIFE L100, el aspirador que buscas

¿Conoces a alguien que le guste limpiar? Por este motivo los aspiradores autónomos tienen tanto éxito. Un producto que llegó no hace mucho, pero que lo hizo para quedarse. Poder limpiar nuestra vivienda a través de una App, y que la casa esté limpia cuando volvamos a casa del trabajo es para muchos un sueño hecho realidad.

Entre las tareas del hogar, la limpieza es de las más odiadas, sobre todo para los que por circunstancias tenemos menos tiempo libre. Tener la vivienda limpia es importante para sentirnos a gusto en ella, pero quitarnos tiempo de disfrute para limpiar no gusta nada. La ILIFE L100 nos ofrece la posibilidad de contar con una limpieza excelente en casa sin que nos tengamos que quitar tiempo de otra cosa.

Hazte ya con la ILIFE L100 en Aliexpress con descuentazo del 59% del 22 de agosto al 26 de agosto

Diseño de la ILIFE L100

El diseño de los aspiradores autónomos sigue una línea muy parecida desde su aparición en el mercado. Pero si encontramos una notable evolución técnica en las prestaciones que nos ofrecen, así como en los acabados de la limpieza o en la potencia de succión o el ruido que emiten. El aspecto que muestran se parece mucho al del primer aspirador de este tipo que vimos en el mercado, y esto tampoco es algo que importe mucho.

Fijándonos más en detalle, sí podemos destacar que los materiales usados y los acabados también han mejorado mucho, y esto es algo que salta a la vista. En el caso del ILIFE L100 encontramos material plástico flexible y bastante resistente, en esta unidad en color blanco brillante. Se combinan el color blanco con tonos metalizados y el negro también brillante en algunos componentes.

Mirando la parte frontal, encontramos una parte en color negro, tras la que se esconden sensores de proximidad y láser de detección de obstáculos u objetos de menor tamaño. En la parte trasera se encuentra el depósito de sólidos, que podremos reemplazar con un sólo click. En el lateral se ubica el interruptor de encendido y apagado.

En la parte superior se encuentra el módulo donde se ubican los láser, desde donde se realiza el mapeo de las estancias que irá limpiando a la vez que memoriza. Con un acabado en color acero brillante muy elegante que ofrece un aspecto premium. También encontramos en la parte superior un botón físico desde el que podremos activar el aspirado o detenerlo en cualquier momento de forma manual.

En la parte inferior encontramos el cepillo central con la parte de aspirado. A sus extremos, las ruedas laterales con amortiguador que se adaptan de maravilla a las imperfecciones del suelo, o a cualquier alfombra con la que se tope. Por delante la rueda de giro sobre la que pivota cuando se mueve. Y por detrás del cepillo, el depósito intercambiable para la suciedad o para el agua.

¿Crees que ha llegado el momento de hacerte con un aspirador autónomo? Aprovecha la ocasión y compra ya tu ILIFE L100 en Aliexpress con descuento de hasta el 59%. Sin duda una oportunidad que no deberías dejar escapar.

Unboxing de la L100

Abrimos a caja para contaros todos los elementos que encontramos en su interior. Además del propio robot aspirador, son varios los accesorios con los que llega equipado. Lo más importante, la estación de carga con adaptador de corriente, que llega combinando el mismo color blanco con el negro, ambos en brillo. También contamos con un mando a distancia muy completo y funcional.

Para la limpieza, cuenta con cuatro cepillos laterales, es decir, dos de repuesto. Dos cepillos tipo rodillo, dos paños de micro-fibra y otros dos filtros HEPA. Y además de un manual de usuario, también tenemos dos depósitos, uno para polvo de 450 ml, y otro para líquidos de 300 ml.

Todo lo que ILIFE L100 nos ofrece

La capacidad de la L100 de realizar el mapeo láser de la estancias y la perfecta navegación son dos de los aspectos a destacar. Ya no encontramos en el mercado aspiradores que rebotaban contra los muebles para «saber» hasta donde llegar aspirando. La L100 «aprende» cómo es tu casa, memoriza las estancias y las formas de los muebles, y realiza su trabajo de la forma más sutil adaptándose sin problemas a cualquier tipo de pavimento.

Una vez realizado el mapeo completo de la vivienda, podremos configurar la limpieza por zonas. Podremos elegir por donde empezar y por dónde terminar. Elegir la limpieza sólo de una de las estancias. O si lo deseamos, seleccionar una zona donde no debe de entrar a limpiar. Incluso podremos programar distintas zonas a distintas horas, en función de nuestras necesidades.

💰 Compra la ILIFE L100 en Aliexpress con casi un 60% de descuento

En función del acabado deseado, o de la suciedad que tenga la superficie a limpiar, podremos seleccionar hasta tres modos distintos de actividad que van de más suave a más potente. No habrá rincón que se resista gracias a los dos cepillos extras que se instalan en la parte frontal.

La L100 de ILIFE cuenta con una potencia de succión de hasta un máximo de 2000 Pa. Sin duda más que suficiente para que nuestra vivienda luzca limpia por cada lugar que pase la L100. Cuenta con una autonomía de hasta 100 minutos de trabajo continuo, sin duda más que suficiente para una limpieza completa de una vivienda convencional. Un robot aspirador que aspira y friega gracias a su depósito para líquidos con mopa, y lo hace de forma eficiente sin dejarse ni un centímetro del suelo, y que no sufrirá daños por golpes ni caídas gracias a los avanzados sensores infrarrojos.

Está bien que además de poder usar la ILIFE L100 mediante la App, también podamos programarla y usarla con el mando a distancia que encontramos en la caja. Incluso con el botón físico que se ubica en su parte superior podremos iniciar, pausar o dar por finalizada la limpieza de forma manual.

Tabla de prestaciones técnicas de la ILIFE L100

Marca ILIFE
Modelo L100
Limpieza con agua SI
Depósito sólido 450 ml
Depósito líquido 300 ml
Filtro HEPA SI
Dimensiones 330 X 320 X 95 cm
Peso 2.65 kg
Wifi 2.4 GHz
Navegación Láser LDS
Potencia de succión 2000 Pascales
Nivel de ruído 50/65 db
Autonomía 100 minutos
Precio  254.28
Enlace de compra ILIFE L100

Pros y Contras

Pros

Navegación con Láser LDS con exactitud.

Limpieza en seco y húmedo con excelentes acabados.

Autonomía de hasta 100 minutos.

Pros

  • Navegación LDS
  • Limpieza fregado
  • Autonomía

Contras

Hace ruido por encima de lo que esperábamos, sobre todo cuando trabaja al máximo de potencia.

La potencia de succión, sin estar mal, es mejorable.

Contras

  • Ruído
  • Potencia

Opinión del editor



via Actualidad Gadget https://ift.tt/IajgqJ0

jueves, 18 de agosto de 2022

Este robot humanoide tiene una tablet por cabeza y una Raspberry Pi para darle vida

Este robot humanoide tiene una tablet por cabeza y una Raspberry Pi para darle vida

Si te sobran 2.000 euros y te gusta la robótica, hay un proyecto bajo el nombre de MyBuddy 280 que te puede interesar. La compañía Elephant Robotics ha comercializado su primer robot de doble brazo, alimentado por Raspberry Pi, con una pantalla de 7 pulgadas por cabeza y con una cantidad de aplicaciones bastante amplia.

Pequeño, completo y de código abierto

Tg Image 694853929

El MyBuddy Robot 280 es un robot humanoide con doble brazo independiente, desarrollado por Elephant Robotics. Cada brazo tiene una carga útil de 250 gramos, su radio de giro es de 360 grados y la interacción con el robot se realiza mediante una tablet de 7 pulgadas. Su corazón es una Raspberry Pi 4B, acompañada por 2 GB de RAM DDR4.

Las capacidades de este robot son prácticamente todas las que podamos programarle. Sus dos brazos independientes dan mucho juego

Respecto a sus aplicaciones, se prometen múltiples. El robot se plantea como una alternativa en el ámbito educativo, con más de 100 interfaces de control, herramientas para desarrollo de otras aplicaciones de IA, etc. Soporta lenguajes como Python, C++, Arduino, C#, JS y más.

robot

No le faltan capacidades para un entorno de desarrollo visual, ya que cuenta con dos cámaras HD capaces de reconocer objetos, códigos QR, reconocimiento de cara y cuerpo, etc. Esto permite al robot interactuar de forma más sencilla con elementos de su entorno, al poder verlos mediante la cámara.

Es también posible controlarlo mediante dispositivos VR. Con unas gafas y un par de joystick podemos hacernos con los brazos del robot y movernos como si fuéramos uno. El precio del robot es de 1.964,95 euros, un importante desembolso para un robot con bastante jugo para exprimir.



via Robótica e IA - Xataka https://ift.tt/5UiMoTl

domingo, 14 de agosto de 2022

El filete de "Matrix" siempre fue real: reflexiones filosóficas y metafísicas sobre el Metaverso

El filete de

Camino por un precioso jardín. El cielo es profundamente azul y hay un sol radiante en lo alto, pero no hace nada de calor. La temperatura es perfecta. De fondo suena una deliciosa melodía de Bach. Camino sin cansarme, como si viajara en patinete o levitara.

Me cruzo con gente. Todos son muy hermosos. Llevan vestidos muy coloridos y variopintos. Veo a un samurái junto a una dama del siglo XVII. Un enano disfrazado de Spiderman pasea charlando con un centauro.

Me cruzo con una chica gigantesca que mide más de tres metros. Me mira. Tiene el rostro más bonito que yo jamás haya visto. Sus ojos son violetas y tiene la cara llena de pecas iridiscentes. Me sonríe y siento hacia ella una atracción irresistible. Sus dientes blancos como perlas me hacen sentir igual que si una ola de mar fresca y brillante como el oro me golpeara en la cara. Se marcha y yo me quedo en shock. ¿De dónde habrá sacado un filtro tan potente?

Vuelo. Subo lentamente como un helicóptero silencioso. Veo el mundo desde muy arriba y es maravilloso. Al este veo la Roma imperial en su máximo esplendor. Hoy a lucha de gladiadores en el Coliseo. Al norte está el Abismo de Helm en plena batalla de Cuernavilla. Las huestes de Saruman están asediando duramente la fortaleza. Un terrible nâzgul pasa a mi lado volando en su horrenda bestia alada.

Para mi sorpresa, varios cazas imperiales de Star Wars se unen a la batalla. Parece que al emperador Palpatine también le interesa conquistar el Abismo de Helm. ¡Qué diablos! ¡Voy a unirme! Me transformo en un Cylon de Battlestar Galáctica pilotando un Raider Mark 1. Disparo y la ráfaga hace estragos entre los guerreros de Rohan.

Pero ¡cuidado! ¡Dos spitfires británicos de la Segunda Guerra Mundial se ponen a mi cola! ¿Ha declarado la guerra Churchill al imperio? Sus disparos atraviesan el fuselaje y derriban mi nave. Pero moriré matando: me estrello contra una de las principales torres del castillo en una formidable explosión.

No, no estoy soñando. Es el Metaverso.

Me quito las gafas VR y vuelvo a la realidad. Mi nombre es Paco García y tengo treinta y seis años. Vivo con mi anciana madre en un minúsculo apartamento a las afueras de Madrid. Peso ciento cuarenta kilos y trabajo de jornada partida seis días a la semana en una conocida cadena de hamburgueserías.  Mi madre me llama. Dice que le ayude a buscar su dentadura postiza…

Vuelvo a ponerme las gafas.

Ese filete es tan real como la vida

Mi escena favorita de Matrix (1999) es la de la traición de Cifra. En un lujoso restaurante, uno de los miembros de la resistencia humana en la guerra contra las máquinas, Cifra (interpretado por Joe Pantoliano), conversa con el agente Smith (Hugo Weaving), un programa diseñado, precisamente, para ejecutar inmisericordemente a todo miembro de la resistencia.

— ¿Sabes? Sé que este filete no existe, sé que cuando me lo meto en la boca es Matrix la que le está diciendo a mi cerebro: es bueno y jugoso. Después de nueve años, ¿sabes de qué me doy cuenta? — Cifra saborea gustosamente el trozo de filete — La ignorancia es la felicidad.

— Entonces, tenemos un trato.

— No quiero acordarme de nada. DE NADA ¿Entendido? Y quiero ser rico… No sé… Alguien importante, como un actor.

— Lo que usted quiera, señor Reagan.

— Está bien, devuelve mi cuerpo a una central eléctrica, reinsértame en Matrix y conseguiré lo que quieras.

— Los códigos de acceso al ordenador de Sión.

— No, te lo dije, yo no los conozco. Te entregaré al que los conoce.

— Morfeo.

Cifra está negociando el precio de una terrible felonía: va a entregar al líder de la resistencia a sus enemigos, y lo hace de una forma muy inteligente. Subraya que no quiere acordarse de nada. Él volverá a Matrix sin recordar su malvado acto, regalándonos un bonito juego filosófico: ¿tendría el nuevo Cifra que cree que es un rico actor la culpa de lo que hizo el antiguo Cifra?

A bote pronto, diríamos que sí, pero veámoslo de la siguiente manera: supongamos que ahora aparece Neo en el salón de nuestra casa muy enfadado con nosotros. Le preguntamos que por qué está así y nos dice que nosotros somos Cifra, que nuestra traición tuvo éxito y que Morfeo es ahora rehén de las máquinas. Le respondemos que no sabemos nada de eso, que no recordamos haber hecho algo así, que somos buenas personas que siempre hemos llevado vidas normales…

¿Seríamos responsables entonces de la traición? A lo mejor somos verdaderamente Cifra.

El caso es que Cifra fue muy listo subrayando la petición de no querer recordar nada. Si su maquiavélico plan hubiera tenido éxito, él nunca se hubiese sentido culpable por nada, incluso podría haber muerto feliz pensando que fue una buena persona durante toda su vida de actor famoso ¿Habríamos hecho nosotros lo mismo? ¡No! ¡Por Dios que no! No traicionaríamos a nuestros amigos. Rebajemos entonces un poco el asunto. Supongamos que no tenemos que traicionar a nadie.

El agente Smith nos ofrece gratuitamente el mismo premio. Piensa que no es un mal trato porque al reintegrarnos en Matrix, al menos, se está quitando a un miembro de la resistencia del medio.

Agente Smith Gafas

Cifra no se cree el rollo del elegido, no cree que se vaya a ganar la guerra contra las máquinas. Además, está enamorado de Trinity pero ésta no le corresponde. ¿Qué sentido tiene su vida en el mundo real? ¿Por qué entonces no elegir una segunda oportunidad en el mundo virtual? Podríamos seguir negándonos: ¡No! ¡Por Dios que no! La vida en Matrix no sería una vida real, sería un simulacro, un engaño… ¡Queremos vivir una vida auténtica!

¿Pero por qué la vida en Matrix no es auténtica?

Pensemos en el filete que Cifra degusta con gran deleite ¿Qué diferencia existe entre comerse un filete real y un filete digital? Si la simulación del sabor está perfectamente conseguida por el programa de realidad virtual, la única diferencia es la causa del efecto. Al comerme el filete real, es ese filete el que causa el sabor, mientras que cuando nos comemos el virtual, no es el filete real, sino un conjunto de bits digitales. La cuestión crucial es: si el sabor, que es lo que realmente nos importa cuando comemos un filete, es el mismo, ¿qué más da cual sea la causa?

El filósofo norteamericano Robert Nozick propuso en 1974 una interesante versión de este dilema: la máquina de experiencias. Nozick nos invita a que imaginemos que existe una máquina de realidad virtual tipo Matrix que nos otorga todos los placeres que deseemos. La máquina puede simular con realismo absoluto cualquier situación que podamos imaginar. Y entonces se nos pregunta: ¿elegiríamos una vida dentro de la máquina o una vida en el mundo real?

Metaverso Everest
Et tu, Brute?

El propósito de Nozick era mostrar que el hedonismo, que la finalidad de nuestra vida sea únicamente la búsqueda del placer, es insuficiente. No solo queremos tener una vida placentera, también queremos que sea real.  Así, aunque el filete que saborea gustosamente Cifra sabe exactamente igual que uno real, en el fondo, no nos satisface de la misma forma. Hay en nosotros un deseo de realidad, un deseo de autenticidad, de verdad.

Pensemos en alguien cuya meta es subir al Everest. ¿Le satisfaría igual hacerlo en una simulación informática, por muy indistinguible que fuera ésta de la real? De ninguna manera. El que quiere subir al Everest quiere subir al monte Everest, situado en la cordillera del Himalaya, entre China y Nepal, y no en un servidor en la nube. No Cifra, no queremos tu vida porque sabemos que, en el fondo, es de mentira.

Supongamos que el proyecto del vilipendiado señor del mal, Mark Zuckerberg, llega a buen puerto, y en pocos años tenemos algo tan fabuloso como el Oasis de la Ready Player One de Spielberg. Pensemos que muchas personas pasarían la mayor parte del tiempo en esa fastuosa realidad virtual, descuidando su vida real, llegando incluso a menospreciar su vida auténtica, prefiriendo la digital. Muchos desaprobarían esa conducta: ¡Prefiere una vida falsa a la vida real! ¡Paco, quítate ya esas falsas gafas, deshazte de ese traje háptico de una vez y vuelve a la auténtica realidad! ¡Adelgaza y busca un empleo de verdad! ¡Toma ya las riendas de tu vida!

Siglos discutiendo sobre lo que es real

Esperad un momento.

¿Es todo falso en el Metaverso? ¿Solo lo auténtico está en el mundo real? No. Supongamos que Cifra comienza su nueva vida de actor en Matrix, y allí conoce a una mujer, se enamora, tiene hijos, etc. Es cierto que todo lo que pasa por sus sentidos es falso. El edificio que tiene delante no está verdaderamente delante y la cara que ve de su esposa no es igual a la cara real, conectada a multitud de tubos y sumergida en un líquido transparente; pero el amor que siente por ella sí es absolutamente real.

Nos hemos olvidado de lo más importante: mi mundo subjetivo, mis estados mentales siguen siendo completamente auténticos aunque viva en un mundo completamente falso. Este era el mensaje de Descartes: cogito ergo sum. Puedo estar durmiendo y que lo que veo con mis ojos sean puras apariencias, pero el hecho de que existo, vivo, siento, pienso… es completamente indudable. Es más, eso constituye lo más importante de mi ser.

Yo seguiría siendo yo si me cercenasen mis brazos y mis piernas, pero no seguiría siendo yo si me quitasen mi forma de pensar, de sentir, si me extirpan mi consciencia de la realidad.

Rene Descartes Metaverso
A Descartes no le hace gracia tu negación del filete.

De hecho, gran parte de la filosofía griega y de la oriental, piensan que toda la realidad que observamos mediante los sentidos es falsa. En el hinduismo existe el concepto de Maya para representar esta ilusión que nos envuelve. Detrás de Maya, si conseguimos apartar su velo, está la auténtica verdad. Los griegos definían verdad como aletheia (αλήθεια), que significa "hacer evidente" o "desocultar", con una clara referencia a que la verdad no es lo que tienes ante tus ojos, sino algo que hay que descubrir, el resultado de un proceso de sacar a la luz.

Incluso tenemos una versión actualizada de estas nociones ancestrales: la hipótesis de la simulación del filósofo sueco Nick Bostrom. De forma resumida, dice que si en el futuro nuestra civilización es capaz de tener la suficiente tecnología para realizar una simulación total del mundo al estilo Matrix, lo más probable es que realice muchas. Entonces, por estadística, si hay un mundo simulado y uno real, tenemos un 50% de estar en el simulado. Si hay dos simulados, tenemos un 66,6%, y así sucesivamente.

En un mundo con cincuenta mundos simulados, la probabilidad de vivir en uno de ellos superaría el 98%. Entonces, si aceptamos la tesis de que en un futuro se ensayarán muchas simulaciones, lo más probable es que vivamos en una de ellas.

Esto cambia por completo las reglas del juego. Si aceptamos que lo importante es el interior y que lo demás son siempre burdas apariencias, no hay ninguna diferencia de peso entre estar en el mundo real o en el Metaverso. ¡Nuestra realidad también es Matrix! Estar en el Metaverso no es más que estar en una ilusión dentro de otra ilusión como en un juego de muñecas rusas.

Hay un relato de Stanislaw Lem (escritor de ciencia-ficción que os recomiendo encarecidamente) titulado Congreso de Futurología (del cual se hizo una película no muy conocida de 2013, El Congreso, dirigida por Ari Forman, que también recomiendo ver), en el que el protagonista es llevado a un futuro dominado por la psicoquímica. Allí no solo los estados emocionales pueden ser controlados mediante fármacos, sino todos los estados mentales incluidas las creencias. Puedes usar una sustancia llamada dantina y creer que has sido el escritor de la Divina Comedia u otra llamada credibilina que te hace un fanático defensor de cualquier tema que se tercie.

Simulacion Zuckerberg
Si no vivimos en una simulación se le parece bastante. (Tony Avelar/AP)

En este caso sí que estaríamos ante estados de inautenticidad claros. No solo mi mundo exterior sería falso, sino que mediante sustancias psicoactivas estaría modificando mis propias creencias, mi propia forma de ser: estaría dejando de ser yo.

En otro relato, Razones para ser feliz de Greg Egan (otro escritor que os recomiendo muchísimo), un chico es operado de un tumor cerebral y las neuronas encargadas de generar neurotransmisores relacionados con los estados de ánimo positivos son dañadas. Así, el pobre niño entra en un estado de absoluta e infernal depresión hasta llegar a los treinta años. Entonces, un nuevo tratamiento le permite recomponer sus neuronas dañadas, pero esas neuronas no serán idénticas a las suyas perdidas, sino una especie de promedio entre los miles de cerebros que se utilizaron como modelos para diseñarlas.

Cuando el protagonista intenta reconstruir su vida después de la operación, se da cuenta de que todo le produce el mismo placer con la misma intensidad, de que todo le gusta por igual. Entonces los médicos le ofrecen una de las posibilidades más fascinantes de la historia de la humanidad: la de diseñarse a sí mismo. Podrá graduar la intensidad con la que disfruta de las cosas. Por ejemplo, si esta escuchando una sinfonía de Beethoven, puede ajustar si le produce un placer orgásmico, si le resulta levemente agradable, si le aburre soberanamente o si le crea una insoportable repugnancia.

¡Imaginad las posibilidades! Puedes diseñarte para que te encanten las frutas y las verduras y odiar la comida basura, para que disfrutes mucho haciendo deporte y estudiando mientras que te resulte odioso perder el tiempo tirado en el sofá.

Desgraciadamente, eso todavía es cosa de la ciencia-ficción y los mortales del primer tercio del siglo XXI tenemos que conformarnos con ser nosotros mismos. Y eso, si lo pensamos de cierta manera, puede ser una muy pesada carga. Desde la autoayuda y demás cuentos editoriales, nos dicen siempre que seamos nosotros mismos, que no intentemos nunca fingir lo que no somos. Pero ¿y si somos lo peor? ¿Si soy un vago, un egoísta, un orgulloso, un idiota...? ¿Debo profundizar en ello para serlo más? ¿Y si soy un psicópata?

Yo, al contrario, recomiendo, no intentes ser tu mismo, intenta, sencillamente, ser mejor.

Ex Machina
¿Si tuvieras que diseñarte por completo, cómo te harías?

Y aquí es donde el Metaverso ofrece su principal versión: puede ser una nueva oportunidad de ser. Cifra ha fracasado como miembro de la resistencia y como amante de Trinity. ¿Por qué no puede tener una segunda oportunidad insertado en Matrix? Si soy gordo y feo, ¿por qué no puedo ser guapo y atlético en mi versión digital? ¿Por qué no puedo ensayar otras personalidades, otras formas de aparentar y de ser?

El Metaverso podría convertirse en un grandioso laboratorio del yo. Si entendemos que una loable aspiración del ser humano es aumentar el rango de posibilidades vitales de elección, el Metaverso es casi una utopía. Podría entenderse, como en el caso de Paco, en una segunda oportunidad pero también, sencillamente, como extensiones, como exploraciones de mí mismo ¿Quién soy jugando al quidditch? ¿Cómo me comportaría con un género diferente? ¿Y con otra edad? ¿Y si fuera un oficial de las SS en Auschwitz? ¿Sería un psicópata o sería incapaz de matar?

Esta perspectiva se explora de forma muy interesante en la malograda Westworld. Allí, el hombre de negro (interpretado por Ed Harris) se dedica a matar y a violar salvajemente, explotando en el mundo virtual la parte de su personalidad que no puede desarrollar en su vida real. Si lo pensamos, ¿no sería algo bastante terapéutico? ¿No te encantaría acuchillar a tu jefe sin ninguna consecuencia legal? ¿No sería francamente interesante explorar hasta donde puede llegar tu yo malvado sin hacer daño a nadie? Y, ¿quién sabe? A lo mejor se reducen los índices de criminalidad y todo.

Westworld

Cuando llegó la imprenta de Gutenberg, era común la crítica a la gente que se pasaba todo el día leyendo libros ¡Deja ya de leer y ponte a hacer algo productivo con tu vida! Las hojas de papel se veían como ahora nosotros vemos las pantallas de los smartphones. Y el mismo rechazo natural ante la llegada de una nueva tecnología disruptiva es la que llena hoy nuestros discursos críticos.

Es cierto que hay que tener cuidado y que la tecnología no es buena per se, pero creo que la actitud correcta es entenderla como una apertura de nuestro abanico de posibilidades y, en vez de sacar los manidos argumentos apocalípticos de siempre, apoyar su desarrollo estando alerta de sus posibles malos usos.

Volviendo al metaverso

Definitivamente haré dieta y me apuntaré al gimnasio. Mi vida en el mundo real no es, desde luego, un sueño, pero tiene sus cosas buenas. Mi madre es un sol y me gusta ir a jugar al rol con mis amigos de la tienda de comics. Además, en el Metaverso todavía no puedes comer, y a mí las croquetas que hace mi madre me chiflan.

La vida digital y la real no tienen por qué ser contradictorias, las podemos complementar. Ya voy mamá, es la hora de su pastilla… ¿Elegirá la roja o la azul?



via Robótica e IA - Xataka https://ift.tt/c9eWH7s

viernes, 12 de agosto de 2022

Xiaomi presenta CyberOne, su primer robot humanoide

Xiaomi ha presentado su primer robot humanoide CyberOne, un dispositivo que presenta una altura de 1,77 metros y pesa 52 kilos , que incluye un motor de reconocimiento de palabras y es capaz de identificar diferentes tipos de voces, emociones humanas y sonidos ambientales. La compañía ha dado a conocer esta creación durante el evento de lanzamiento de su nuevo teléfono plegable, Xiaomi Mix Fold 2, un dispositivo en el que ha materializado su acuerdo de colaboración con el fabricante de ópticas Leica. Además de ampliar su mercado de 'smartphones', Xiaomi ha expandido su catálogo de productos en otras direcciones con la presentación de un nuevo miembro en de la familia Cyber, su primer robot humanoide, CyberOne. Tal y como ha adelantado el CEO de la compañía, Lei Jun, en esta presentación de productos, el desarrollo de este robot es «un símbolo de la dedicación de Xiaomi para incubar un ecosistema tecnológico centralizado y conectarlo con el mundo de formas nunca antes vistas». El fabricante ha reconocido que, durante el proceso de investigación, combinó tecnologías de vanguardia procedentes de diferentes sectores, que incluyen la biomecatrónica, la Inteligencia Artificial (IA), el 'big data' y la cognición biónica. CyberOne, el primer robot humanoide de Xiaomi, capaz de reconocer emociones y sonidos ambientales XIAOMI Este robot, que mide 1,77 cm y pesa 52 kilos, está equipado con brazos y piernas avanzados. Es capaz de soportar hasta 1,5 kilos de peso en una sola mano, admite hasta 21 grados de libertad de movimiento y logra una velocidad de respuesta en tiempo real de 0,5 ms. Debido a que integra un algoritmo de control bípedo, el robot puede mantener el equilibrio cuando está en movimiento y se muegre gracias a un módulo de unión mecánica de 300 Nm de potencia, un motor de alta eficiencia que pesa solo 500 gramos. Por otra parte, Xiaomi ha recordado que los robots humanoides dependen de la visión para procesar su entorno, de modo que utiliza un módulo de profundidad MiSense, de desarrollo propio, combinado con un algoritmo de interacción de IA. Gracias a esta combinación, el robot, que presenta un diseño en tonos blancos y negros, es capaz de percibir el espacio 3D, así como reconocer individuos, gestos y expresiones. Asimismo, CyberOne está equipado con un motor de reconocimiento de semántica ambiental de desarrollo propio y un motor de identificación de emociones humana vocales MiAI. Gracias a estas tecnologías, el robot humanoide puede reconocer 85 tipos de sonidos ambientales e identificar hasta 45 clasificaciones de emociones humanas. De hecho, es capaz de detectar la felicidad e, incluso, consolar a una persona en momentos de tristeza. MÁS INFORMACIÓN noticia No Los nuevos trucos de Google Maps para conocer mejor los monumentos y organizar excursiones en bici noticia No La función desaparecida de iPhone que vuelve con iOS 16 y alegrará a muchos Todas estas funcionalidades están integradas en las unidades de procesamiento de CyberOne, que se combinan con un módulo OLED curvo para mostrar información interactiva en tiempo real. Conviene recordar que CyberOne es producto de una familia de productos destinada a la innovación tecnológica en la que también se encuentra CyberDog , el primer cuadrúpedo de la marca, presentado en agosto del año pasado. Al igual que el robot humanoide, este robot está dotado de diferentes sensores de alta precisión que guían sus movimientos en tiempo real y utiliza una tecnología de imagen que hace posible que el robot perciba el entorno.

via Tecnología https://ift.tt/qjgpGYW

jueves, 11 de agosto de 2022

Después del CyberDog llega CyberOne: así es el primer robot humanoide de Xiaomi

Después del CyberDog llega CyberOne: así es el primer robot humanoide de Xiaomi

Xiaomi ha sido capaz de meter en un mismo evento un móvil plegable, un smartwatch, una lavadora, un coche y un robot humanoide. La firma china ha dejado ver hoy su CyberOne, su primer robot humanoide que, según dicen, es capaz de detectar emociones y moverse a 3,6 km/h.

Durante la presentación del mismo, hemos podido ver lo que, aparentemente, es una primera versión funcional. Este ha llegado al escenario sujetando una flor que le ha entregado a Lei Jun, CEO de Xiaomi. Parece que se encuentra en una etapa temprana de su desarrollo, pero lo que hemos visto hasta ahora nos recuerda un poquito al Optimus de Tesla.

Saluda, CyberOne

La compañía no ha dado demasiados detalles sobre el robot. Lei Jun ha comentado que el robot pesa 52 kilos y que mide 1,77 metros, por lo que es ligero y de una altura media. Se mueve a 3,6 km/h y es capaz, entre otras cosas, de sujetar cosas con la mano y andar (de una forma un tanto peculiar, según hemos podido ver).

La ambición de Xiaomi con este robot es alta. Según ha expresado el CEO de la empresa, el CyberOne tiene un sistema llamado Mi Sense que le permite detectar emociones (felicidad, tristeza...) y habilita la visión espacial. En la cabeza tiene una pantalla OLED cuyos colores cambian según el contexto.

El robot se mueve gracias a un módulo de unión mecánica con un par máximo de 300 Nm. Algo interesante es que tiene 21 puntos que puede mover libremente y, de hecho, lo hemos visto ponerse de cuclillas y mover el brazo durante la presentación.

Xiaomi CyberOne

La información es escasa, al menos por ahora, y está claro que le queda camino por delante. De hecho, solo sabemos que están trabajando en él, pero no tiene fecha de lanzamiento ni nada por el estilo. Solo sabemos que ahora mismo es caro de producir. Según Xiaomi, cada robot costaría entre 86.000 y 100.390 euros al cambio, más o menos. Tocará estar pendientes.

Cyberone
Xiaomi CyberOne
Xiaomi CyberOne
Xiaomi CyberOne


via Robótica e IA - Xataka https://ift.tt/pdNKnmH

martes, 9 de agosto de 2022

Este simpático robot barman no solo prepara cócteles, también conversa con los clientes: así es Brillo

Este simpático robot barman no solo prepara cócteles, también conversa con los clientes: así es Brillo

La idea de crear un robot capaz de hacer de camarero o barman o no es nueva. A lo largo de los años hemos visto diferentes iniciativas, como la de Toni, que podía manejar 158 botellas y servir hasta 80 bebidas por hora. Sin embargo, posiblemente pocos investigadores habían pensado en crear un androide que, además de servir cócteles, pudiera interactuar con los clientes.

Un grupo de investigadores de la Universidad de Nápoles Federico II, en Italia, ha desarrollado un sistema robótico interactivo llamado Brillo que incorpora este enfoque. No solo puede manipular bebidas y objetos para hacer tragos con sos brazos, sino que también conversa con los clientes, recordando sus gustos y ofreciéndolos recomendaciones personalizadas basadas en sus pedidos.

Brillo, el robot barman que puede hablar contigo

Según recoge TechExplore, Silvia Rossi, Alessandra Rossi y Nitha Elizabeth John, que forman parte del equipo de investigación, creen que un robot barman no solo debería ser capaz de preparar cócteles e interactuar de manera básica con el usuario, sino que también debería crear un "perfil" de cada uno de ellos. Para ello, dotaron a Brillo de un aspecto humanoide, micrófonos, altavoces y cámaras.

Este hardware se complementa con la combinación de dos sistemas que conforman una "arquitectura cognitiva compleja de múltiples capas que operan de forma asíncrona". Por un lado el llamado "sistema de registro", que analiza las interacciones de compra pasadas. Por otro lado el "sistema de compromiso", que busca mejorar la experiencia del usuario en base a los datos de su perfil.

Brillo 13

De esta forma, Brillo puede comunicarse con los clientes de forma directa a través de un sintetizador de voz, incluso alternar entre varios clientes a la vez. ¿Cómo hace para reconocerlos y diferenciarlos? Por reconocimiento facial gracias a sus cámaras integradas. Cuando los clientes vuelven, los identifica, recuerda sus preferencias en base a conversaciones pasadas y les sugiere los cócteles más adecuados.

Desde el Laboratorio de Robótica Inteligente y Sistemas Cognitivos Avanzados de la Universidad de Nápoles Federico II aseguran que no tienen intenciones de comercializar este robot. En cambio, aseguran que se trata de un banco de pruebas desafiante para investigar cómo un sistema puede mantener y actualizar el perfil de un usuario a lo largo de varias interacciones con diferentes personas.

Eso sí, las investigadoras quieren seguir avanzado con la investigación, lo que implica probar a Brillo en un escenario real. Para ello están preparándose para sacar el androide el laboratorio para evaluar su rendimiento con muchos humanos que no son científicos ni están al tanto del proyecto. ¿Serán algo común los robots barman en el futuro? Con el tiempo lo sabremos.

En Xataka | La inteligencia artificial lleva años ganándonos al ajedrez. Ahora también nos está enseñando a mejorarlo



via Robótica e IA - Xataka https://ift.tt/TdLKDZx

Los deepfakes en videollamadas son cada vez más frecuentes. Este método promete detectarlos fácilmente

Los deepfakes en videollamadas son cada vez más frecuentes. Este método promete detectarlos fácilmente

El mes pasado te contábamos como mentir en el currículo era algo del pasado. Lo último en engaños para entrevistas de trabajo remotas era hacerse pasar por otras personas usando deepfakes. Y, aunque la finalidad de estas acciones poco tenía que ver con conseguir realmente el puesto de trabajo, dejaba en evidencia un nuevo problema de seguridad.

Lo cierto es que, en mayor o menor medida, las videollamadas parecen haber llegado para quedarse, no solo en el ámbito profesional, sino también en el personal. Por consecuencia, todas las personas estamos expuestas a ser engañadas. La pregunta es: ¿podemos detectar un deepfake fácilmente? La compañía Metaphysic propone una curiosa técnica.

Una técnica tan prometedora como sencilla

Un estudio reciente asegura que "cazamos" menos de la mitad de los deepfakes que pasan frente a nuestros ojos, aunque claro, no siempre contamos con las mismas posibilidades para detectarlos. Si estamos viendo un vídeo compartido en las redes sociales, a menos que contemos con herramientas especializadas, no tenemos más alternativa que agudizar la vista para intentar identificar si se trata de un engaño.

No obstante, si nos encontramos en una videollamada las posibilidades para detectar un deepfake aumentan. Podemos pedirle a la otra personas que realice una serie de gestos que distorsionen en el trabajo del software que está haciendo el deepfake en tiempo real y así podremos descubrir su intento por suplantar la identidad de otra persona.

El equipo de Metaphysic le pidió al actor Bob Doyle que participara en una serie de videollamadas utilizando DeepFaceLive, una versión de deepfake en tiempo real del popular software DeepFaceLab. Como podemos ver en las imágenes, el sistema hizo muy bien su trabajo con la mayoría de los personajes.

Examples Of Deepfacelive Failures 1536x828

Doyle se convirtió en Sylvester Stallone, Ryan Reynolds, Nicolas Cage, Keanu Reeves, Tom Cruise, Vin Diesel, entre otros. Sin embargo, en medio de la transmisión, le pidieron que moviera su cabeza hacia un costado lentamente. ¿El resultado? La calidad del deepfake iba perdiéndose a medida que en ángulo alcanzaba los 90 grados.

Multi View Hourglass Model

Según explican el equipo, la mayoría de los sistemas de deepfakes no funcionan bien en escenarios de ángulos agudos. Esto se debe a que casi todos los puntos de referencia utilizados por el algoritmo de reconocimiento facial están asignados en la parte frontal de rostro. Así, cuando alguien muestra su rostro de perfil del deepfake empieza a perderse.

Otra de las técnicas que Metaphysic propone para identificar deepfakes es pedirle a la persona con la que estamos realizando una videollamada que mueva su mano frente a su rostro. Esto creará una "situación crítica para el modelo que probablemente demostrará su latencia y una calidad de superposición deficiente sobre el rostro verdadero".

A medida que la tecnología avanza y los algoritmos reciben mayor entrenamiento, los deepfakes son más precisos y realistas. No obstante, por lo pronto puedes pedirle a una persona que gire su cabeza en un ángulo de 90 grados o que agite su mano frente a la cámara para saber si te está engañando. Aunque reconocemos que esto también podría resultar incómodo para para los participantes de la videollamada.

En Xataka | Una inteligencia artificial ha escrito e interpretado un monólogo de Seinfeld. El resultado es asombroso



via Robótica e IA - Xataka https://ift.tt/hQDfFwS

viernes, 5 de agosto de 2022

BlenderBot 3, el chatbot de Meta más avanzado hasta la fecha, ya está disponible en Internet

BlenderBot 3, el chatbot de Meta más avanzado hasta la fecha, ya está disponible en Internet

Los chatbots están presentes en diversas situaciones de nuestra vida. Cuando nos comunicamos con ciertos servicios de atención al cliente a través de aplicaciones de mensajería, como WhatsApp y Messenger, o cuando interactuamos con asistentes de voz. Sin embargo, no es muy difícil darnos cuenta que estamos interactuando con una máquina.

En la actualidad, quienes desarrollan este tipo de soluciones están trabajando para mejorarlas. Básicamente, que podamos hablar con los chatbots en lenguaje natural, como si se tratase de una conversación con otro humano. Meta es una de las compañías que apunta en esa dirección y este viernes ha presentado la tercera generación de BlenderBot.

BlenderBot, ¿preparado para salir a Internet?

No estamos aún ante una versión final de BlenderBot, pero sí ante un prototipo que se puede probar desde el navegador. El objetivo detrás de esta decisión es recopilar la experiencia de los usuarios para mejorar esta y futuras versiones. Se trata del primer chatbot del mundo de 175.000 millones de parámetros disponible públicamente.

La versión original de BlenderBot apareció hace dos años. Por aquel entonces tenía la capacidad de combinar la "empatía y el conocimiento" en las conversaciones. Un año después llegó la versión 2, con una capacidad de memoria a largo plazo basada en inteligencia artificial para mantener conversaciones más sofisticadas sobre cualquier tema.

Ahora, BlenderBot 3 estrena el modelo de lenguaje OPT-175B, que promete ser 58 veces más potente que el utilizado en la versión anterior. A todas las cualidades mencionadas, el chatbot ahora también puede buscar información en Internet para que sus respuestas sean más precisas y relevantes, a la vez que ofrece una experiencia de uso más natural.

Ya se puede probar en Estados Unidos

En esta etapa de pruebas, el chatbot solo funciona con el idioma inglés y en Estados Unidos. El laboratorio de inteligencia artificial de Meta explica que ha sido diseñado para aprender de las interacciones de los usuarios. Para ello utiliza dos técnicas de aprendizaje automático conocidas como SeeKeR y Director, que serán un escudo contra a la toxicidad de la red.

Blender Bot 1

Recordemos el funesto destino de Tay, el chatbot de Microsoft que si bien empezó a funcionar con muchas luces, a medida que aprendía de las interacciones de los usuarios se convertía en una máquina racista. Es por ello, que los chatbots generalmente se entrenan en entornos controlados, porque exponerlos a Internet equivale a un alto riesgo.

Meta dice que todo parece indicar que BlenderBot 3 está funcionado de acuerdo a lo esperado. A medida que se alimenta con información sus respuestas son más adecuadas y precisas. Sin embargo, advierte que este prototipo todavía podría hacer comentarios inapropiados o brindar información falsa o contradictoria.

Imágenes | Meta



via Robótica e IA - Xataka https://ift.tt/v1osGhi