viernes, 30 de septiembre de 2022

Los actores ya no necesitan trabajar, una inteligencia artificial puede hacerlo por ellos. Y Bruce Willis lo sabe

Los actores ya no necesitan trabajar, una inteligencia artificial puede hacerlo por ellos. Y Bruce Willis lo sabe

Bruce Willis se retiró del cine hace unos meses por problemas de salud, pero eso no le impedirá seguir apareciendo en próximas películas y proyectos. La solución se llama inteligencia artificial. A través de deepfakes, el actor podrá seguir mostrándose sin tener que actuar para la ocasión. Porque lo que hasta la fecha era un uso esporádico de esta tecnología, Bruce Willis lo va a convertir en su futuro.

El primer actor en vender sus derechos de imagen para la IA. Es un movimiento pionero en Hollywood. Bruce Willis se ha convertido en el primer actor que ha vendido sus derechos de imagen para que su rostro pueda ser recreado en películas y otros proyectos a través de la inteligencia artificial.

No obstante, Bruce Willis ya tenía experiencia con el uso de los deepfake. El año pasado participó con la empresa de gemelos digitales para la creación de un anuncio publicitario para la empresa rusa MegaFon. Parece que aquello tuvo éxito, porque el actor ha decidido dar un paso más.

Un Bruce Willis digital basado en 34.000 fragmentos. Para la creación del gemelo digital, la compañía Deepfake.io explica que se utilizaron miles de fragmentos de películas como 'Jungla de Cristal' o 'El Quinto Elemento'. En total se entrenó a la IA durante 14 días, aunque la empresa explica que es posible crear un deepfake completo en unos 4 o 5 días.

"Me gustó la precisión con la que resultó mi personaje. Es una minipelícula en mi género habitual de acción-comedia. Para mí, es una gran oportunidad de retroceder en el tiempo. Con la llegada de la tecnología moderna, incluso estando en otro continente, pude comunicarme, trabajar y participar en el rodaje. Es una experiencia muy nueva e interesante, y doy las gracias a todo nuestro equipo", explica Willis.

Las grandes franquicias no quieren arriesgarse a quedarse sin el actor. Cuando Brandon Lee murió durante el rodaje de 'El Cuervo' hubo que finalizar sus escenas con CGI. Complementar con tecnología los problemas de los actores no es algo nuevo y Hollywood lleva décadas haciéndolo.

El uso está tan extendido que grandes franquicias como Star Wars no contemplan otra cosa. Los actores son copiados digitalmente por si quieren usarlos en futuras series o películas. También ha ocurrido con actores franquicia como Arnold Schwarzenegger o Jim Carrey. La novedad con Bruce Willis es que ha vendido sus derechos directamente a la empresa de deepfakes, dejando que su imagen sea utilizada más allá de las sagas en las que hubiera aparecido anteriormente.

Una opción muy interesante para actores que se retiran. Trabajar hasta poder vivir de rentas. Lograr crear una imagen reconocible en todo el mundo para que después una IA pueda hacer el trabajo. Esta opción no es una utopía y ya la estamos viendo como una opción factible en el mundo del cine. Recientemente James Earl Jones, voz de Darth Vader desde 1977, ha anunciado que dejará de colaborar con futuras películas de Star Wars y su mítica voz será sustituida por una IA. Tiene ya 91 años.

Con Bruce Willis ocurre algo similar. No es ya que confíen en el enorme potencial de la inteligencia artificial, sino que por distintas causas ya no están físicamente para actuar directamente. En este contexto, la IA se presenta como una alternativa muy beneficiosa para todos. Para los actores que consiguen unos beneficios extra y para los estudios de Hollywood, que podrán seguir aprovechando el talento y el carisma de estos actores. Porque esto último, es algo que la IA todavía no puede sustituir.



via Robótica e IA - Xataka https://ift.tt/NpSyXjd

jueves, 29 de septiembre de 2022

La inteligencia artificial también puede generar vídeos a partir de un texto: así es Make-A-Video de Meta

La inteligencia artificial también puede generar vídeos a partir de un texto: así es Make-A-Video de Meta

Meta acaba de presentar Make-A-Video, un sistema de inteligencia artificial (IA) que crea breves escenas de vídeo a partir de indicaciones escritas. ¿Te resulta familiar esta mecánica? Si tu respuesta es afirmativa posiblemente conoces el fenómeno actual de los generadores de imágenes a partir de texto.

DALL-E,  Midjourney y Stable Diffusion son algunos de los programas impulsados por inteligencia artificial más populares del momento, pero muchos otros proyectos están desarrollándose en paralelo, algunos de los cuales también están avanzando hacia la generación de vídeos a partir de texto.

Meta cree que Make-A-Video será una valiosa herramienta para artistas

Make-A-Video es uno de los trabajos más recientes del laboratorio de inteligencia artificial de Meta. Los investigadores de la empresa matriz de Facebook e Instagram llevan tiempo trabajando con modelos de IA, de hecho, tienen su propio generador de imágenes a partir de texto llamado Make-A-Scene.

Ahora, el laboratorio ha dado un importante paso hacia adelante con Make-A-Video, al menos según cuenta Mark Zuckerberg, que asegura que “es mucho más difícil generar videos que fotos porque, además de generar correctamente cada píxel, el sistema también tiene que predecir cómo cambiarán con el tiempo”.

En el vídeo de arriba podemos observar el desempeño de este sistema de inteligencia artificial con las siguientes entradas de texto: “Un oso de peluche pintando un retrato”, “un robot bailando en Times Square” y “un gato viendo la televisión con un control remoto en la mano”. El resultado es muy interesante.

De acuerdo a un documento técnico, al igual que muchos otros modelos, el modelo de IA de Make-A-Video ha sido entrenado con dos grandes conjuntos de datos recopilados de la Web que incluyen el trabajo de creadores que no reciben nada a cambio. WebVid-10M, con 52.000 horas de vídeo, y HD-VILA-100M, con 3,3 millones de vídeos.

El asunto de los derechos de autor y los modelos de generación de imágenes y vídeos está empezando a surgir con fuerza. Getty y otros bancos de imágenes han prohibido las imágenes de stock generadas por IA. Meta, sin embargo, cree que tanto Make-A-Scene como Make-A-Video se convertirán en una herramienta de gran valor para creadores y artistas.

Los mencionados modelos de generación de imágenes todavía no se encuentran disponibles para los usuarios. Meta asegura que lanzará una demostración. DALL-E 2, que durante mucho tiempo estuvo limitada a algunos usuarios, eliminó esta semana su lista de espera y ya está disponible para todo el mundo.

Si estás interesado en probar Make-A-Video puedes completar un formulario de Meta para recibir un correo cuando finalmente está disponible. De momento desconocemos cuándo llegará y si tendrá inicialmente una lista de espera. Toca esperar para poder probar de primera mano las posibilidades de este sistema.

En Xataka | Le he pedido a DALL-E Mini mostrar a Steve Jobs comiéndose una manzana y he acabado de entender por qué esta IA es fundamental



via Robótica e IA - Xataka https://ift.tt/1pqCHOr

miércoles, 28 de septiembre de 2022

OpenAI acaba de eliminar la lista de espera de DALL-E 2: así puedes registrarte para utilizarla

OpenAI acaba de eliminar la lista de espera de DALL-E 2: así puedes registrarte para utilizarla

DALL-E 2 es uno de los generadores de imágenes más avanzados del momento. En los últimos meses, mientras que rivales como Midjourney y Stable Diffusion se abrían al público, la última creación de OpenAI, el laboratorio de inteligencia artificial (IA) fundado por Elon Musk y otros empresarios, mantenía un muro alrededor, es decir, no todos podían utilizarla.

La limitación radicaba en una lista de espera. Si querías experimentar con esta herramienta, primero debías registrarte y esperar tu turno. Sin embargo, eso se ha acabado. OpenAI acaba de abrir DALL-E 2 para todo el mundo. Y, aunque todavía se encuentra en fase beta, es una buena noticia para quienes quería ponerse manos a la obra y no podían por estas limitaciones.

DALL-E 2 ya no tiene lista de espera

De acuerdo a una publicación de blog de la compañía, los usuarios pueden empezar a utilizar DALL-E 2 de inmediato. No obstante, todavía deberán completar un formulario para crear una cuenta en la plataforma. En la página de registro deberán especificar su nombre, correo electrónico, número de teléfono y para qué utilizarán el generador de imágenes.

Una vez verificada la dirección de correo electrónico, podrán iniciar sesión en la página de OpenAI dedicada a DALL-E 2 y empezar a experimentar. “Más de 1,5 millones de usuarios ahora están creando activamente más de 2 millones de imágenes al día con DALL-E, desde artistas y directores creativos hasta autores y arquitectos”, asegura la compañía.

Dall E 2

Cabe señalar que el hecho de que las capacidades avanzadas de DALL-E 2 ahora estén disponibles para todos también genera preocupaciones sobre sus potenciales usos indebidos, por ejemplo, para crear deepfakes, desnudos y promover noticias falsas. OpenAI reconoce los riegos y asegura que ha tomado medidas para combatir esos efectos negativos.

“Aprender del uso en el mundo real nos ha permitido mejorar nuestros sistemas de seguridad, haciendo posible una disponibilidad más amplia en la actualidad”, dice la compañía, que explica que ha fortalecido sus filtros para evitar el contenido sexual, violento y de otro tipo que infrinja sus políticas. También asegura que ha creado nuevas técnicas de detección.

Recordemos que DALL-E 2 todavía no tiene una API. OpenAI dice que está trabajando en una que “estará disponible en el futuro” para que los desarrolladores y creadores puedan beneficiarse con una herramienta de mayor versatilidad. Por lo pronto, esta herramienta está accesible a través de la página web que mencionamos arriba, previo registro, claro.

En Xataka | DALL-E funciona con las imágenes de creadores que no reciben nada a cambio: qué dice el copyright sobre la IA



via Robótica e IA - Xataka https://ift.tt/6fEMaKj

lunes, 26 de septiembre de 2022

Esta inteligencia artificial convierte cualquier palabra en un Pokémon. Y puedes usarla gratis

Esta inteligencia artificial convierte cualquier palabra en un Pokémon. Y puedes usarla gratis

La IA de Stable Difussion y el resto de modelos IA capaces de generar imágenes nos está dando muchas alegrías. Hay quien está empezando a combinarla con Photoshop. ya hay bancos de imágenes generados por IA, como Lexica, e incluso está empezando a haber problemas y debate por los derechos de autor al usar este tipo de imágenes.

La herramienta que no vimos venir era este modelo capaz de crear Pokémon a partir de palabras, atreviéndose incluso a convertir a personajes famosos en estas criaturas. La IA está abierta a cualquier usuario con cuenta de GitHub (si no tienes, puedes identificarte con Google).

Si se puede escribir, puede ser un Pokémon

Sonic

Más allá del meme, la tecnología tras este modelo es más que interesante. Se trata de un modelo creado por Lambda Labs y entrenado con imágenes de Pokémon. Los creadores afirman que el coste total de crear este modelo ha sido de tan solo 10 dólares, una de las posibles razones por las que está abierto a todos los usuarios, al contrario de DALL-E o Midjourney.

Basta con introducir la palabra y el número de fotografías que queremos crear para que esta IA genere la imagen

El funcionamiento es bastante sencillo. Tan solo tenemos que introducir la palabra (prompt), intentando siempre que esta se corresponda con algún personaje conocido. Puede ser tanto un personaje real (políticos, deportistas, etc.) como algún personaje de ficción o dibujos animados. Podemos escoger un total de cuatro outputs, aunque si queremos que trabaje rápido, puede convenir ir de uno en uno.

Ia

Al pulsar sobre cualquier imagen podemos copiarla, guardarla como imagen y cualquier otra acción realizable en cualquier foto de la web. Actualmente se ha ejecutado el modelo 185.600 veces. No es la IA más útil en sentido práctico, pero sí que podemos echar un buen rato con ella.

Más información | Replicate



via Robótica e IA - Xataka https://ift.tt/D1y5vqZ

La próxima voz de Darth Vader será una inteligencia artificial (y esto da pistas sobre el futuro del cine)

La próxima voz de Darth Vader será una inteligencia artificial (y esto da pistas sobre el futuro del cine)

En España tenemos una industria del doblaje fabulosa y a menudo menospreciada. Una que, eso sí, provoca que hablemos inglés peor que suecos o portugueses. Conocemos poco a quienes ponen esas voces, pero si hay alguna famosa esa es la de Constantino Romero, que puso voz a Darth Vader en las películas de la saga 'Star Wars'. ¿Os imagináis que en las futuras películas el personaje no fuera doblado por él, sino por una máquina? Eso es lo que ocurrirá al menos en las películas originales en inglés.

I am your father. James Earl Jones ha sido la voz en inglés de Darth Vader desde 1977. Según Variety, el actor —que tiene ahora 91 años— ha decidido permitir que todas esas frases sirvan para entrenar a una inteligencia artificial y crear así una imitación de la voz de Earl Jones con la cual pronunciar frases de las futuras películas en las que participe 'Darth Vader' incluso si estas aparecen tras la muerte del actor.

Desde Ucrania con amor. La invasión rusa no ha detenido a los ingenieros de Respeecher, una empresa ucraniana que se encarga de entrenar un sistema de inteligencia artificial para imitar voces de actores y poder así usarlas en otras producciones. En su sitio web oficial lo dejan claro: su objetivo es clonar voces "que son indistinguibles del hablante original".

Respeecher y Disney unen fuerzas. La empresa ya había trabajado con Disney en 'The Mandalorian' para generar la voz de un joven Luke Skywalker, y también generaron la voz de Darth Vader en 'Obi-Wan Kenobi'. Como explicaban en Variety, era algo razonable "ahora que la voz de Jones se ha alterado con la edad y se ha alejado del papel".

Terrores tecnológicos. Es irónico hablar de este avance cuando el propio Darth Vader hablaba del peligro de ciertos logros tecnológicos. Lo hacía en 'Star Wars Episodio IV: Una Nueva Esperanza" al pronunciar aquellas palabras proféticas ante el Gran Moff Tarkin y el Almirante Motti, que se le estaba poniendo gallito hablando de la Estrella de la Muerte. "No se ofusque con este terror tecnológico que ha construido. La posibilidad de destruir un planeta es algo insignificante comparado con el poder de la fuerza", le decía Vader.

Bienvenidos a la era del cine generado por IA. El tema viene de lejos: en Xataka ya hemos hablado en numerosas ocasiones de cómo la industria de los efectos especiales ha avanzado tanto que ahora hay personajes que se generan por ordenador con la ayuda de motores de inteligencia artificial. Precisamente la técnica se ha usado profusamente en películas y series del universo 'Star Wars' (Tarkin y la princesa Leia en 'Rogue One' fueron ejemplos muy polémicos),.

La opción también ha sido usada en producciones españolas: es el ejemplo de un joven Eduard Fernández en '30 monedas' que también asombró por su excelente resultado. Los deepfakes que rejuvenecen a las estrellas de Hollywood son ya conocidas tanto en producciones reales (Michael Douglas en 'Ant-Man', Robert Downey Jr. en 'Capitán América: Civil War', Brad Pitt en 'El curioso caso de Benjamin Button', entre otros muchos) como en formato meme.

Los actores generados por IA no se cansan ni montan pollos. Reemplazar actores y voces originales por imitaciones generadas por efectos especiales (antes) o motores de inteligencia artificial (ahora) tiene una ventaja discutible: la de que los directores pueden moldear esas actuaciones y esos tonos a su gusto sin que los actores (los de verdad) puedan decir ni pío. Las películas se producirán a imagen y semejanza de esos directores y productores. Pero claro, eso nos deja sin esa parte tan humana del séptimo arte y, entre otras cosas, sin las improvisaciones, míticas o no.

El futuro pinta a más y más IA en el cine. El avance de soluciones como la que ofrece Respeecher es en realidad fruto de nuestro hambre de que los actores de siempre no nos abandonen nunca. Nos encantaría seguir viendo nuevas entregas de 'Indiana Jones', 'Star Wars', 'Vengadores', 'Harry Potter' o 'Fast & Furious' pero con los actores de siempre, congelados en el tiempo. Con un Hollywood convertido en fábrica de secuelas —es lo que funciona en salas de cine y en plataformas de streaming—, la inteligencia artificial combinada con los efectos especiales parece augurar un futuro en el que tendremos contenidos generados por IA para aburrir.

La pregunta, claro, es dónde quedará entonces el sitio para nuevas franquicias y nuevos actores y actrices. Mal asunto.

Imagen | R.D. Smith



via Robótica e IA - Xataka https://ift.tt/G71NjYz

domingo, 25 de septiembre de 2022

Unos científicos están trabajando en un proyecto mucho más serio de lo que parece: robots que se ríen

Unos científicos están trabajando en un proyecto mucho más serio de lo que parece: robots que se ríen

¿Te cuentan un chiste en la barra del bar? Te ríes. ¿Estás en el bus y recuerdas una anécdota graciosa? Te ríes. ¿Ves a alguien resbalar en la calle cual Bambi en el hielo? ¿Eres nuevo en la oficina y te comen los nervios? Pues claro, te ríes. Te ríes si el jefe comparte una anécdota más o menos graciosa, aunque sea menos que más. Y si es 22 de diciembre y los niños de San Idelfonso cantan el número de tu décimo, ¿Qué haces? Lo mismo: te ríes. Vaya que si te ríes.

Te ríes en todos y cada uno de esos casos, aunque, por supuesto, poco tiene que ver la risilla floja con la que disimulas tus primeros días en la oficina con las carcajadas de euforia al saberte, de repente, la persona más rica de tu ciudad. Lo mismo si te está mirando la chica que te gusta.

Tú lo sabes y lo entiendes. Una máquina, no tanto. Si no, que se lo digan a C-3PO.

Saber cuándo reír y qué risa es la más adecuada en cada circunstancia no resulta una tarea sencilla. Sobre todo si estamos rodeados de gente. Hace falta interpretar de forma adecuada el contexto y, en caso de que estemos hablando con una o más personas, la propia conversación. Lo tenemos tan interiorizado que se nos olvida la cantidad de matices que influyen, pero no, no es simple.

Un equipo de la Universidad de Kioto se ha fijado el ambicioso objetivo de que, a su modo, los robots puedan reír cuando corresponde y cómo corresponde. Para conseguirlo han enseñado a un sistema de inteligencia artificial (IA) “el arte de la risa” durante las conversaciones con humanos, una tarea nada sencilla para la que recopilaron datos de más de 80 charlas en las que participaron estudiantes y la propia IA, un sistema que los científicos nipones han bautizado “Erica”.

No te rías, que es peor

La experiencia sirvió para acumular información sobre risas solitarias —ese chiste tan divertido que recuerdas de repente, en silencio— y las que surgen cuando se interactúa con otras personas. Entre estas últimas diferenciaron las risas de alegría y otras causadas por razones menos evidentes, como la vergüenza, los nervios o una simple cuestión de cortesía. Con semejante bagaje el equipo japonés se dedicó a entrenar a Erica, enseñándole básicamente dos claves: cuándo reír y cómo hacerlo.

“Nuestro mayor desafío fue identificar los casos reales de risas compartida. No es fácil porque, como saben, la mayoría de las risas en realidad no se comparten en absoluto”, explica el doctor Koji Inoue, de la Universidad de Kioto a The Guardian. La tarea parece de todo menos divertida: a Inoue y sus colegas les tocó categorizar las risas, escogiendo cuáles valían para su estudio.

Al fin y al cabo, uno no siempre puede responder a una sonrisa con otra sonrisa. Imagínate que quien tienes delante se ríe por vergüenza. Si lo imitas se pensará que te estás burlando.

Con su “receta” para el sentido del humor de Erica preparada, los científicos decidieron ponerla a prueba. Diseñaron cuatro diálogos breves, pusieron en marcha el nuevo algoritmo de risa compartida y luego mostraron los resultados a unos 130 voluntarios que los evaluaron atendiendo a cuestiones como su naturalidad, si reflejaban comprensión o se parecían a una reacción humana.

La clave, detallan los investigadores, que han recogido todo el proceso y sus conclusiones en Frontiers in Robotics and IA, es siempre la misma: identificar bien las risas del interlocutor a las que podemos responder y seleccionar la mejor forma de hacerlo. “La predicción y la selección mostraron puntuaciones más altas que un modelo aleatorio”, explican sus autores, que detallan además que el nivel de detección fue también elevado. Su modelo, en resumen, transmitía una mayor sensación de empatía que otros en los que, sencillamente, siempre se responde con risas sociales.

1366 2000 7

La pregunta del millón, llegado este punto es: ¿Para qué? ¿Qué buscan exactamente los científicos? ¿Por qué nos interesa enseñar a los robots el arte de reírse cuando están charlando con personas?

La respuesta es sencilla: diseñar IA más naturales, con una mayor capacidad de interactuación. “Creemos que una de las funciones importantes de la IA conversacional es la empatía —señala el doctor Koji Inoue, uno de los responsables del estudio, al diario británico—, así que decidimos que una forma en que un robot puede empatizar con los usuarios es compartiendo su risa”.

“Los sistemas de diálogo deben poder expresar empatía para lograr una interacción natural con los humanos. Sin embargo, generar risas requiere un alto nivel de comprensión del diálogo. Implementar la risa en los sistemas existentes, como en los robots conversacionales, ha sido un desafío”.

¿Significa eso que estamos un poco más cerca de compartir chistes con un robot? El equipo japonés cree que la risa podría servir para diseñar robots con un carácter peculiar. Eso sí, Inoue asume que pasarán décadas para que podamos chatear con un robot como lo haríamos con un amigo. Otros sencillamente, enfatizan que una IA nunca llegará a entendernos. Ni a nosotros, ni la propia risa.

Imagen de portada | Maximalfocus (Unsplash)



via Robótica e IA - Xataka https://ift.tt/We1xiOt

viernes, 23 de septiembre de 2022

NVIDIA acaba de presentar un modelo de IA para crear objetos y personajes en 3D: una nueva herramienta para construir el metaverso

NVIDIA acaba de presentar un modelo de IA para crear objetos y personajes en 3D: una nueva herramienta para construir el metaverso

La construcción del metaverso, del omniverso y de los videojuegos de próxima generación requerirá la creación de una enorme cantidad de objetos virtuales. Ante esta necesidad, NVIDIA ha presentado un modelo de inteligencia artificial (IA) que genera una diversa gama de edificios, vehículos y personajes 3D.

Según explica la compañía, el modelo, llamado NVIDIA GET3D, ha sido entrenado en solo dos días con alrededor de un millón de imágenes 2D de formas 3D capturadas desde diferentes ángulos de cámara utilizando sus GPUs A100. Se trata de unas unidades de procesamiento gráfico con 54.000 millones de transistores. 

Una solución para facilitar la construcción del metaverso

Imagínate tener la posibilidad de crear objetos tridimensionales “con texturas de alta fidelidad y detalles geométricos complejos” de manera sencilla y preparados para su posterior adaptación a diferentes tipos de proyectos. Esto propone NVIDIA con GET3D. 

Por ejemplo, a la hora de construir un universo virtual se podrían crear miles de representaciones que formarán parte de los edificios, espacios al aire libre, coches, carreteras, animales y personajes. Cada uno con sus propias características distintivas.

GET3D puede generar imágenes en base a los datos en los que se entrena. Así, a partir de imágenes de coches en 2D puede crear una colección de otros coches con diferentes diseños. Lo mismo ocurre con animales, puede crear diferentes versiones de la misma especie.

Una de las ventajas que ofrece este modelo es que las formas generadas, gracias a su estructura de malla en 3D, pueden ser importadas en motores de juegos, programas de renderizado de películas y modeladores 3D para adaptarlas a diferentes proyectos.

Todos aquellos interesados en explorar este último trabajo de investigación podrán hacerlo consultando el repositorio en GitHub del proyecto. La compañía asegura que el código, bajo licencia de código abierto, estará disponible la semana que viene.

En Xataka | La arquitectura Ada Lovelace de las GPU GeForce RTX 40 de NVIDIA, explicada



via Robótica e IA - Xataka https://ift.tt/HBI9rCK

miércoles, 21 de septiembre de 2022

La gente ha empezado a vender imágenes generadas por IA. Shutterstock y Getty Images ya están tomando medidas

La gente ha empezado a vender imágenes generadas por IA. Shutterstock y Getty Images ya están tomando medidas

Las cada vez más grandes posibilidades que ofrecen los generadores de imágenes como Craiyon, DALL-E 2, Midjourney y Stable Diffusion han despertado el interés comercial de algunas personas. Algo así como: "¿Qué tal si creamos arte con estos programas impulsados por inteligencia artificial (IA) y lo vendemos en la Web?".

Se trataba, quizá, de una alternativa para hacer dinero de manera relativamente fácil. Pese a la controversia que podría generar tal movimiento, los grandes bancos de imágenes no habían definido reglas claras sobre la venta y carga de imágenes generadas por IA, hasta ahora, que están empezando a tomar cartas en el asunto.

Derechos de autor, el próximo desafío

Los derechos de autor son un asunto en constante evolución, aunque, por lo general, las leyes encargadas de protegerlos van por detrás de los desafíos que presentan las nuevas dinámicas y los avances tecnológicos. En 2008, un mono se tomó una selfie. Cuando esta llegó a Wikimedia Commons en 2011 se abrió un debate.

Macaca Nigra Self Portrait Large

¿Quién tiene los derechos de autor de la selfie? ¿Naruto, el adorable macaco con cresta de Indonesia, o alguien más? El desarrollo de la historia da para todo un artículo, pero, en resumidas cuentas, no fue hasta 2018 que la justicia estadounidense determinó que el mono, al ser un animal, no podía poseer los derechos de autor de la imagen.

Un escenario similar estamos viviendo con los generadores de imágenes impulsados por IA. Una pregunta es: ¿a quién pertenecen los derechos de autor de las obras creativas creadas con estos programas que en muchas ocasiones están compuestas por elementos de artistas y fotógrafos profesionales que tienen su propio copyright?

Ciertamente, en la actualidad no hay un consenso. La Organización Mundial de Propiedad Intelectual (OMPI), por ejemplo, señala que solo las personas pueden ser autoras de obras creativas, por lo que estas creaciones basadas en IA están en una especie de limbo. No obstante, todo parece indicar que las normas se actualizarán a estos tiempos.

Los bancos de imágenes toman su postura

He aquí una de las razones de por qué los bancos de imágenes están replanteándose su postura frente las obras generadas por programas de inteligencia artificial. Hasta hace unos días era algo común encontrar usuarios vendiendo ilustraciones de stock generadas principalmente por Midjourney en estas plataformas.

imagen generada con SD

Una búsqueda con el término "ai-generated" en Shutterstock nos arrojó un buen número de resultados. Desde "niños con mochilas" hasta un "simpático robot artista", pasando por "una imagen abstracta del otoño". En todos estos casos, los usuarios que cargaron las imágenes indicaron en la descripción que habían sido creadas con IA.

Ahora, según Vice, Shutterstock habría empezado a eliminar imágenes generadas por IA, aunque sus términos de servicio actualmente no las prohíben explícitamente. Más drástico ha sido el movimiento de Getty Images, Newgrounds, PurplePort y FurAffinity, que han decidido prohibirlas recientemente.

En declaraciones a The Verge, el CEO de Getty Images, Craig Peters, dijo que “existen preocupaciones reales con respecto a los derechos de autor de los resultados de estos modelos y problemas de derechos no abordados con respecto a las imágenes, los metadatos de las imágenes y las personas contenidas en las imágenes”.

Por consecuencia, el banco de imágenes estadounidense ha empezado a trabajar con C2PA (la Coalición para la Procedencia y Autenticidad del Contenido) para crear filtros y evitar este tipo de contenidos. Además, se respaldará en los usuarios para que identifiquen y denuncien los trabajos que no cumplen con los nuevos términos de la plataforma.

Este es tan solo uno de los debates que gira en torno a los generadores de imágenes. Hay quienes plantean que estos pueden reproducir estereotipos dañinos y quienes aseguran que son una puerta abierta para crear deepfakes más precisos. Queda por ver cómo evolucionará este asunto con el paso del tiempo.

Imágenes | Portada realizada con Stable Diffusion



via Robótica e IA - Xataka https://ift.tt/LrVmHzD

sábado, 17 de septiembre de 2022

Amazon ha comprado una empresa fundada en el siglo XIX (porque ni el pasado se resiste al todopolio)

Amazon ha comprado una empresa fundada en el siglo XIX (porque ni el pasado se resiste al todopolio)

Este verano nos enterábamos de uno de los últimos avances de Amazon en el ámbito de sus robots para logística y almacenamiento. Se llamaba Proteus, y es un robot autónomo teóricamente capaz de integrarse en espacios con humanos sin riesgos —en la práctica parece que los riesgos sí existen— y pudiendo trasladar paquetes de un lado a otro sin problemas. Ahora esos esfuerzos van a más con la última adquisición de la empresa de Jeff Bezos.

De la industria textil a los robots. En 1.884 la pequeña población de Hamme, en Flandes Oriental (Bélgica) era conocida por su industria textil. Una emprendedora llamada Désiré Huwaert fundó una empresa para impulsar ese segmento. Durante seis generaciones la empresa, llamada Cloostermans, evolucionó y cambió de foco: actualmente se dedican a hacer maquinaria y robots para naves de almacenamiento. Y lógicamente hay una empresa que está muy interesada en este tipo de desarrollos.

Amazon sale de compras. La empresa de Bezos lleva una década invirtiendo de forma notable en sus sistemas de automatización de grandes naves de almacenamiento. La compra de Kiva Systems en 2012 por 775 millones de dólares hizo que se se creara la división Global Robotics, que ahora se ha reforzado con la compra de Cloostermans-Huwaert.

Inversión en la automatización. Como indican en CNBC,  Amazon comenzó a trabajar con esta firma belga en 2019 al usar su tecnología para mover y apilar palets y mercancías. Ahora ha adquirido esta empresa por una suma no especificada, y sus cerca de 200 empleados se unirán al equipo de Amazon en Europa.

Más robots, pero no necesariamente menos personas. En Amazon han desplegado ya más de 520.000 unidades robóticas en todo el mundo y al mismo tiempo han creado un millón de nuevos puestos de trabajo. Según su anuncio oficial, la automatización no ha eliminado trabajos humanos sino que "ha llevado a nuevos puestos en nuestras instalaciones, incluyendo ejemplos como técnicos de mantenimiento en robótica y mecatrónica o especialistas de control de flujo".



via Robótica e IA - Xataka https://ift.tt/7OWhkdt

viernes, 16 de septiembre de 2022

Esta web te ayuda a saber si tus fotos han sido utilizadas para entrenar a DALL-E (porque sí, ya es necesaria)

Esta web te ayuda a saber si tus fotos han sido utilizadas para entrenar a DALL-E (porque sí, ya es necesaria)

Los modelos de inteligencia artificial (IA) utilizados en los programas de generación de imágenes como DALL-E, Midjourney y Stable Diffusion han sido entrenados con conjuntos de datos que contienen millones de imágenes recopiladas de la web y que incluyen el trabajo de diseñadores, fotógrafos, artistas, entre otros.

Esta mecánica, que permite crear obras artísticas basándose en arte previo junto a las indicaciones del usuario, está haciendo surgir una nueva discusión: ¿se debería solicitar el consentimiento de los autores originales para que sus imágenes sean utilizadas en estos programas? Ante este escenario ha nacido “Have I Been Trained?”.

Un motor de búsqueda muy específico e interesante

Have I Been Trained? Es una herramienta que permite a cualquier persona saber si sus imágenes han sido incluidas en uno de los conjuntos de datos más utilizados por programas de generación de imágenes. Se trata de LAION-5B, que presume tener más de 5.000 millones de pares de imágenes-texto filtrados.

No debemos confundir a Have I Been Trained? con Lexica. Este último es un motor de búsqueda que arroja resultados con imágenes ya generadas por IA. El que mencionamos en este artículo, en cambio, se sitúa varios pasos antes, es decir, en las imágenes que alimentan estos programas.

Utilizar Have I Been Trained? Es muy sencillo. Tenemos la posibilidad de buscar imágenes por texto y por búsqueda inversa (como también ofrece Google en su buscador). La que nos interesa en este caso es la búsqueda inversa. Simplemente haz clic en el icono de la cámara, carga la imagen de interés y espera.

Haveibeentraine2

Una vez finalizada la búsqueda, la página mostrará un mosaico con las coincidencias más cercanas y un porcentaje de similitud. En nuestro caso hemos cargado una imagen de un vaso de café y Have I Been Trained? Nos ha dicho que esta tiene un 75% de similitud con las que se encuentran en la base de datos.

En caso de hallar una coincidencia del 100% comprobaríamos que nuestra imagen ha sido incluida en LAION-5B y, por consecuencia, que podría estar siendo utilizada por algunos los generadores de imágenes actuales o incluso algunos de los que puedan llegar en el futuro para que los usuarios creen imágenes nuevas.

Have I Been Trained? Ha sido creado por un grupo de artistas que, según explican, busca ayudar a que sus pares puedan optar por que su trabajo sea utilizado por estos programas IA o, por el contrario, rechacen esta idea. Para esto último están dando los primeros pasos con una herramienta de aceptación o exclusión de imágenes.

¿Provocarán los generadores de inteligencia artificial un efecto disruptivo en el arte? ¿Qué pasa con los derechos de autor? Esta son algunas de las preguntas que se empiezan a escuchar. Lo cierto es que aún es pronto para responderlas.  La Organización Mundial de Propiedad Intelectual (OMPI) señala que solo las personas pueden ser autoras de obras creativas.

En este sentido, los trabajos realizados con programas de IA no estarían en infracción. No obstante, tanto la OMPI como otras organizaciones están evaluando adaptar sus normas a estos tiempos en los que la inteligencia artificial está en auge y la voz de los creadores empieza a hacerse escuchar. Solo con el tiempo sabremos cómo evoluciona todo esto.

En Xataka | Hay quien está combinando la IA Stable Diffusion con Photoshop. El resultado es estupendo



via Robótica e IA - Xataka https://ift.tt/Qre8Szi

martes, 6 de septiembre de 2022

Desde gatos robots hasta el casco de moto del futuro: los 'gadgets' más curiosos que nos ha dejado IFA 2022

IFA, celebrado en Berlín, es uno de los congresos más importantes de tecnología del mundo. Después de varios años con restricciones del Covid-19, la edición de este año, que cerró sus puertas hace escasos días, es la primera que se celebra con normalidad. Dejando de lado a las grandes empresas y marcas, el IFA se caracteriza porque asisten cientos de startups que nos permiten vislumbrar las tendencias del mercado de los 'gadgets', obviamente muy influenciadas por los últimos acontecimientos que ha sobrellevado nuestra sociedad, como la pandemia, el confinamiento y en último año, la crisis energética. Jardines hidropónicos para todos Uno de los grandes protagonistas que se podía ver en cada esquina del IFA fueron las plantas hidropónicas con sus tiestos inteligentes. Por ejemplo, Bosh Smart Grow permite cultivar plantas e incluso hortalizas en cualquier espacio. El Bosh Smart Grow J. O. Para utilizar el dispositivo, tan solo es necesario emplear unas cápsulas proporcionadas por Bosh con más 50 variedades de plantas, y como si fuera una Nespresso, a las semanas nos encontraremos con una planta ornamental o para cocinar. Gatos, gatos y más gatos Desde collares con GPS, a lavadoras, a ruedas de ejercicio o camas que pueden analizar la composición del gato para saber si tiene alguna enfermedad, el congreso estaba lleno de productos para nuestros felinos. Pero lo más perturbador fueron los robots gato que se podían encontrar en toda la feria. El Marscat J. O. Robots con inteligencia artificial , ideados para aquellos con alergia al pelo de los gatos, pero que ansían tener uno, imitando los juegos y comportamientos típicos de nuestras mascotas. Por ejemplo, aquí tenemos a Marscat , el primer gato biónico , interactivo y que desarrolla una personalidad propia gracias a la interacción con sus dueños. Portátiles plegables Los portátiles plegables de Lenovo y Asus se han llevado buena parte de la atención de los asistentes del congreso. Son los primeros de su clase, y buscan reinventar el concepto del portátil intentando aumentar el tamaño de la pantalla sin necesidad de incrementar volumen y peso. El Zenbook de Asus j. O. Lenovo ThinkPad X1 Fold o Asus Zenbook 17 Fold son capaces de funcionar como un portátil tradicional, con teclado, en un volumen reducido, y llegar a ofrecer 17 pulgadas cuando el espacio lo permite. Un formato de portátil revolucionario que puede representar el futuro de los ordenadores. Breezer, botellas frías en minutos Este dispositivo, es cuanto menos curioso, es capaz de ponerse en unos segundo a temperaturas bajo cero y enfriar cualquier recipiente líquido en minutos. El secreto para que no se congele la botella y se enfríe con uniformidad es hacerla rotar mientras se somete a un frío extremo. Así, este único enfriador es capaz de hacer que una botella de medio litro pase de la temperatura ambiente a 9 grados en cuatro minutos. Todo un record. El lavado de dientes más rápido Tecnología francesa que promete reducir el tiempo de cepillado de los clásicos tres minutos, a sólo 10 segundos, usando este cepillo sónico. Sólo hay que echar dentífrico, morder el cepillo, apretar el botón, y esperar 10 segundos. Según sus inventores con Y-Brush , que es como se llama este 'gadget', se consigue un cepillado un 21% mejor que con el manual gracias a sus 35.000 fibras de nylon que vibran como un cepillo eléctrico. Myhixel II, salud masculina Su creadora, la sevillana Patricia López, después de trabajar para la industria erótica, se dio cuenta de que lo que realmente demandaban muchos hombres eran productos más relacionados con la salud que con el aspecto recreativo. Especialmente aquellos con los que solucionar problemas relacionados con la eyaculación precoz. Su dispositivo está catalogado por la FDA y la Agencia Española del Medicamento como producto sanitario. J. O. Myhixel II incluye conexión Bluetooth y sensores de movimiento y velocidad entre otras características como un sistema de calefacción y vibración, resistencia al agua IPX7 o un diseño anatómicamente realista. El casco del futuro Este casco de la empresa Tali tiene alarma, luces por todos lados que se sincronizan con los intermitentes y el freno para ganar visibilidad en la carretera, llamada de emergencia. Así es el casco J. O. También funciona como baliza de seguridad en caso de accidente gracias a su GPS avisando a nuestros contactos y por supuesto se conecta con la App para hacer llamadas. MÁS INFORMACIÓN noticia No Probamos el Honor 70, otro móvil más que quiere reventar la gama media noticia No Probamos el Macbook Air con M2: así es el nuevo ordenador ligero de Apple La empresa detrás de su creación ha logrado más de 100.000 euros de financiación de mecenas y empezará a mandar sus primeras unidades el año que viene.

via Tecnología https://ift.tt/uxrLhWb

Una empresa china nombra directora general a una androide con inteligencia artificial

Antes o después tenía que ocurrir, y ha ocurrido. El pasado 26 de agosto, la empresa china NetDragon Websoft , especializada en videojuegos y creación de comunidades en Internet, ha anunciado el nombramiento de la señora Tang Yu como nueva directora general de su filial más importante, Fujian NetDragon Websoft. Nada raro, excepto por el hecho de que la 'señora' Tang Yu es, en realidad, un robot humanoide alimentado por inteligencia artificial . Según ha explicado la propia empresa, la nueva CEO tomará las decisiones durante las operaciones diarias y manejará con mucha más eficacia la gestión de riesgos. De acuerdo con la compañía, el nombramiento de Tang Yu representa un hito importante para convertirse en una 'organización metaverso'. Pero no solo eso, sino que Tang Yu «agilizará el flujo de procesos, mejorará la calidad de las tareas de trabajo y mejorará la velocidad de ejecución». Además, «Tang Yu también servirá como un centro de datos en tiempo real». Por último, se espera que Tang Yu «desempeñe un papel fundamental en el desarrollo de talentos y garantice un lugar de trabajo justo y eficiente para todos los empleados». Según Dejian Liu, presidente de NetDragon, «creemos que la IA es el futuro de la gestión corporativa, y nuestro nombramiento de la Sra. Tang Yu representa nuestro compromiso de adoptar realmente el uso de la IA para transformar la forma en que operamos nuestro negocio y, en última instancia, impulsar nuestro crecimiento estratégico futuro«. Por supuesto, el nombramiento es solo el p rimer paso de una larga serie de hitos que, prometen desde la empresa, se irán cumpliendo «durante los próximos años.» De cara al futuro -prosigue Deijian Liu-, continuarán ampliando los algoritmos detrás de Tang Yu «para crear un modelo de gestión abierto, interactivo y altamente transparente a medida que nos transformamos gradualmente en una comunidad de trabajo basada en metaverso, lo que nos permitirá atraer una base mucho más amplia de talentos en todo el mundo y ponernos en una posición para lograr metas cada más grandes». MÁS INFORMACIÓN noticia No 'AI. More than human', una exposición para conocer la historia de la inteligencia artificial noticia No Un robot le rompe un dedo a un niño en Rusia durante una partida de ajedrez Lo que el presidente de NetDragon no explica es, por ejemplo, cómo se comportará la 'señora Tang yu' en una negociación sindical , o si considerará a los trabajadores como meras piezas de una maquinaria mayor, siempre sustituibles o prescindibles. Sería interesante saber, además, cuál será el procedimiento para pedirle a la 'jefa' un aumento de sueldo...

via Tecnología https://ift.tt/bw56dD4

viernes, 2 de septiembre de 2022

Alguien ha creado Lexica, un buscador de imágenes generadas por Stable Diffusion: así puedes aprovecharlo

Alguien ha creado Lexica, un buscador de imágenes generadas por Stable Diffusion: así puedes aprovecharlo

Stable Diffusion, uno de los más recientes generadores de imágenes que han aparecido, no deja de crecer. Gracias a su esencia de código abierto, miles de personas están adaptándolo para crear soluciones que nunca antes habíamos visto, versatilidad que otros generadores como DALL-E 2 de OpenAI y Make-A-Scene de Meta no tienen debido a las restricciones de acceso su código fuente.

En pocas semanas, el modelo de generación entrenado con el conjunto de imágenes LAION-Aesthetics pasó de ser un completo desconocido a uno de los más populares. Ahora que la cantidad de imágenes generadas crece día a día, algunas estupendas, el desarrollador Sharif Shameem presentó Lexica, un motor de búsqueda de imágenes e indicaciones de Stable Diffusion disponible para todos.

Buscando entre millones de imágenes

Como mencionamos anteriormente, Stable Diffusion tiene la capacidad de generar imágenes fotorrealistas a partir de texto, y aunque el programa responda a cualquier cosa que le pidamos en inglés, los resultados serán más precisos si utilizamos indicaciones detalladas y de manera ordenada. Precisamente, el alto nivel de control que tienen los usuarios es una de las ventajas de estos modelos.

El problema es que si utilizamos indicaciones aleatorias omitiendo detalles sobre el estilo (¿queremos una imagen fotorrealista o una pintura al óleo?), el nivel artístico (preferimos Leonardo DaVinci o Van Gogh), y los parámetros de iluminación (Unreal Engine o esquema triádico), puede que el resultado no sea el esperado. Un recursos para "entrenarnos" en el uso de esta IA puede ser Lexica.

Stable Diffusion Lexica 3

Al ingresar a lexica.art encontramos una interfaz muy sencilla. Debajo del nombre del motor de búsqueda, una leyenda nos indica que buscaremos entre más de 5 millones de imágenes e indicadores de Stable Diffusion. Antes de empezar a buscar puedes desplazar la cuadrícula hacia abajo y seleccionar cualquiera de las imágenes existentes. Esto te permitirá ver las indicaciones que se han estado utilizando.

Lexica 2

Si haces clic en Copy URL y abres el enlace copiado podrás encontrar las otras composiciones generadas en base a la indicación original. De esta forma podrás encontrar con mayor facilidad inspiración para tus propias creaciones y hacerte una idea de las indicaciones que tendrás que ingresar para que finalmente se hagan realidad o sean lo más parecidas a lo que imaginas. También puedes utilizar el cuadro de búsqueda de la página principal para afinar los resultados.

En caso de que quieras empezar a hacer tus propias creaciones, tienes varias alternativas para usar Stable Diffusion. Puedes empezar con DreamStudio, un front-end que funciona con créditos (obtienes 200 créditos al registrarte gratuitamente) y que es muy fácil de utilizar. También tienes la posibilidad de combinar las capacidades de esta IA con Photoshop, GIMP y otras herramientas. Hay quien ya lo está haciendo y los resultados son asombrosos.



via Robótica e IA - Xataka https://ift.tt/AlihyLw