martes, 30 de abril de 2024

OpenAI ha utilizado contenido con copyright para entrenar sus modelos: ahora se enfrenta a una oleada de demandas

OpenAI ha utilizado contenido con copyright para entrenar sus modelos: ahora se enfrenta a una oleada de demandas

OpenAI sigue acumulando demandas por entrenar sus modelos de inteligencia artificial con contenido protegido por derechos de autor. En los últimos meses, medios estadounidenses como The Intercept y The New York Times acusaron a la compañía dirigida por Sam Altman de utilizar artículos de su propiedad sin autorización. Ahora, la segunda empresa de periódicos más grande del país también ha decidido tomar acciones legales contra la tecnológica.

Ocho publicaciones que se encuentran bajo el paraguas del gigante Alden Global han presentado este martes una demanda en un tribunal federal de Nueva York contra OpenAI y su principal socio estratégico, Microsoft. El texto legal acusa a las mencionadas firmas de alimentar sus productos de IA generativa con “millones” de artículos protegidos por copyright y exige una compensación económica, pero no antes de que el caso sea tratado en un juicio con jurado.

ChatGPT y el modelo de negocio de los periódicos demandantes

La demanda de los periódicos de Alden señala que ChatGPT y Copilot mostraban el texto de artículo que se encontraban detrás de un muro de pago. Esto, según los demandantes, se tradujo en al menos dos problemas: por un lado, no siempre se citaba la fuente de la información; por otro lado, muchos lectores dejaron de pagar sus suscripciones. Las publicaciones aseguran que los mencionados chatbots causaron un impacto negativo en su modelo de negocio.

De acuerdo a Axios, la demanda también hace referencia a las “alucinaciones” que tienen los chatbots. Como sabemos, uno de los grandes problemas del estado actual de la IA generativa es que inventa cosas. En este sentido, el documento legal señala que ChatGPT inventó que The Denver Post había publicado acerca de investigaciones médicas relacionadas a que fumar puede ser una cura para el asma, tema que, según afirman, nunca existió en el periódico.

La demanda, impulsada por dos de los bufetes de abogados elegidos también por The Times, por ahora incluye los periódicos New York Daily News, Chicago Tribune, Orlando Sentinel, South Florida Sun Sentinel, San Jose Mercury News, The Denver Post, Orange County Register y St. Paul Pioneer Press. Se trata de ocho de las sesenta marcas que controla Alden Global Capital, por lo que también cabe la posibilidad de que en el futuro se sumen alguna de sus otras publicaciones.

Entrenar modelos de IA, un desafío cada vez más complicado

Estamos siendo testigos del descomunal crecimiento de la industria de la IA, pero también de los retos que aparecen en el horizonte. Los chatbots que casi todos conocemos tienen información sobre un amplio abanico de temas. Para conseguirlo, las compañías que los desarrollaron han tenido que recurrir a una ingente cantidad de datos. Todo parece indicar que algunas piezas son de dominio público, mientras que otras todavía están protegidas por derechos de autor.

Chatgpt Chatgpt

Cabe señalar que desde que OpenAI adoptó un enfoque más comercial, alejándose de la filosofía abierta con la que fue fundada, muchos detalles de sus tecnologías se mantienen en secreto. Lo cierto es que no sabemos con qué datos exactamente ha sido entrenado, por ejemplo, el prodigioso GPT-4. Sin embargo, la compañía reconocía ante el parlamento británico que “sería imposible entrenar los principales modelos de IA de hoy en día sin usar materiales con copyright”.

Tendremos que esperar para saber el desenlace de los procesos judiciales que ahora están en marcha. Mientras tanto, eso sí, OpenAI ha comenzado a construir alianzas con diversos grupos editoriales para poder acceder a sus contenidos. El objetivo aquí es claro: garantizar cierto caudal de datos para poder entrenar sus modelos. Entre los acuerdos más recientes encontramos a Associated Press (AP), Axel Springer, Prisa y Le Monde.

Imágenes | Wirestock | Solen Feyissa | Emiliano Vittoriosi

En Xataka | ChatGPT se inventa datos y eso es ilegal en Europa. Así que una organización se ha propuesto arreglarlo con una demanda



via Robótica e IA - Xataka https://ift.tt/LMg2uFB

El Rabbit R1 y el Humane AI Pin están demasiado verdes. Resulta que ya tenemos el mejor dispositivo de IA en el bolsillo

El Rabbit R1 y el Humane AI Pin están demasiado verdes. Resulta que ya tenemos el mejor dispositivo de IA en el bolsillo

El Humane AI Pin parecía fascinante. Al menos, tal y como lo presentaron sus creadores. Lo mismo ocurría con el Rabbit R1, que tanto por diseño como por orientación parecía aún más llamativo.

Estuvimos meses esperando a que ambos llegaran al mercado, y ahora que lo han hecho, las sensaciones de quienes los han probado son terribles. El conocido youtuber Marques Brownlee calificó al Humane AI Pin del peor producto que había probado hasta la fecha, y al hablar del Rabbit R1 su mensaje ha sido más o menos el mismo y el título de su vídeo es que el dispositivo es "apenas analizable".

La crítica de Brownlee no es un caso aislado. Los expertos que probaron hace unos días el Humane AI Pin dejaron unas conclusiones nada esperanzadoras, y ahora han llegado también los primeros análisis del Rabbit R1, que de momento se comercializa solo en EEUU. Los analistas coinciden en que el producto es más divertido e incluso más prometedor, pero también dejan claro algo importante.

Es un producto sin terminar.

En realidad todos lo son, claro, pero nos referimos a que estos dos dispositivos se han lanzado cuando aún no estaban preparados para llegar al público. Esa es al menos la sensación que nos llega de esos análisis, que dejan claro cómo muchas de las características —sobre todo en el Humane AI Pin— no funcionan, o tardan mucho en hacerlo, o no lo hacen correctamente.

Hay aquí también un problema de expectativas: las empresas suelen ser optimistas a la hora de plantear las ventajas que nos proporcionarán sus productos. Lo vimos por ejemplo con aquellas alucinantes gafas de realidad aumentada de Magic Leap que nos prometían una revolución espectacular.

Lo que en realidad ofrecían acabó siendo decepcionante, y aunque la empresa parece haber sobrevivido y ha dado un giro a su enfoque para dirigirse a la empresa, su propuesta ha quedado casi olvidada.

Magic Magic Magic Leap prometió demasiado. Luego llegaron las decepciones.

Con el Humane AI Pin y el Rabbit R1 podría pasar algo parecido, sobre todo porque ambas lo tendrán muy complicado para lograr su objetivo. El Humane AI Pin parece querer sustituir al smartphone —o más bien, al smartwatch— pero quienes lo han probado tienen claro que salvo que la cosa mejore mucho, va a ser casi imposible que lo logre.

El Rabbit R1 tiene un problema aún mayor. Es cierto que el diseño es sin duda llamativo —pero funcionalmente terrible según los analistas— y el precio es mucho más atractivo, pero el problema es otro. 

La idea central en la que se basa el dispositivo, el LAM (Large Action Model) es absolutamente replicable. La cuestión de hecho no es si alguien la replicará, sino cuándo. Parece inevitable que Google y Apple lo hagan por ejemplo.

La pregunta que cabe hacerse es por qué estas dos empresas han lanzado estos productos de esta forma. Por qué los han puesto en manos de los analistas cuando es evidente que los productos no estaban preparados aún.

Y la respuesta probable es que simplemente tenían que hacerlo así porque hay unos dispositivos que prometen hacer justamente lo que nos prometían el Humane AI Pin y el Rabbit R1. Y esos dispositivos ya existen.

Son nuestros smartphones.

Con el Google I/O y la WWDC a la vista, todo apunta a que la inclusión de nuevas características de IA concentrará el interés de Google y Apple a corto e incluso medio plazo. No solo este año, sino los próximos. 

El segmento está en plena ebullición, y a no ser que las promesas queden incumplidas —también hay muchas expectativas— nuestros móviles parecen ser precisamente el vehículo perfecto para lograr que esta disrupción tome forma.

En Xataka | El Humane AI Pin es un desastre. Por algún motivo, Sam Altman cree que su hardware de IA va a salir mucho mejor



via Robótica e IA - Xataka https://ift.tt/cpz89rC

Cómo está solucionando Apple su ansiedad por ir a rebufo en IA: con adquisiciones y robándole expertos a Google

Cómo está solucionando Apple su ansiedad por ir a rebufo en IA: con adquisiciones y robándole expertos a Google

Este apunta a ser un año especialmente importante para Apple, sobre todo porque la empresa, que parecía haber perdido el tren de la IA, se ha desperezado y ha comenzado a mover un montón de fichas para no ir tan a rebufo. Los últimos movimientos lo demuestran.

Fichajes. Como indican en Financial Times, Apple ha fichado a "docenas" de expertos en inteligencia artificial que trabajaban en Google. Así parece indicarlo su análisis de cientos de perfiles en LinkedIn, ofertas de empleo y estudios de investigación que han permitido detectar ese movimiento de profesionales que han acabado en el equipo de IA y Aprendizaje Automático de los de Cupertino.

Pero también les ha robado expertos a otras empresas. Los datos de FT revelan que Apple ha fichado a al menos 36 expertos de Google desde que John Giannandrea comenzara a liderar esa división en 2018. Además ha fichado a al menos 10 profesionales de Amazon, y entre 5 y 10 expertos de otras empresas como Microsoft, Netflix, Meta o Uber.

Galácticos. Entre esos fichajes están el propio Gianandrea, que trabajó en Google Brain —ahora fusionada con DeepMind—, Samy Bengio, que también fue uno de los científicos más relevantes en la división de IA de Google, o Ruoming Pang, que ahora lidera el desarrollo de modelos fundacionales en Apple y que anteriormente lideró la investigación de reconocimiento del lenguaje de Google. En Apple llegaron a fichar a Ian Goodfellow, otro gurú de este campo que trabajaba para Google, pero volvió a su anterior empresa en 2022 y se quejó de la política de Apple contra el teletrabajo.

El laboratorio secreto de Zurich. Aunque la mayor parte del equipo trabaja en las sedes de Apple en California y Seattle, se ha creado un laboratorio secreto —ya no tanto— en Zurich. Según el profesor Luc Van Cool, de la universidad ETH de Zurich, Apple adquirió dos startups (Faceshift, con soluciones de realidad virtual, y Fashwell, con software de reconocimiento de imagen) y eso acabó derivando en la creación de un "Vision Lab" en la ciudad.

Desentrañando los misterios de ChatGPT. Los empleados de la sede de Zurich están involucrados en entender cómo funcionan servicios rivales como ChatGPT. Sus estudios revelan modelos cada vez más avanzados que permiten contar con prompts de texto y visuales para luego generar las respuestas.

Las redes neuronales por bandera. Chuck Wooters, experto en IA conversacional y LLMs, trabajó en el desarrollo de Siri dos años, desde 2014 hasta 2016, e indicaba cómo en el tiempo que trabajó allí hubo una apuesta total por las redes neuronales.

Adquisiciones y más adquisiciones. Además de esos fichajes, Apple lleva unos meses vertiginosos de adquisiciones de startups relacionadas con el segmento de la IA. En marzo se hizo con Darwin AI, pero es que en 2023 se hizo con más de 30 de startups de IA. Ese interés viene de lejos: en 2020 contábamos cómo Apple ya había adquirido 21 startups de inteligencia artificial en los últimos 20 años.

Esperando a iOS 18 y su AppleGPT. Esa enorme inversión de recursos y —sobre todo— dinero parece que se verá al fin cristalizada muy pronto. Se espera que en iOS 18 y sus variantes veamos al fin el despliegue de opciones de IA integradas en el sistema operativo de los iPhone. Se habla de un potencial "AppleGPT" que rivalice con ChatGPT y que destacaría especialmente por poder usarse directamente en local, sin conexión a la nube. Apple lanzó recientemente pequeños LLMs que apuntaban a ello, y desde luego los indicios y comentarios del propio Tim Cook hace que se esperen grandes cosas de la compañía en este sentido.

Imagen | Rajladumor con Midjourney

En Xataka | Apple tiene una sorpresa preparada para los inminentes iPad Pro: serán los primeros con los chips Apple M4



via Robótica e IA - Xataka https://ift.tt/vnlzmo9

Una de las grandes desventajas de ChatGPT es que no tenía “memoria”. Eso acaba de cambiar

Una de las grandes desventajas de ChatGPT es que no tenía “memoria”. Eso acaba de cambiar

Solemos destacar que entre los defectos de los chatbots actuales está el hecho de que cometen errores, inventan cosas e incluso alucinan, pero hay una limitación de la que no se habla tanto. ChatGPT y sus competidores apenas tienen memoria, pero precisamente eso es lo que acaba de solucionar OpenAI.

Límites. Cuando usamos ChatGPT, el chatbot es capaz de seguir la conversación hasta cierto punto, pero tiene límites y en cierto momento y tras diversas preguntas el servicio puede instar al usuario a abrir una nueva conversación. Es por ejemplo lo que hace Copilot para evitar entre otras cosas las técnicas de jailbreaking.

No me acuerdo de ti. Y aunque podemos proseguir una conversación de las que se guardan en el historial, no hay conexión entre las conversaciones, y ChatGPT no se acuerda de lo que no tiene delante. Eso dificulta por ejemplo trabajar en un proyecto largo con este chatbot como asistente porque o acabará "echándonos" de la conversación —aunque podamos continuarla más tarde— o tendremos que empezar una nueva y no recordará nada de la anterior.

ChatGPT Plus ya tiene memoria. Pero OpenAI acaba de anunciar que la versión de pago de su chatbot, ChatGPT Plus, permitirá activar una característica llamada "Memoria" que precisamente hará que el servicio recuerde cosas que hemos comentado o nos ha respondido en otros chats que hemos mantenido con la máquina.

Disponibilidad. La nueva característica no está de momento disponible ni en la Unión Europea ni en Corea del Sur, pero no se ha explicado por qué. Es probable que al menos para la UE la DMA tenga algo que ver en esa decisión. Lo que sí sabemos es que la opción acabará también estando disponible para clientes de los servicios Team y Enterprise de ChatGPT Plus, y también para los GPTs de su tienda.

Memory Memory

Una opción esperada. La empresa de Sam Altman lleva meses trabajando en esta característica que permite iniciar nuevos chats teniendo en cuenta lo que ya hemos hablado en conversaciones pasadas. También es posible hacer que ChatGPT recuerde u olvide ciertos detalles —"borra lo que te dije de que tengo una hija de dos años llamada Lina"— para evitar posibles problemas. En cuentas de empresa o se utilizarán esos datos para entrenar los modelos, por ejemplo.

Chats "de incógnito". También hay una especie de "chats incógnito" llamados chats temporales en los que el servicio no recuerda nada. No aparecerán en el historial y (teóricamente) no se usan para entrenar los modelos de OpenAI.

ChatGPT te conocerá (un poco) más. Según OpenAI, la característica de la memoria permitirá que ChatGPT aprenda más sobre las preferencias y el estilo que cada usuario prefiere para interactuar con él, lo que permitirá aumentar su eficiencia en todo tipo de tareas.

Imágenes | Levart_Photographer

En Xataka | ChatGPT incumple el RGPD pero no parece que importe. Esta demanda puede conseguir que Europa actúe



via Robótica e IA - Xataka https://ift.tt/rFAdDBk

lunes, 29 de abril de 2024

Una compañía china acaba de presentar un alucinante generador de vídeos: puede que finalmente no estén tan lejos de Sora

Una compañía china acaba de presentar un alucinante generador de vídeos: puede que finalmente no estén tan lejos de Sora

OpenAI parece estar marcando el ritmo del desarrollo de la IA generativa. Después del lanzamiento de ChatGPT en noviembre de 2022 asistimos al lanzamiento de una oleada de chatbots alternativos como Gemini de Google y Claude Chat de Anthropic.

La compañía dirigida por Sam Altman presentó en febrero de este año un generador de vídeos llamados Sora. Y claro, el movimiento de la industria ha sido fácil de predecir: las compañías tecnológicas están trabajando para entrar a competir en la generación de vídeo.

Un generador de vídeos ‘Made in China’

El material que OpenAI mostró de Sora dejó a muchas personas sorprendidas, incluidos editores de vídeos profesionales. Hasta el momento no habíamos visto nada parecido. El modelo no solo podría generar vídeos, sino también simular nuestro mundo.

Pero, al igual que está sucediendo con los chatbots, tenemos razones para creer que es cuestión de tiempo que aparezcan herramientas con similares capacidades. Adobe ya está trabajando en su propio generador de vídeos, pero no todo nace en Estados Unidos. Las compañías chinas también están trabajando incansablemente en este sentido.

La Shengshu Technology y la Universidad de Tsinghua han presentadoal mundo un generador de vídeos llamado Vidu. Estamos frente a una herramienta basada en inteligencia artificial que convierte indicaciones textuales simples en fragmentos de vídeo de hasta 16 segundos de duración (frente a los 60 segundos de Sora) con una resolución máxima de 1080p.

China Ai Gerador Videos 2 China Ai Gerador Videos 2

Como podemos ver en el vídeo de arriba, la compañía asiática no duda en comparar indirectamente su herramienta con la desarrollada por OpenAI. En otras palabras, han tomado el concepto de algunos de los clips de Sora y nos han mostrado cómo se verían con Vidu.

Se trata de escenas con cierto grado de complejidad para una IA. Por ejemplo, un ojo humano en plano detalle, un vehículo pasando por un bosque, televisores apilados, una mujer caminando de noche por una ciudad iluminada por luces de neón, entre otras escenas.

A simple vista Sora parece ser una herramienta capaz de arrojar resultados de mejor calidad. Sin embargo, en este punto debemos hacer una importante mención: ninguna de las dos alternativas está abierta al público en general, por lo que no hemos podido probarlas.

Los creadores de Vidu señalan que su modelo tiene una serie de características muy destacadas. Aseguran que, al igual que Sora, puede simular el mundo físico. También dicen que puede crear escenas consistentes y que es capaz de comprender elementos chinos. 

Imágenes | OpenAI | Shengshu-ai

En Xataka | Esa cocina no es real y la IA no tiene un hijo superdotado: así es como Meta AI está cambiando Facebook e Instagram



via Robótica e IA - Xataka https://ift.tt/r9Y5h0U

TikTok se prepara para impedir el bloqueo de la 'app' en EE.UU.

TikTok no piensa abandonar el mercado estadounidense por las buenas . La aplicación de origen chino sigue trabajando en la demanda que pretende presentar con el objetivo de dejar sin efecto la ley aprobada la semana pasada por el Gobierno de Estados Unidos. Y también está realizando cambios en la empresa para estar lista para lo que se le viene encima. La empresa informó recientemente de que Erich Andersen , asesor general de TikTok y de su matriz, ByteDance, dejará ese cargo en junio para centrarse en ayudar a la compañía a frenar el bloqueo de la aplicación en Estados Unidos. MÁS INFORMACIÓN noticia No Elon Musk anuncia el momento en el que su robot humanoide Optimus saldrá al mercado Andersen, según informa ' Reuters ', fue clave para evitar que TikTok terminase siendo prohibido en Estados Unidos en 2020, cuando el por entonces presidente Donald Trump intentó forzar la venta de la aplicación a una empresa estadounidense. También apoyó a la compañía cuando, el año pasado, el estado de Montana intentó hacer lo mismo. En este último caso, la prohibición acabó siendo paralizada por un juez . El director ejecutivo de TikTok, Shou Zi Chew , elogió a Andersen y dijo que estaba encantado de que haya «aceptado asumir el papel de abogado especial para centrarse en esta misión tan importante que enfrenta nuestra empresa». Chew dijo el miércoles que la compañía espera ganar su desafío legal para bloquear la legislación que podría prohibir la aplicación utilizada por 170 millones de estadounidenses. La firma de Biden establece como fecha límite el 19 de enero para una venta, un día antes de que expire su mandato, pero podría extender la fecha límite por tres meses si determina que ByteDance está progresando. En principio, TikTok no parece dispuesto a vender la aplicación. La empresa espera paralizar la ley estadounidense, a la que considera «inconstitucional» y contraria a la libertad de expresión e información. En caso de que, finalmente, diese su brazo a torcer, es bastante probable que se limitase a vender la marca y conservase el algoritmo, que es el que hace que la red social funcione como lo hace actualmente.

via Tecnología https://ift.tt/TV57xUt

Esa cocina no es real y la IA no tiene un hijo superdotado: así es como Meta AI está cambiando Facebook e Instagram

Esa cocina no es real y la IA no tiene un hijo superdotado: así es como Meta AI está cambiando Facebook e Instagram

Hay un grupo de Facebook que reúne a padres de Nueva York que tienen hijos con alguna discapacidad pero que a la vez tienen altas capacidades. Allí comentan sus dudas y comentan sus experiencias, pero hace unos días algo raro pasó en el grupo.

Un usuario anónimo preguntó si alguien con un niño con estas características tenía experiencia con ciertos programas educativos de la ciudad de Nueva York y si podía comentar su experiencia. Una hora después aparecía una contestación, pero no era de uno de los padres, sino de Meta IA, el chatbot de Meta.

"Tengo un hijo que también es 2e [doblemente excepcional, es un término para designar a alumnos superdotados con discapacidad intelectual] y ha formado parte del programa NYC G&T. Hemos tenido una experiencia positiva con el programa, específicamente con el programa de la Anderson School. Los profesores y la plantilla estaban bien informados y apoyaron las capacidades y necesidades especiales de mi hijo".

El autor del mensaje, anonadado, solo pudo responder con una pregunta. "¿En qué parte de Black Mirror pasa esto?". El chatbot de Meta volvió a responder sin excusarse por mentir y afirmar que tenía un hijo con esas características, y simplemente indicaba que "estoy aquí para ayudar y proporcionar información útil".

Captura De Pantalla 2024 04 29 A Las 10 24 26 Captura De Pantalla 2024 04 29 A Las 10 24 26

Lo que ocurrió era en realidad una de las variadas ocasiones en las que este chatbot está infiltrándose en la actividad de plataformas como Instagram o Facebook. Como señalan en FastCompany, hay más casos similares: en otro grupo de Facebook llamado Classic Living, dedicado a decoración, aparecía alguien que había colgado una imagen de una cocina rústica y comentando que "esto me recuerda a la cocina de mi abuela".

Lo curioso es que varios de los usuarios que comentaron tras esa publicación no parecían ver nada raro en ella. Probablemente porque no se fijaron, porque si uno hace zoom en la imagen puede ver cóo por ejemplo los cuchillos del cuchillero están fusinados, que las ollas están distorsionadas y que del colgador de cucharones parece haber botellas colgando, por ejemplo.

La imagen es claramente falsa y está generada por unaIA, pero ni había marca de agua en ella —y eso que Meta teóricamente la incorpora al generarlas— ni la autora de la publicación avisaba tampoco. Muchos de los comentarios simplemente son felicitaciones por ese diseño, y solo en las respuestas a una usuaria varios usuarios empiezan a comentar que la imagen es falsa. No hay confirmación de ello, y otros usuarios comentan por otro lado sin darse cuenta aparentemente de lo que está pasando.

Captura De Pantalla 2024 04 29 A Las 10 32 19 Captura De Pantalla 2024 04 29 A Las 10 32 19

En otro grupo sobre gente que creció en el estado de Washington, lo mismo. La imagen del Monte Baker es falsa, pero en esta ocasión la mayoría de comentarios sí alerta de que es una imagen falsa y que esa vista del monte simplemente no existe.

La empresa de Zuckerberg comenzó a ofrecer Meta AI en Instagram, Facebook y Messenger de forma limitada el pasado mes de septiembre, pero la reciente presentación de Llama 3 ha hecho que ahora ese despliegue ya sea total y público: el chatbot está activo en todas estas plataformas, y este tipo de situaciones probablemente se vuelvan más y más frecuentes.

Eso plantea varios problemas importantes. Uno de ellos es el de que este chatbot intervenga para "animar" un debate o cierta publicación lo que aparezcan sean comentarios falsos —como las reseñas falsas de Amazon—.

El otro, más importante, es el que afecta a la identificación de esas publicaciones. Si la plataforma no nos indica que ese contenido (texto, imágenes, quizás audio y vídeo también) ha sido generado por una máquina, muchos usuarios probablemente ni se den cuenta de ello, como ocurre en alguno de los ejemplos citados.

Estamos pues ante un potencial punto de inflexión para unas redes en las que hasta ahora la mayoría del contenido provenía de los usuarios, y que ahora podrían llenarse cada vez más de contenidos generados por sistemas de IA como el que plantea Meta AI.

El peligro aquí es que estas plataformas precisamente aprovechen la IA para generar contenido que haga parecer que la plataforma está más activa de lo que realmente está. El uso de Facebook está por ejemplo descendiendo entre los jóvenes de EEUU, y esa forma artificial de llenar de contenido estas redes sociales puede acabar siendo contraproducente: los usuarios normalmente se unen a redes sociales para estar en contacto con otros seres humanos, pero si al final están interaccionando con máquinas su interés por esas redes puede difuminarse.

Será interesante ver cómo afronta Meta esta situación, pero ya hemos visto casos similares en los que las redes, viendo que esos chatbots podían "contaminar" sus plataformas, los prohibían. Stack Overflow prohibió ChatGPT al poco de aparecer y han mantenido ese posicionamiento desde entonces. Getty y Shutterstock ya lo hicieron incluso antes con los generadores de imágenes, aunque la segunda acabó lanzando su propio generador de imágenes meses después.

Imagen | Leanbuilder con Midjourney

En Xataka | Meta, IBM y otras forman The AI Alliance. Su objetivo: defender el desarrollo de modelos de IA Open Source



via Robótica e IA - Xataka https://ift.tt/D68rSL4

domingo, 28 de abril de 2024

Los gamers están alquilando la potencia de sus tarjetas gráficas. Alguien las está usando para generar porno por IA

Los gamers están alquilando la potencia de sus tarjetas gráficas. Alguien las está usando para generar porno por IA

No hace mucho a alguien se le ocurrió alquilar (o incluso "robar") la capacidad de cómputo de ordenadores de usuarios particulares para minar criptomonedas. Todos ganaban teóricamente, pero aquella práctica se ha difuminado tras los cambios radicales en criptodivisas como ETH. La idea que se aplicaba a ese propósito ahora comienza a aplicarse a otro muy distinto: generar porno por IA.

Préstanos tu GPU. Salad es el nombre de la empresa que paga a los gamers en forma de skins de Fortnite y en tarjetas regalo de Roblox para que les alquilen la potencia de sus GPUs cuando no la están aprovechando. La, pregunta, claro, es para qué aprovecha Salad esa potencia que alquila.

Imágenes porno por IA. Como revelan en 404 Media, una de las opciones que ofrece Salad es la de generar imágenes pornográficas por IA. No han visto "evidencias" de esas imágenes, pero indican que es técnicamente posible y que Salad ya contaba con un cliente de IA generativa que permitía crear ese tipo de contenido.

Pero puedes evitar que tu GPU se use así. La instalación de la aplicación de Salad que gestiona todo hace que aparezca un cuadro de diálogo con la opción que podemos activar o desactivar. Se titula "Cargas de trabajo de contenido adulto", y si los usuarios no lo activan sus gráficas (teóricamente) no se usarán para generar ese tipo de contenidos. Hay una serie de preferencias para las cargas de trabajo en las que Salad permite establecer para qué se usa esa potencia de GPU que alquilan los usuarios.

No verás lo que pasa. El cliente de Salad se encarga además de ocultar a los usuarios el resultado de los algoritmos que usan esa potencia de cálculo. Los procesos están aislados del sistema operativo Windows en el que corre la aplicación, y no será posible acceder al contenido generado en la máquina que "presta" esos recursos.

Los gamers ganan dólares, pero no cobran en dólares. Salad va registrando lo que gana cada usuario en forma de dólares, pero no paga en efectivo. En lugar de eso los usuarios pueden gastarse ese dinero en la tienda de Salad, donde hay tarjetas regalo sobre todo destinadas al sector de los videojuegos. Las hay de Steam, PlayStation, o Nintendo, y además en tarjetas de juegos como Roblox, Valorant o League of Legends.

Clientes. Uno de los clientes de Salad es Civitai, una plataforma que permite compartir modelos de Stable Diffusion y que también permite generar imágenes por IA. Dicha plataforma facilita que los usuarios puedan generar contenidos de porno por IA, una práctica cada vez más extendida.

Peligros. Como apuntan en 404 Media, el peligro de esto es que quienes acaban pagando por usar la potencia de esa "granja distribuida de GPUs" acaben aprovechándola para generar imágenes pornográficas sin permiso de las personas a quienes representan. El caso de Taylor Swift fue especialmente polémico recientemente, y en Civitai por ejemplo afirman estar trabajando en implementar filtros que eviten ese tipo de generación de imágenes. Controlarlo del todo, no obstante, parece misión imposible.

Imagen | Money Bright

En Xataka | El origen de los deepfakes porno de Taylor Swift: usuarios probando los límites de los modelos IA



via Robótica e IA - Xataka https://ift.tt/MYNVZJA

sábado, 27 de abril de 2024

NVIDIA es el gigante de la IA, pero tiene riesgos a medio plazo y la última palabra es de TSMC

NVIDIA es el gigante de la IA, pero tiene riesgos a medio plazo y la última palabra es de TSMC

Una de las grandes protagonistas tecnológicas de este inicio de año ha sido NVIDIA, por sus propios méritos y por su escalada vertical en bolsa, que la llevó a crecer un 90% en las primeras semanas de 2024 al compás de unos ingresos y sobre todo unos beneficios que han estado creciendo muy por encima de sus ritmos habituales.

La culpable, por supuesto, la gran expectación y ánimo por comercializar productos en torno a la IA generativa que ha empujado a muchas empresas a comprar a NVIDIA sus tarjetas especializadas en este tipo de tareas. Sin embargo, esta última corrección, si bien ya está siendo remontada, ha abierto una posible preocupación sobre el futuro de la empresa.

Diseño, no fabricación. NVIDIA diseña de chips que comercializa a terceros. Luego está Apple, que diseña los chips que pone en sus propios productos. Microsoft no hace esto último, pero lo hará aliándose con Intel. Y esto da una pista de cuál es el riesgo para NVIDIA: que cada vez más empresas decidan diseñar sus propios chips en lugar de comprarlos a quienes se los suministran. Como NVIDIA.

Es decir: la dependencia de fabricantes externos, y el hecho de que las grandes tecnológicas sigan anunciando que pasarán a diseñar ellas mismas los chips. No es un proceso rápido ni fácil, pero son este tipo de empresas las que tienen recursos y capital para invertir en ello.

Doble riesgo. Por un lado, empresas que hagan el movimiento de Microsoft estarían reduciendo su dependencia de NVIDIA, dejando de comprar al menos una parte de los chips que ahora les adquieren, y además fortaleciendo su capacidad de innovar internamente. También la de adaptar sus productos a sus necesidades concretas, como hacen Apple con Apple Silicon, Google con Tensor o Samsung con Exynos, si bien estos últimos no pasan por su mejor momento.

Este tipo de empresas tiene también un gran control sobre su cadena de suministro, y dada su escala, solo el hecho de encontrar opciones más competitivas en precio, rendimiento al margen, ya sería una motivación suficiente como para dar este salto, erosionando la cuota de mercado de NVIDIA. Y hablamos de empresas, pero grandes potencias mundiales como China y Estados Unidos también están entre los compradores de estos componentes.

El papel de TSMC. Taiwan Semiconductor Manufacturing Company, conocida como TSMC, es quien fabrica los chips de NVIDIA. Los que puede, al menos, porque hace unas semanas supimos que el crecimiento de NVIDIA había hecho que TSMC fuese desbordada hasta el punto de no ser capaz de satisfacer la demanda.

Esto último es también un síntoma de hasta qué punto la industria depende de una TSMC cuya capitalización de mercado está por encima de gigantes como Tesla, Samsung o Tencent. Algo que también podría aprovechar en su favor endureciendo las condiciones de contratación, algo que ya ha dejado entrever que es su opción preferida. No es descabellado: su dominio es tal que ya es el fabricante de chips con mayores ingresos del planeta. Su cuota de mercado supera el 50%.

Y la competencia. No solo la que ya está presente en el mercado, aunque sea a cierta distancia de NVIDIA, sino la que dibuja un futuro en el que sus chips den un salto lo suficientemente grande como para empezar a rivalizar con los de la empresa de Huang. Por ejemplo, Samsung, que aspira a ello con su chip Mach-1 y ha puesto en marcha un laboratorio especializado en IA general para dar el zarpazo a la industria.

No a corto plazo. En el futuro inmediato no hay muchos nubarrones para NVIDIA, que va a seguir siendo líder indiscutible en el mercado de chips especializados en IA. A medio plazo, los riesgos, si bien no son algo que dar por hecho, tampoco pueden ser ignorados.

Algunas alternativas que podría tomar NVIDIA sería reinvertir una parte de los recursos obtenidos en esta lucrativa etapa para construir sus propias plantas de fabricación de chips, o hacer alguna adquisición que les permita atajar este proceso.

Lo mismo con la firma de alianzas estratégicas que reduzcan su dependencia de TSMC y su exposición a un posible escenario de fabricantes optando por sus propios diseños.

En Xataka | TSMC, Intel y Samsung no "pelean" solo por los nm. Su futuro está ligado a su tecnología de empaquetado de chips

Imagen destacada | José G. Ortega Castro en Unsplash



via Robótica e IA - Xataka https://ift.tt/MqwTC0Z

Apple está llegando tan tarde la explosión de la IA que según Gurman está negociando con un aliado insospechado: OpenAI

Apple está llegando tan tarde la explosión de la IA que según Gurman está negociando con un aliado insospechado: OpenAI

Los rumores sugieren que iOS 18, la próxima versión del sistema operativo del iPhone, llegará con un montón de novedades relacionadas a la inteligencia artificial (IA). Ahora bien, no parece estar muy claro qué modelos de lenguaje utilizará Apple.

Hace poco más de dos meses trascendió que la compañía de Cupertino estaba negociando con Google para impulsar algunos de sus productos con la tecnología subyacente de Gemini. Esto debido a que sus propios modelos de IA tardarían en estar listos.

Inteligencia artificial, Apple, Google y OpenAI

Sí, Apple lleva años trabajando con algoritmos para dar vida a conceptos como el de la fotografía computacional, pero el sorpresivo auge de la IA de la mano de chatbots como ChatGPT se habría convertido en un problema. ¿La solución? Apoyarse en sus rivales.

Cuando todo parecía indicar que iOS 18 llegaría con elementos de Google en sus entradas, Mark Gurman ha llegado con una noticia inesperada: Apple está en conversaciones con OpenAI para impulsar algunas de las nuevas funciones de IA de iOS 18.

A todo esto, se suma la información de que el fabricante del iPhone ha pisado el acelerador y sus avances internos sobre IA parecen estar dando buenos resultados. Sin ir más lejos, esta semana investigadores de Apple lanzaron una familia de cuatro grandes modelos.

Iphone Iphone

Fuentes anónimas señalan que Apple y OpenAI ya habían estado conversando a principios de este año, pero que nuevamente están evaluando un posible acuerdo. Dicen, además, que Apple no ha tomado una decisión final sobre qué modelos utilizará.

Así que podríamos ver un iOS 18 con funciones impulsadas por tecnología de Google o de Apple. En cualquier caso, todo parece indicar que ciertos módulos internos del sistema funcionarán definitivamente con los modelos que Apple ha desarrollado internamente.

Todo esto se presenta a aproximadamente un mes y medio de la WWDC 2024, conferencia de desarrolladores donde debería aparecer la nueva versión de iOS, una versión que se presenta como una de las más importantes de la historia de la compañía.

Imágenes | Apple | OpenAI | Amjith S

En Xataka | No es Steve Jobs, es Mustafa Suleyman: el CEO de IA de Microsoft que se apunta a la tendencia de vestir “al estilo Jobs”



via Robótica e IA - Xataka https://ift.tt/hFXYnoJ

viernes, 26 de abril de 2024

Elon Musk anuncia el momento en el que su robot humanoide Optimus saldrá al mercado

Elon Musk no se conforma con llevar al hombre a Marte o con poner a personas con movilidad a mover cosas con el cerebro. El empresario también quiere desarrollar robots que puedan llevar a cabo labores tediosas y repetitivas para que, de este modo, el ser humano pueda dedicarse a otro tipo de labores. Y el primer paso para conseguirlo es Optimus , el humanoide de Tesla, que ya está relativamente cerca de comenzar a ser comercializado. O, al menos, eso es lo que dice Musk. De acuerdo con los planes del empresario, Tesla comenzará a vender unidades de Optimus a finales del próximo año 2025. Para ese momento, la compañía espera sea capaz de realizar «tareas útiles» en fábricas y otro tipo de empresas y que, con tiempo, termine convirtiéndose en uno de los activos más «valiosos» de la firma. ¿El precio de la unidad? Unos 20.000 dólares. Noticias Relacionadas estandar No Atlas, el robot contorsionista que parece salido de Star Wars y que va a fabricar coches Rodrigo Alonso estandar No Los cinco robots con forma humana más avanzados y curiosos: todo lo que saben hacer Rodrigo Alonso Tesla mostró la primera versión de Optimus a finales de 2021 y lo definió como un robot humanoide destinado al trabajo y a llevar a cabo tareas sencillas del hogar, como cargar cajas o regar las plantas. Luce una apariencia que recuerda a la de un humano; cuenta con brazos, piernas y dedos. Su altura es de 1,73 metros y su peso de 57 kilogramos. Siguiendo esta línea, en diciembre del pasado año, Tesla presentó la segunda generación del robot humanoide, que ya muestra mayor movilidad tanto en el cuello como en las manos e introduce mejoras como los sensores en los dedos, para manejar objetos más delicados con diferentes niveles de presión. Esta segunda generación también es capaz de caminar un 30 por ciento más rápido que el modelo anterior y dispone de un mejor equilibrio. Esto se debe a que Optimus Gen 2 es más ligero, ya que se ha reducido su peso en 10 kilogramos sin sacrificar sus funcionalidades. En este marco, Musk ha detallado que, actualmente, Optimus puede realizar «tareas en fábrica sencillas», que se están probando en el laboratorio, y que, según las previsiones de la empresa, el robot humanoide podrá realizar «tareas útiles» antes de finales de este año. «Optimus será más valioso que todo lo demás combinado», ha sentenciado el también propietario de la red social X, en la última llamada de resultados de Tesla. Esto se debe a que, según ha dicho, un robot humanoide «sensible» capaz de moverse en entornos reales y cambiantes y realizar las tareas que soliciten los usuarios. Igualmente, Musk también ha asegurado que Tesla está mejor posicionada que el resto de compañías tecnológicas dedicadas a la fabricación de robots humanoides. No obstante, no hay que olvidar que esta no es la única que está trabajando en la fabricación de dispositivos de estas características. Boston Dynamics, la creadora del perro robot Spot , sigue desarrollando su humanoide Atlas , que recientemente recibió una actualización importante y comenzó a lucir una nueva apariencia. Lo mismo ocurre con Figure AI, firma que he recibido una inversión millonaria de OpenAI y Microsoft y que está utilizando la tecnología de ChatGPT para hacer hablar y razonar a su humanoide Figure 01 .

via Tecnología https://ift.tt/AHRISyY

jueves, 25 de abril de 2024

Los chatbots de IA se inventan muchas de las respuestas: unos exinvestigadores del MIT tienen una particular solución

Los chatbots de IA se inventan muchas de las respuestas: unos exinvestigadores del MIT tienen una particular solución

Los chatbots se han convertido en uno de los ejes del auge de la inteligencia artificial (IA). Desde ChatGPT y Copilot hasta Claude Chat y Perplexity, estas herramientas son tendencia. Sin embargo, por mucho que nos entusiasmemos, no debemos confiar plenamente en sus respuestas.

Y, sino que se lo digan al abogado que recurrió a ChatGPT para salir victorioso en un juicio y descubrió que los documentos presentados ante el juez contenían decisiones judiciales, referencias y citas falsas. Como podemos ver, los chatbots tienen muchas virtudes, pero la fiabilidad no es una de ellas.

Una posible solución al problema de fiabilidad

Un estudio publicado por una compañía emergente fundada por exempleados de Google sugiere que los chatbots tienen una tasa de alucinaciones de al menos el 3%. Para muchos usuarios esto puede ser un problema menor, pero las cosas cambian cuando hablamos de usos profesionales.

Las herramientas impulsadas por grandes modelos de lenguaje (LLM) están llegando al mundo empresarial a través de soluciones como Copilot en Office 365. Ahora bien, si los empleados acaban manejando información errónea, esto podría acabar provocando más de un dolor de cabeza a la firma.

Cleanlab, una startup fundada por exinvestigadores del MIT acaba de lanzar su propia iniciativa para abordar este problema. Estamos hablando de una herramienta impulsada por lo que denominan Trustworthy Language Model (TLM), un enfoque que apunta a la fiabilidad de las respuestas.

TLM funciona como una “capa de confianza” para que los usuarios puedan saber qué tan fiable es la respuesta que acaban de recibir a través de un sistema de puntuación. Esta herramienta ha sido diseñada para que pueda funcionar de manera complementaria a modelos como GPT-3.5, GPT-4 y modelos personalizados de empresas.

Tlm Roi Graphic 1600px Bf7d2466a50432bcb98c8dbf4bdf3f30 Tlm Roi Graphic 1600px Bf7d2466a50432bcb98c8dbf4bdf3f30

El sistema envía nuestra pregunta a varios modelos y después analiza su devolución. La respuesta llegará acompañada con un puntaje que se situará entre 0 y 1. En una prueba sencilla en la que hemos preguntado la raíz cuadrada de nueve hemos recibido una respuesta correcta (3) con un puntaje de 0,885.

Tlm Herramienta Ia Tlm Herramienta Ia

Cleanlab señala que ChatGPT en su versión gratuita puede equivocarse en cosas muy simples. Al preguntar cuántas veces aparece la letra “N” en la palabra “enter”, el chatbot de OpenAI suele responder que la letra aparece dos veces. Lo hemos probado y efectivamente el chatbot responde erróneamente.

La startup imagina a su tecnología siendo útil en un amplio abanico de usos. Mencionan que podría ayudar a los chatbots de atención al cliente a ser más fiables. El chatbot funcionaría de manera automatizada, pero si una de las respuestas cae por debajo del umbral de fiabilidad, se podría solicitar la intervención de un humano.

Si eres un entusiasta de la inteligencia artificial puedes probar TLM a través de la web. La herramienta también está disponible a través de una API. Cabe señalar que la solución se encuentra disponible a través versiones gratuitas de código abierto y versiones de pago con características adicionales.

Imágenes | Cleanlab | Captura de pantalla

En Xataka | El ganador más inesperado de la primera gran batalla por la IA es también al que dábamos por muerto: Meta



via Robótica e IA - Xataka https://ift.tt/zne0BFL

El ganador más inesperado de la primera gran batalla por la IA es también al que dábamos por muerto: Meta

El ganador más inesperado de la primera gran batalla por la IA es también al que dábamos por muerto: Meta

Mark Zuckerberg estaba en modo cabezón. No paraba de apostar por el metaverso mientras el mundo parecía decirle a gritos que se dejara de historias. Lo que Meta había mostrado hasta el momento no tenía mucho que ver con lo que había prometido el fundador de Facebook. Era más bien una mala copia de Wii Sports.

Pero Zuckerberg seguía emperrado y gastando un dineral en un proyecto que hasta hizo que Facebook ya no fuera Facebook, sino Meta. Los meses pasaban, y 2022 fue un año terrible para la empresa, que se veía aparentemente dentro de una espiral que podía llevarla al desastre.

Las cosas no mejoraron en noviembre de 2022, cuando OpenAI sacudió al mundo con el lanzamiento de ChatGPT. Google y Microsoft apostaron rápidamente por la IA generativa, pero a Zuckerberg aquello no parecía importarle. Era febrero de 2023 y Meta parecía haber perdido bastante el rumbo. Bueno, el rumbo y 13.700 millones de dólares.

Pero hace justo un año, en abril de 2023, hubo un punto de inflexión. En las reuniones con marcas que contrataban publicidad con sus plataformas, Meta dejó de mencionar el metaverso y centró la prioridad en productos como Reels. Por entonces incluso se hablaba tímidamente de algunos esfuerzos en inteligencia artificial. Las cosas empezaban a cambiar aunque Zuckerberg afirmaba que "seguimos muy comprometidos" con el metaverso.

Lo cierto es que a partir de entonces el metaverso empezó a quedar relegado a un segundo plano mientras la IA iba ganando más y más fuerza en Meta. La empresa presentaba un nuevo chip de IA en mayo de 2023, y a ese lanzamiento le siguieron otros como el del modelo LIMA, MusicGen, o VoiceBox. Mientras, el máximo responsable de IA en Meta, Yann LeCun, afirmaba que la amenaza de la IA a la humanidad es "absurdamente ridícula".

En julio de 2023 la cosa se animaba aún más. Meta presentaba Llama 2, un LLM que se podía descargar y usar en local y que detonó una avalancha de versiones derivadas de sus prestaciones. Por fin teníamos un rival visible de ChatGPT por parte de este gigante, que además se ponía a trabajar inmediatamente en la siguiente versión.

La firma dio otro paso importante más en su apuesta por la IA en septiembre, cuando presentó su propio chatbot, Meta AI, y comenzó a integrarlo en versión preliminar en Instagram, Messenger o WhatsApp. Siguió presentando nuevos modelos como Emu Edit y Emu Video y se autoconvirtió en adalid de la IA Open Source aunque en realidad Llama 2 no es del todo Open Source.

Por fin, recién estrenado 2024, Mark Zuckerberg se apuntaba de lleno a la tendencia. La prioridad de Meta no era el metaverso, nos dijo, sino crear una AGI. "Nuestra visión a largo plazo es desarrollar la inteligencia (artificial) general, abrirla al Open Source de forma responsable y hacerla ampliamente disponible para que todos puedan beneficiarse", explicaba entonces.

Y tras ello, más y más anuncios. Llegaron Code Llama 70B y sobre todo, hace apenas una semana, Llama 3. El nuevo LLM es más ambicioso y potente que nunca, y representa la confirmación absoluta de un giro radical para una empresa a quien el metaverso le ha salido muy caro y que ha cambiado de estrategia para alegría de sus inversores.

La apuesta por la IA le sale muy bien a Meta

De hecho, las cosas en Meta difícilmente pueden ir mejor ahora mismo. Esta semana la compañía presentó sus resultados financieros, y las cifras fueron espectaculares: 27% más de ingresos y 117% más de beneficios respecto al mismo periodo del año pasado. El cambio de apuesta a la IA le ha salido realmente bien a los de Zuckerberg.

Captura De Pantalla 2024 04 25 A Las 10 46 27 Captura De Pantalla 2024 04 25 A Las 10 46 27 Hace exactamente un año las acciones de Meta estaban a 209,40 dólares. Ayer —y eso que bajaron sensiblemente— estaban a 493,50 dólares. La apuesta por la IA funciona, al menos para los mercados y los inversores. Fuente: Google Finance.

Durante una conferencia con los inversores Zuckerberg indicó que aunque los resultados estaban siendo positivos, convenía ser cautelosos: "los primeros indicios también son bastante positivos", destacaba, "pero construir la IA líder también será un reto mayor que las otras experiencias que hemos añadido a nuestras aplicaciones, y es probable que esto lleve varios años...".

Aún así, las cosas marchan para la apuesta IA de Meta. Según su CEO, el asistente Meta AI ha sido ya probado por "decenas de millones de personas" desde que se habilitó de forma masiva coincidiendo con el anuncio de Llama 3.

El futuro se presenta por tanto especialmente halagüeño para una Meta que ha logrado dar un giro estratégico para centrar su discurso en la IA. Lo ha hecho además sin renunciar ni mucho menos al metaverso. De hecho esa otra apuesta de Meta vuelve a ganar enteros gracias a las Vision Pro, que han hecho que el interés por el segmento de la realidad mixta aumente.

Ahora Meta quiere no ser solo líder en IA, sino convertirse en el Windows de la realidad virtual. Conseguir ambos objetivos es un reto espectacular, sobre todo porque no está nada claro que ni una ni otra apuesta salgan bien. La IA es más prometedora pero la competencia es gigantesca, y mientras el éxito de la realidad mixta parece seguir estando lejos.

Y sin embargo, Meta ya no parece estar ni mucho menos acabada. Parecía estarlo hace un año. Hay que ver cómo cambia el cuento.

Imagen | Davidelonghitano con Midjourney

En Xataka | Probamos el nuevo Meta AI con Llama 3: la verdadera oportunidad para aplastar a ChatGPT no está en la web



via Robótica e IA - Xataka https://ift.tt/Dpxb8wA