sábado, 29 de junio de 2024

Probamos el Roborock Q Revo S: ¿el mejor robot aspiradora de 2024?

Probamos muchas aspiradoras robot a lo largo del año, y este 2024 la Roborock Q Revo S es la que se ha llevado la medalla ganadora, por tres simples razones, su sistema de navegación, las mopas giratorias y el secado de las mismas. La marca acaba de lanzar este modelo mejorado de su Q Revo del año pasado y lo hemos estado probando durante unas semanas. Lo que queda claro, no sólo en Roborock , sino el resto de fabricantes, es que el dos en uno, de fregado y aspirado, ha venido para quedarse y que se va a convertir en el estándar de limpieza en cuanto a robots aspiradora. El Q Revo S mantiene la estética del Q Revo, son difíciles de distinguir a simple vista, pero es algo más pequeña para permitir una mayor maniobrabilidad y acceso a áreas difíciles de alcanzar, de ahí la 'S'. Por lo que donde el modelo original no podía pasar, la versión nueva sí que lo hace. El único 'pero', es que también el depósito es más pequeño, lo que obliga a la máquina ir y volver a su base con más frecuencia. Esta base tiene grande proporciones. Cuenta con los depósitos de agua limpia y sucia, además del de el polvo y los deshechos que aspira, y es igual que el del modelo anterior. Es muy grande, de las mayores del mercado, pero esconde una de las funcionalidades por las que compraríamos la Revo S, el limpiador y secador de mopas que eliminan el mal olor a «trapo mojado». La potencia de succión es de 5500 Pa, gracias a ello, el robot es capaz de aspirar con igual eficiencia polvo, suciedad y desechos en una variedad de superficies, desde pisos duros hasta alfombras de pelo alto, incluso mejor que muchos de sus competidores. En este aspecto se mantiene igual que la Q Revo. El sistema de navegación de la máquina, el PreciSense LiDAR, es sensacional. Nos encanta quedarnos viendo la 'app' de Roborock cuando el Q Revo S está haciendo el mapeado, parece ciencia ficción. Este aspirador utiliza una matriz de sensores Sensient que le permite mapear y navegar por el hogar con una precisión impresionante. La nueva tecnología ReactiveAI 2.0, que lo diferencia del Q Revo, combina sensores de luz estructurada e infrarrojos, por lo que mejora aún más su capacidad para evitar obstáculos pequeños, que generalmente es donde el modelo anterior se podía 'atascar' con más facilidad. El sistema de fregado consiste en unas mopas giratorias duales que operan a 200 RPM. No van a despegar completamente la suciedad incrustada, pero funcionan muy bien. Las mopas se elevan automáticamente hasta 7 mm evitando mojar alfombras, algo más que el Q Revo, por lo que si tienes alfombras altas es una mejor opción. La configuración y el control del aspirador se realizan a través de la aplicación de Roborock. Esta permite personalizar rutinas de limpieza, establecer zonas de no acceso y ajustar la potencia de succión y el flujo de agua, aunque dejándolo como está por defecto todo funciona a la perfección. La 'app' es compatible Amazon Alexa, Google Home y Apple Siri. La Roborock Q Revo S mejora algunos de los aspectos de la que era ya una de nuestras aspiradoras favoritas del año, con una mejor navegación, mayor elevación de las mopas frente alfombras y un tamaño más compacto, manteniendo lo que más nos gustó del modelo anterior, la autonomía de la base, el LiDAR para la navegación y el secado. Ahora bien, no es un dispositivo pensado para todos los bolsillos. El precio ronda los 800 euros.

via Tecnología https://ift.tt/m4xNFRU

viernes, 28 de junio de 2024

La inteligencia artificial acaba de llevar al traductor de Google al siguiente nivel: ahora soporta 110 nuevos idiomas

La inteligencia artificial acaba de llevar al traductor de Google al siguiente nivel: ahora soporta 110 nuevos idiomas

La familia de los modelos de inteligencia artificial Gemini de Google han estado en el centro de la atención en los últimos meses, pero no son los únicos modelos importantes. PaLM 2, lanzado en mayo de 2023, destaca por sus estupendas capacidades multilingües y en la actualidad impulsa una veintena de servicios de la compañía tecnológica.

El Traductor de Google acaba de beneficiarse de las bondades de PaLM 2. Según cuenta la firma liderada por Sundar Pichai en una publicación de blog, este modelo ha permitido agregar 110 nuevos idiomas al servicio. Aunque Google lleva años incorporado nuevos idiomas gradualmente, estamos ante la mayor expansión hasta la fecha.

Más idiomas para el traductor de Google

Si bien entre los idiomas más hablados encontramos al inglés, el chino mandarín, el hindi y el español, en el mundo hay muchísimos otros idiomas. Por este motivo el Traductor de Google ahora soporta desde el cantonés, una de las lenguas más solicitadas por los usuarios, hasta el manés, que es la lengua celta de la Isla de Man.

El gigante del buscador asegura que estas nuevas lenguas representan a más de 614 millones de habitantes, algo así como el 8% de la población del planeta. Cabe señalar que, si bien algunos idiomas son tremendamente populares, otros son muy poco conocidos y se hablan en pequeñas comunidades de pueblos indígenas.

Traductor Google2 Traductor Google2

También hay idiomas que ya casi no tienen hablantes nativos, pero se han tenido en cuenta sus esfuerzos de revitalización. En este punto merece la pena destacar las ventajas de la tecnología, que abre la puerta a ofrecer traducción a un amplio abanico de idiomas más allá de su popularidad. Y, como decimos, PaLM 2 ha sido clave.

El modelo de IA fue utilizado por Google para determinar de manera eficiente qué idiomas están estrechamente relacionados entre sí, como el awadhi y el marwadi, y así admitir nuevas opciones. Ciertamente, todavía queda mucho trabajo por hacer, y la compañía promete que continuará añadiendo nuevos idiomas con el paso del tiempo.

Los nuevos idiomas ya están disponibles en el Traductor de Google, aunque no todos cuentan con las mismas ventajas. Funcionalidades como la traducción con la cámara del móvil, la traducción a partir de la voz o la lectura en voz alta puede no estar disponible en muchos de los idiomas admitidos.

Imágenes | Google

En Xataka | Organizar una quedada con amigos en WhatsApp puede ser un infierno. Los "Eventos" llegan para solucionarlo



via Robótica e IA - Xataka https://ift.tt/4q32j9S

Toys 'R' Us crea el primer anuncio hecho con inteligencia artificial

Típica casa unifamiliar de suburbio estadounidense de la primera mitad del siglo pasado. Un chaval con gafas observa la figura de una jirafa y, de repente, se queda dormido y empieza a soñar con un mundo de fantasía repleto de juguetes, muchos deformes, apilados en estanterías. Hay trenes, coches, peluches, robots y muñecas. Un poco de todo. También una jirafa enorme parlante. Y, más o menos, hasta aquí. Todo bien. El usuario pensará que se trata del típico anuncio de juguetería, en este caso de la marca Toys 'R' Us . Pero qué va. En realidad se trata de un comercial hecho casi en exclusiva mediante el uso de inteligencia artificial ( IA ) generativa. La juguetera estadounidense lo ha realizado mediante el empleo de Sora , la máquina de la empresa de ChatGPT con la que es posible crear vídeos a partir de palabras. Es suficiente con darle unas pocas instrucciones, basta con una frase en la que el usuario pida lo que quiere conseguir y, automáticamente, el software lo crea. El anuncio, el primero realizado con IA generativa, fue mostrado a inicios de semana durante la celebración del festival de cine de Cannes. Según comparte Toys 'R' Us en un comunicado , en este se trata de contar la historia del ya difunto Charles Lazarus, fundador de la juguetera «y su idea que transformó las tiendas de juguetes para siempre, presentando a la querida mascota Geoffrey la jirafa (que es la imagen oficial de la empresa desde siempre) que se le acerca en un sueño, un sueño que se hizo realidad para el deleite de generaciones de niños». «La industria creativa está experimentando un renacimiento, muy parecido a Toys'R' Us», afirmó Nik Kleverov, director del comercial. «A través de Sora, pudimos contar esta increíble historia con notable velocidad y eficiencia. Toys'R' Us es la marca perfecta para adoptar esta estrategia de avance de la IA, y estamos encantados de colaborar con su equipo creativo para ayudar a liderar el próximo ola de narraciones innovadoras». Durante los últimos días, varios profesionales creativos han mostrado su preocupación por el uso de tecnología para el desarrollo del anuncio. El auge de la IA generativa amenaza con poner en jaque numerosas profesiones, y, entre ellas, también se encuentra la de actor e, incluso, guionista o director. «Si yo fuese director o actor de cine estaría muy preocupado. Esto puede cambiarlo todo», afirmaba el pasado febrero en conversación con ABC Sergio Álvarez-Teleña, cofundador de la empresa de IA SciTheWorld, a razón, precisamente, de la presentación de Sora , la herramienta con la que se ha hecho el anuncio de Toys 'R' Us. De acuerdo con el experto, la democratización de este tipo de sistemas, el que cualquiera pueda crear el vídeo que quiera a partir de un puñado de palabras, puede provocar que sean ellos mismos, los usuarios, los que decidan el contenido que quieren consumir en cada momento. Sin necesidad de andar rebuscando por plataformas de 'streaming' a la búsqueda de algo interesante. Ellos podrán ser los creadores, directores y guionistas de sus propias cintas. Y no necesitarán tener grandes conocimientos para ello. Por el momento, Sora no está disponible . Sigue en fase de pruebas mientras la empresa creadora intenta hacer la herramienta lo más segura que sea posible. O eso dice.

via Tecnología https://ift.tt/WpzU9Id

De los creadores de Sam Altman lidera el comité que vigila los desarrollos de Sam Altman, llega GPT-4 supervisará a GPT-4

De los creadores de Sam Altman lidera el comité que vigila los desarrollos de Sam Altman, llega GPT-4 supervisará a GPT-4

GPT-4 para detectar los errores de GPT-4”, con estas palabras ha presentado el presidente de OpenAI, Greg Brockman, la más reciente propuesta de la compañía de inteligencia artificial para mejorar su modelo insignia en el campo de la programación. Estamos hablando de CriticGPT, un modelo basado en GPT-4 diseñado específicamente para detectar errores en la salida de código de ChatGPT.

La firma respaldada por Microsoft asegura que CriticGPT ha demostrado ser muy efectivo para ayudar a las personas a detectar errores en las respuestas del famoso chatbot. En pruebas internas, explican, los resultados de las personas que recibieron la ayuda de CriticGPT superaron en un 60% a las que hicieron el trabajo en solitario. Ahora, este modelo está listo para pasar a la siguiente etapa.

Una nueva herramienta para el aprendizaje por refuerzo

En las tareas de entrenamiento de modelos como GPT-4 entra en escena lo que se conoce como aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF). Se trata de una técnica de machine learning que, en líneas generales, utiliza respuestas creadas por humanos, los llamados entrenadores de la IA, para mejorar la precisión del modelo para determinadas tareas.

OpenAI comenzará a desplegar modelos similares a CriticGPT entre sus entrenadores para ayudarles a detectar los errores cada vez más sutiles que suele reproducir GPT-4 a través de ChatGPT. “Este es un paso para poder evaluar los resultados de los sistemas avanzados de IA que pueden ser difíciles de calificar para las personas sin mejores herramientas”, ha dicho la compañía en su blog.

Code Desktop Light Code Desktop Light

Pero, ¿cómo funciona CriticGPT? Como podemos ver en la imagen de arriba, el modelo escribe “críticas” a las respuestas de ChatGPT. Estas críticas no siempre son correctas, pero pueden ayudar a los entrenadores humanos a visibilizar problemas que podrían haber pasado desapercibidos. OpenAI describe a esta mecánica como una “asistencia” para el proceso de RLHF.

Gpt 4 Gpt 4

CriticGPT, al estar basado en GPT-4, también pasó por el proceso de aprendizaje por refuerzo a partir de la retroalimentación humana. Por curioso que parezca, a la luz de las pruebas, parece ser una buena idea para que ChatGPT basado en GPT-4 mejore en tareas de programación, campo donde algunos estudios han alertado el importante porcentaje de respuestas incorrectas del modelo.

La compañía también está tratando de mejorar la seguridad de sus modelos después de la disolución de su equipo de "superalineación". Para ello tiene un comité que está liderado por Sam Altman. Una de las misiones de este comité es presentar recomendaciones al consejo de administración presidido por Greg Brockman, pero de la compañía que tiene como CEO a Sam Altman.

Imágenes | OpenAI | Milad Fakurian | Village Global

En Xataka | YouTube ve un futuro en el que la IA clonará la música actual. Convencer a las discográficas no va a ser nada fácil



via Robótica e IA - Xataka https://ift.tt/1fuYT3C

miércoles, 26 de junio de 2024

Hay compañías entrenando sus modelos de IA con Reddit sin permiso: la plataforma acaba de declararles la guerra

Hay compañías entrenando sus modelos de IA con Reddit sin permiso: la plataforma acaba de declararles la guerra

Las compañías de inteligencia artificial (IA) están hambrientas de datos para entrenar sus modelos. Una de las alternativas que más utilizan para saciar este apetito es el web scraping, una técnica que permite extraer y almacenar información pública de páginas web a diestra y siniestra. La mayoría de las veces esta actividad se realiza sin el consentimiento de los creadores o los licenciatarios del contenido, por lo que no existe pago alguno de por medio.

Reddit ha anunciado una medida para frenar el web scraping no deseado. La plataforma, que es el hogar de millones de conversaciones sobre una amplia variedad de temas catalogadas en subreddits, impedirá que compañías no autorizadas puedan utilizar su contenido público. Se trata de un cambio a nivel de backend, específicamente en el protocolo de exclusión del archivo robots.txt, que se pondrá en marcha “en las próximas semanas”.

Reddit, en pie de guerra con los web scrapers

El mencionado movimiento busca restringir el acceso al contenido de la firma liderada por Steve Huffman para aquellos actores que no tienen un acuerdo con la plataforma. Durante los últimos meses, recordemos, hemos sido testigos de como gigantes tecnológicos como OpenAI, propietario de ChatGPT, y Google, creador de Gemini, han formalizado alianzas con Reddit. En otras palabras, si no tienes un acuerdo, te quedas sin acceder a los datos.

Los cambios anunciados este miércoles se han visto reflejados en la Política de contenido público de la plataforma. Cabe señalar que, aunque la compañía le está declarando la guerra a los web scrapers promete seguir ofreciendo sus contenidos a investigadores y académicos. La plataforma también dice que garantizará el acceso a moderadores y organizaciones como Internet Archive, que busca preservar los contenidos en línea.

Reddit 12 Reddit 12

En el mundo de la IA que estamos viviendo no solo importa el texto, sino también las imágenes, la música o los vídeos. Durante mucho tiempo, como hemos visto, las compañías han “raspado” la web para alimentar sus modelos con contenido de todo tipo. Firmas como OpenAI, no obstante, son esquivas a responder detallar de dónde provienen los datos que utilizan, y señalan que utilizan contenido con licencia, mediante acuerdo, y contenido “disponible públicamente”.

Lo mencionado, sin embargo, no ha impedido que un gigante como The New York Times demande por infracción de derechos de autor a Microsoft y OpenAI. O que discográficas como Sony Music, Warner Music y Universal Music inicien una batalla legal contra los generadores de música Suno AI y Udio por aparentemente utilizar sus canciones. Estamos presenciando en directo la batalla por los datos para alimentar a la IA. Con el tiempo sabremos cómo acabará todo esto.

Imágenes | Reddit

En Xataka | YouTube ve un futuro en el que la IA clonará la música actual. Convencer a las discográficas no va a ser nada fácil



via Robótica e IA - Xataka https://ift.tt/XPMJj93

YouTube ve un futuro en el que la IA clonará la música actual. Convencer a las discográficas no va a ser nada fácil

YouTube ve un futuro en el que la IA clonará la música actual. Convencer a las discográficas no va a ser nada fácil

La industria de la música siempre ha sido feroz defensora de su propiedad intelectual, y lo hemos podido ver recientemente. Los escándalos que han generado casos como los de la canción de IA de Drake y The Weeknd es un ejemplo, pero en YouTube están intentando mirar al futuro.

Negociaciones. Según indican en Financial Times, los responsables de YouTube están reuniéndose con directivos de la industria discográfica para conseguir algo que parece casi imposible: licenciar sus canciones y permitir que herramientas de inteligencia artificial las utilicen para crear y clonar música de artistas actuales.

IA entrenada legalmente. La plataforma de vídeo de Google necesita esos contenidos para poder entrenar de forma legal a modelos de IA generativa de música. Fuentes cercanas a la empresa afirman que en Google están preparándose para lanzar nuevas herramientas este año.

A cambio, cómo no, de fortunas. Para tratar de convencer a las grandes discográficas, la empresa "ha ofrecido recientemente grandes sumas de dinero" a Sony, Warner y Universal. El objetivo no es otro que convencerlas de que más artistas permitan que sus modelos de IA sean entrenados con esas canciones.

Lo tienen difícil. Un directivo de una de esas discográficas indicó que "la industria está luchando con esto. Técnicamente, las empresas tienen los derechos de autor, pero tenemos que pensar cómo actuar. No queremos que se nos considere luditas".

YouTube ya tiene una IA que genera música. La firma comenzó a experimentar con este producto el año pasado. El producto, inicialmente llamado "Dream Track", fue diseñado para imitar tanto las voces como las letras de artistas famosos. Solo 10 artistas accedieron a que se pudiera usar su obra para entrenarlo. En ese grupo estaban Charli XCX, Troye Sivan y John Legend.

Ahora quieren ir a más. Ese primer experimento quiere ahora ser reemplazado por otros no especificados. La firma indicó en FT que "no estamos buscando expandir Dream Track", sino que esas negociaciones están dirigidas a crear otros productos.

Licenciar una música en concreto, no toda. En lugar de los acuerdos genéricos a los que empresas como OpenAI han llegado con grupos editoriales y medios, en YouTube buscan licenciar música de ciertos artistas. Las discográficas serían las que tendrían que convencerlos en último término de participar en estos proyectos, lo que hace que las cantidades que YouTube tendría que pagar aún estén por determinarse.

No son royalties, sino un pago único. Según esas fuentes la idea no sería la de pagar royalties a los artistas o las discográficas, sino hacer un único pago para licenciar esa música y poder usarla para entrenar esos modelos de IA.

Y mientras, demanda a Suno y Udio. La noticia llega justo cuando las grandes discográficas se han unido para demandar a Suno y Udio, dos startups de IA a las que acusan de haber usado ilegalmente sus obras para entrenar a sus modelos de IA. Las firmas plantean multas de "hasta 150.000 dólares por obra violada".

Imagen | NorWood Themes

En Xataka | La canción que los expertos aconsejan para calmar la ansiedad y que es sorprendentemente efectiva



via Robótica e IA - Xataka https://ift.tt/AmtlI03

Google trabaja en versiones de influencers hechas con IA para que los usuarios puedan chatear con ellas

Google quiere por todos los medios estar a la cabeza en el campo de la inteligencia artificial (IA). Su siguiente plan es crear versiones de famosos, influencers y youtubers para que los usuarios puedan conversar con ellos. Según ha avanzado 'The Information', estos 'chatbots' estarán impulsados por diferentes modelos de lenguaje de Gemini, que también permitirán crear otros robots conversacionales al gusto del consumidor, describiendo por ejemplo la personalidad o aspecto que se tiene en mente. Se especula que la herramienta de Google podría estar integrada en YouTube, con la idea de que los creadores puedan desarrollar sus propias versiones digitales, para que interactúen con sus suscriptores. No obstante, 'The Information' ha señalado que es probable que estos 'chatbots' únicamente lleguen a 'Google Labs', la plataforma para productos experimentales de la compañía, en lugar de desplegarse de forma más amplia. Por el momento, todavía no se ha revelado quiénes serían los primeros famosos en prestar su imagen y personalidad para este experimento. Dando por hecho que Google ha pedido permiso, y que no ocurrirá lo mismo que pasó con OpenAI, GPT-4o y Scarlett Johansson, que demandó a la empresa de Sam Altman tras usar su voz sin su permiso. Tampoco está claro si planea imponer límites a qué tanto pueden emular a una persona real aquellas versiones que creen los usuarios. Lo que sí esta claro es que si Google realmente está preparando 'chatbots' basados en figurar públicas, no será la primera empresa en experimentar con ello. Meta comenzó a trabajar en un concepto similar en 2023, creando una serie de agentes de IA dirigidos principalmente a un público joven, quienes podían interactuar con ellos a través de Facebook, Instagram y WhatsApp. Entre las celebridades estaban Paris Hilton, Mr. Beast y Dwyane Wade. No obstante, solo están disponibles en EE.UU. Otra opción que ya está disponible y es muy similar es la de Character.ai. Dicha plataforma permite crear avatares personalizados con estilos de respuesta únicos que se pueden entrenar mediante conjuntos de datos de texto. Estos personajes famosos pueden ser reales o ficticios, pudiendo crear desde a Homer Simpson hasta Napoleón. No obstante, el servicio ha quedado en el punto de mira porque su IA se estaba usando para generar conversaciones sexuales y violentas. Con los 'chatbots' de Google habrá que tener calma. Es extraño que la empresa esté trabajando en un proyecto así y que no hubiera dicho nada en su evento anual Google I/O, donde explicaron todas sus novedades basadas en IA, pero no mencionaron nada de estos robots conversacionales. Habrá que ver si la supuesta iniciativa gana tracción en los próximos meses, o si queda descartada incluso antes de un hipotético debut.

via Tecnología https://ift.tt/SA5wu0M

OpenAI está difuminando las ventajas de ChatGPT Plus. Suena tan arriesgado como visionario

OpenAI está difuminando las ventajas de ChatGPT Plus. Suena tan arriesgado como visionario

OpenAI dio un paso audaz con el lanzamiento de GPT-4o. Con su enfoque comercial parecía estar siendo más generoso con sus usuarios gratuitos para crearles una necesidad y aumentar la conversión.

Sus movimientos de las últimas horas dejan la suscripción a ChatGPT Plus como un producto menos atractivo que antes.

Por qué es importante. La línea entre las versiones gratuita y de pago de ChatGPT se está difuminando mucho en poco tiempo. Esto plantea dudas sobre el valor añadido de la versión Plus y puede afectar a la estrategia de monetización de OpenAI, al menos durante los próximos meses.

Lo último.

El contexto. Estas novedades, sobre todo la mezcla de aplicación para cualquiera y renovada conversación por voz pospuesta, erosionan las ventajas que suponía pasar a ChatGPT Plus.

OpenAI parece estar priorizando la adopción masiva frente a la monetización inmediata. Es una estrategia que parece arriesgada y visionaria al mismo tiempo.

Profundizando. La conversación por voz ultrarrápida, uno de los grandes atractivos de GPT-4o, sigue estando reservada a usuarios de pago, pero posponerla al menos cuatro meses más deja todo este espacio con un aliciente menos para pagar.

OpenAI ha citado entre los motivos de este retraso la necesidad de mejoras en seguridad y en la detección de contenido inapropiado.

El impacto. La decisión de OpenAI de poner en manos de cualquier usuario algunas funciones punteras puede tener repercusiones:

  • Más presión sobre la competencia, forzada ahora a ofrecer más funciones en el plan gratuito. Gemini y Claude, en el punto de mira.
  • Aceleración de la adopción, con más sectores abrazando el uso de ChatGPT tras las novedades anunciadas en mayo.
  • Desafíos en la monetización. OpenAI tendrá que buscar un equilibrio para sus ingresos si las ventajas del plan premium siguen diluyéndose.

Lo que aún ofrece la versión de pago. Pese a la erosión de algunas ventajas, ChatGPT Plus mantiene algunos beneficios:

  • Acceso prioritario en horas de alta demanda, si bien esto parecía ser un problema más frecuente en los primeros meses del servicio.
  • Uso ilimitado de GPT-4o, en contraste con los límites a los usuarios gratuitos.
  • Acceso temprano a nuevas funciones y actualizaciones en fase beta.
  • Almacenamiento extendido de conversaciones para referencias futuras.
  • Posibilidad de crear y personalizar GPTs.

En perspectiva. Aunque ChatGPT Plus mantiene ventajas notables, la brecha con el plan gratuito se ha reducido mucho. Puede ser la señal de OpenAI buscando convertirse en un estándar masivo para dominar el mercado de la IA conversacional.

Por otro lado, la empresa se enfrenta al desafío de mantener atractiva su oferta premium para seguir contando con un buen flujo de ingresos. El primer paso sería añadir nuevas funciones exclusivas. O, por qué no, lanzar GPT-5 más pronto que tarde.

En Xataka | ChatGPT y sus rivales son unos sosainas. Y convertirlos en chatbots graciosos no va a ser nada fácil

Imagen destacada | ilgmyzin en Unsplash



via Robótica e IA - Xataka https://ift.tt/VU5kqDA

Una cadena de jugueterías acaba de publicar el primer spot publicitario creado con Sora: el realismo se queda a medio camino

Una cadena de jugueterías acaba de publicar el primer spot publicitario creado con Sora: el realismo se queda a medio camino

Sora todavía no está disponible para el público en general, pero algunas personas tienen acceso a la versión alfa de la herramienta desde hace tiempo. Nik Kleverov, el director creativo de una agencia llamada Native Foreign, es uno de ellos, y esta semana ha presentado un trabajo realizado junto a Toys"R"Us Studios.

Estamos hablando del primer spot publicitario creado con Sora. Según un comunicado de prensa, el contenido audiovisual de poco más de un minuto que cuenta una historia sobre el fundador de la cadena de jugueterías estadounidense Toys"R"Us, Charles Lazarus, y cómo ideó la mascota de la marca, la jirafa Geoffrey.

Un corto generado con IA para Toys"R"Us

El corto, publicado por primera vez durante el Festival Cannes Lions 2024, comienza mostrando una tienda de bicicletas en un tranquilo vecindario de la década de 1930. Hay coches antiguos aparcados alrededor, junto a árboles frondosos. El pequeño Charles se queda dormido y cae en un profundo sueño.

De pronto, se encuentra en un mundo mágico con todo tipo de juguetes flotando, pero uno se destaca especialmente: la jirafa Geoffrey, que tiene ojos grandes y estrellas dibujadas en su largo cuello. La mascota le da un coche de juguete a Charles como obsequio en su mundo de fantasía decorado con estrellas brillantes.

El corto cierra con una foto real de Charles Lazarus junto a la jirafa y otra foto de Geoffrey frente a una tienda Macy's. Ciertamente, cada espectador podrá sacar sus propias conclusiones del trabajo, que se puede ver completo en la página de la juguetería, pero podríamos deducir que el realismo se ha quedado a medio camino.

Spot Sora Jugueteria 2 Spot Sora Jugueteria 2 El cortometraje completo se puede visualizar en la página de Toys"R"Us

No sabemos si esto es producto de una decisión de los realizadores o, por el contrario, se debe a las limitaciones de la herramienta, recordemos, en versión alfa. En cualquier caso, lo más notable la falta de naturalidad en algunos movimientos de los personajes, y la evidente sensación de que estamos ante escenas sintéticas.

OpenAI describe a Sora como una herramienta que puede generar escenas “realistas e imaginativa” a partir de indicaciones textuales. Es decir, salvando diferencias, se trata de la misma mecánica que tienen los generadores de imágenes como DALL·E y Midjourney. Y hemos visto demostraciones bastante impresionantes.

Toys"R"Us Studios y Native Foreign necesitaron “unas pocas semanas” para crear el cortometraje publicitario. Los responsables aseguran que fue creado casi en su totalidad con Sora, aunque añadieron algunos efectos visuales correctivos. La música, por su parte, fue compuesta por Aaron Marsh la banda de rock indie Copeland.

Ciertamente, tenemos que seguir esperando para ver la versión final de la herramienta y, aparentemente todo su potencial. Por lo pronto, cabe señalar, no se trata de la única alternativa que hay en el horizonte. En los últimos meses han aparecido alternativas como Vidu, Veo,
Dream Machine y Runway Gen-3 Alpha.

Imágenes | Toys"R"Us | Native Foreign

En Xataka | La obsesión reguladora de la UE plantea un mundo en el que la IA tendrá dos velocidades. Y Europa saldrá perdiendo



via Robótica e IA - Xataka https://ift.tt/C4DX1WV

martes, 25 de junio de 2024

Se acabó la espera: la app de ChatGPT con GPT-4o para Mac ahora está disponible de manera gratuita para todos

Se acabó la espera: la app de ChatGPT con GPT-4o para Mac ahora está disponible de manera gratuita para todos

A mediados del pasado mes de mayo, OpenAI presentó al mundo un nuevo modelo de inteligencia artificial llamado GPT-4o. El anuncio llegó acompañado del lanzamiento limitado de la aplicación de escritorio de ChatGPT. Si querías utilizarla, simplemente tenías que ser usuario de pago de los planes Plus o Team, y esperar a que estuviera disponible.

También existía la posibilidad de utilizar la aplicación anticipadamente, pero recurriendo a un truco. Ahora bien, las mencionadas limitaciones han desaparecido. La compañía liderada por Sam Altman acaba de poner a disposición de todos los usuarios la aplicación de ChatGPT para macOS, incluso aquellos que no pagan para utilizar el servicio.

ChatGPT en macOS, gratis para todos

Si bien hemos podido utilizar ChatGPT en nuestros ordenadores desde su lanzamiento en noviembre de 2022, la llegada de la aplicación oficial del servicio cambia mucho las cosas. En resumidas cuentas, abre la puerta a aprovechar mucho mejor las ventajas de GPT-4o, aunque todavía estamos a la espera del modo de voz al más puro estilo “Her”.

ChatGPT para el Mac nos permite iniciar sesión para acceder a nuestro historial de conversaciones. Además, nos permite acceder al dictado, el modo de conversación y, lo más importante, a compartir nuestra pantalla o cargar archivos. También podremos acceder rápidamente al chatbot con el comando Opción + Espacio.

El primer paso para acceder a todo esto es descargar la aplicación. Para ello tendremos que dirigirnos a openai.com/chatgpt/mac y hacer clic en Descargar. El paso siguiente es instalar el .dmg al igual que lo harías con cualquier otra aplicación, es decir, haciendo doble clic sobre el archivo y arrastrándolo a la carpeta de Aplicaciones (Applications).

Chatgpt Mac3 Chatgpt Mac3

Una vez completado el mencionado paso, deberás iniciar sesión con tu cuenta de OpenAI para empezar a conversar con el chatbot. Si deseas utilizar las ventajas relacionadas a la voz o la visión, deberás darle a la aplicación los permisos necesarios. En este punto es importante ser conscientes de lo que compartimos con OpenAI.

Chatgpt Mac2 Chatgpt Mac2

Podremos, por ejemplo, compartir la ventana de Mail para chatear sobre un correo electrónico. Lo mismo podremos hacer con una tabla de Excel o cualquier otro programa que ejecutemos en nuestro Mac. Al igual que lo haríamos con el servicio web o la aplicación para móviles, debemos procurar no compartir información privada con el chatbot.

Cabe señalar las novedades del servicio tienen límites de uso. Después de chatear una determinada cantidad de veces con el ChatGPT con GPT-4o, el chatbot empezará a funcionar con GPT-3.5, y nos invitará a unirnos a la versión de pago para seguir utilizándolo en su mejor versión. Además, nos impedirá utilizar las opciones de visión durante varias horas.

Imágenes | OpenAI | Capturas de pantalla

En Xataka | Microsoft inyectó 10.000 millones de dólares en OpenAI. Ahora la aplicación de ChatGPT llega a macOS, pero no a Windows

En Xataka | La obsesión reguladora de la UE plantea un mundo en el que la IA tendrá dos velocidades. Y Europa saldrá perdiendo



via Robótica e IA - Xataka https://ift.tt/47hwBeE

La obsesión reguladora de la UE plantea un mundo en el que la IA tendrá dos velocidades. Y Europa saldrá perdiendo

La obsesión reguladora de la UE plantea un mundo en el que la IA tendrá dos velocidades. Y Europa saldrá perdiendo

La Unión Europea sacaba pecho el pasado mes de marzo. Tras un largo proceso el Parlamento Europeo aprobaba la AI Act, la primera legislación específicamente destinada a regular el desarrollo y uso de sistemas de inteligencia artificial.

Como sucedió con la Digital Markets Act (DMA), las intenciones de los reguladores europeos probablemente eran buenas. Ambas iniciativas nacieron teóricamente para proteger los derechos y privacidad de los ciudadanos europeos frente a las grandes plataformas tecnológicas.

El problema es que la obsesión reguladora de la Unión Europea está teniendo un impacto muy negativo para ciudadanos, empresas y desarrolladores europeos.

Nos está lastrando. Nos está dejando atrás. Veamos por qué.

Tenemos una IA para Europa. Y luego una mejor para el resto del mundo

"No creemos que podamos desplegar Apple Intelligence a nuestros usuarios de la UE este año". La declaración, realizada por Apple la semana pasada, era un gran jarro de agua fría. Los ciudadanos de la Unión Europea que esperaban poder disfrutar de esa tecnología en sus iPhone y sus Mac tendrán que esperar más de la cuenta.

Tim Cook Tim Cook Tim Cook, CEO de Apple. Fuente: Fortune Photo.

En Apple no quieren arriesgar, y citaban "las incertidumbres regulatorias provocadas por la Ley de Mercados Digitales" como la razón de esa decisión. La DMA es algo muy serio para las grandes tecnológicas, y la compañía liderada por Tim Cook lo sabe bien: la Comisión Europea acaba de abrirle otra investigación por una potencial violación de esta nueva normativa.

En realidad ese jarro de agua fría no es el primero y probablemente no será el último de los que recibamos en este ámbito de la IA. La llegada tanto de la DMA como de la IA Act pone el futuro de la inteligencia artificial muy oscuro para la Unión Europea, y aunque las intenciones son aparentemente buenas —evitar riesgos en el desarrollo de los modelos, y proteger la privacidad de los ciudadanos europeos—, las consecuencias están empezando a ser terribles.

Lo vimos ya con la aplicación móvil de Gemini, el chatbot de Google. En su presentación estuvo disponible para 150 países, pero ninguno de ellos pertenecía a la Unión Europea.

El problema se resolvió un mes después. Ocurrió exactamente lo mismo con Google Bard un año antes: este chatbot tardó dos meses en desembarcar en la Unión Europea.

La llegada tanto de la DMA como de la IA Act pone el futuro de la inteligencia artificial muy oscuro para la Unión Europea

La cosa es más grave en otros casos. Copilot para Windows 11 fue anunciado en septiembre de 2023. Nueve meses después seguimos sin tener acceso oficial a dichas características, y en la comunidad de Microsoft uno de sus portavoces explicaba en abril que "se ha retrasado a 2024 debido a las regulaciones de la UE". No hay fechas definidas para esa disponibilidad, y simplemente añaden que están trabajando para que Copilot esté disponible "lo antes posible".

Uno de los últimos afectados es Meta, que indicó el pasado 14 de junio que retrasaría el lanzamiento de su chatbot Meta AI en la Unión Europea. La razón: los reguladores habían exigido que se detuviese el entrenamiento de sus LLM con publicaciones de Instagram o Facebook.

Captura De Pantalla 2024 06 24 A Las 17 01 16 Captura De Pantalla 2024 06 24 A Las 17 01 16

La falta de disponibilidad suele poder solventarse por aquellos usuarios algo más avanzados (y avezados). Con la app móvil de Gemini, por ejemplo, era posible conseguir instalar el APK de la app, y en otros casos, por ejemplo en chatbots en la web, lo normal es que baste con utilizar una VPN para "engañar" al servidor y que piense que no estamos en la Unión Europea. En el caso de Copilot para Windows 11, también había formas de saltarse las restricciones.

La AI Act es un intento de evitar riesgos en el desarrollo y despliegue de sistemas de inteligencia artificial, pero algunos expertos avisan de que esta regulación puede acabar siendo un cuello de botella contra la innovación.

Así lo indica Yann LeCun, máximo responsable de la división de IA en Meta, que destacaba en CNN que la gran pregunta sobre esta legislación es: "¿deberían la investigación y el desarrollo de IA ser regulados? Hay cláusulas en la AI Act y en otros sitios que regulan el I+D. No creo que esa sea una buena idea". Para él estamos muy lejos de los riesgos casi distópicos que parecen querer tratar de evitar los euroreguladores:

"Hoy en día, intentar averiguar cómo hacer seguros los futuros sistemas superinteligentes de IA es como preguntarse en 1925 "¿cómo hacemos seguro el transporte a reacción?", cuando el transporte a reacción aún no se había inventado".

Andrés Torrubia lo tiene claro

Para ahondar más en el problema quisimos hablar con Andrés Torrubia (@antor), que ya ha participado en varios temas relacionados con la IA en Xataka. Fue además invitado especial de dos de los episodios de Captcha (1x03 y 2x04), el vídeo/podcast que creamos en Xataka en 2018.  emprendedor y cofundador del Instituto de Inteligencia Artificial (IIA) y de Medbravo.

Andres Andres

Andrés comenzaba recordándonos como las teóricas buenas intenciones de la Unión Europea pueden acabar siendo contraproducentes. Ocurrió con las políticas relativas a las cookies: proteger los derechos de los ciudadanos europeos era buena idea, pero la forma en la que se han implementado esas protecciones han sido un desastre, y hoy en día navegar por internet no es mejor de lo que era antes, sino (mucho) peor.

Para él "el impacto de la AI Act está por ver, y no se sabe si será mejor el remedio que la enfermedad". A este experto le parecía razonable ser cauteloso, pero "si uno es muy cauteloso antes de tiempo, eso tiene un coste".

La legislación europea ha provocado precisamente eso, y desde la Unión Europea los reguladores han presumido de cómo tanto la DMA como la AI Act son súper protectoras para el consumidor y súper buenas para los innovadores. Torrubia, que precisamente es un emprendedor e innovador, lo tiene claro: "lo segundo es mentira".

El emprendedor de la UE dirá "solo me han cortado una pierna, aun puedo andar", pero estás compitiendo con un tío que tiene dos piernas musculosas y al que además le están dando anabolizantes

Como nos explicaba, "en el mundo de la tecnología, hay un pequeño periodo de conquista". Cuando se descubre un nuevo mercado, "hay vacíos legales, y hay un gran premio por ser el primero. Muchas veces se logra aprovechando zonas grises". 

Es, nos recuerda, lo que ocurrió con empresas como Uber, Airbnb, Cabify o LinkedIn: ahora mismo no podrías crear empresas así como las crearon aquellos fundadores, pero es que además esas empresas han logrado dominar el mercado.

Hay emprendedores europeos, nos decía, que tienen una especie de síndrome de Estocolmo con este tipo de legislación.

"Se dicen a sí mismos que esto no es tan malo, solo me han cortado una pierna, aun puedo andar, pero estás compitiendo con un tío que tiene dos piernas musculosas y al que además le están dando anabolizantes.
¿Qué pediría yo para incentivar este sector estratégico? Pediría una ventaja injusta que me equipare el mercado de Europa con el de EEUU o incluso el de China. A cambio recibo algo que me frena".

Lo que está pasando con la llegada tardía de algunas opciones de IA al mercado europeo es un buen ejemplo de ese impacto negativo. No parece especialmente grave no poder acceder a Copilot en Windows o que tengamos que esperar unos meses más para acceder al nuevo Gemini o ChatGPT.

Pero es que como dice él, sí que es grave. "Igual tienes acceso un año más tarde, y el conjunto de chavales que lo probarían, se ilusionarían, montarían una empresa y luego serían germen de otra cosa y de la innovación irían con un retraso enorme".

Para Andrés Torrubia el peligro es evidente. El coste puede ser colosal para un continente que según él "está viviendo de las rentas del siglo XX". Legislaciones como estas, a pesar de sus probables buenas intenciones, pueden acabar condenándonos.

Ya lo están haciendo un poco, de hecho.

Imagen | Rong_715 con Midjourney



via Robótica e IA - Xataka https://ift.tt/syc5eNx

Tesla está preparando un centro de datos para IA. Y dispone de un sistema de ventilación gigantesco

Tesla está preparando un centro de datos para IA. Y dispone de un sistema de ventilación gigantesco

La ambición de Elon Musk en el terreno de la inteligencia artificial es notable, y sus esfuerzos ahora pasan por crear un nuevo centro de datos que estará situado en los terrenos de la Gigafactoría de Tesla en Austin, en Texas.

Un vídeo grabado por un dron permite ver el estado de las instalaciones en construcción. En esas imágenes se puede comprobar cómo este centro de datos, que contará con miles de GPUs de NVIDIA, contará con un sistema de refrigeración gigantesco.

En estos momentos ese sistema de refrigeración contará con seis grandes ventiladores en el tejado del edificio que se encargará de ofrecer esa capacidad de ventilación. Su aspecto es llamativo y recuerda al de las propias GPUs de NVIDIA o AMD, que cuentan con ventiladores de gran tamaño para poder disipar el calor generado por sus componentes.

El propio Elon Musk comentó una imagen compartida por un usuario de Twitter e indicó en un mensaje posterior que estas instalaciones en realidad pasarán por varias fases. En la inicial contarán con unos 130 MW de refrigeración y de potencia este año, pero en los próximos 18 meses esa cifra aumentará a 500 MW.

Además, destacó el magnate, el objetivo es usar a partes iguales chips de NVIDIA y de Tesla a partes iguales. La compañía lanzó por primera vez sus Tesla Neural Network Accelerator en 2019, y desde entonces ha ido ofreciendo más chips tanto para sus sistemas de asistencia a la conducción (FSD) como para su supercomputadora Dojo.

Este sistema se usa para entrenar los modelos de aprendizaje automático de Tesla y permitir así que sus sistemas de asistencia a la conducción mejoren. Con esta supercomputadora Tesla es capaz de procesar los millones de terabytes de vídeos capturados con las cámaras de los Tesla.

Tesla Embalse Tesla Embalse

En otro vídeo grabado por un dron también se puede apreciar un pequeño embalse artificial. Tesla no ha dado detalles al respecto, pero contar con ese suministro es vital para los sistemas de refrigeración de los centros de datos.

Aunque la construcción de estas instalaciones avanza, en The Information indicaron hace unos meses que Musk se había mostrado "furioso" por los retrasos que había sufrido el proyecto, que es especialmente importante para que la ambición de los sistemas de conducción autónoma (FSD) de Tesla cristalicen.

Esos retrasos pueden haber sido también parte de la causa de que Musk "desviara" miles de GPUs que iban destinada a Tesla para que acabaran usándose en X y xAI. El propio Musk indicó que esas gráficas no tenían sitio donde ponerse en Tesla, y explicó que la expansión de Giga Texas —las instalaciones grabadas por los drones— albergarán 50.000 GPUs NVIDIA H100 para el entrenamiento de su sistema FSD.

Imagen | Joe Tegtmeyer

En Xataka | Elon Musk imagina a Tesla valiendo diez veces más que Microsoft o Apple. La clave para conseguirlo: Optimus



via Robótica e IA - Xataka https://ift.tt/ZRBOnus

lunes, 24 de junio de 2024

La nueva versión de Alexa llegará reforzada con IA, pero no saldrá nada barata según Reuters

La nueva versión de Alexa llegará reforzada con IA, pero no saldrá nada barata según Reuters

Hace meses que se habla del resurgir de Alexa, el asistente de voz de Amazon. Teóricamente la empresa lleva mucho tiempo trabajando en una versión que estaría supervitaminada gracias a nueva funciones de IA, pero ese desarrollo está pasando por dificultades, y de aparecer finalmente, lo hará con una mala noticia.

No será gratis. Según indican en Reuters, la futura versión de Alexa incluirá una IA generativa conversacional y dos vertientes del servicio. Al menos una de ellas tendrá previsiblemente un coste mensual de al menos 5 dólares, según fuentes cercanas a los planes de la empresa.

No incluido con Prime. La empresa consideró también una cuota de 10 dólares al mes para esta nueva versión de Alexa. No se sabe cuál será la cifra definitiva si finalmente este nuevo servicio se lanza al mercado, pero una cosa parece seguro: no formará parte de la oferta actual de las suscripciones Amazon Prime.

"Banyan". El nombre del proyecto es "Banyan", en referencia al árbol del género Ficus. De lanzarse finalmente, esta nueva versión de Alexa sería la revisión más importante del asistente desde su lanzamiento en 2014, cuando también se presentaron los primeros altavoces de la familia Echo.

"Remarkable Alexa". Pero el nombre comercial de este asistente potenciado por IA podría ser muy distinto. Según esas fuentes en Amazon lo llamarán "Remarkable Alexa" ("Alexa Extraordinario", en una traducción literal), precisamente en referencia a las diferencias que la IA generativa plantearía respecto a las actuales prestaciones del asistente de voz.

Qué permitirá este nuevo Alexa. Se espera que esa versión de pago de Alexa pueda escribir correos, enviarlos e incluso hacer un pedido a Uber Eats para que cierto restaurante nos traiga la cena. Incluso podría eliminarse la necesidad de nombrar a "Alexa" para cada petición y que Amazon personalizase más el servicio para cada usuario. También aprenderá las necesidades de los usuarios y podrá aprovechar nuevos tipos de prompts llamados "Rutinas" que por ejemplo hagan que a se enciendan automáticamente las luces del portal de casa a partir de las 8 PM.

Amazon está perdiendo la carrera de la IA. La firma sigue sin acabar de reaccionar del todo a pesar de que el resto de gigantes de la tecnología han planteado ya sus apuestas en el ámbito de la IA. Microsoft fue la más rápida y se alió con OpenAI, pero Meta, Google y Apple también han movido ya ficha.

Pero está moviendo sus fichas. En Amazon han hecho una fuerte inversión en Anthropic —responsables de Claude— pero de momento no hay frutos para dicha alianza. Puede que precisamente Alexa sea la gran beneficiada de dicha inversión. Hay también datos de un gigantesco LLM llamado Olympus aún más ambicioso que GPT-4, pero está por ver de qué es capaz ese proyecto. Hay otros desarrollos singulares como Amazon Q, su chatbot empresarial, o Code Whisperer, su alternativa a GitHub Copilot.

Un año decisivo, pero cuidado con el caos. Según esas mismas fuentes citadas en Reuters, 2024 es el año en el que Amazon y Alexa "deben ganar" esa carrera. Sin embargo han sido varios los empleados que hablan de cómo el proyecto de relanzar Alexa con IA está siendo un caos debido a las "disfunciones estructurales" existentes en Amazon.

En Xataka | Amazon se ha cargado el nombre 'Alexa'. Se usa un 90% menos para llamar a niñas recién nacidas que antes del primer Echo



via Robótica e IA - Xataka https://ift.tt/YDoGFHi

NVIDIA venderá sus GPU para IA en Oriente Medio a pesar de las sanciones. Representa una oportunidad para China

NVIDIA venderá sus GPU para IA en Oriente Medio a pesar de las sanciones. Representa una oportunidad para China

Las sanciones a China aprobadas por el Gobierno de EEUU han dañado el negocio de algunas grandes compañías tecnológicas, como ASML, Intel, AMD o NVIDIA. La demanda de GPU para inteligencia artificial (IA) es tan alta que esta última empresa continúa creciendo con un ritmo abrumador, pero lo cierto es que no puede vender a sus clientes chinos buena parte de sus GPU. Y, curiosamente, las sanciones no solo condicionan sus negocios en China; también restringen las ventas que puede llevar a cabo en otras regiones del planeta.

La Administración estadounidense sospecha desde hace muchos meses que algunas empresas e institutos de investigación chinos consiguen los chips para IA que necesitan en Oriente Medio. Sus sanciones contemplan esta posibilidad, y, por tanto, también limitan perceptiblemente las operaciones comerciales que NVIDIA y otras compañías estadounidenses pueden llevar a cabo en esta región del planeta. Pese a todo, la firma liderada por Jensen Huang acaba de apuntarse un tanto. Uno importante.

Y es que ha firmado un acuerdo para desplegar su hardware para IA en los centros de datos que pertenecen al grupo de telecomunicaciones catarí Ooredoo en seis países, algunos de ellos de Oriente Medio. Lo ha confirmado Aziz Aluthman Fakhroo, el director general de esta corporación de Catar, por lo que es una información completamente fiable. Esta es la primera vez que NVIDIA se prepara para acometer una infraestructura tan ambiciosa en una región sometida a las sanciones del Gobierno de EEUU.

Un buen acuerdo para NVIDIA al que China con toda seguridad mira de reojo

Los seis países en los que está presente Ooredoo y en los que va a desplegar la infraestructura para IA de NVIDIA son Catar, Argelia, Túnez, Omán, Kuwait y Maldivas. Presumiblemente los más problemáticos debido a su posible complicidad con el Gobierno chino son Catar, Omán y Kuwait, aunque Ronnie Vasishta, vicepresidente de NVIDIA, asegura que el propósito de la infraestructura que va a desplegar su compañía es poner en las manos de los clientes de Ooredoo la posibilidad de trabajar con aplicaciones de IA generativa.

Las sanciones del Gobierno de EEUU impiden a NVIDIA vender en Oriente Medio sus chips para IA más potentes

No obstante, hay algo importante que ni NVIDIA ni Ooredoo han hecho público todavía: cuál será el hardware que va a ser instalado en los nuevos centros de datos. Aun así, parece razonable asumir que se tratará de las GPU para IA más avanzadas que tiene en su porfolio actual la compañía de Jensen Huang siempre y cuando estén disponibles. Lo relevante en este contexto es que las sanciones del Gobierno de EEUU impiden a NVIDIA vender en Oriente Medio sus chips para IA más potentes, por lo que no está del todo claro que la Administración estadounidense haya hecho una excepción con Ooredoo.

De ser así y dada la coyuntura actual podemos dar por hecho que NVIDIA se habrá comprometido con el Gobierno de EEUU a garantizar que todas sus GPU llegarán a los centros de datos de Ooredoo. De hecho, un nuevo informe defiende que NVIDIA confía en conseguir la licencia de exportación que necesita para llevar a buen puerto su acuerdo con la firma catarí. En cualquier caso no se trata solo de impedir que las GPU lleguen a las empresas chinas; Ooredoo también tendrá que asegurar que las compañías del país liderado por Xi Jinping no tienen acceso a sus servicios de IA en la nube. De algo podemos estar seguros: este proyecto de NVIDIA va a hacer ruido durante los próximos meses.

Más información | Reuters

En Xataka | El líder de NVIDIA se moja: ha fijado con mucha precisión la fecha en que estará lista la inteligencia artificial general



via Robótica e IA - Xataka https://ift.tt/bKjYplt

ChatGPT solo era el aperitivo: Apple ha hablado con Meta para integrar su IA, según WSJ

ChatGPT solo era el aperitivo: Apple ha hablado con Meta para integrar su IA, según WSJ

Apple ha iniciado un camino con Apple Intelligence. Uno en el que, si bien su modelo propio será el principal protagonista, hay cabida para acuerdos con gigantes. Estos acuerdos no llegan pago mediante: son un win-win en el que Apple puede ofrecer acceso a funciones de grandes modelos IA a sus usuarios de forma gratuita mientras las empresas detrás de dichos modelos ganan cuota de mercado y consumidores.

Apple Intelligence llegará junto a un acuerdo con OpenAI para integrar ChatGPT dentro de Siri, pero WSJ revela que, según sus fuentes, Apple ha estado recientemente en conversaciones con Meta para seguir ampliando posibilidades.

Apple Intelligence, cosa de Apple. Pensábamos que Apple llegaría tarde a la IA y que, para solucionarlo, necesitaba el respaldo de gigantes como OpenAI. No fue así. Conviene refrescar el dato: Apple Intelligence funciona con modelos propios de Apple y sin tecnología de otras compañías rivales.

La consecuencia inevitable es que es un poco más de lo mismo, aunque mucho mejor integrado a nivel de sistema que el resto de soluciones que hemos visto en algunos rivales, como Gemini.

La colaboración con OpenAI, un tema independiente. La primera colaboración en Apple Intelligence será con OpenAI. Aunque el acuerdo invitaba a pensar que la empresa de Sam Altman estaría detrás del modelo IA del iPhone, no fue así.

Siri será capaz de invocar a ChatGPT 4o cuando considere que las búsquedas de GPT pueden ser más completas que las suyas. Nada más. Una función que podremos activar de forma voluntaria y que no va más allá de permitir el acceso a GPT desde iOS.

Oteando el horizonte, se atisba a Meta. Apple no quiere que OpenAI sea la única compañía colaboradora. WSJ afirma que la compañía ha estado en conversaciones con Meta para integrar su IA dentro de iOS.

No hay detalles sobre cómo se llevaría a cabo esta integración de los modelos de Meta pero, sea como fuere la implementación, se vuelve a recalcar que el usuario tendría el control sobre cuándo se utiliza y cuándo no el modelo "externo" a Apple.

El acuerdo entre las dos empresas ayudaría a aliviar ciertas tensiones recientes, como las ocasionadas por los cambios en privacidad en iOS que acabaron costándole millones de dólares a empresas como Meta.

Del mismo modo, implementaciones como la de Meta AI dentro de Apple Intelligence permitiría a Apple una menor dependencia respecto a OpenAI a la hora de ofrecer un chatbot más completo que Siri.

Imagen | Xataka, Anthony Quintano

En Xataka | Yann LeCun, responsable de IA en Meta, lo tiene claro: los modelos como ChatGPT no lograrán igualar la inteligencia humana



via Robótica e IA - Xataka https://ift.tt/iktoKRM