sábado, 29 de junio de 2024
Probamos el Roborock Q Revo S: ¿el mejor robot aspiradora de 2024?
via Tecnología https://ift.tt/m4xNFRU
viernes, 28 de junio de 2024
La inteligencia artificial acaba de llevar al traductor de Google al siguiente nivel: ahora soporta 110 nuevos idiomas
La familia de los modelos de inteligencia artificial Gemini de Google han estado en el centro de la atención en los últimos meses, pero no son los únicos modelos importantes. PaLM 2, lanzado en mayo de 2023, destaca por sus estupendas capacidades multilingües y en la actualidad impulsa una veintena de servicios de la compañía tecnológica.
El Traductor de Google acaba de beneficiarse de las bondades de PaLM 2. Según cuenta la firma liderada por Sundar Pichai en una publicación de blog, este modelo ha permitido agregar 110 nuevos idiomas al servicio. Aunque Google lleva años incorporado nuevos idiomas gradualmente, estamos ante la mayor expansión hasta la fecha.
Más idiomas para el traductor de Google
Si bien entre los idiomas más hablados encontramos al inglés, el chino mandarín, el hindi y el español, en el mundo hay muchísimos otros idiomas. Por este motivo el Traductor de Google ahora soporta desde el cantonés, una de las lenguas más solicitadas por los usuarios, hasta el manés, que es la lengua celta de la Isla de Man.
El gigante del buscador asegura que estas nuevas lenguas representan a más de 614 millones de habitantes, algo así como el 8% de la población del planeta. Cabe señalar que, si bien algunos idiomas son tremendamente populares, otros son muy poco conocidos y se hablan en pequeñas comunidades de pueblos indígenas.
También hay idiomas que ya casi no tienen hablantes nativos, pero se han tenido en cuenta sus esfuerzos de revitalización. En este punto merece la pena destacar las ventajas de la tecnología, que abre la puerta a ofrecer traducción a un amplio abanico de idiomas más allá de su popularidad. Y, como decimos, PaLM 2 ha sido clave.
El modelo de IA fue utilizado por Google para determinar de manera eficiente qué idiomas están estrechamente relacionados entre sí, como el awadhi y el marwadi, y así admitir nuevas opciones. Ciertamente, todavía queda mucho trabajo por hacer, y la compañía promete que continuará añadiendo nuevos idiomas con el paso del tiempo.
Los nuevos idiomas ya están disponibles en el Traductor de Google, aunque no todos cuentan con las mismas ventajas. Funcionalidades como la traducción con la cámara del móvil, la traducción a partir de la voz o la lectura en voz alta puede no estar disponible en muchos de los idiomas admitidos.
Imágenes | Google
En Xataka | Organizar una quedada con amigos en WhatsApp puede ser un infierno. Los "Eventos" llegan para solucionarlo
via Robótica e IA - Xataka https://ift.tt/4q32j9S
Toys 'R' Us crea el primer anuncio hecho con inteligencia artificial
via Tecnología https://ift.tt/WpzU9Id
De los creadores de Sam Altman lidera el comité que vigila los desarrollos de Sam Altman, llega GPT-4 supervisará a GPT-4
“GPT-4 para detectar los errores de GPT-4”, con estas palabras ha presentado el presidente de OpenAI, Greg Brockman, la más reciente propuesta de la compañía de inteligencia artificial para mejorar su modelo insignia en el campo de la programación. Estamos hablando de CriticGPT, un modelo basado en GPT-4 diseñado específicamente para detectar errores en la salida de código de ChatGPT.
La firma respaldada por Microsoft asegura que CriticGPT ha demostrado ser muy efectivo para ayudar a las personas a detectar errores en las respuestas del famoso chatbot. En pruebas internas, explican, los resultados de las personas que recibieron la ayuda de CriticGPT superaron en un 60% a las que hicieron el trabajo en solitario. Ahora, este modelo está listo para pasar a la siguiente etapa.
Una nueva herramienta para el aprendizaje por refuerzo
En las tareas de entrenamiento de modelos como GPT-4 entra en escena lo que se conoce como aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF). Se trata de una técnica de machine learning que, en líneas generales, utiliza respuestas creadas por humanos, los llamados entrenadores de la IA, para mejorar la precisión del modelo para determinadas tareas.
OpenAI comenzará a desplegar modelos similares a CriticGPT entre sus entrenadores para ayudarles a detectar los errores cada vez más sutiles que suele reproducir GPT-4 a través de ChatGPT. “Este es un paso para poder evaluar los resultados de los sistemas avanzados de IA que pueden ser difíciles de calificar para las personas sin mejores herramientas”, ha dicho la compañía en su blog.
Pero, ¿cómo funciona CriticGPT? Como podemos ver en la imagen de arriba, el modelo escribe “críticas” a las respuestas de ChatGPT. Estas críticas no siempre son correctas, pero pueden ayudar a los entrenadores humanos a visibilizar problemas que podrían haber pasado desapercibidos. OpenAI describe a esta mecánica como una “asistencia” para el proceso de RLHF.
CriticGPT, al estar basado en GPT-4, también pasó por el proceso de aprendizaje por refuerzo a partir de la retroalimentación humana. Por curioso que parezca, a la luz de las pruebas, parece ser una buena idea para que ChatGPT basado en GPT-4 mejore en tareas de programación, campo donde algunos estudios han alertado el importante porcentaje de respuestas incorrectas del modelo.
La compañía también está tratando de mejorar la seguridad de sus modelos después de la disolución de su equipo de "superalineación". Para ello tiene un comité que está liderado por Sam Altman. Una de las misiones de este comité es presentar recomendaciones al consejo de administración presidido por Greg Brockman, pero de la compañía que tiene como CEO a Sam Altman.
Imágenes | OpenAI | Milad Fakurian | Village Global
via Robótica e IA - Xataka https://ift.tt/1fuYT3C
miércoles, 26 de junio de 2024
Hay compañías entrenando sus modelos de IA con Reddit sin permiso: la plataforma acaba de declararles la guerra
Las compañías de inteligencia artificial (IA) están hambrientas de datos para entrenar sus modelos. Una de las alternativas que más utilizan para saciar este apetito es el web scraping, una técnica que permite extraer y almacenar información pública de páginas web a diestra y siniestra. La mayoría de las veces esta actividad se realiza sin el consentimiento de los creadores o los licenciatarios del contenido, por lo que no existe pago alguno de por medio.
Reddit ha anunciado una medida para frenar el web scraping no deseado. La plataforma, que es el hogar de millones de conversaciones sobre una amplia variedad de temas catalogadas en subreddits, impedirá que compañías no autorizadas puedan utilizar su contenido público. Se trata de un cambio a nivel de backend, específicamente en el protocolo de exclusión del archivo robots.txt, que se pondrá en marcha “en las próximas semanas”.
Reddit, en pie de guerra con los web scrapers
El mencionado movimiento busca restringir el acceso al contenido de la firma liderada por Steve Huffman para aquellos actores que no tienen un acuerdo con la plataforma. Durante los últimos meses, recordemos, hemos sido testigos de como gigantes tecnológicos como OpenAI, propietario de ChatGPT, y Google, creador de Gemini, han formalizado alianzas con Reddit. En otras palabras, si no tienes un acuerdo, te quedas sin acceder a los datos.
Los cambios anunciados este miércoles se han visto reflejados en la Política de contenido público de la plataforma. Cabe señalar que, aunque la compañía le está declarando la guerra a los web scrapers promete seguir ofreciendo sus contenidos a investigadores y académicos. La plataforma también dice que garantizará el acceso a moderadores y organizaciones como Internet Archive, que busca preservar los contenidos en línea.
En el mundo de la IA que estamos viviendo no solo importa el texto, sino también las imágenes, la música o los vídeos. Durante mucho tiempo, como hemos visto, las compañías han “raspado” la web para alimentar sus modelos con contenido de todo tipo. Firmas como OpenAI, no obstante, son esquivas a responder detallar de dónde provienen los datos que utilizan, y señalan que utilizan contenido con licencia, mediante acuerdo, y contenido “disponible públicamente”.
Lo mencionado, sin embargo, no ha impedido que un gigante como The New York Times demande por infracción de derechos de autor a Microsoft y OpenAI. O que discográficas como Sony Music, Warner Music y Universal Music inicien una batalla legal contra los generadores de música Suno AI y Udio por aparentemente utilizar sus canciones. Estamos presenciando en directo la batalla por los datos para alimentar a la IA. Con el tiempo sabremos cómo acabará todo esto.
Imágenes | Reddit
via Robótica e IA - Xataka https://ift.tt/XPMJj93
YouTube ve un futuro en el que la IA clonará la música actual. Convencer a las discográficas no va a ser nada fácil
La industria de la música siempre ha sido feroz defensora de su propiedad intelectual, y lo hemos podido ver recientemente. Los escándalos que han generado casos como los de la canción de IA de Drake y The Weeknd es un ejemplo, pero en YouTube están intentando mirar al futuro.
Negociaciones. Según indican en Financial Times, los responsables de YouTube están reuniéndose con directivos de la industria discográfica para conseguir algo que parece casi imposible: licenciar sus canciones y permitir que herramientas de inteligencia artificial las utilicen para crear y clonar música de artistas actuales.
IA entrenada legalmente. La plataforma de vídeo de Google necesita esos contenidos para poder entrenar de forma legal a modelos de IA generativa de música. Fuentes cercanas a la empresa afirman que en Google están preparándose para lanzar nuevas herramientas este año.
A cambio, cómo no, de fortunas. Para tratar de convencer a las grandes discográficas, la empresa "ha ofrecido recientemente grandes sumas de dinero" a Sony, Warner y Universal. El objetivo no es otro que convencerlas de que más artistas permitan que sus modelos de IA sean entrenados con esas canciones.
Lo tienen difícil. Un directivo de una de esas discográficas indicó que "la industria está luchando con esto. Técnicamente, las empresas tienen los derechos de autor, pero tenemos que pensar cómo actuar. No queremos que se nos considere luditas".
YouTube ya tiene una IA que genera música. La firma comenzó a experimentar con este producto el año pasado. El producto, inicialmente llamado "Dream Track", fue diseñado para imitar tanto las voces como las letras de artistas famosos. Solo 10 artistas accedieron a que se pudiera usar su obra para entrenarlo. En ese grupo estaban Charli XCX, Troye Sivan y John Legend.
Ahora quieren ir a más. Ese primer experimento quiere ahora ser reemplazado por otros no especificados. La firma indicó en FT que "no estamos buscando expandir Dream Track", sino que esas negociaciones están dirigidas a crear otros productos.
Licenciar una música en concreto, no toda. En lugar de los acuerdos genéricos a los que empresas como OpenAI han llegado con grupos editoriales y medios, en YouTube buscan licenciar música de ciertos artistas. Las discográficas serían las que tendrían que convencerlos en último término de participar en estos proyectos, lo que hace que las cantidades que YouTube tendría que pagar aún estén por determinarse.
No son royalties, sino un pago único. Según esas fuentes la idea no sería la de pagar royalties a los artistas o las discográficas, sino hacer un único pago para licenciar esa música y poder usarla para entrenar esos modelos de IA.
Y mientras, demanda a Suno y Udio. La noticia llega justo cuando las grandes discográficas se han unido para demandar a Suno y Udio, dos startups de IA a las que acusan de haber usado ilegalmente sus obras para entrenar a sus modelos de IA. Las firmas plantean multas de "hasta 150.000 dólares por obra violada".
Imagen | NorWood Themes
En Xataka | La canción que los expertos aconsejan para calmar la ansiedad y que es sorprendentemente efectiva
via Robótica e IA - Xataka https://ift.tt/AmtlI03
Google trabaja en versiones de influencers hechas con IA para que los usuarios puedan chatear con ellas
via Tecnología https://ift.tt/SA5wu0M
OpenAI está difuminando las ventajas de ChatGPT Plus. Suena tan arriesgado como visionario
OpenAI dio un paso audaz con el lanzamiento de GPT-4o. Con su enfoque comercial parecía estar siendo más generoso con sus usuarios gratuitos para crearles una necesidad y aumentar la conversión.
Sus movimientos de las últimas horas dejan la suscripción a ChatGPT Plus como un producto menos atractivo que antes.
Por qué es importante. La línea entre las versiones gratuita y de pago de ChatGPT se está difuminando mucho en poco tiempo. Esto plantea dudas sobre el valor añadido de la versión Plus y puede afectar a la estrategia de monetización de OpenAI, al menos durante los próximos meses.
Lo último.
- GPT-4o está disponible, con límites, para usuarios gratuitos.
- La aplicación nativa para macOS se lanzó ayer para cualquier usuario, incluyendo cuentas gratuitas.
- La esperada función de conversación por voz con latencia casi nula se ha retrasado hasta otoño.
El contexto. Estas novedades, sobre todo la mezcla de aplicación para cualquiera y renovada conversación por voz pospuesta, erosionan las ventajas que suponía pasar a ChatGPT Plus.
OpenAI parece estar priorizando la adopción masiva frente a la monetización inmediata. Es una estrategia que parece arriesgada y visionaria al mismo tiempo.
Profundizando. La conversación por voz ultrarrápida, uno de los grandes atractivos de GPT-4o, sigue estando reservada a usuarios de pago, pero posponerla al menos cuatro meses más deja todo este espacio con un aliciente menos para pagar.
OpenAI ha citado entre los motivos de este retraso la necesidad de mejoras en seguridad y en la detección de contenido inapropiado.
El impacto. La decisión de OpenAI de poner en manos de cualquier usuario algunas funciones punteras puede tener repercusiones:
- Más presión sobre la competencia, forzada ahora a ofrecer más funciones en el plan gratuito. Gemini y Claude, en el punto de mira.
- Aceleración de la adopción, con más sectores abrazando el uso de ChatGPT tras las novedades anunciadas en mayo.
- Desafíos en la monetización. OpenAI tendrá que buscar un equilibrio para sus ingresos si las ventajas del plan premium siguen diluyéndose.
Lo que aún ofrece la versión de pago. Pese a la erosión de algunas ventajas, ChatGPT Plus mantiene algunos beneficios:
- Acceso prioritario en horas de alta demanda, si bien esto parecía ser un problema más frecuente en los primeros meses del servicio.
- Uso ilimitado de GPT-4o, en contraste con los límites a los usuarios gratuitos.
- Acceso temprano a nuevas funciones y actualizaciones en fase beta.
- Almacenamiento extendido de conversaciones para referencias futuras.
- Posibilidad de crear y personalizar GPTs.
En perspectiva. Aunque ChatGPT Plus mantiene ventajas notables, la brecha con el plan gratuito se ha reducido mucho. Puede ser la señal de OpenAI buscando convertirse en un estándar masivo para dominar el mercado de la IA conversacional.
Por otro lado, la empresa se enfrenta al desafío de mantener atractiva su oferta premium para seguir contando con un buen flujo de ingresos. El primer paso sería añadir nuevas funciones exclusivas. O, por qué no, lanzar GPT-5 más pronto que tarde.
En Xataka | ChatGPT y sus rivales son unos sosainas. Y convertirlos en chatbots graciosos no va a ser nada fácil
Imagen destacada | ilgmyzin en Unsplash
via Robótica e IA - Xataka https://ift.tt/VU5kqDA
Una cadena de jugueterías acaba de publicar el primer spot publicitario creado con Sora: el realismo se queda a medio camino
Sora todavía no está disponible para el público en general, pero algunas personas tienen acceso a la versión alfa de la herramienta desde hace tiempo. Nik Kleverov, el director creativo de una agencia llamada Native Foreign, es uno de ellos, y esta semana ha presentado un trabajo realizado junto a Toys"R"Us Studios.
Estamos hablando del primer spot publicitario creado con Sora. Según un comunicado de prensa, el contenido audiovisual de poco más de un minuto que cuenta una historia sobre el fundador de la cadena de jugueterías estadounidense Toys"R"Us, Charles Lazarus, y cómo ideó la mascota de la marca, la jirafa Geoffrey.
Un corto generado con IA para Toys"R"Us
El corto, publicado por primera vez durante el Festival Cannes Lions 2024, comienza mostrando una tienda de bicicletas en un tranquilo vecindario de la década de 1930. Hay coches antiguos aparcados alrededor, junto a árboles frondosos. El pequeño Charles se queda dormido y cae en un profundo sueño.
De pronto, se encuentra en un mundo mágico con todo tipo de juguetes flotando, pero uno se destaca especialmente: la jirafa Geoffrey, que tiene ojos grandes y estrellas dibujadas en su largo cuello. La mascota le da un coche de juguete a Charles como obsequio en su mundo de fantasía decorado con estrellas brillantes.
El corto cierra con una foto real de Charles Lazarus junto a la jirafa y otra foto de Geoffrey frente a una tienda Macy's. Ciertamente, cada espectador podrá sacar sus propias conclusiones del trabajo, que se puede ver completo en la página de la juguetería, pero podríamos deducir que el realismo se ha quedado a medio camino.
No sabemos si esto es producto de una decisión de los realizadores o, por el contrario, se debe a las limitaciones de la herramienta, recordemos, en versión alfa. En cualquier caso, lo más notable la falta de naturalidad en algunos movimientos de los personajes, y la evidente sensación de que estamos ante escenas sintéticas.
OpenAI describe a Sora como una herramienta que puede generar escenas “realistas e imaginativa” a partir de indicaciones textuales. Es decir, salvando diferencias, se trata de la misma mecánica que tienen los generadores de imágenes como DALL·E y Midjourney. Y hemos visto demostraciones bastante impresionantes.
Toys"R"Us Studios y Native Foreign necesitaron “unas pocas semanas” para crear el cortometraje publicitario. Los responsables aseguran que fue creado casi en su totalidad con Sora, aunque añadieron algunos efectos visuales correctivos. La música, por su parte, fue compuesta por Aaron Marsh la banda de rock indie Copeland.
Ciertamente, tenemos que seguir esperando para ver la versión final de la herramienta y, aparentemente todo su potencial. Por lo pronto, cabe señalar, no se trata de la única alternativa que hay en el horizonte. En los últimos meses han aparecido alternativas como Vidu, Veo,
Dream Machine y Runway Gen-3 Alpha.
Imágenes | Toys"R"Us | Native Foreign
via Robótica e IA - Xataka https://ift.tt/C4DX1WV
martes, 25 de junio de 2024
Se acabó la espera: la app de ChatGPT con GPT-4o para Mac ahora está disponible de manera gratuita para todos
A mediados del pasado mes de mayo, OpenAI presentó al mundo un nuevo modelo de inteligencia artificial llamado GPT-4o. El anuncio llegó acompañado del lanzamiento limitado de la aplicación de escritorio de ChatGPT. Si querías utilizarla, simplemente tenías que ser usuario de pago de los planes Plus o Team, y esperar a que estuviera disponible.
También existía la posibilidad de utilizar la aplicación anticipadamente, pero recurriendo a un truco. Ahora bien, las mencionadas limitaciones han desaparecido. La compañía liderada por Sam Altman acaba de poner a disposición de todos los usuarios la aplicación de ChatGPT para macOS, incluso aquellos que no pagan para utilizar el servicio.
ChatGPT en macOS, gratis para todos
Si bien hemos podido utilizar ChatGPT en nuestros ordenadores desde su lanzamiento en noviembre de 2022, la llegada de la aplicación oficial del servicio cambia mucho las cosas. En resumidas cuentas, abre la puerta a aprovechar mucho mejor las ventajas de GPT-4o, aunque todavía estamos a la espera del modo de voz al más puro estilo “Her”.
ChatGPT para el Mac nos permite iniciar sesión para acceder a nuestro historial de conversaciones. Además, nos permite acceder al dictado, el modo de conversación y, lo más importante, a compartir nuestra pantalla o cargar archivos. También podremos acceder rápidamente al chatbot con el comando Opción + Espacio.
El primer paso para acceder a todo esto es descargar la aplicación. Para ello tendremos que dirigirnos a openai.com/chatgpt/mac y hacer clic en Descargar. El paso siguiente es instalar el .dmg al igual que lo harías con cualquier otra aplicación, es decir, haciendo doble clic sobre el archivo y arrastrándolo a la carpeta de Aplicaciones (Applications).
Una vez completado el mencionado paso, deberás iniciar sesión con tu cuenta de OpenAI para empezar a conversar con el chatbot. Si deseas utilizar las ventajas relacionadas a la voz o la visión, deberás darle a la aplicación los permisos necesarios. En este punto es importante ser conscientes de lo que compartimos con OpenAI.
Podremos, por ejemplo, compartir la ventana de Mail para chatear sobre un correo electrónico. Lo mismo podremos hacer con una tabla de Excel o cualquier otro programa que ejecutemos en nuestro Mac. Al igual que lo haríamos con el servicio web o la aplicación para móviles, debemos procurar no compartir información privada con el chatbot.
Cabe señalar las novedades del servicio tienen límites de uso. Después de chatear una determinada cantidad de veces con el ChatGPT con GPT-4o, el chatbot empezará a funcionar con GPT-3.5, y nos invitará a unirnos a la versión de pago para seguir utilizándolo en su mejor versión. Además, nos impedirá utilizar las opciones de visión durante varias horas.
Imágenes | OpenAI | Capturas de pantalla
via Robótica e IA - Xataka https://ift.tt/47hwBeE
La obsesión reguladora de la UE plantea un mundo en el que la IA tendrá dos velocidades. Y Europa saldrá perdiendo
La Unión Europea sacaba pecho el pasado mes de marzo. Tras un largo proceso el Parlamento Europeo aprobaba la AI Act, la primera legislación específicamente destinada a regular el desarrollo y uso de sistemas de inteligencia artificial.
Como sucedió con la Digital Markets Act (DMA), las intenciones de los reguladores europeos probablemente eran buenas. Ambas iniciativas nacieron teóricamente para proteger los derechos y privacidad de los ciudadanos europeos frente a las grandes plataformas tecnológicas.
El problema es que la obsesión reguladora de la Unión Europea está teniendo un impacto muy negativo para ciudadanos, empresas y desarrolladores europeos.
Nos está lastrando. Nos está dejando atrás. Veamos por qué.
Tenemos una IA para Europa. Y luego una mejor para el resto del mundo
"No creemos que podamos desplegar Apple Intelligence a nuestros usuarios de la UE este año". La declaración, realizada por Apple la semana pasada, era un gran jarro de agua fría. Los ciudadanos de la Unión Europea que esperaban poder disfrutar de esa tecnología en sus iPhone y sus Mac tendrán que esperar más de la cuenta.
En Apple no quieren arriesgar, y citaban "las incertidumbres regulatorias provocadas por la Ley de Mercados Digitales" como la razón de esa decisión. La DMA es algo muy serio para las grandes tecnológicas, y la compañía liderada por Tim Cook lo sabe bien: la Comisión Europea acaba de abrirle otra investigación por una potencial violación de esta nueva normativa.
En realidad ese jarro de agua fría no es el primero y probablemente no será el último de los que recibamos en este ámbito de la IA. La llegada tanto de la DMA como de la IA Act pone el futuro de la inteligencia artificial muy oscuro para la Unión Europea, y aunque las intenciones son aparentemente buenas —evitar riesgos en el desarrollo de los modelos, y proteger la privacidad de los ciudadanos europeos—, las consecuencias están empezando a ser terribles.
Lo vimos ya con la aplicación móvil de Gemini, el chatbot de Google. En su presentación estuvo disponible para 150 países, pero ninguno de ellos pertenecía a la Unión Europea.
El problema se resolvió un mes después. Ocurrió exactamente lo mismo con Google Bard un año antes: este chatbot tardó dos meses en desembarcar en la Unión Europea.
La llegada tanto de la DMA como de la IA Act pone el futuro de la inteligencia artificial muy oscuro para la Unión Europea
La cosa es más grave en otros casos. Copilot para Windows 11 fue anunciado en septiembre de 2023. Nueve meses después seguimos sin tener acceso oficial a dichas características, y en la comunidad de Microsoft uno de sus portavoces explicaba en abril que "se ha retrasado a 2024 debido a las regulaciones de la UE". No hay fechas definidas para esa disponibilidad, y simplemente añaden que están trabajando para que Copilot esté disponible "lo antes posible".
Uno de los últimos afectados es Meta, que indicó el pasado 14 de junio que retrasaría el lanzamiento de su chatbot Meta AI en la Unión Europea. La razón: los reguladores habían exigido que se detuviese el entrenamiento de sus LLM con publicaciones de Instagram o Facebook.
La falta de disponibilidad suele poder solventarse por aquellos usuarios algo más avanzados (y avezados). Con la app móvil de Gemini, por ejemplo, era posible conseguir instalar el APK de la app, y en otros casos, por ejemplo en chatbots en la web, lo normal es que baste con utilizar una VPN para "engañar" al servidor y que piense que no estamos en la Unión Europea. En el caso de Copilot para Windows 11, también había formas de saltarse las restricciones.
La AI Act es un intento de evitar riesgos en el desarrollo y despliegue de sistemas de inteligencia artificial, pero algunos expertos avisan de que esta regulación puede acabar siendo un cuello de botella contra la innovación.
Así lo indica Yann LeCun, máximo responsable de la división de IA en Meta, que destacaba en CNN que la gran pregunta sobre esta legislación es: "¿deberían la investigación y el desarrollo de IA ser regulados? Hay cláusulas en la AI Act y en otros sitios que regulan el I+D. No creo que esa sea una buena idea". Para él estamos muy lejos de los riesgos casi distópicos que parecen querer tratar de evitar los euroreguladores:
"Hoy en día, intentar averiguar cómo hacer seguros los futuros sistemas superinteligentes de IA es como preguntarse en 1925 "¿cómo hacemos seguro el transporte a reacción?", cuando el transporte a reacción aún no se había inventado".
Andrés Torrubia lo tiene claro
Para ahondar más en el problema quisimos hablar con Andrés Torrubia (@antor), que ya ha participado en varios temas relacionados con la IA en Xataka. Fue además invitado especial de dos de los episodios de Captcha (1x03 y 2x04), el vídeo/podcast que creamos en Xataka en 2018. emprendedor y cofundador del Instituto de Inteligencia Artificial (IIA) y de Medbravo.
Andrés comenzaba recordándonos como las teóricas buenas intenciones de la Unión Europea pueden acabar siendo contraproducentes. Ocurrió con las políticas relativas a las cookies: proteger los derechos de los ciudadanos europeos era buena idea, pero la forma en la que se han implementado esas protecciones han sido un desastre, y hoy en día navegar por internet no es mejor de lo que era antes, sino (mucho) peor.
Para él "el impacto de la AI Act está por ver, y no se sabe si será mejor el remedio que la enfermedad". A este experto le parecía razonable ser cauteloso, pero "si uno es muy cauteloso antes de tiempo, eso tiene un coste".
La legislación europea ha provocado precisamente eso, y desde la Unión Europea los reguladores han presumido de cómo tanto la DMA como la AI Act son súper protectoras para el consumidor y súper buenas para los innovadores. Torrubia, que precisamente es un emprendedor e innovador, lo tiene claro: "lo segundo es mentira".
El emprendedor de la UE dirá "solo me han cortado una pierna, aun puedo andar", pero estás compitiendo con un tío que tiene dos piernas musculosas y al que además le están dando anabolizantes
Como nos explicaba, "en el mundo de la tecnología, hay un pequeño periodo de conquista". Cuando se descubre un nuevo mercado, "hay vacíos legales, y hay un gran premio por ser el primero. Muchas veces se logra aprovechando zonas grises".
Es, nos recuerda, lo que ocurrió con empresas como Uber, Airbnb, Cabify o LinkedIn: ahora mismo no podrías crear empresas así como las crearon aquellos fundadores, pero es que además esas empresas han logrado dominar el mercado.
Hay emprendedores europeos, nos decía, que tienen una especie de síndrome de Estocolmo con este tipo de legislación.
"Se dicen a sí mismos que esto no es tan malo, solo me han cortado una pierna, aun puedo andar, pero estás compitiendo con un tío que tiene dos piernas musculosas y al que además le están dando anabolizantes.
¿Qué pediría yo para incentivar este sector estratégico? Pediría una ventaja injusta que me equipare el mercado de Europa con el de EEUU o incluso el de China. A cambio recibo algo que me frena".
Lo que está pasando con la llegada tardía de algunas opciones de IA al mercado europeo es un buen ejemplo de ese impacto negativo. No parece especialmente grave no poder acceder a Copilot en Windows o que tengamos que esperar unos meses más para acceder al nuevo Gemini o ChatGPT.
Pero es que como dice él, sí que es grave. "Igual tienes acceso un año más tarde, y el conjunto de chavales que lo probarían, se ilusionarían, montarían una empresa y luego serían germen de otra cosa y de la innovación irían con un retraso enorme".
Para Andrés Torrubia el peligro es evidente. El coste puede ser colosal para un continente que según él "está viviendo de las rentas del siglo XX". Legislaciones como estas, a pesar de sus probables buenas intenciones, pueden acabar condenándonos.
Ya lo están haciendo un poco, de hecho.
Imagen | Rong_715 con Midjourney
via Robótica e IA - Xataka https://ift.tt/syc5eNx
Tesla está preparando un centro de datos para IA. Y dispone de un sistema de ventilación gigantesco
La ambición de Elon Musk en el terreno de la inteligencia artificial es notable, y sus esfuerzos ahora pasan por crear un nuevo centro de datos que estará situado en los terrenos de la Gigafactoría de Tesla en Austin, en Texas.
Un vídeo grabado por un dron permite ver el estado de las instalaciones en construcción. En esas imágenes se puede comprobar cómo este centro de datos, que contará con miles de GPUs de NVIDIA, contará con un sistema de refrigeración gigantesco.
En estos momentos ese sistema de refrigeración contará con seis grandes ventiladores en el tejado del edificio que se encargará de ofrecer esa capacidad de ventilación. Su aspecto es llamativo y recuerda al de las propias GPUs de NVIDIA o AMD, que cuentan con ventiladores de gran tamaño para poder disipar el calor generado por sus componentes.
El propio Elon Musk comentó una imagen compartida por un usuario de Twitter e indicó en un mensaje posterior que estas instalaciones en realidad pasarán por varias fases. En la inicial contarán con unos 130 MW de refrigeración y de potencia este año, pero en los próximos 18 meses esa cifra aumentará a 500 MW.
Además, destacó el magnate, el objetivo es usar a partes iguales chips de NVIDIA y de Tesla a partes iguales. La compañía lanzó por primera vez sus Tesla Neural Network Accelerator en 2019, y desde entonces ha ido ofreciendo más chips tanto para sus sistemas de asistencia a la conducción (FSD) como para su supercomputadora Dojo.
Este sistema se usa para entrenar los modelos de aprendizaje automático de Tesla y permitir así que sus sistemas de asistencia a la conducción mejoren. Con esta supercomputadora Tesla es capaz de procesar los millones de terabytes de vídeos capturados con las cámaras de los Tesla.
En otro vídeo grabado por un dron también se puede apreciar un pequeño embalse artificial. Tesla no ha dado detalles al respecto, pero contar con ese suministro es vital para los sistemas de refrigeración de los centros de datos.
Aunque la construcción de estas instalaciones avanza, en The Information indicaron hace unos meses que Musk se había mostrado "furioso" por los retrasos que había sufrido el proyecto, que es especialmente importante para que la ambición de los sistemas de conducción autónoma (FSD) de Tesla cristalicen.
Esos retrasos pueden haber sido también parte de la causa de que Musk "desviara" miles de GPUs que iban destinada a Tesla para que acabaran usándose en X y xAI. El propio Musk indicó que esas gráficas no tenían sitio donde ponerse en Tesla, y explicó que la expansión de Giga Texas —las instalaciones grabadas por los drones— albergarán 50.000 GPUs NVIDIA H100 para el entrenamiento de su sistema FSD.
Imagen | Joe Tegtmeyer
En Xataka | Elon Musk imagina a Tesla valiendo diez veces más que Microsoft o Apple. La clave para conseguirlo: Optimus
via Robótica e IA - Xataka https://ift.tt/ZRBOnus
lunes, 24 de junio de 2024
La nueva versión de Alexa llegará reforzada con IA, pero no saldrá nada barata según Reuters
Hace meses que se habla del resurgir de Alexa, el asistente de voz de Amazon. Teóricamente la empresa lleva mucho tiempo trabajando en una versión que estaría supervitaminada gracias a nueva funciones de IA, pero ese desarrollo está pasando por dificultades, y de aparecer finalmente, lo hará con una mala noticia.
No será gratis. Según indican en Reuters, la futura versión de Alexa incluirá una IA generativa conversacional y dos vertientes del servicio. Al menos una de ellas tendrá previsiblemente un coste mensual de al menos 5 dólares, según fuentes cercanas a los planes de la empresa.
No incluido con Prime. La empresa consideró también una cuota de 10 dólares al mes para esta nueva versión de Alexa. No se sabe cuál será la cifra definitiva si finalmente este nuevo servicio se lanza al mercado, pero una cosa parece seguro: no formará parte de la oferta actual de las suscripciones Amazon Prime.
"Banyan". El nombre del proyecto es "Banyan", en referencia al árbol del género Ficus. De lanzarse finalmente, esta nueva versión de Alexa sería la revisión más importante del asistente desde su lanzamiento en 2014, cuando también se presentaron los primeros altavoces de la familia Echo.
"Remarkable Alexa". Pero el nombre comercial de este asistente potenciado por IA podría ser muy distinto. Según esas fuentes en Amazon lo llamarán "Remarkable Alexa" ("Alexa Extraordinario", en una traducción literal), precisamente en referencia a las diferencias que la IA generativa plantearía respecto a las actuales prestaciones del asistente de voz.
Qué permitirá este nuevo Alexa. Se espera que esa versión de pago de Alexa pueda escribir correos, enviarlos e incluso hacer un pedido a Uber Eats para que cierto restaurante nos traiga la cena. Incluso podría eliminarse la necesidad de nombrar a "Alexa" para cada petición y que Amazon personalizase más el servicio para cada usuario. También aprenderá las necesidades de los usuarios y podrá aprovechar nuevos tipos de prompts llamados "Rutinas" que por ejemplo hagan que a se enciendan automáticamente las luces del portal de casa a partir de las 8 PM.
Amazon está perdiendo la carrera de la IA. La firma sigue sin acabar de reaccionar del todo a pesar de que el resto de gigantes de la tecnología han planteado ya sus apuestas en el ámbito de la IA. Microsoft fue la más rápida y se alió con OpenAI, pero Meta, Google y Apple también han movido ya ficha.
Pero está moviendo sus fichas. En Amazon han hecho una fuerte inversión en Anthropic —responsables de Claude— pero de momento no hay frutos para dicha alianza. Puede que precisamente Alexa sea la gran beneficiada de dicha inversión. Hay también datos de un gigantesco LLM llamado Olympus aún más ambicioso que GPT-4, pero está por ver de qué es capaz ese proyecto. Hay otros desarrollos singulares como Amazon Q, su chatbot empresarial, o Code Whisperer, su alternativa a GitHub Copilot.
Un año decisivo, pero cuidado con el caos. Según esas mismas fuentes citadas en Reuters, 2024 es el año en el que Amazon y Alexa "deben ganar" esa carrera. Sin embargo han sido varios los empleados que hablan de cómo el proyecto de relanzar Alexa con IA está siendo un caos debido a las "disfunciones estructurales" existentes en Amazon.
via Robótica e IA - Xataka https://ift.tt/YDoGFHi
NVIDIA venderá sus GPU para IA en Oriente Medio a pesar de las sanciones. Representa una oportunidad para China
Las sanciones a China aprobadas por el Gobierno de EEUU han dañado el negocio de algunas grandes compañías tecnológicas, como ASML, Intel, AMD o NVIDIA. La demanda de GPU para inteligencia artificial (IA) es tan alta que esta última empresa continúa creciendo con un ritmo abrumador, pero lo cierto es que no puede vender a sus clientes chinos buena parte de sus GPU. Y, curiosamente, las sanciones no solo condicionan sus negocios en China; también restringen las ventas que puede llevar a cabo en otras regiones del planeta.
La Administración estadounidense sospecha desde hace muchos meses que algunas empresas e institutos de investigación chinos consiguen los chips para IA que necesitan en Oriente Medio. Sus sanciones contemplan esta posibilidad, y, por tanto, también limitan perceptiblemente las operaciones comerciales que NVIDIA y otras compañías estadounidenses pueden llevar a cabo en esta región del planeta. Pese a todo, la firma liderada por Jensen Huang acaba de apuntarse un tanto. Uno importante.
Y es que ha firmado un acuerdo para desplegar su hardware para IA en los centros de datos que pertenecen al grupo de telecomunicaciones catarí Ooredoo en seis países, algunos de ellos de Oriente Medio. Lo ha confirmado Aziz Aluthman Fakhroo, el director general de esta corporación de Catar, por lo que es una información completamente fiable. Esta es la primera vez que NVIDIA se prepara para acometer una infraestructura tan ambiciosa en una región sometida a las sanciones del Gobierno de EEUU.
Un buen acuerdo para NVIDIA al que China con toda seguridad mira de reojo
Los seis países en los que está presente Ooredoo y en los que va a desplegar la infraestructura para IA de NVIDIA son Catar, Argelia, Túnez, Omán, Kuwait y Maldivas. Presumiblemente los más problemáticos debido a su posible complicidad con el Gobierno chino son Catar, Omán y Kuwait, aunque Ronnie Vasishta, vicepresidente de NVIDIA, asegura que el propósito de la infraestructura que va a desplegar su compañía es poner en las manos de los clientes de Ooredoo la posibilidad de trabajar con aplicaciones de IA generativa.
Las sanciones del Gobierno de EEUU impiden a NVIDIA vender en Oriente Medio sus chips para IA más potentes
No obstante, hay algo importante que ni NVIDIA ni Ooredoo han hecho público todavía: cuál será el hardware que va a ser instalado en los nuevos centros de datos. Aun así, parece razonable asumir que se tratará de las GPU para IA más avanzadas que tiene en su porfolio actual la compañía de Jensen Huang siempre y cuando estén disponibles. Lo relevante en este contexto es que las sanciones del Gobierno de EEUU impiden a NVIDIA vender en Oriente Medio sus chips para IA más potentes, por lo que no está del todo claro que la Administración estadounidense haya hecho una excepción con Ooredoo.
De ser así y dada la coyuntura actual podemos dar por hecho que NVIDIA se habrá comprometido con el Gobierno de EEUU a garantizar que todas sus GPU llegarán a los centros de datos de Ooredoo. De hecho, un nuevo informe defiende que NVIDIA confía en conseguir la licencia de exportación que necesita para llevar a buen puerto su acuerdo con la firma catarí. En cualquier caso no se trata solo de impedir que las GPU lleguen a las empresas chinas; Ooredoo también tendrá que asegurar que las compañías del país liderado por Xi Jinping no tienen acceso a sus servicios de IA en la nube. De algo podemos estar seguros: este proyecto de NVIDIA va a hacer ruido durante los próximos meses.
Más información | Reuters
via Robótica e IA - Xataka https://ift.tt/bKjYplt
ChatGPT solo era el aperitivo: Apple ha hablado con Meta para integrar su IA, según WSJ
Apple ha iniciado un camino con Apple Intelligence. Uno en el que, si bien su modelo propio será el principal protagonista, hay cabida para acuerdos con gigantes. Estos acuerdos no llegan pago mediante: son un win-win en el que Apple puede ofrecer acceso a funciones de grandes modelos IA a sus usuarios de forma gratuita mientras las empresas detrás de dichos modelos ganan cuota de mercado y consumidores.
Apple Intelligence llegará junto a un acuerdo con OpenAI para integrar ChatGPT dentro de Siri, pero WSJ revela que, según sus fuentes, Apple ha estado recientemente en conversaciones con Meta para seguir ampliando posibilidades.
Apple Intelligence, cosa de Apple. Pensábamos que Apple llegaría tarde a la IA y que, para solucionarlo, necesitaba el respaldo de gigantes como OpenAI. No fue así. Conviene refrescar el dato: Apple Intelligence funciona con modelos propios de Apple y sin tecnología de otras compañías rivales.
La consecuencia inevitable es que es un poco más de lo mismo, aunque mucho mejor integrado a nivel de sistema que el resto de soluciones que hemos visto en algunos rivales, como Gemini.
La colaboración con OpenAI, un tema independiente. La primera colaboración en Apple Intelligence será con OpenAI. Aunque el acuerdo invitaba a pensar que la empresa de Sam Altman estaría detrás del modelo IA del iPhone, no fue así.
Siri será capaz de invocar a ChatGPT 4o cuando considere que las búsquedas de GPT pueden ser más completas que las suyas. Nada más. Una función que podremos activar de forma voluntaria y que no va más allá de permitir el acceso a GPT desde iOS.
Oteando el horizonte, se atisba a Meta. Apple no quiere que OpenAI sea la única compañía colaboradora. WSJ afirma que la compañía ha estado en conversaciones con Meta para integrar su IA dentro de iOS.
No hay detalles sobre cómo se llevaría a cabo esta integración de los modelos de Meta pero, sea como fuere la implementación, se vuelve a recalcar que el usuario tendría el control sobre cuándo se utiliza y cuándo no el modelo "externo" a Apple.
El acuerdo entre las dos empresas ayudaría a aliviar ciertas tensiones recientes, como las ocasionadas por los cambios en privacidad en iOS que acabaron costándole millones de dólares a empresas como Meta.
Del mismo modo, implementaciones como la de Meta AI dentro de Apple Intelligence permitiría a Apple una menor dependencia respecto a OpenAI a la hora de ofrecer un chatbot más completo que Siri.
Imagen | Xataka, Anthony Quintano
via Robótica e IA - Xataka https://ift.tt/iktoKRM