viernes, 31 de mayo de 2024

Perplexity transforma tus búsquedas en páginas estructuradas. Es un Notion automático que debería preocupar a Wikipedia

Perplexity transforma tus búsquedas en páginas estructuradas. Es un Notion automático que debería preocupar a Wikipedia

Perplexity AI ha lanzado Pages, una función que convierte los resultados de tus búsquedas en páginas web completas, bien formateadas y fáciles de compartir. Solo tienes que hacer una consulta y Perplexity generará un informe detallado con secciones, imágenes y enlaces a las fuentes.

Es paso más hacia la creación automatizada de contenido que puede amenazar a sitios como Wikipedia, que ya venía amenazada por ChatGPT.

Por qué es importante. Ya dijimos que Perplexity es la mejor alternativa a Google que hemos visto en muchísimo tiempo. No es nada fácil superar a la gran 'G', pero Perplexity tiene ingredientes muy buenos... y Pages sube aún más el listón.

Poder transformar algo efímero como una búsqueda en algo permanente, bien estructurado, listo para ser compartido y de forma visualmente atractivo, citando y enlazando a las fuentes originales... es una gran apuesta. Fue cazada hace unos días en Reddit antes de su anuncio oficial.

Cómo funciona. Es fácil:

  1. Haz una pregunta a Perplexity
  2. Revisa la página completa con secciones, imágenes y citas
  3. Si quieres almacenarla, arriba a la izquierda tienes el botón "Añadir a la colección"
  4. Si quieres compartirla, tienes un botón dedicado o el de copiar el enlace de la página

Las implicaciones. Perplexity enfoca a Pages como una selección asistida por IA, no como una creación automático. El usuario decide el tema, el enfoque y edita el resultado. Es una automatización en la investigación y la redacción de informes, guías o artículos divulgativos.

Puede ser una alternativa no solo a Google, también a Wikipedia a la hora de conseguir una visión general de un tema. No obstante, los interrogantes sobre los sesgos y la fiabilidad de los resultados están ahí. Como hemos visto con Google.

Disponibilidad. Pages se está activando de forma gradual para los usuarios. En la sección 'Biblioteca' de la barra lateral se puede acceder al historial de búsquedas almacenadas si hemos iniciado sesión. También funciona desde la aplicación móvil.

Google y Wikipedia deberían ver un motivo para preocuparse, porque Perplexity, sin el oropel que tienen entidades mucho mayores como OpenAI o Midjourney, está consiguiendo armar un productazo.

Imagen destacada | Xataka con Mockuuups Studio

En Xataka | Los chatbots de IA se inventan muchas de las respuestas: unos exinvestigadores del MIT tienen una particular solución



via Robótica e IA - Xataka https://ift.tt/hjsAmdU

Los nuevos trucos que puedes usar en ChatGPT de forma gratuita

ChatGPT sigue evolucionando. OpenAI , desarrolladora del chatbot movido por inteligencia artificial (IA) más empleado en la red, anunció recientemente la llegada de una gran cantidad de nuevas funcionalidades a la herramienta que, hasta hace nada, eran exclusivas de pago. Es decir, para los suscriptores del plan ChatGPT Plus , que tiene un coste de 20 euros mensuales. Todo gracias al nuevo 'motor' del sistema: GPT-4o . Entre las novedades para los usuarios con cuentas gratuitas se encuentra la posibilidad de utilizar aplicaciones realizadas por otros usuarios a partir de la tecnología que mueve a ChatGPT. De este modo, el usuario puede acceder a versiones concretas de la herramienta que están pensadas, en concreto, para funcionar como si fuesen profesores de apoyo para niños o para la creación de logos. MÁS INFORMACIÓN noticia No ¿Serán tan impresionantes las novedades en IA que anunciará Apple para el iPhone? Todas estas 'apps' están disponibles en la tienda de OpenAI, la GPT Store, desde hace meses. Pero, como decimos, solo estaban al alcance de aquellos que pagasen mensualmente el servicio ChatGPT Plus. Con el cambio, cualquier internauta que los quiera podrá hacer uso de la herramienta. Resúmenes de PDF La empresa también ha compartido que, quien lo quiera, podrá comenzar a subir archivos a ChatGPT. Gracias a ello, por ejemplo, el usuario puede realizar rápidamente resúmenes de PDF sin necesidad de leer el documento original. Puede realizarle las consultas que quiera al chatbot al respecto del documento, y este se las responderá en base a lo que aparece en el documento. Ahora bien, que nadie se equivoque: la máquina no es perfecta. Sigue cometiendo fallos de vez en cuando, por lo que lo ideal siempre es que el usuario contraste las respuestas que recibe del robot. A pesar de ello, la función sigue siendo útil y puede ahorrar mucho tiempo a un trabajador. Crear gráficos Al analizar datos con ChatGPT, función que llega con esta nueva versión a todos los usuarios, es posible crear tablas y gráficos interactivos a partir de los datos cargados. La herramienta de OpenAI es capaz de desarrollar automáticamente una vista de tabla interactiva, lo que permite al usuario desplazarse por sus datos y ver todas sus filas y columnas. Después de cargar un archivo, puede crear gráficos interactivos. ChatGPT puede determinar el tipo de gráfico ideal para el conjunto de datos, o el usuario especificar uno de los admitidos en su mensaje. También es posible personalizar los gráficos de los cuadros interactivos y crear resúmenes. El usuario, gracias a la tecnología de GPT-40, también será capaz de compartir imágenes con ChatGPT y mantener charlas con el robot sobre ellas. Por ejemplo, se puede compartir una fotografía y pedirle a la máquina que mejore su nitidez, y esta será capaz de hacerlo. ChatGPT con memoria El bot de OpenAI también tendrá memoria, por lo que recordará las conversaciones que ha mantenido previamente con el usuario con el fin de mejorar la calidad de las respuestas. «Recordar las cosas que discutes en todos los chats te evita tener que repetir información y hace que las conversaciones futuras sean más útiles», explican desde la empresa. «Tienes el control de la memoria de ChatGPT. Puedes decirle explícitamente que recuerde algo, preguntarle qué recuerda y decirle que lo olvide mediante una conversación o mediante la configuración. También puedes desactivarlo por completo», remarcan.

via Tecnología https://ift.tt/uDXbaNs

Apple ha renovado a Siri desde la raíz con IA, según Bloomberg: cuándo llegará el nuevo asistente y qué funciones traerá

Apple ha renovado a Siri desde la raíz con IA, según Bloomberg: cuándo llegará el nuevo asistente y qué funciones traerá

Siri aterrizó en el iPhone hace más de una década con la promesa de ayudarnos a “hacer cosas con solo pedírselo”. Tan solo tendríamos que hablarle con naturalidad y esperar que la magia sucediera. El tiempo ha pasado y este asistente inteligente sigue presente en el teléfono inteligente de Apple, pero solemos utilizarlo para programar temporizadores y poco más.

La carrera por el desarrollo de la inteligencia artificial (IA), y todos los avances que han llegado con ella, se presenta como el momento ideal para que esta pieza de iOS materialice el salto más importante de su historia. Y tenemos varias razones para creer que esto será así. Mark Gurman apunta a que Siri será uno de los grandes protagonistas de la WWDC 2024 que se celebrará en junio.

Un asistente completamente renovado

Como sabemos, Apple no suele dar pistas acerca de lanzamientos futuros, pero esto no impide que los analistas saquen sus propias conclusiones. En este caso, las novedades relacionadas a Siri provienen de fuentes consultadas por el especialista en temas de la firma de Cupertino de Bloomberg. Veamos qué es lo que podríamos esperar de Apple en los próximos meses.

En la actualidad, Siri nos permite agregar eventos al calendario, crear recordatorios, iniciar llamadas o programar un temporizador. A la hora de utilizarlo debemos dedicar un instante a ordenar nuestra petición en una oración que el asistente entienda. Muchas veces, si cambiamos el orden de las palabras o no hablamos con la suficiente claridad, Siri simplemente no puede ayudarnos.

Siri Apple Portada Siri Apple Portada

Se espera que una versión renovada del asistente deje atrás esta limitación. Siri será capaz de entendernos mejor y se convertirá en una herramienta clave para controlar el iPhone y sus aplicaciones (también de terceros). Podremos, por ejemplo, pedir a través de nuestra voz trasladar una nota de una carpeta a otra, solicitar el resumen de un artículo o enviar por correo electrónico un enlace web.

Pero también veremos funciones más avanzadas. Gracias a una renovación de otras piezas que forman parte de iOS, Siri nos ayudará a resumir reuniones y enviarlas por mensaje. Incluso el asistente podría ser capaz de recortar una imagen y enviarla por correo electrónico a un contacto específico. Estamos hablando de novedades para el iPhone o iPad. No se menciona a macOS.

¿Cuándo llegará el nuevo Siri al iPhone?

La renovación de Siri no ha sido una tarea fácil. De acuerdo a las fuentes, Apple ha potenciado la tecnología subyacente del asistente con modelos de lenguaje grande. Como decimos, deberíamos conocer las últimas novedades de inteligencia artificial de la compañía en la WWDC 2024 que se celebrará el 10 de junio desde las 19:00 (hora peninsular española) y que cubriremos en Xataka.

Durante el evento deberíamos conocer a iOS 18, la versión del sistema operativo del iPhone que abrirá las puertas a la IA generativa y a un montón de nuevas funciones. Aquí legaría el nuevo Siri, pero las fuentes señalan que no estaría listo para el día del lanzamiento. Señalan que se espera que el renovado Siri llegue como parte de una actualización posterior de iOS 18 el año próximo.

Imágenes | Apple

En Xataka | La IA de Apple será superprivada según The Information. Ni el mismísimo Tim Cook podrá saber cómo la usas



via Robótica e IA - Xataka https://ift.tt/1o8dWAe

jueves, 30 de mayo de 2024

Apple recurrirá a la “computación confidencial” para proteger la privacidad en su IA, según The Information

Apple recurrirá a la “computación confidencial” para proteger la privacidad en su IA, según The Information

Quedan ya menos de dos semanas para la WWDC 2024 de Apple, y será entonces cuando confirmemos la apuesta por la inteligencia artificial de la empresa. Los datos que han ido llegando apuntan a que Apple hará una propuesta mixta que mezclará un pequeño modelo de IA local con uno más avanzado que funcionará en su nube, pero, ¿cómo garantizará la privacidad en ese último caso?

Computación confidencial. Ese es el nombre de la tecnología con la que Apple protegerá nuestros datos al usar su modelo de IA en la nube. Es al menos lo que indican en The Information, donde nos recuerdan que en realidad el término no es nuevo. Hace tiempo que IBM lo usa, y según sus resposables esto permite proteger los datos inactivos, en tránsito y en uso, es decir,  "durante todo el ciclo de vida de cálculo".

Cajas negras. El enfoque de Apple se centra según esos rumores en el uso de "procesamiento en cajas negras". Lo normal es que los servicios en la nube encripten los datos en disco, cuando van a ser almacenados. Sin embargo, los datos tienen que ser también encriptados en memoria para poder mantenerse así cuando se procesan o transforman en los serivdores de Apple.

Un chip Secure Enclave para servidores. Apple parece haber encontrado así una forma de que los datos sean siempre privados de principio a fin. Por lo visto, han mejorado sus chips Secure Enclave para los servidores, que según datos previos estarán basados en los Apple M2 Ultra.

Ni Tim Cook podrá acceder a los datos.El grado de seguridad de este sistema parece hacer imposible que nadie, ni siquiera los empleados de Apple o el mismísimo Tim Cook, pueda acceder a los datos. La empresa tampoco podría ofrecer dichos datos a las agencias de seguridad si se los pidieran para investigar algún caso, por ejemplo.

Planes de futuro. Este tipo de sistema de cifrado para garantizar la privacidad lleva al parecer años en desarrollo en Apple, y la compañía ha encontrado el mejor momento para usarlo ante el auge de la IA. Sin embargo, la aplicación de la computación confidencial puede ir a más en el futuro. Por ejemplo, creando wearables que no querieran chips demasiado potentes para aprovechar funciones de IA porque todo se procesará en servidores de forma segura y privada.

La privacidad como argumento diferencial. Todos los rumores que han llegado hasta ahora apuntan a que las funciones de IA que Apple va a presentar en la WWDC no van a ser revolucionarias. Más bien se va a poner al día en prestaciones, y lo que le puede dar un valor diferencial a su planteamiento es, sin duda, la garantía de privacidad.

Imagen | Apple

En Xataka | NVIDIA está creciendo tanto gracias a la IA que está a punto de conseguir algo antaño impensable: alcanzar a Apple



via Robótica e IA - Xataka https://ift.tt/cFZ49QP

OpenAI tiene claro cómo lograr que ChatGPT Plus triunfe: usando ChatGPT como anzuelo

OpenAI tiene claro cómo lograr que ChatGPT Plus triunfe: usando ChatGPT como anzuelo

El pasado 13 de mayo OpenAI presentaba GPT-4o, su nuevo modelo de IA. Las mejoras se centraban en su capacidad de hablar de forma natural con los usuarios, pero la propuesta además llegaba con un anuncio llamativo: estaría disponible para todos los usuarios incluso en el servicio gratuito.

Antes ChatGPT Plus era más potente. Desde su lanzamiento, el servicio premium de OpenAI ofrecía acceso al modelo más moderno y potente (GPT-4, mientras que ChatGPT se basaba en GPT-3.5), pero también a características adicionales como la tienda de GPTs o la capacidad de subir ficheros para analizarlos y, por ejemplo, resumirlos. La versión gratuita de ChatGPT era solvente, pero desde luego muy inferior en opciones a su "hermana mayor".

Ahora ChatGPT se equipara con ChatGPT Plus. Sin embargo, OpenAI ha confirmado hace unas horas que la versión gratuita de ChatGPT contará con todas las opciones que tenían los usuarios de ChatGPT Plus. Eso da acceso por ejemplo a sus opciones de obtener información de internet, analizar datos visuales como imágenes o vídeos, subir ficheros o acceder a los GPTs personalizados de la GPT Store que por ejemplo se pueden convertir en tutores educativos o asistentes en escritura creativa.

Que viva GPT-4o. Y por supuesto, en la versión gratuita de ChatGPT también podremos disfrutar del nuevo modelo GPT-4o, que además de haber sido pulido para dar mejores respuestas y actuar de forma más rápida, nos permite interactuar con él con la voz. Lo vimos por ejemplo en las demos que OpenAI ofreció tanto con su app nativa en iOS como en la de Mac (pero de Windows, nada).

Captura De Pantalla 2024 05 30 A Las 9 33 43 Captura De Pantalla 2024 05 30 A Las 9 33 43 Los usuarios de ChatGPT en su versión estándar y gratuita verán este mensaje con cierta frecuencia. Pueden seguir usándolo, pero sin aprovechar las opciones avanzadas de GPT-4o.

Pero ChatGPT Plus gana en cosas importantes. Aunque muchas de las prestaciones de la versión de pago estarán en la gratuita, hay diferencias relevantes. La primera y más destacable es que los usuarios de ChatGPT Plus podrán usar GPT-4o más tiempo, ya que los usuarios de ChaGPT tendrán un límite bajo de consultas que aprovechen ese nuevo modelo.

Y nada de generar imágenes o GPTs personalizados. Tampoco podrás generar imágenes directamente a partir de peticiones en el chatbot —algo que sí pueden hacer los suscriptores de ChatGPT Plus—, ni crear tu propio GPT personalizado, aunque podrás aprovechar los ya previamente disponibles en la GPT Store.

ChatGPT es más que nunca un gancho. La versión gratuita se convierte por tanto en una forma de convencer a los usuarios de que se pasen a la versión de pago, aún más potente y con más cuota de uso. Para usuarios intensivos desde luego esa versión es más adecuada, y aquí OpenAI adopta la filosofía Freemium: te dejan usar las opciones premium de forma muy limitada para "convencerte" de que te suscribas a ChatGPT Plus.

En Xataka | Creíamos que ChatGPT era genial para programar: han hecho un estudio y la mitad de sus respuestas son incorrectas



via Robótica e IA - Xataka https://ift.tt/h14F9ix

miércoles, 29 de mayo de 2024

Meta no para de presumir de que la IA de Llama es Open Source. Eso no es del todo cierto

Meta no para de presumir de que la IA de Llama es Open Source. Eso no es del todo cierto

Aunque Mark Zuckerberg ya había adelantado el lanzamiento un mes antes, fue en de julio de 2023 cuando Meta anunció el lanzamiento de Llama 2. Desde el principio nos lo vendieron como una especie de "ChatGPT Open Source", y la empresa no ha parado de presumir de ello, pero hay un problema.

Que Llama 2 no es Open Source.

No lo es al menos en el sentido estricto de la definición. En el sitio web oficial los responsables de Meta indicaban desde el primer momento que Llama 2 era Open Source y gratuito para uso comercial y de investigación.

Al descargarlo obtienes el código del modelo, los pesos aplicados a su red neuronal, el código de evaluación y la documentación. Sin embargo, Los responsables de la Open Source Initiative dejaron claro dos días después del lanzamiento que Llama 2 no podía ser considerado totalmente Open Source:

"Meta confunde «Open Source» con «recursos disponibles para algunos usuarios en determinadas condiciones», dos cosas muy distintas".

Como destacaban en esa aclaración, Llama 2 no cumple con la Definición Open Source (OSD) que entre otros requisitos impone que no haya restricciones contra personas, grupos o campos de actividad específicos.

Sin embargo, la licencia utilizada en los modelos y el código de Llama impone restricciones en su uso comercial para ciertos usuarios: si tu producto está basado en Llama y tienes más de 700 millones de usuarios mensuales activos, necesitas pagarle una licencia a Meta.

Eso desde luego limita mucho los escenarios en los que se superará ese requisito, pero aquí Meta se protege las espaldas si ese teórico producto crece mucho. Imaginad que alguien crea una alternativa a ChatGPT basada en Llama. Inicialmente no tendrá que pagar nada a Meta, pero si el producto se vuelve viral y acaba teniendo una adopción masiva, eso obligará a contratar una licencia y pagar por ella.

Además de ello, en Meta no comparten los datos usados para entrenarlos —la transparencia en este sentido es nula en la industria— ni el código utilizado para entrenarlo. En la OSI celebraron que Meta estuviese "reduciendo las barreras para acceder a potentes sistemas de IA", pero criticaban ese conflictivo uso del término Open Source.

No hay modelos de IA totalmente Open Source

Lo cierto es que aun sin ser "completamente" Open Source, Llama 2 logró convertirse en referente para desarrolladores. Algunos de ellos, no obstante, quisieron advertir de los peligros de basar su trabajo en modelos con limitaciones de uso.

Captura De Pantalla 2024 05 29 A Las 16 09 04 Captura De Pantalla 2024 05 29 A Las 16 09 04 La tabla creada por un grupo de investigadores holandeses es una excelente forma de apreciar el grado de apertura de los modelos de IA. Es mucho más larga, por cierto, podéis pinchar en la imagen para ir a la fuente. Fuente: FAccT'24.

El grupo de investigadores de la Universidad de Radboud en Nijmegen, Países Bajos, publicó una tabla fantástica. En ella se califican 14 características de diversos modelos en base a su apertura, y gracias a ella es posible saber qué modelos cumplen más (o menos) con la definición pura de Open Source. Llama 2 no lo hacía, pero es que en realidad ninguna cumple los requisitos de esta exigente tabla.

La tabla se ha ido actualizando con los nuevos modelos que se han publicado, y eso incluye al último modelo de Meta, Llama 3. En esta última versión Meta ha tenido algo más de cuidado a la hora de presumir de que el modelo es Open Source, aunque en su licencia se aplican los mismos términos que en la del modelo anterior.

Captura De Pantalla 2024 05 29 A Las 16 21 30 Captura De Pantalla 2024 05 29 A Las 16 21 30 En la parte baja de la tabla están tanto LlaMA 2 como Llama 3 y, en última posición, con prácticamente todos los campos con la etiqueta de "cerrado", ChatGPT-3.5.

En el sitio web oficial sí habla de que está "abiertamente disponible", pero en el artículo adicional en su blog sí indicaron que era Open Source, pero como ocurre con Llama 2, lo es solo parcialmente.

Tanto a uno como a otro se los consideran modelos de "pesos abiertos" ("open weights") porque proporciona información sobre cómo se realizan sus cálculos. En la tabla de los investigadores de Países Bajos, eso sí, ambas están situadas de las últimas.

Peor aún es lo de ChatGPT, que suspende en apertura de forma contundente, algo irónico teniendo en cuenta que está desarrollado por OpenAI. Elon Musk lleva tiempo tratando enfrentado a esta empresa, y no dudó en exigirles que cambiaran el nombre y luego gastó una broma en Twitter al respecto.

La realidad es que la transparencia en este ámbito es muy limitada, e incluso modelos que presumen de ser Open Source no lo son nunca del todo. Lo demuestran tanto Llama 2 como Llama 3, pero a pesar de ello, Meta ha logrado autoproclamarse defensor de la filosofía Open Source.

Y por el camino, por cierto, ha redimido la imagen de Mark Zuckerberg. Lo indican en The New York Times: el CEO de Facebook, otrora vilipendiado e interrogado por los escándalos de privacidad de la red social, es ahora apreciado por los desarrolladores.

Lo ha conseguido gracias a Llama 2, que se ha descargado 180 millones de veces y permite a investigadores, académicos, startups y pequeños desarrolladores adentrarse en el mundo de la IA con unos recursos de partida notables. Llama 3 parece ir por el mismo camino, y ya está triunfando en Hugging Face. Allí es posible usarlo de forma sencilla y ya ha sido descargado un millón de veces en apenas un mes.

Mark Zuckerberg y Meta tienen desde luego mucho que agradecer al mundo Open Source. Aunque su uso del término no sea del todo correcto.

Imagen | Anthony Quintano

En Xataka | Yann LeCun, responsable de IA en Meta, lo tiene claro: los modelos como ChatGPT no lograrán igualar la inteligencia humana



via Robótica e IA - Xataka https://ift.tt/cVSsu4M

Elon Musk y el Yann LeCun, jefe de IA en Meta, tienen una guerra abierta en X. "Esfuérzate más"

Elon Musk y el Yann LeCun, jefe de IA en Meta, tienen una guerra abierta en X.

Elon Musk, CEO de X y Tesla entre otras empresas; y Yann LeCun, jefe de IA de Meta, están protagonizando un intercambio de golpes dialécticos en X a cuenta de las capacidades reales de la IA actual y su potencial a corto plazo.

Musk augura una IA más inteligente que cualquier humano en 2024 y que la humanidad conjunta en 2029. LeCun le recuerda que ni siquiera tenemos coches autónomos fiables pese a los millones de datos de entrenamiento. Un cruce de acusaciones que evidencia posiciones antagónicas sobre el estado del arte de la IA.

Por qué importa. El rifirrafe no es solo una anécdota entre egos. Refleja dos visiones opuestas sobre el ritmo de progreso de la IA, sus riesgos y la responsabilidad de comunicar sus avances al gran público.

Musk, como evangelista de la IA, tiende a exagerar sus capacidades y avivar el miedo a una IA vengativa. Hace poco pronosticó un escenario catastrofista para el empleo. LeCun, con un perfil de científico puntero, pide prudencia y cree que aún falta mucho para una IA de nivel humano mientras critica el alarmismo. En el pasado tachó de "absurdamente ridícula" la amenaza de la IA a la humanidad.

Posturas enfrentadas.

  • Musk ha llegado a alertar de una pequeña probabilidad de que la IA "aniquile a la humanidad". En el pasado pidió detener todo desarrollo durante seis meses (casualmente justo antes de que lanzase el suyo propio).
  • LeCun estima que la IA tiene la potencia de cálculo de un gato, pero ni de lejos su inteligencia. E insiste en el símil del coche: si Musk tuviese razón tendríamos sistemas de IA capaces de aprender a conducir un coche en 20 horas de práctica, como un adolescente. No es el caso.

El trasfondo. No es la primera vez que ambos chocan. Musk tiene un historial beligerante y en cierta forma socarrón de sobra conocida. LeCun, de un perfil más académico y científico pero que nunca evade el cara a cara, ha criticado con sorna a OpenAI en el pasado. Musk fue uno de los fundadores de OpenAI.

Musk lleva años proclamando la llegada inminente de los robotaxis autónomos de Tesla, pero los plazos se han dio retrasando. Ahora acaba de captar 6.000 millones de dólares para xAI, su nueva startup de IA. Para reclutar talento apeló a científicos comprometidos con "entender el universo" y "la búsqueda de la verdad, sin importar lo políticamente correcto".

La réplica. LeCun replicó con dureza: "Únete a xAI si aguantas a un jefe que dice que resolverás la IA en un año, que tu trabajo matará a todos, que busca la verdad pero difunde teorías de la conspiración en su red social...".

Y Musk le acusó de "ablandarse". Pese a los más de 80 papers que ha publicado desde 2022. "Esfuérzate más", le dijo.

Quién tiene razón. Musk tiene un cierto historial de promesas incumplidas sobre la IA, pero también un bagaje innegable con empresas como Tesla y SpaceX al que ahora se quiere empezar a sumar Neuralink. Al mismo tiempo, en su hemeroteca figuran una larga lista de exabruptos y teorías de la conspiración.

Por otro lado, LeCun es un científico a la vanguardia de la IA, lo cual le confiere un barniz de autoridad y realismo sobre los límites actuales de la IA que Musk no tiene. Sin embargo, los últimos cinco años han supuesto un paso tan grande en la IA que casi cualquier posibilidad a medio plazo suena factible.

Imagen destacada | Xataka, Wikimedia Commons

En Xataka | La tapada de la IA es Meta. Lleva más de una década apostando por ella y ya tiene mucho más que LLaMa



via Robótica e IA - Xataka https://ift.tt/Ij5LNot

Sam Altman liderará el comité de seguridad de OpenAI que vigila los desarrollos de Sam Altman. No parece una gran idea

Sam Altman liderará el comité de seguridad de OpenAI que vigila los desarrollos de Sam Altman. No parece una gran idea

Tras disolver su equipo de "súperalineación", centrado en afrontar los riesgos existenciales de la IA hace unas semanas, OpenAI ha creado un nuevo comité de seguridad y protección.

El resumen es que el equipo encargado de vigilar los desarrollos de Sam Altman es uno liderado por Sam Altman.

Por qué es importante. La seguridad de los sistemas de IA es crucial y el escrutinio al que van a estar sometidas las grandes empresas que los desarrollan va a ir a más. En OpenAI esa seguridad parece estar pasando a un segundo plano frente a la presión por lanzar productos espectaculares, como dijo Leike, quien ha fichado por Anthropic.

La disolución mencionada y la salida de altos cargos clave genera dudas sobre el compromiso real de OpenAI con un desarrollo responsable de la IA. Que Altman lidere este comité no transmite la mayor confianza.

Qué sabemos. El nuevo comité estará liderado por Altman y tres consejeros: Bret Taylor, Adam d'Angelo y Nicole Seligman. Su primera tarea será evaluar y desarrollar los procesos y las salvaguardas de OpenAI durante 90 días.

Tras ese plazo presentará sus recomendaciones al consejo, quien decidirá cómo implementarlas. El comité también contará con técnicos y expertos en ciberseguridad y políticas relacionadas.

Señales. Hay motivos para preocuparse. Una recapitulación:

  • La disolución del equipo de "súperalineación".
  • La dimisión de sus dos líderes.
  • La frase de Leike al marcharse: "la cultura y los procesos de seguridad han pasado a un segundo plano frente a productos brillantes".
  • El intento de Sutskever para destituir a Altman por su falta de honestidad. Hoy Sutskever está fuera de la empresa.
  • Otras salidas de investigadores apuntan a discrepancias con el rumbo de openAI, cada vez más comercial.
  • La empresa tuvo que recular ante su política de retirar el equity a los exempleados que no firmasen un NDA muy restrictivo para evitar críticas.

Entre líneas. El anuncio del nuevo comité llega en esa sucesión de escándalos y noticias preocupantes. Que su líder sea Altman no ayuda a apaciguar los ánimos ni a descartar las suspicacias. Y no hemos incluido el episodio de la voz de Scarlett Johansson.

Poner a Altman al frente de la seguridad no despeja dudas sobre si habrá un cambio real de prioridades en la empresa más influyente del mundo de la IA o si solo es un intento por lavar su imagen que no sale bien. Y todo con GPT-5 empezando a asomar en el horizonte.

En Xataka | Seis meses después entendemos mejor la crisis de OpenAI. Puede que la junta tuviera razón sobre la falta de honestidad de Altman

Imagen destacada | Xataka con Midjourney



via Robótica e IA - Xataka https://ift.tt/hvGy9j5

martes, 28 de mayo de 2024

Tras Humane y Rabbit llega Iyo con sus auriculares basados en IA. Su aspecto es inenarrable

Tras Humane y Rabbit llega Iyo con sus auriculares basados en IA. Su aspecto es inenarrable

Hay cierta tendencia, quizás moda quizás intento de golpear primero en un mercado prometedor, en torno a los dispositivos basados en IA. Hay bastantes ejemplos, pero los dos más relevantes —e infaustos— son los de Rabbit y Humane, dos caras de una misma moneda: más ruido que nueces.

Como queda mucha ola del hype por surfear, hay quien sigue girando la manivela con un nuevo intento. Como Iyo y sus auriculares Iyo One, alimentados por IA.

Por qué es importante. El interés por nuevos formatos de productos que aprovechen los grandes modelos de lenguaje (LLMs) en nuestro día a día es máximo, aunque de momento nadie haya dado con la tecla. Iyo apuesta por integrar la IA generativa en un dispositivo ya consolidado (unos auriculares), no en un invento exótico (un proyector en la solapa, un tamagotchi rojo).

A Iyo hay que reconocerle que no busca inventar una nueva categoría forzosa, sino dar continuidad a un factor de forma asentado.

Iyo One Hero Device Pair 2 Iyo One Hero Device Pair 2 Imagen: Iyo.

Las claves de los Iyo One:

  • Dos versiones: solo Wi-Fi (599 dólares) o Wi-Fi + 4G (699 dólares).
  • Especificaciones: procesador de IA de 4 nm, 1-2 GB de RAM, 16-32 GB de almacenamiento y  resistencia al agua IP68.
  • Chatbots integrados para asistir en correos, mensajes, llamadas, navegación, música... Todo con comandos de voz.
  • Audio inmersivo con seguimiento de la cabeza y modos de "presencia" e "inmersión" (cancelación de ruido).
  • Iyo propone "valor inmediato", no solo por la IA sino por la calidad del sonido y la comodidad.
  • No requiere de su propio plan de datos como Humane, aparte de la versión 4G, pero con el operador que queramos.
  • Su diseño tendrá su público, pero difícilmente ganará premios.

Los orígenes de Iyo. Esta empresa fue fundada en 2019 por antiguos empleados de Alphabet, de hecho fue incubada en los laboratorios X de Alphabet. En 2021 se independizó de la matriz de Google, que seguía siendo su inversora, pero sin ejercer control alguno.

Iyo ya vende los Vad Pro, auriculares con cable USB-C orientados al sonido espacial. Su precio, 1.650 dólares. No nos hemos comido ninguna coma. Los One son su primer modelo inalámbrico.

Iyo2 Iyo2 Los Iyo Vad Pro. Alguien en Iyo tiene muy claro que el diseño en forma de gran circunferencia saliendo de nuestra oreja será un éxito. Imagen: Iyo.

La gran duda. El mercado de auriculares inalámbricos es duro. Mucho. Iyo, una marca completamente desconocida, se enfrenta a Apple, Samsung o Google además de a Sennheniser, Bose o JBL, con marcas chinas apretando por detrás en precio. ¿El gancho de la IA va a ser suficiente para justificar el alto precio de los Iyo One y hacerse un hueco?

La startup confía en que su calidad de sonido y su experiencia premium les ayuden a diferenciarse desde el primer día, más allá de la IA, a tenor de las comunicaciones que han ido haciendo. Lograrlo es otra historia.

En resumen. Tras los tropiezos de Humane y Rabbit, ofrecer un dispositivo familiar en lugar de querer desmarcarse con uno nuevo es un comienzo diferente. Si logran combinar la utilidad de la IA con una experiencia de audio de primer nivel, quizás encuentren su nicho.

Ahora bien, la mayor amenaza será que Apple, Samsung y compañía lancen sus propios auriculares con IA integrada, o que aprovechen mucho mejor su emparejamiento con el móvil. Y eso por no hablar de una OpenAI que ha ganado capacidades conversacionales y que está buscando financiación para sus propios dispositivos.

Imagen destacada | Iyo

En Xataka | Mejores auriculares inalámbricos: cuál comprar y 19 modelos desde 20 euros hasta 450 euros



via Robótica e IA - Xataka https://ift.tt/ziWvnMY

Microsoft quería ser negativo en carbono en 2030, pero ha aparecido un gran obstáculo: la inteligencia artificial

Microsoft quería ser negativo en carbono en 2030, pero ha aparecido un gran obstáculo: la inteligencia artificial

Hace cuatro años Microsoft prometió que a finales de esta década lograría ser negativo en carbono y eliminar más dióxido de carbono del que produce en toda su infraestructura. El plan, uno de los más ambiciosos de las Big Tech para luchar contra el cambio climático, se ha encontrado con un problema muy gordo: la inteligencia artificial.

Microsoft contamina más que antes, no menos. Un nuevo informe de sostenibilidad de la empresa revela cómo aunque algunas emisiones se vieron reducidas, sus emisiones indirectas (las más cuantiosas, lo que llaman Scope 3) se incrementaron un 30,9% % respecto a en 2020.

La IA como sospechosa. Ese aumento se debe a la construcción de más centros de datos —de ellos, unos cuantos en Europa— y el CO2 emitido al crear los materiales de construcción, pero también componentes hardware como semiconductores, servidores o racks. Y esos centros de datos están centrados en un apartado muy específico: las cargas de trabajo de IA, pero en Microsoft afirman que esta nueva tecnología no es la verdadera culpable.

Renovables para los chatbots. La razón, argumentan, es que en realidad la energía que utilizan para esas tareas proviene al 100% de fuentes de energía renovables. Las emisiones indirectas de las que hablamos están asociadas a procesos en los que no aplican renovables, pero con la IA sí lo hacen.

Captura De Pantalla 2024 05 28 A Las 12 50 33 Captura De Pantalla 2024 05 28 A Las 12 50 33 El impacto de la IA en las previsiones de emisiones de Microsoft es evidente: los puntos negros deberían estar alineados con los verdes, pero se están alejando. Fuente: Bloomberg.

No podían preverlo. Brad Smith comentaba en Bloomberg cómo plantearon sus objetivos de ser negativos en carbono en 2020, "antes de la explosión de la inteligencia artificial". Eso hace agún más complicado lograr esos objetivos, porque las necesidades en el ámbito energético crecerán de forma espectacular.

Dudas. Pero como apuntan en ese reportaje en Bloomberg, esas afirmaciones pueden estar basadas en el hecho de que las empresas acuerdan por ejemplo contratos de compraventa de energía con proveedores de renovables o también créditos de renovables. Esto último, no obstante no parece impulsar la demanda de más energías renovables según un estudio reciente.

El problema afecta a otras muchas. La situación por la que está pasando Microsoft es análoga a la que sufren las grandes protagonistas de este campo: Google, Amazon o Meta, que han invertido ingentes cantidades de dinero y recursos para lograr ser referentes en el mercado de la IA, también están viendo cómo los consumos energéticos se disparan.

Microsoft y Google ya consumen más que Eslovenia. Como explican en Bloomberg, los consumos globales de estas compañías ya superan a los de algunos países europeos. Microsoft superaba en 2022 los 20 TWh y Google estaba a punto de alcanzar esa cifra. Ambas empresas siguen creciendo en consumo, pero por ejemplo en Eslovenia el consumo eléctrico no ha subido sino que ha bajado, y ahora está por debajo de los 15 TWh, lo que supone que ambas empresas consumen más a nivel global que este país.

Más IA, más problemas. La situación actual no invita a pensar que las necesidades de cómputo vayan a relajarse. Más bien lo contrario, porque se espera que las necesidades energéticas se tripliquen en 2030.

Posibles soluciones. Para combatir ese problema y las emisiones que se derivan de él, hay varias opciones. Una es efectivamente apostar por las renovables. Otra, utilizar componentes cada vez más eficientes, que es precisamente lo que están logrando las Big Tech con nuevos chips cada vez más potentes y eficientes. Y aun así, el reto que Microsoft se planteó en 2020 de ser negativo en carbono esta década está cada vez más difícil de lograrse.

En Xataka | La respuesta de un ejecutivo de Meta a cuánto consume la IA: "solo harían falta dos reactores nucleares para cubrirlo"



via Robótica e IA - Xataka https://ift.tt/FLhnM0u

¿Serán tan impresionantes las novedades en IA que anunciará Apple para el iPhone?

El iPhone cambiará por completo en apenas unos meses. Y todo gracias a la inteligencia artificial (IA). El próximo 10 de junio, durante el evento WWDC para desarrolladores de Apple, la tecnológica mostrará su apuesta para ponerse al día en la tecnología del momento y evitar que sus terminales se queden algo rezagados, al menos en este aspecto, respecto a los móviles de Samsung y los de Google . Con el evento a la vuelta de la esquina, cada vez vamos teniendo más claro las novedades que podemos esperar para dentro de un par de semanas. Todas deberían llegar de la manos de iOS 18, el próximo sistema operativo de los iPhone, que, en principio, será lanzado el próximo mes de septiembre, además de compatible con todos los 'smartphones' de la manzana desde el iPhone XR en adelante. También, evidentemente, con el futuro iPhone 16, que debutará con este software. Noticias Relacionadas estandar No WhatsApp ya permite crear estados de voz de hasta un minuto a algunos de sus usuarios ABC estandar No Probamos el nuevo iPad Air M2 2024: un heredero versátil y potente de su tableta ligera Javier Palomo No esperes el ChatGPT 'made in Apple' El 10 de junio, Apple no mostrará su propio ChatGPT . La empresa lleva tiempo trabajando en el desarrollo de un sistema de inteligencia artificial bajo el nombre en clave Ajax , pero, por el momento, sigue sin estar lo suficientemente maduro para que se produzca el lanzamiento. Para solventar la situación, y que el iPhone cuente con su propio robot conversacional preinstalado, la empresa ha estado negociando durante meses con Google y con OpenAI, y, de acuerdo con ' Bloomberg ', ha terminado alcanzando un acuerdo con la segunda empresa para llevar la tecnología de ChatGPT a los dispositivos de Apple. De este modo, los iPhone, a partir de otoño, tendrán su propio chatbot, aunque este no será 'made in Apple'. Es de esperar que los usuarios puedan emplear fácilmente la tecnología de ChatGPT sin necesidad de descargar la aplicación en sus 'smartphones'. Según el medio anteriormente citado, la empresa de la manzana sigue negociando con Google para ofrecer también la IA del buscador, llamada Gemini, a sus usuarios como una suerte de alternativa. Pero es poco probable que este movimiento cristalice antes de la presentación del próximo 10 de junio. IA en las aplicaciones La IA también llegará a las aplicaciones de los iPhone. Gracias a esta tecnología, los usuarios podrán transcribir y traducir automáticamente notas de voz, algo que ya es posible en los Galaxy S de Samsung y en los Pixel de Google. También podrán usar la tecnología para que les sugiera respuestas a correos electrónico, para retocar fotos o para realizar mejores búsquedas a través del navegador Safari de Apple. Siri será más lista Siri llegó en 2011 y, desde entonces, su funcionamiento a penas ha mejorado. Eso debería cambiar a partir de septiembre. Se espera que el asistente virtual de la manzana mordida. Gracias a la IA generativa, será capaz de mantener conversaciones más amplias con el usuario mediante el empleo de la voz, esta también cambiará, y algunos analistas apuntan que comenzará a sonar más humana. Cabe recordar que OpenAI ya mostró cómo GPT-4o , su nuevo modelo de IA, capaz de mantener conversaciones con el usuario. No sería raro ver una tecnología similar en los iPhone que llegue para sustituir a Siri. Emojis hechos con IA Los dispositivos de Apple cuentan con muchos emojis, pero dentro de poco el límite va a estar fijado, exactamente, en la imaginación del usuario. Según 'Bloomberg', la empresa va a dar permitir que cualquiera pueda crear emoticonos mediante el empleo de inteligencia artificial generativa. Para ello, solo hará falta darle una descripción al móvil sobre el emoji que se quiere. Segundos después, el terminal lo habrá creado y el usuario podrá utilizarlo en sus conversaciones.

via Tecnología https://ift.tt/2c8lGuX

OpenAI confirma que está entrenando el modelo sucesor de GPT-4. Pero aún tardaremos bastante en verlo

OpenAI confirma que está entrenando el modelo sucesor de GPT-4. Pero aún tardaremos bastante en verlo

Hace unos días OpenAI lanzaba GPT-4o, una mejora llamativa de su actual modelo fundacional de inteligencia artificia. Su gran novedad es su capacidad para hablar de forma natural, pero no hay cambios especialmente significativos en cuanto a su potencia y precisión. Sin embargo, los creadores de este modelo ya tienen también algo que decir en ese aspecto.

GPT-5 a la vista. Los responsables de OpenAI han confirmado que ya están entrenando su nuevo gran modelo fundacional, que sustituirá a GPT-4 y que será la futura base de su chatbot, ChatGPT. No hay nombre confirmado para ese modelo, pero si mantienen la línea de sus anteriores LLM, estaremos ante el potencial GPT-5 del que se habla desde hace tiempo.

Todo son incógnitas. En OpenAI no aclaran mucho sobre lo que podemos esperar de ese futuro modelo, y simplemente indican que ofrecerá "el siguiente nivel de capacidades". La compañía sigue trabajando en lograr una inteligencia artificial general (AGI), pero el entrenamiento de este nuevo modelo no implica ni mucho menos que GPT-5 vaya a ser una AGI.

Prometen seguridad. La empresa ha querido además destacar que ha creado un Comité de Seguridad y Protección para evitar riesgos que plantee el nuevo modelo. En el consejo están Sam Altman, Bret Taylor, Adam D'angelo y Nicole Seligman, y sus nuevas políticas de seguridad estarán listas a finales de verano o en otoño.

Todo bien en OpenAI. Intentan así acallar las críticas de los últimos movimientos y polémicas en la empresa. No nos referimos solo al escándalo que se ha vivido con Scarlett Johansson, sino a la salida de Ilya Sutskever y de Jan Leike, dos de los responsables del equipos de superalineación. Esa iniciativa explora formas de asegurar que futuros modelos de IA no causan daños. Sutskever apoyó hace meses que el consejo de administración de OpenAI echara a Sam Atlman por su falta de honestidad.

Hasta dentro de un año, nada. El entrenamiento de estos modelos lleva muchos meses, y tras ese proceso hay que invertir algunos meses más en analizar el comportamiento del modelo y pulirlo antes de su disponibilidad pública. Según algunas previsiones, eso hará que este teórico GPT-5 tardará entre nueve meses y un año en aparecer, pero es imposible saberlo con seguridad. Desde el lanzamiento de ChatGPT (GPT-3.5) hasta el de GPT-4 pasaron apenas tres meses y medio, pero ha pasado más de un año entre GPT-4 y el nuevo GPT-4o, por ejemplo.

En Xataka | Sam Altman no trae buenas noticias sobre el impacto de la IA en el empleo: “Es un problema enorme, enorme”



via Robótica e IA - Xataka https://ift.tt/SNTEacn

He probado Copilot dentro de Telegram: así funciona el chatbot gratuito de Microsoft

He probado Copilot dentro de Telegram: así funciona el chatbot gratuito de Microsoft

Microsoft tiene a Copilot como su niña mimada, un remplazo de Bing Chat que llegó para competir con los mejores chatbots. Hace tan solo una semana presentaban Copilot+, el nombre que recibirá esta IA en la nueva generación de ordenadores con Qualcomm Inside, y esta semana ha llegado su integración a una de las apps de mensajería más importantes del mundo: Telegram.

Copilot for Telegram, como su propio nombre indica, es una forma de acceder a Copilot sin necesidad de descargar nada más allá de la propia app de mensajería. Aunque tiene ciertas limitaciones, es una forma fácil y accesible de dar nuestros primeros pasos con la IA de Microsoft.

Qué es Copilot para Telegram. Según describe la propia Microsoft, Copilot para Telegram es un asistente de IA generativa impulsada por GPT y la búsqueda de Bing. Es completamente gratuito (al menos en su fase beta), y cualquier usuario con la aplicación instalada puede usarlo.

Cómo se usa Copilot para Telegram. Si quieres empezar a usar Copilot para Telegram, no tienes más que acceder al bot oficial que ha creado Microsoft. Tras pulsar en este enlace, se te abrirá automáticamente la aplicación de Telegram tanto en iOS como en Android.

Ahora, tendrás que darle a "Iniciar", para hacer funcionar el bot dentro de la app. Lo primero que puede chocarte es que Copilot va a pedirte el número de teléfono. Microsoft asegura que no guardan este dato, simplemente lo necesitan como paso de verificación. Si aceptamos compartir el dato, el bot extraerá nuestro número de Telegram, lo verificará y, desde ese momento, podremos empezar a utilizarlo.

Qué puede hacer Copilot para Telegram. Copilot puede realizar las funciones de cualquier chatbot basado en GPT. El principal problema que le encuentro es que es algo lento. Pese a ello, funciona relativamente bien y tiene un añadido de valor: las sugerencias automáticas.

Gpt Gpt
Crea una dieta de 2.000 calorías, alta en proteínas y baja en hidratos de carbono. Evita alimentos como el salmón, la quinoa y el pepino. Quiero una planificación de desayuno, comida y cena durante cinco días.

Le he pedido a Copilot que me haga una planificación de comidas. Me ha llamado la atención que, aunque le he dejado claro que evite alimentos como el salmón, lo ha añadido sin miramientos (los chatbot siguen sin ser 100% fiables).

Más allá de este gambazo, me ha propuesto preguntas por sí mismo para añadir a la conversación, como qué otros alimentos puedo incluir en la dieta y qué cantidad de proteínas es la recomendada por día.

Copilot Traduccion Copilot Traduccion

También le he pedido que haga alguna traducción mediante URL, y ha cumplido bastante bien. Podemos pedirle resúmenes de artículos y preguntarle acerca de las webs que le pasamos. 

Es importante destacar asimismo que Copilot no puede generar imágenes en Telegram, y tampoco analizarlas. Para utilizar estas funciones tendremos que descargar la aplicación para móviles.

El límite de Copilot Beta está en 30 turnos por día, así que no podemos utilizarlo de forma ilimitada. No obstante, es una genial solución para acceder a Copilot de forma rápida y sin instalar nada. 

Imagen | Microsoft

En Xataka | 31 funciones y cosas que puedes hacer con Copilot para exprimir al máximo la versión web y la app de la inteligencia artificial de Microsoft



via Robótica e IA - Xataka https://ift.tt/rCmgAvW

lunes, 27 de mayo de 2024

Elon Musk y xAI quieren ganar la guerra de la IA. Acaba de recibir 6.000 millones de dólares para lograrlo

Elon Musk y xAI quieren ganar la guerra de la IA. Acaba de recibir 6.000 millones de dólares para lograrlo

Hace algo más de un año Elon Musk anunciaba la creación de xAI, una nueva empresa centrada en la inteligencia artificial. Sus avances por ahora han sido discretos, pero la ambición del magnate en este ámbito es clara, como acaba de demostrar una nueva ronda de inversión.

Inversión colosal. La startup de Musk ha recibido una inyección de capital asombrosa: 6.000 millones de dólares que sitúan la valoración de la compañía en 18.000 millones de dólares. En la ronda han participado Andreessen Howorwitz o Sequoia Capital entre otros. Es una cifra espectacular e insólita, sobre todo teniendo en cuenta que de momento xAI no ha demostrado demasiado.

Grok es una incógnita. La gran apuesta actual de xAI es el (sarcástico) chatbot Grok, que al menos de momento ocupa un segundo plano frente a alternativas mucho más populares. La firma, no obstante, publicó su código fuente para atraer a desarrolladores siguiendo la línea de lo que Meta ha hecho con Llama, y queda por ver si este desarrollo logra coger tracción.

Una misión grandilocuente. En el anuncio oficial de la ronda de inversión los responsables de la empresa indican que "xAI se centra principalmente en el desarrollo de sistemas avanzados de IA que sean veraces, competentes y de máximo beneficio para toda la humanidad. La misión de la empresa es comprender la verdadera naturaleza del universo".

La "Gigafactoría de la Computación". Según datos de The Information citados en Reuters, Musk está preparando la construcción de una supercomputadora gigantesca con el nombre de "Gigafactoría de la Computación". Una que pueda ofrecer la capacidad de cálculo que necesitarán futuras versiones de Grok, su chatbot.

100.000 GPUs NVIDIA H100. Esa supercomputadora será sencillamente espectacular si se cumplen los planes de Musk. En una reunión con inversiónres indicó que el objetivo era utilizar hasta 100.000 GPUs NVIDIA H100, lo que la convertiría en el cluster más grande del mundo en este ámbito, siendo cuatro veces superior al siguiente en magnitud. Grok 2, la segunda revisión de su modelo de IA, necesitó cerca de 20.000 GPUs H100 para ser entrenado, y puede que futuras versiones requieran precisamente esa enorme capacidad que plantea la "Gigafactoría de la Computación".

Tardarán en ponerlo en marcha. La alta demanda de esos chips provocará que la empresa tarde en cumplir su objetivo: se espera que esa supercomputadora esté preparada en 2025. Para entonces, eso sí, los H100 habrán sido ya superados por las GPUs B100 y B200 de NVIDIA con arquitectura Blackwell.

Imagen | Dvids | xAI

En Xataka | Elon Musk tiene claro cuándo superará la IA a la inteligencia humana. Y será antes de lo que algunos pensamos



via Robótica e IA - Xataka https://ift.tt/VFZUp6A

El buscador de Google vive la revolución más importante de su historia. Por ahora está siendo un desastre

El buscador de Google vive la revolución más importante de su historia. Por ahora está siendo un desastre

Google ha campado a sus anchas en el último cuarto de siglo en internet. Su buscador lo ha dominado absolutamente todo, pero la llegada de ChatGPT planteó desde el primer momento una pregunta inquietante: ¿y si fuera mejor buscar con ChatGPT que con el buscador de Google? La empresa de Mountain View está intentando prepararse para ese futuro con su propio buscador con IA, pero de momento su rendimiento está siendo muy criticado.

AI Overview. Así se llaman los nuevos snippets en la página de resultados de Google. Disponible inicialmente en Estados Unidos, esta opción permite que los usuarios obtengan una respuesta a su consulta que estará generada por el modelo de IA de Google. La función fue presentada en Google I/O 2024, y es una evolución de la Search Generative Experience que ya pudimos probar hace meses.

Pero la IA que busca está siendo un poco desastre. El problema con esas respuestas generadas por IA es el mismo que afecta a todos los chatbots: que inventan cosas. Estos días conocimos el caso singular del queso y la pizza, pero ha habido otros muchos errores que los usuarios también han compartido en Twitter. El peligro para Google es que nadie se fíe de esa característica, y la empresa está haciendo algo insólito.

Si está mal, lo borramos. En Google están borrando resultados de búsqueda generados por IA que detecta que son erróneos. Lo confirmó una portavoz de Google en The Verge, e indicó que están "tomando medidas rápidas" para eliminar los resúmenes de IA en determinadas consultas. Lo hacen, destaca, "cuando procede en virtud de nuestras políticas de contenidos, y utilizar estos ejemplos para desarrollar mejoras más amplias en nuestros sistemas, algunas de las cuales ya han empezado a implantarse".

Ya no me llegan visitas de Google. El otro gran problema de esta revolución es el que afecta a los creadores de contenidos y a los medios: Google y su buscador han sido desde hace años fuentes clave del tráfico —y por tanto, de los ingresos publicitarios—, pero ese tráfico generado por Google está cambiando. Ya lo hizo con esos snippets que hacían que uno no tuviese que salir de Google, pero es que las respuestas generadas por IA hacen que la inquietud de los creadores de contenido crezca.

Semrush Semrush Los cambios en el algoritmo de Google favorecen a los resultados de su buscador y hacen que quienes crean el contenido original dejen de recibir visitas. La amenaza para quienes crean esos contenidos (Xataka incluida) es obvia. Fuente: BBC/SEMrush.

Para qué ir a tu web, lo tengo todo en el buscador. En Google siempre han defendido que el ecosistema web es crucial, pero al mismo tiempo se han esforzado para mostrar cada vez mrespuestas mejores en el buscador y evitarle clics al usuario. Un estudio de SEMrush publicado en BBC demuestra cómo el tráfico en varias webs no ha parado de bajar o como mucho se ha mantenido a duras penas tras los últimos cambios del buscador. El miedo, por supuesto, es que esa tendencia continúe en el tiempo.

Uso Google para buscar en Reddit. Buena parte de internet está viendo su tráfico perjudicado tras esos cambios, pero hay una plataforma que va a contracorriente. Se trata de Reddit, que ha ido ganando relevancia por contar con opiniones, respuestas y experiencias "humanas", lo que hace que muchos usuarios usen el buscador de google añadiendo "site:reddit" para que los resultados se centren justo en los de esa comunidad.

El peligro de la obsesión de Google con la IA. La empresa comenzó con pies de plomo a la hora de lanzar soluciones como Bard (ahora Gemini) porque sabía que su precisión era limitada. El empuje de Microsoft y OpenAI ha obligado a que los ritmos se aceleren, y por ahora eso está provocando que estén metiendo la IA por todos lados de forma forzada. Eso está generando además problemas que afectan a su reputación —y críticas internas—, sobre todo porque los usuarios no esperamos (de momento) que ChatGPT lo conteste todo bien, pero sí esperamos que el buscador de Google lo haga.

Imagen | Javier Pastor con Midjourney

En Xataka | Llevo años probando alternativas a Google. Ninguna me ha convencido tanto como Perplexity



via Robótica e IA - Xataka https://ift.tt/MA37PQO