viernes, 14 de junio de 2024

Las Big Tech se están dando cuenta de algo: sus IAs no pueden meter tanto la pata

Las Big Tech se están dando cuenta de algo: sus IAs no pueden meter tanto la pata

Al principio daba igual que ChatGPT alucinara y metiera la pata. No importaba que nos cambiase el final de 'Juego de Tronos' al preguntarle o incluso que se hiciera un lío con las matemáticas básicas. Al fin y al cabo, tan solo tenía unos meses de vida. No pasaba nada.

Ahora sí importa.

Es de lo que se han empezado a dar cuenta las Big Tech, inmersas en una carrera en la que parecía más relevante llegar antes que llegar bien. Todas se abalanzaron para ser las primeras, y empezaron los problemas graves de verdad. El chatbot de Microsoft desvarió, y mejor no hablemos de Bard y luego de Gemini, que metieron la pata a la grande (no una, sino dos veces).

Y claro, eso provocó que los usuarios acabasen por cambiar de actitud. Lo que hacía gracia ya no la hace tanto, sobre todo porque empezamos a usar estos modelos de IA generativa para cosas relativamente serias.

Hasta los académicos escriben estudios con ChatGPT, y usar estos asistentes es ya el pan nuestro de cada día para los programadores, que los usan de forma rutinaria. El problema para ellos es que hoy por hoy de las respuestas de ChatGPT en programación, el 52% contienen datos erróneos.

Todo ello ha empezado a dejar claro para muchos lo que algunos ya sabían desde el principio. Los ChatGPT del mundo no saben lo que dicen. Lo sueltan y parece que tiene sentido. Las frases están bien construidas, y el tono de los asistentes, que responden con un lenguaje natural, claro y razonable, es de seguridad total. Como si esa, efectivamente, fuese la respuesta definitiva y correcta.

Pero es que en muchos casos no lo es, y eso comienza a ser un problema gordo para la reputación de quienes controlan estos chatbots. Google es probablemente la más afectada por el problema. Sobre todo, porque durante un cuarto de siglo hemos estado usando su buscador con la confianza de que nos iba a mostrar justo lo que necesitábamos —mezclado con un montón de publicidad, eso sí—.

Nos fiábamos de Google, pero no nos fiamos tanto de Gemini. Ni de Gemini, ni de ChatGPT, ni de Copilot. Y hacemos bien: es importante revisar sus respuestas, porque no es difícil que nos puedan dar respuestas parcial o totalmente incorrectas y nos la líen.

Ante esta situación, las empresas están empezando a darse cuenta de lo importante que es hacer que los modelos de IA generativa se equivoquen menos o se comporten de forma que confiemos (un poco más) en ellas. Y aquí hay varias aproximaciones.

La más llamativa es también la más reciente. Apple, que presentó su Apple Intelligence —porque para ellos está prohibido usar el término "AI"—, nos dejó un poco fríos con sus prestaciones. Las funciones de IA lanzadas en sus sistemas operativos son un más de lo mismo. De hecho, son "un más de lo mismo capado", porque muchas de ellas funcionan de forma limitada.

Apple Imagen Playground Apple Imagen Playground El generador de imágenes de Apple Intelligence casi parece de juguete. Es precisamente lo que buscaba Apple.

El mejor ejemplo es su generador de imágenes por IA, que ellos llamaron Image Playground, y que se puede usar para crear emojis e imágenes con acabados que son todo menos fotorrealistas.

Nada de crear retratos al óleo de Tim Cook o posibles enfrentamientos entre Elon Musk y Mark Zuckerberg. Nada de vestir al Papa de Balenciaga, y desde luego nada de crear deepfakes con imágenes explícitas de Taylor Swift.

La decisión puede resultar decepcionante —Image Playground casi parece un juguete—, pero lo que desde luego hace es evitarle problemas a Apple. No podrás hacer mucho, cierto, pero lo que hagas probablemente estará bastante bien. Eso no solo evita malos usos, sino desastres como el recientemente vivido por Stable Diffusion 3: su modelo IA de generación de imágenes, uno de los más reputados del mundo, está generando cuerpos humanos aberrantes. Eso no pasará (previsiblemente) con el modelo de Apple.

En Microsoft parecen también haber recapacitado en los últimos tiempos. La reciente presentación de Recall planteaba una función de lo más llamativa, pero pronto surgieron críticas por sus implicaciones para la privacidad y la ciberseguridad. ¿Qué ha hecho la compañía? Retrasar su despliegue. Se suponía que iba a formar parte de los nuevos PC Copilot+ que se lanzan la semana que viene, pero las críticas y las quejas han provocado que Recall sea aplazado: lo lanzarán para Windows Insiders próximamente, y más adelante ya estará disponible de forma masiva. Pero de momento, frenazo. No valía la pena arriesgar.

Quizás Google empiece también a darse cuenta de que las prisas no son buenas consejeras, y menos en un segmento que está tan verde y que puede afectar de forma notable a su negocio. Aquí la empresa de Mountain View está en la situación más peligrosa en comparación con sus rivales: Apple ya tiene su propuesta para su ecosistema —iPhone incluido—, y Microsoft también la está perfilando a marchas forzadas en Windows.

Ellos mientras tanto, no pueden arriesgarse a que ChatGPT acabe robándoles la cartera y acabemos buscando más con él que con su buscador. Pero tampoco pueden arriesgarse a lo otro: a recomendarnos poner pegamento en la pizza. No querría estar yo en la piel de Sundar Pichai ahora mismo, porque encontrar el equilibrio (tenemos que tener algo rápido, pero que además funcione razonablemente bien) es hoy por hoy el mayor reto de todas estas empresas.

Quizás estemos ante el comienzo de una nueva mini-era en esta revolución que plantea la inteligencia artificial. Una en la que los chatbots no metan la pata tanto.

En Xataka | Las redes sociales nos dejaron trabajar gratis para ellas. Ahora nos quieren cobrar por hacerlo



via Robótica e IA - Xataka https://ift.tt/YmE6FiL

No hay comentarios:

Publicar un comentario