domingo, 16 de junio de 2024

Internet nos trajo la palabra 'spam'. La IA nos trae la palabra 'slop'

Internet nos trajo la palabra 'spam'. La IA nos trae la palabra 'slop'

Tras el spam como uno de los grandes anglicismos que trajo Internet a nuestro día a día, la nueva plaga digital se llama slop. Puedes ir acostumbrándote a ella, porque cada vez va a ser más frecuente.

Qué es el slop. El término, que puede traducirse como 'bazofia', hace referencia al contenido creado automáticamente por herramientas de IA generativa. No a cualquier contenido creado con ellas, sino al automatizado y sin labor humana ni supervisión alguna, que solo tiene como fin monetizar de alguna forma (visitas a una web, inflar cifras de seguidores).

A diferencia de un chatbot, no es un material interactivo ni pretende responder a las necesidades de nadie. Su único propósito es aparentar ser contenido humano para captar tráfico y generar ingresos publicitarios.

Por qué es un problema. Como ocurre con el spam, nadie quiere consumir slop, pero la economía digital incentiva su producción masiva. Con la IA generativa, generar textos o imágenes a escala industrial es muy simple y rentable, aunque su calidad y utilidad sean nulos.

Algunos ejemplos que cita The Guardian:

  • Un artículo de viajes recomendaba visitar un banco de alimentos como atracción turística en Ottawa.
  • Libros sobre setas publicados en Amazon con consejos potencialmente letales.
  • Memes virales en Facebook (donde esto está siendo especialmente problemático), como el de un Jesucristo con gambas en vez de extremidades.

A veces son risibles, otras veces ni eso porque son una pérdida de tiempo y una fuente de frustraciones: nos obligan a cribar más slop hasta llegar a la información útil. Y erosionan la confianza hacia cualquier contenido, incluido el legítimo, como ya hemos visto con las imágenes.

La respuesta de las tecnológicas. La irrupción del slop ha pillado con el pie cambiado a la industria. Meta obliga a etiquetar el contenido generado por IA, TikTok lo automatiza mientras Google está introduciendo los resúmenes automáticos para sus búsquedas. Esfuerzos que no abordan el problema o incluso lo agravan al difuminar la línea entre lo real y lo artificial.

Simon Willison, un desarrollador al que se le atribuye ser uno de los primeros en usar la palabra slop, es crucial reconocer y etiquetar esta amenaza, según recoge Tech Times. "El término spam ayudó a entender y combatir los correos basura. Definir el slop puede concienciar sobre los peligros de la IA sin supervisión". Advierte también que va a ser más complicado erradicar el slop que el spam.

Internet zombie. Bots, cuentas inactivas y humanos convivimos en un ecosistema caótico donde a veces cuesta distinguir lo real y el slop. Algo que hemos ido viendo con la teoría del Internet vacío. Jason Koebler, de 404 Media, lo bautiza como el "Internet zombie", un "entorno disfuncional y sin sentido donde no hay conexión social".

Es lo que hay, al menos de momento.

Imagen destacada | Xataka con Midjourney

En Xataka | Cada vez más ingenieros de IA están perdiendo su trabajo por hablar abiertamente de los riesgos de la IA. Y quieren protección



via Robótica e IA - Xataka https://ift.tt/adPqKO7

sábado, 15 de junio de 2024

Amazon quiso convertir Alexa en la némesis de ChatGPT. El proyecto ha acabado siendo un caos

Amazon quiso convertir Alexa en la némesis de ChatGPT. El proyecto ha acabado siendo un caos

El pasado mes de septiembre Amazon parecía estar preparada para plantear su particular revolución en el mundo de la IA. En un evento en Washinton DC, los responsables de la firma nos enseñaban la nueva versión de Alexa. Su asistente de voz nos invitaba a chatear con él de todo tipo de cuestiones. Quería dejar tan tonto como una piedra y parecía que podría conseguirlo. Y después, silencio.

¿Dónde está el nuevo Alexa? Se suponía que tras la presentación el despliegue de Alexa, que realmente parecía prometedor, se extendería rápidamente a los aproximadamente 500 millones de dispositivos con dicho asistente. Sin embargo en Amazon no volvieron a dar noticias de la evolución del proyecto, y solo en enero de 2024 aparecieron rumores de que Alexa podría aparecer este año... con una suscripción de la mano. ¿Qué está pasando? ¿Por qué no se ha lanzado esa nueva versión?

Caos en Amazon. Según indican fuentes de la empresa citadas en Fortune, el problema está en Amazon. La organización, aseguran, está plagada de "disfunciones estructurales" que han retrasado una y otra vez el lanzamiento de una nueva Alexa impulsada por IA generativa.

La demo era eso. Una demo. Aunque la presentación de Alexa del pasado mes de septiembre fue llamativa, eran tan solo una demo. Esa versión no estaba preparada para su despliegue, y sigue sin estarlo hoy. El LLM en el que se basa está "lejos de ser de última generación", y las razones son variadas.

Ni datos, ni GPUs. Los científicos entrevistados que trabajaron en el proyecto explicaban en Fortune que Amazon no tenía ni suficientes datos para entrenar el modelo, ni suficientes chips para entrenarlo y ejecutarlo de forma competitiva.

Mejor hagamos un chatbot para la nube. En lugar de seguir trabajando en Alexa a toda máquina, en Amazon parecen haber cambiado el foco y están desarrollando un modelo de IA generativa orientado a Amazon Web Services. La empresa invirtió 4.000 millones de dólares en Anthropic, creadora de Claude, pero de momento eso no ha ayudado ni en un lado ni en otro.

Amazon niega que haya problemas. Una portavoz de Amazon ha indicado en Fortune que los datos proporcionados eran antiguos, y añadió que la empresa tiene acceso a cientos de miles de GPUs. También niega que Alexa haya perdido prioridad o que no estén usando Claude, pero no dio detalles sobre cómo lo están haciendo.

Siri adelanta a Alexa por la derecha. Eso es al menos lo que parece tras los anuncios de esta semana en la WWDC 2024. Allí Apple mostró una versión mejorada de Siri con una voz sintética más natural y el potencial de que el asistente complete acciones mediante aplicaciones con las que se conecta. La integración con ChatGPT es otra de las opciones llamativas de un asistente de voz que se lanzó en 2011 y que ahora, aun habiéndose olvidado de algunos de los dispositivos que podrían potenciarlo, tiene una nueva oportunidad. Alexa puede quedarse atrás.

Los exempleados de Amazon no son optimistas. Mihail Eric, un experto en aprendizaje automático que trabajó en Alexa AI, publicó recientemente un largo post en X. Dejó la empresa en julio de 2021, y afirma que a pesar de todos los recursos de Amazon y de tener también mucha gente con talento, la empresa estaba "plagada de problemas técnicos y burocráticos".

¿Qué hay de Olympus? El pasado noviembre se reveló que Amazon tenía en marcha un proyecto para crear un LLM gigantesco llamado Olympus con dos billones de parámetros. Eso supone el doble de lo que se estima que utiliza GPT-4, pero uno de los entrevistados en Fortune indican que esa cifra "es un chiste". En realidad, afirma, el modelo más grande que tienen ronda los 470.000 millones de parámetros (470B) , la cuarta parte de los que teóricamente iba a tener Olympus. Mientras, el LLM de esa nueva versión de Alexa ronda los 100B, y ahora están al parecer trabajando en hacer un ajuste fino del mismo.

Lentos. El progreso del LLM de Alexa es aún modesto. Según los datos publicados, Llama 3 fue preentrenado con 15 billones de tokens, mientras que Alexa LLM solo ha podido hacerlo con 3 billones. Su ajuste fino también es peor que el del modelo de Meta, que utilizó 10 millones de "data points" frente a tan solo un millón en el caso del de Amazon.

Demsiada gente, demasiada complejidad. El proyecto se ha alejado mucho de los famosos grupos de trabajo de "dos pizzas" de Jeff Bezos, y ahora aglutina a unos 10.000 empleados que además trabajan en distintos escenarios de uso, como el hogar, las compras, la música o el entretenimiento. Eso no facilita las cosas, pero aún así en Amazon confían —también lo hacen algunos de los entrevistados— en que ese LLM para Alexa acabará apareciendo en el mercado.

Imagen | Jonathan Borba

En Xataka | Amazon se ha cargado el nombre 'Alexa'. Se usa un 90% menos para llamar a niñas recién nacidas que antes del primer Echo



via Robótica e IA - Xataka https://ift.tt/F3vAwZK

Humane quería lanzar "el próximo iPhone". Al final ha escrito el manual de cómo nunca debe actuar una tecnológica

Humane quería lanzar

Humane ha pasado en unos meses de ser una enigmática promesa de la IA móvil a convertirse en un caso de estudio sobre todo lo que puede salir mal en un lanzamiento de producto.

Tras el fiasco de su primer dispositivo, el AI Pin, la empresa busca una salida rápida. Concretamente, una venta a HP por 1.000 millones de dólares. Una jugada que no deja en buen lugar a sus fundadores.

Por qué es importante. El debut del AI Pin fue desastroso. Su continuación, con la empresa avisando de que el cargador es defectuoso y podría incendiarse, fue la guinda. No es un fallo del producto, sino del control de calidad y de la ética empresarial.

Humane lanzó un producto a medio hacer para conseguir ingresos rápidos gracias a los 700 dólares de quienes apostaron por ella. La experiencia en la solapa es tan mala como uno podría esperar, algo que ya anticipamos en cuanto lo vimos en el MWC, y ahora busca rentabilizar su actividad con una venta exprés.

Los fallos de Humane.

  • Lanzaron el AI Pin de forma precipitada, sin pulir, pese a las advertencias internas. Llegó con problemas de batería, funcionalidad y sobrecalentamiento.
  • El control de calidad no estuvo a la altura, el riesgo de incendio de sus cargadores es algo insólito.
  • Las proyecciones de ventas no fueron realistas. Una cosa es pasarse de optimista, otra es pronosticar 100.000 ventas y conseguir 10.000, según The New York Times. Y sin contar devoluciones.
  • La falta de ética y de transparencia. Usaron a los clientes que apostaron por ellos (700 dólares mediante) como un producto para inflar su valor y buscar un comprador.

Quien escribe estas líneas dijo en noviembre de 2023, antes incluso de que empezasen las ventas, que esta empresa tenía toda la pinta de buscar una venta rápida.

Entre líneas. Los fundadores de Humane presumían de estar creando "el próximo iPhone". También se compararon con Tesla. Su estrategia ha sido la contraria: prometer en exceso, decepcionar e intentar vender rápido y caro en una huida hacia adelante.

El contexto. Humane ha levantado 230 millones de dólares de inversores de primer nivel, incluyendo a Sam Altman o a Marc Benioff. El producto no ha estado a la altura de las expectativas y ahora buscan la venta a HP.

La moraleja. El caso Humane es un recordatorio, también para la prensa, de los peligros de dejarse llevar por la euforia en torno a startups tecnológicas que prometen revolucionar el mundo antes de enseñar ni siquiera un producto real.

Y de cómo el afán por rentabilizar rápido la inversión puede llevar a descuidar lo esencial: crear algo que aporte valor al cliente.

En resumen. El AI Pin podría haber sido un dispositivo innovador con una propuesta diferente en torno a la IA, pero el ansia por captar fondos y vender rápido llevó a la empresa a lanzar un producto a medio cocer, decepcionar a sus usuarios y destruir la confianza en su marca. Más que "el próximo iPhone", Humane es un ejemplo de cómo nunca debería obrar una tecnológica.

En Xataka | Tenemos un problema con el hardware basado en IA: casi todo son aplicaciones glorificadas

Imagen destacada | Humane



via Robótica e IA - Xataka https://ift.tt/4X6VPmF

viernes, 14 de junio de 2024

Meta jugó con fuego al querer entrenar una IA con datos de usuarios europeos: los reguladores se lo acaban de impedir

Meta jugó con fuego al querer entrenar una IA con datos de usuarios europeos: los reguladores se lo acaban de impedir

Meta por ahora no utilizará el contenido público de los usuarios de Facebook e Instagram de la Unión Europea (UE) y el Reino Unido para entrenar modelos de inteligencia artificial (IA). Se trata de una medida de carácter temporal que emerge de la tecnológica estadounidense en respuesta a la presión de varios reguladores europeos.

El anuncio se produce días después de que la Comisión de Protección de Datos de Irlanda (DPC) solicitara la suspensión de la controvertida iniciativa de Meta en nombre de varias autoridades de protección de datos del bloque. La Oficina del Comisionado de Información (ICO) del Reino Unido también se había manifestado su preocupación.

Meta se ha visto obligada a cambiar su plan

Los dirigidos por Mark Zuckerberg han dejado en claro en un comunicado publicado este viernes que están “decepcionados” con la petición de la DPC. En este sentido han señalado, además, que el presente escenario es “un paso atrás para la innovación europea y la competencia en el desarrollo de la IA”.

Estaba previsto que el gigante de las redes sociales comenzara a utilizar actualizaciones de estado, imágenes, comentarios e interacciones públicos de los usuarios de Facebook e Instagram a partir del 26 de junio para entrenar modelos de IA. Como podemos ver, ahora esto se encuentra suspendido hasta nuevo aviso.

Solen Feyissa Kwza42a1kds Unsplash Solen Feyissa Kwza42a1kds Unsplash

Cabe señalar que Meta está convencida de que la mencionada actividad cumple con la normativa vigente, específicamente con el Reglamento General de Protección de Datos (RGPD). Según la compañía, se basan en los “intereses legítimos” que también han utilizado otros actores de la industria para entrenar sus modelos de IA.

Meta dice que necesita los datos de los usuarios europeos para que sus modelos de IA puedan reflejar “los diversos idiomas, la geografía y las referencias culturales de las personas en Europa”. Por el momento toca esperar para saber cuál será el siguiente movimiento de los reguladores en esta batalla por los datos de los usuarios.

En cualquier caso, si la compañía estadounidense resulta victoriosa en la UE y consigue eludir los obstáculos que ha encontrado por el camino, los usuarios todavía deberían tener una alternativa: realizar una serie de ajustes en sus perfiles para evitar que sus datos sean utilizados para entrenar modelos de inteligencia artificial.

Imágenes | Instagram | Christian Lue | Solen Feyissa

En Xataka | Las Big Tech se están dando cuenta de algo: sus IAs no pueden meter tanto la pata



via Robótica e IA - Xataka https://ift.tt/vplyIBb

Las Big Tech se están dando cuenta de algo: sus IAs no pueden meter tanto la pata

Las Big Tech se están dando cuenta de algo: sus IAs no pueden meter tanto la pata

Al principio daba igual que ChatGPT alucinara y metiera la pata. No importaba que nos cambiase el final de 'Juego de Tronos' al preguntarle o incluso que se hiciera un lío con las matemáticas básicas. Al fin y al cabo, tan solo tenía unos meses de vida. No pasaba nada.

Ahora sí importa.

Es de lo que se han empezado a dar cuenta las Big Tech, inmersas en una carrera en la que parecía más relevante llegar antes que llegar bien. Todas se abalanzaron para ser las primeras, y empezaron los problemas graves de verdad. El chatbot de Microsoft desvarió, y mejor no hablemos de Bard y luego de Gemini, que metieron la pata a la grande (no una, sino dos veces).

Y claro, eso provocó que los usuarios acabasen por cambiar de actitud. Lo que hacía gracia ya no la hace tanto, sobre todo porque empezamos a usar estos modelos de IA generativa para cosas relativamente serias.

Hasta los académicos escriben estudios con ChatGPT, y usar estos asistentes es ya el pan nuestro de cada día para los programadores, que los usan de forma rutinaria. El problema para ellos es que hoy por hoy de las respuestas de ChatGPT en programación, el 52% contienen datos erróneos.

Todo ello ha empezado a dejar claro para muchos lo que algunos ya sabían desde el principio. Los ChatGPT del mundo no saben lo que dicen. Lo sueltan y parece que tiene sentido. Las frases están bien construidas, y el tono de los asistentes, que responden con un lenguaje natural, claro y razonable, es de seguridad total. Como si esa, efectivamente, fuese la respuesta definitiva y correcta.

Pero es que en muchos casos no lo es, y eso comienza a ser un problema gordo para la reputación de quienes controlan estos chatbots. Google es probablemente la más afectada por el problema. Sobre todo, porque durante un cuarto de siglo hemos estado usando su buscador con la confianza de que nos iba a mostrar justo lo que necesitábamos —mezclado con un montón de publicidad, eso sí—.

Nos fiábamos de Google, pero no nos fiamos tanto de Gemini. Ni de Gemini, ni de ChatGPT, ni de Copilot. Y hacemos bien: es importante revisar sus respuestas, porque no es difícil que nos puedan dar respuestas parcial o totalmente incorrectas y nos la líen.

Ante esta situación, las empresas están empezando a darse cuenta de lo importante que es hacer que los modelos de IA generativa se equivoquen menos o se comporten de forma que confiemos (un poco más) en ellas. Y aquí hay varias aproximaciones.

La más llamativa es también la más reciente. Apple, que presentó su Apple Intelligence —porque para ellos está prohibido usar el término "AI"—, nos dejó un poco fríos con sus prestaciones. Las funciones de IA lanzadas en sus sistemas operativos son un más de lo mismo. De hecho, son "un más de lo mismo capado", porque muchas de ellas funcionan de forma limitada.

Apple Imagen Playground Apple Imagen Playground El generador de imágenes de Apple Intelligence casi parece de juguete. Es precisamente lo que buscaba Apple.

El mejor ejemplo es su generador de imágenes por IA, que ellos llamaron Image Playground, y que se puede usar para crear emojis e imágenes con acabados que son todo menos fotorrealistas.

Nada de crear retratos al óleo de Tim Cook o posibles enfrentamientos entre Elon Musk y Mark Zuckerberg. Nada de vestir al Papa de Balenciaga, y desde luego nada de crear deepfakes con imágenes explícitas de Taylor Swift.

La decisión puede resultar decepcionante —Image Playground casi parece un juguete—, pero lo que desde luego hace es evitarle problemas a Apple. No podrás hacer mucho, cierto, pero lo que hagas probablemente estará bastante bien. Eso no solo evita malos usos, sino desastres como el recientemente vivido por Stable Diffusion 3: su modelo IA de generación de imágenes, uno de los más reputados del mundo, está generando cuerpos humanos aberrantes. Eso no pasará (previsiblemente) con el modelo de Apple.

En Microsoft parecen también haber recapacitado en los últimos tiempos. La reciente presentación de Recall planteaba una función de lo más llamativa, pero pronto surgieron críticas por sus implicaciones para la privacidad y la ciberseguridad. ¿Qué ha hecho la compañía? Retrasar su despliegue. Se suponía que iba a formar parte de los nuevos PC Copilot+ que se lanzan la semana que viene, pero las críticas y las quejas han provocado que Recall sea aplazado: lo lanzarán para Windows Insiders próximamente, y más adelante ya estará disponible de forma masiva. Pero de momento, frenazo. No valía la pena arriesgar.

Quizás Google empiece también a darse cuenta de que las prisas no son buenas consejeras, y menos en un segmento que está tan verde y que puede afectar de forma notable a su negocio. Aquí la empresa de Mountain View está en la situación más peligrosa en comparación con sus rivales: Apple ya tiene su propuesta para su ecosistema —iPhone incluido—, y Microsoft también la está perfilando a marchas forzadas en Windows.

Ellos mientras tanto, no pueden arriesgarse a que ChatGPT acabe robándoles la cartera y acabemos buscando más con él que con su buscador. Pero tampoco pueden arriesgarse a lo otro: a recomendarnos poner pegamento en la pizza. No querría estar yo en la piel de Sundar Pichai ahora mismo, porque encontrar el equilibrio (tenemos que tener algo rápido, pero que además funcione razonablemente bien) es hoy por hoy el mayor reto de todas estas empresas.

Quizás estemos ante el comienzo de una nueva mini-era en esta revolución que plantea la inteligencia artificial. Una en la que los chatbots no metan la pata tanto.

En Xataka | Las redes sociales nos dejaron trabajar gratis para ellas. Ahora nos quieren cobrar por hacerlo



via Robótica e IA - Xataka https://ift.tt/YmE6FiL

Windows Recall se retrasa: las críticas provocan que Microsoft prevenga para no tener que curar

Windows Recall se retrasa: las críticas provocan que Microsoft prevenga para no tener que curar

El anuncio de Windows Recall, la "memoria fotográfica" de Windows 11, se convirtió rápidamente en uno de los temas de debate en el mundo de la tecnología. Como idea, Recall es prometedora: que recuerde todo lo que hemos hecho para poder encontrar cualquier dato es fantástico. Pero luego vinieron los problemas.

Recall lo recuerda todo. En la presentación de los PC Copilot+ Microsoft sorprendió no solo por las prometedoras prestaciones de estos equipos, inicialmente basados en los Snapdragon X Elite. Las opciones de IA llamaban la atención, y sobre todas ellas la que más lo hacía era Recall. La función recolecta capturas de pantalla, las analiza e indexa semánticamente, y luego podemos preguntarle al sistema por cualquier dato. Su capacidad para respondernos es, al menos según lo mostrado por Microsoft, asombrosa.

La privacidad, a examen. Sin embargo la opción pronto dio mucho que hablar. Los mensajes en redes sociales dejaron claro que muchos usuarios estaban preocupados por una potencial violación a la privacidad, y eso a pesar de que Microsoft la presentó indicando que había puesto en marcha varios mecanismos para protegerla. Teníamos que fiarnos de ella, eso sí, y eso era un reto.

Desastre de ciberseguridad. El análisis de un investigador independiente reveló que el funcionamiento de Recall era un desastre en materia de privacidad. En el momento de evaluarla, Recall almacenaba todos sus datos en una base de datos en texto plano, y además dicha información podía ser extraída incluso por ususarios que no eran administradores del PC con esos datos.

Microsoft se ha puesto las pilas. Ese análisis y las críticas hicieron que Microsoft reaccionara, y sus responsables se pusieron a trabajar para corregir esos fallos detectados. El resultado: tres importantes cambios que permitían atajar las principales críticas a su funcionamiento.

Recall retrasa su salida. La semana que viene llegarán los primeros PC Copilot+ al mercado, pero lo harán sin Recall. Según indicaban sus responsables en el blog oficial de Microsoft, la empresa va a retrasar la disponibilidad de esta característica para poder evaluarla como parte del programa Windows Insider.

Mejor prevenir que curar. En Redmond tienen claro que ante la avalancha de críticas es mejor no arriesgar y ofrecer esa opción solo cuando esté realmente preparada. "Cuando la versión preliminar de Recall esté disponible en el programa Windows Insider, publicaremos un artículo en el blog con detalles sobre cómo acceder a esa versión preliminar".

Microsoft necesita tiempo, y eso es bueno. Puede que a algunos les decepcione la noticia. Precisamente Recall es una de las características estrella de los nuevos PC Copilot+, pero la decisión de Microsoft es la más lógica y razonable. La empresa estaba intentando acelerar e incluir Recall la próxima semana en esos equipos que salen a la venta, pero las prisas no son buenas consejeras. Tardarán un poco más en ofrecerla, pero sin duda ese tiempo extra y el periodo de pruebas por parte de los miembros del programa Windows Insider permitirá evitar males mayores.

En Xataka | El acuerdo de Microsoft con OpenAI era solo un primer paso. Lo que quieren (probablemente) es deshacerse de ellos



via Robótica e IA - Xataka https://ift.tt/yxLsdWJ

Alguien quiso hacer trampa en un examen universitario con una cámara oculta e IA: ahora está en prisión (y sin aprobar)

Alguien quiso hacer trampa en un examen universitario con una cámara oculta e IA: ahora está en prisión (y sin aprobar)

Un estudiante identificado con las siglas M.E.E. fue descubierto haciendo trampa en un examen universitario en Turquía. El hombre, que según las autoridades utilizó un dispositivo conectado a Internet con inteligencia artificial (IA) para resolver las preguntas, has sido arrestado y se espera que sea juzgado por el incidente. Además, ha sido alcanzado por una medida disciplinaria educativa que se extenderá por al menos dos años.

Según el medio local haberler.com, M.E.E. se presentó el pasado 8 de junio en una Prueba de Aptitud Básica (TYT) en la ciudad de Isparta. Se trata de una evaluación obligatoria para el ingreso a la educación superior. ÖSYM, la institución encargada de organizar la actividad, permite que los candidatos puedan ingresar a la sala únicamente con una botella de agua transparente. Y, para garantizar esto, suele monitorizar los edificios con cámaras.

Un estudiante con cámara de botón

Uno de los estudiantes, según consta en la investigación, comenzó a mostrar cierta actitud sospechosa después de regresar del baño. El responsable de esta evaluación en particular se percató de la situación y le pidió que abandonara la sala. Acto seguido intervinieron agentes de la Policía de Isparta, que descubrieron que M.E.E. tenía varios dispositivos electrónicos escondidos en sus prendas de vestir.

Las autoridades dicen que el sospechoso consiguió eludir los controles de la entrada al equiparse los dispositivos para hacer trampa en el baño. En concreto se refieren a una cámara botón en su camisa, un módem en uno de sus zapatos y un auricular. La mecánica, aparentemente, consistía en que la cámara captara las preguntas y una IA le dijera la respuesta al oído, pero esto no habría funcionado.

Estudiante Ia Trampa Estudiante Ia Trampa Los elementos incautados al sospechoso

Desconocemos qué solución de IA habría utilizado el estudiante, pero las autoridades dicen que una de las razones por las que M.E.E. "entró en pánico" era que el sistema que había ideado para aprobar el examen no funcionó correctamente. Otra persona, identificada con las siglas A.B., también había sido considerada como sospechosa e incluso había sido arrestada, pero fue puesta en libertad después de un interrogatorio.

En cualquier caso, M.E.E. parece que se llevará la peor parte. No está claro si finalmente recibirá una condena que deberá cumplir en la cárcel, pero permanecerá privado de la liberad hasta el juicio. Por si esto fuera poco, el hombre ha sido vetado de las pruebas TYT durante dos años. Esto quiere decir que durante ese período de tiempo no podrá repetir la prueba en la que fue descubierto haciendo trampa y ninguna otra.

Imágenes | Departamento de Policía de Isparta

En Xataka | El acuerdo de Microsoft con OpenAI era solo un primer paso. Lo que quieren (probablemente) es deshacerse de ellos



via Robótica e IA - Xataka https://ift.tt/FcdRzOY

jueves, 13 de junio de 2024

El acuerdo de Microsoft con OpenAI era solo un primer paso. Lo que quieren (probablemente) es deshacerse de ellos

El acuerdo de Microsoft con OpenAI era solo un primer paso. Lo que quieren (probablemente) es deshacerse de ellos

Satya Nadella asumió muy rápido su papel de consegliere de Microsoft. Su antecesor, Steve Ballmer, fue protagonista por fracasar tanto en la guerra de los buscadores como (sobre todo) en la de los móviles. El Sr. Nadella se propuso enderezar la marcha enseguida, y pronto comenzó a soltar lastre por un lado, y a cambiar de enfoque por otro.

Su estrategia resultó. Su empresa se centraba en el móvil —aunque de forma indirecta— y sobre todo en la nube, donde Azure ha logrado convertirse en protagonista absoluto de ese panorama. No le ha temblado el pulso a la hora de tomar decisiones, pero tampoco a la de adquirir empresas o invertir en nuevas infraestructuras.

Las inversiones en centros de datos y en alianzas estratégicas tienen un claro objetivo: ganar la batalla de la IA

Las cifras son mareantes. Desde su llegada Microsoft ha invertido 170.000 millones de euros en adquirir empresas (Activision Blizzard por 68.700 millones de dólares, LinkedIn por 26.200, GitHub por 7.500, por ejemplo), pero además en los últimos meses está perfilando la que es su gran apuesta de futuro. Hay invertido más de 30.000 millones de dólares en futuros centros de datos, a los que se suman los 10.000 que invirtió en OpenAI. En estos dos últimos casos, con un objetivo:

Ganar la batalla de la inteligencia artificial.

Por el momento, eso sí, necesita ayuda para lograrlo. A pesar de que la empresa lleva años trabajando en este campo, el auge de los modelos de IA generativa cogió a Microsoft —como al resto de grandes— con el pie cambiado. Satya Nadella se propuso resolverlo antes que nadie, y pronto comenzó a impulsar la adopción de la tecnología de OpenAI en todos los productos de Microsoft.

Así es como hemos llegado hasta aquí: los copilotos de Microsoft nos inundan, y esa estrategia se ha consolidado en la reciente conferencia Build 2024 con la presentación de los prometedores PC Copilot+. La inteligencia artificial es el gran argumento de Microsoft para seguir liderando la batalla tecnológica los próximos años, y Open AI es el candidato perfecto para lograrlo.

Al menos, por ahora.

Como explican en The Wall Street Journal, diversos movimientos parecen dejar claro que la visión de Microsoft es la de deshacerse de OpenAI en algún momento del futuro. La empresa está aprovechando el tirón de ChatGPT, pero al mismo tiempo está dando pequeños pero importantes pasos para acabar lanzando LLMs propios que logren competir con los que ahora marcan la referencia (GPT-4, Claude 3 Opus, Llama 3).

Phi 3 Phi 3 A Phi-2, presentado en diciembre, le sucedió Phi-3 este mes de mayo. En la división de IA de Microsoft parecen estar trabajando duro. Fuente: Microsoft.

Ese camino ya ha empezado con Phi-3, un modelo que es capaz de correr en dispositivos móviles, y que por supuesto tiene una nutrida competencia. Google tiene Gemini Nano, Anthropic tiene Claude 3 Haiku y Apple tiene su propio modelo, sin nombre especificado, que es el que ha debutado en Apple Intelligence en sus iPhone 15 Pro/Max (entre otros dispositivos).

Pero es evidente que en Microsoft no se van a conformar con eso. Hace unos meses fichó a Mustafa Suleyman, que fue uno de los fundadores de DeepMind y que salió de Google —con cierta polémica— para cofundar Inflection AI, creadora del chatbot Pi. A pesar de levantar 1.300 millones de dólares la empresa no acababa de cuajar, así que la oferta de Microsoft —"vente a liderar nuestra apuesta por la IA"— llegó en el momento justo.

Suleyman Suleyman Imagen: Collision Conf.

Suleyman se ha convertido desde hace pocos meses en el máximo responsable de los esfuerzos de Microsoft por crear sus propios modelos de inteligencia artificial. Su trabajo va tomando forma, parece, y con él Microsoft ya tiene un primer competidor propio de GPT-4 llamado MAI-1 (MicrosoftAI). El modelo es enorme (500B, 500.000 millones de parámetros), pero curiosamente no se habló de él en la conferencia Build, que se centró en los PC Copilot+.

La libertad de maniobra que le han dado a Suleyman es insólita: su equipo no se comunica con Microsoft Teams, el producto de la casa, sino con Slack. Ahí es nada. La división de IA es la niña mimada de los de Redmond, y mientras el hardware parece perder peso.

Panos Panay su máximo responsable, abandonó el barco en septiembre de 2023. Según WSJ ha habido recortes en los presupuestos que manejan esa división y también la que trabajaba en las HoloLens, que de hecho canceló las HoloLens 3 en febrero de 2022.

De momento, eso sí, todo son incógnitas con esos esfuerzos para lograr competir con OpenAI y el resto de alternativas. La capacidad de MAI-1 es por el momento incierta, pero parece claro que en Microsoft quieren seguir los pasos de Apple. La firma de Cupertino tiene un acuerdo con OpenAI, sí, pero es casi testimonial porque solo utilizan ChatGPT como último recurso.

Redmond parece querer también ir a ese futuro. Por ahora la alianza con OpenAI es buena para todos: permite a Microsoft que sus clientes accedan a uno de los mejores modelos de IA del mercado de forma sencilla. La pregunta, por supuesto, es cuánto durará el amor de Microsoft por OpenAI.

Si todo va tan rápido como el resto de avances de IA, puede que no mucho.

En Xataka | Apple Intelligence apunta a ser la excusa perfecta para algo crucial para el futuro: vender más iPhone



via Robótica e IA - Xataka https://ift.tt/D2xUHRn

Ya sabemos lo que paga Apple a OpenAI por usar ChatGPT: cero unidades de euro

Ya sabemos lo que paga Apple a OpenAI por usar ChatGPT: cero unidades de euro

La llegada de Apple Intelligence parecía prever una llamativa alianza entre Apple y OpenAI. Al final la cosa fue bastante más descafeinada que lo que muchos imaginaban, pero quedaba una duda importante. ¿Había algún tipo de contraprestación económica? ¿Pagaba algo Apple a OpenAI por usar ChatGPT? ¿O era OpenAI la que pagaba a Apple por "poder estar" en sus iPhone, iPad y Mac? Parece que ni lo uno, ni lo otro.

Nadie paga a nadie. Según indican en Bloomberg, Apple no está pagando ni un euro a OpenAI por ofrecer ChatGPT a sus usuarios de forma gratuita, pero es que OpenAI tampoco pagará nada a Apple por estar ahí como opción para los usuarios de los dispositivos de la firma. Y aún así, ambos ganan.

Qué gana OpenAI. La empresa liderada por Sam Altman gana algo importantísimo: exposición. Los cientos de millones de dispositivos en los que Apple Intelligence comenzará a estar disponible serán una especie de escaparate para que los usuarios puedan probar las ventajas de ChatGPT. Y si esas funciones los convencen, pueden suscribirse a ChatGPT Plus para obtener acceso completo a sus ventajas. La versión gratuita será una vez más el anzuelo con el cebo para "pescar" más suscriptores a su servicio de pago.

Qué gana Apple. Mientras, Apple se beneficiará de poder resolver peticiones complejas vía un servicio que se ha convertido en la referencia, pero además podría ganar dinero: si los usuarios acaban suscribiéndose a ChatGPT Plus a través de un dispositivo de Apple, la empresa conseguirá una comisión.

Cómo se aprovechará ChatGPT. Apple usará el modelo GPT-4o de OpenAI para potenciar algunas funciones de IA en iOS 18, iPadOS 18 y macOS Sequoia. Entre otras cosas Siri será capaz de contestar a través de ChatGPT para que obtengamos ideas de recetas de menús, para resumir artículos o para encontrar fotos basándonos en una descripción de lo que contienen.

Y esto podría ir a más. Según Bloomberg Apple pretende usar ese mismo modelo para otras plataformas de IA. Así, la idea es lograr que otros asistentes y chatbots acaben también estando disponibles como opción en el iPhone, pero en versión gratuita y limitada. A partir de ahí se dará la opción de suscripción a la versión completa, con lo que Apple también se llavará una comisión. Es algo similar a lo que ocurre con los buscadores en Safari: el acuerdo con Google se ha convertido en un jugoso negocio para ambas.

Claude y Gemini, posibles alianzas futuras. Fuentes cercanas a Bloomberg ya indicaron que Apple había mantenido conversaciones con Google (Gemini) y con Anthropic (Claude) para llegar a acuerdos similares. Se espera que estas u otras plataformas acaben llegando como opción extra en Apple Intelligence a corto y medio plazo.

China, un problema. Como señalan en el diario, este tipo de funciones de IA podrían no llegar a China. ChatGPT y Gemini están prohibidos en ese país, lo que hace que este mercado, uno de los más importantes para Apple, no pueda acceder a parte de las ventajas de Apple Intelligence. En ese caso Apple bien podría aliarse con empresas de IA del gigante asiático: Baidu lleva tiempo desarrollando Ernie, su respuesta a ChatGPT, y no parece descabellado pensar que en ese país Apple llegara a acuerdos con empresas locales para evitar problemas.

En Xataka | Apple Intelligence apunta a ser la excusa perfecta para algo crucial para el futuro: vender más iPhone



via Robótica e IA - Xataka https://ift.tt/wWFbovz

Dream Machine es una IA para generar vídeos que quiere plantarle cara a Sora. Y sí, se puede probar gratis

Dream Machine es una IA para generar vídeos que quiere plantarle cara a Sora. Y sí, se puede probar gratis

¿Qué tienen en común la inmensa mayoría de inteligencias artificiales generativas de vídeo? Que prometen resultados espectaculares, pero no están a disposición del público. Tecnologías como ChatGPT, Midjourney, Stable Diffusion y DALL-E se han hecho muy populares gracias a que los usuarios han podido trastear con ellas desde prácticamente el primer momento, pero todo lo relacionado con el vídeo, véase Sora o MagicVideo-V2, ha estado limitado a investigadores y papers.

Hasta ahora.

Dream Machine. Ese es el nombre del nuevo modelo de inteligencia artificial generativa de Luma Labs y, como otras tantas IAs generativas, su funcionamiento es sencillo: el usuario introduce un prompt de texto explicando qué quiere generar y la IA se encarga del resto, generando un clip de cinco segundos a una velocidad bastante alta.

Vídeos generados con Luma Dream Machine Vídeos generados con Luma Dream Machine Vídeos generados con Luma Dream Machine | Captura: Xataka

¿Y qué tal funciona? Pues lo cierto es que realmente bien, aunque no es perfecto ni muchísimo menos. Depende del prompt, pero Dream Machine es capaz de conseguir resultados muy sólidos. No son vídeos que vayan a colar por reales (para eso queda, aunque quizá menos de lo que se podría esperar), pero sí que destacan por conservar la integridad de lo mostrado.

En los vídeos bajo estas líneas puedes ver algunos ejemplos generados por nosotros y, como se puede apreciar, cada fotograma es coherente con el anterior, más allá de que se le vean las costuras y que haga cosas un poco... extrañas. En cualquier caso, poco o nada tiene que ver con ese primer modelo de generación de vídeo que vimos hace unos años.

Limitaciones. Dream Machine tiene, por el momento, dos límites. El primero es que solo se pueden generar clips de cinco segundos. El segundo es que solo podemos generar 30 clips al mes, siempre y cuando no queremos pasar por caja. Con 30 clips de cinco segundos se pueden hacer cosas de lo más curiosas, como este tráiler.

Hablando de pasar por caja... Los límites están para romperlos y, precisamente por eso, Luma nos ofrece tres suscripciones. La primera cuesta 30 dólares al mes y nos da 120 generaciones; la segunda sube hasta los 100 dólares mensuales y admite 400 generaciones y el plan más caro, que cuesta 500 dólares al mes, permite generar 2.000 vídeos al mes. Aquellos que quieran Dream Machine pueden hacerlo ya desde su web.

Imágenes | Dream Labs

En Xataka | Llevo nueve años editando vídeo de forma profesional. Así creo que Sora me va a cambiar el trabajo y la vida



via Robótica e IA - Xataka https://ift.tt/6pCxe2H

La versión "compacta" de Stable Diffusion 3 ya está aquí. Y está generando cuerpos humanos monstruosos

La versión

Stable Diffusion es el gran rival de Midjourney en el ámbito de los modelos de IA generativa de imágenes, sobre todo porque permite a cualquiera utilizarlo en su PC y potenciarlo con todo tipo de componentes externos. Hace meses que se lanzó Stable Diffusion 3 y ahora ha llegado una nueva versión compacta llamada Stable Diffusion Medium, pero hay un problema: está creando monstruos.

Qué ha pasado. Aunque Stable Diffusion 3 apareció el pasado 22 de febrero y la API pública está disponible desde el 17 de abril, ahora acaban de liberarse los "pesos" de Stable Diffusion Medium, una versión importante porque es más compacta que puede ser utilizada en cualquier PC de forma fluida si uno tiene una GPU con buena potencia.

Basta una GPU con al menos 5 GB de memoria. Mientras que SD3 Large (la original) tiene 8.000 millones de parámetros, SD3 Medium tiene 2.000 millones. Como explicó Christiam Laforte, co-CEO de Stability AI, "a diferencia de SD3 Large, SD3 Medium es más pequeño y puede funcionar de forma eficiente en hardware de consumo". Los responsables de este modelo explican que el requisito mínimo es contar con una GPU con 5 GB de memoria gráfica, aunque recomiendan una con 16 GB para obtener mejores resultados y funcionamiento. Stable Difussion 3 Medium está también disponible de forma gratuita online a través de Hugging Face.

Cuerpo3 Cuerpo3 Esas manos no, por favor. Fuente: -f1-f2-f3-f4-/Reddit.

El modelo es prometedor. Esta versión se beneficia teóricamente de todas las mejoras del modelo de gran tamaño. Así, ofrece mayor grado de fotorrealismo en las imágenes generadas, mucho mejor soporte de tipografías gracias a la arquitectura Diffusion Transformer, mejor comprensión de prompts complejos y una eficiencia perfecta para poder ser ejecutado en GPUs "de consumo".

Mujer1 Mujer1 Fuente: HornyMetalBeing/Reddit.

Pero se están generando cuerpos aberrantes. Sin embargo las limitaciones del modelo son patentes, como demuestran algunas imágenes que los usuarios están compartiendo públicamente. Lo explican en Ars Technica, donde revelan cómo en Reddit aparecen hilos que ridiculizan SD3 Medium criticando algunas imágenes monstruosas de cuerpos humanos.

Captura De Pantalla 2024 06 13 A Las 9 59 36 Captura De Pantalla 2024 06 13 A Las 9 59 36 Fuente: Bryandroid98/Reddit.

Lo de las manos casi es lo de menos. Los problemas aparecen por ejemplo en imágenes que los usuarios han creado con prompts simples de mujeres tumbadas en la hierba o en el agua. También parece que este modelo tiene problemas con las manos, algo que parecía cosa del pasado pero que aquí vuelve a hacer que imágenes que en general son fantásticas acaban siendo un horror por esa forma de representar las manos.

Cuerpo4 Cuerpo4 Fuente: ThereforeGames/Reddit

Paso atrás en su batalla con Midjourney. Estos problemas apuntan a un paso atrás para Stable Diffusion, que era visto como el gran competidor (junto a DALL-E 3) de Midjourney. Uno de los usuarios de Reddit bromeaba diciendo que "¡al menos nuestros conjuntos de datos [de entrenamiento] son seguros y éticos!", apuntando a que el entrenamiento de Midjourney es una incógnita y supuestamente aprovecha imágenes protegidas por derechos de autor.

La censura como posible razón. La creación de esas imágenes tan aberrantes puede deberse a la insistencia de Stability AI de censurar contenido adulto de los datos de entrenamiento de SD3. Esos datos enseñan al modelo cómo generar imágenes y son una fuente de información clave para que la IA aprenda sobre la anatomía humana, pero al privarle de esos datos, el modelo no entiende esas peticiones y genera imágenes absurdas e inquietantes. Ocurrió algo similar con Stable Diffusion 2.0 en 2022, y la empresa acabó corrigiendo el problema con SD 2.1 y con SD XL.

Problemas internos en Stability AI. La situación de la compañía no parece ser la mejor últimamente. Hace un año Getty la demandó, lo que probablemente marcó su evolución. Su CEO y fundador, Emad Mostaque, dimitió el pasado mes de marzo, tras lo cual también dejaron la empresa tres de sus ingenieros más importantes. Poco después se supo que la empresa había despedido al 10% de su plantilla en abril. Hace meses que la situación financiera no parece especialmente halagüeña, lo que complica el futuro aún más para la compañía.

Imágenes | Reddit

En Xataka | Los artistas están hartos de que las IAs generativas roben sus obras. Así que las están envenenando



via Robótica e IA - Xataka https://ift.tt/jnd9Dz6

Cuando usamos ChatGPT en el trabajo podemos estar exponiendo información confidencial: esto podemos hacer para evitarlo

Cuando usamos ChatGPT en el trabajo podemos estar exponiendo información confidencial: esto podemos hacer para evitarlo

Desde que ChatGPT apareció en escena, muchas personas han decidido incorporarlo en su flujo de trabajo. La inteligencia artificial (IA) del chatbot se ha convertido en una gran aliada de la oficina por su capacidad para ayudar en tareas de programación, redactar correos
electrónicos, elaborar resúmenes, analizar datos y generar gráficos.

El entusiasmo por utilizar esta herramienta desarrollada por OpenAI para dar un salto en la productividad puede llegar acompañada de un problema. Sin pretenderlo, algunos usuarios quizá estén exponiendo ciertos datos confidenciales propios o de la empresa para la que trabajan. ¿El motivo? ChatGPT, por diseño, no sabe guardar secretos.

ChatGPT en el trabajo, un arma de doble filo

Pongamos como ejemplo la siguiente situación. Trabajas en una empresa y dentro de un par de horas deberás asistir a una reunión. En el encuentro se discutirá la estrategia comercial de la firma para el año próximo. Para preparar mejor tu intervención decides apuntarte los ítems más importantes del documento anual de planificación.

El documento en cuestión tiene información confidencial que, en caso de filtrarse, podría tener consecuencias negativas para tu empresa. Hay secciones donde se analiza a la competencia y otras donde se mencionan productos que ni siquiera han sido lanzados. Pero tienes poco tiempo para leerlo, así que dices hacer un resumen con ChatGPT.

Datos Gpt Datos Gpt Una tabla creada por ChatGPT

Subes el PDF al chatbot, obtienes los puntos clave que necesitabas y tu intervención en la reunión es un éxito. Pues no solo estabas completamente informado de tu área en particular, sino que tenías una visión global de hacia dónde apunta la compañía a la que perteneces. Ahora bien, esa información podría caer en manos equivocadas.

Cuando utilizamos ChatGPT por primera vez, una ventana emergente nos recomienda no compartir información confidencial. En ocasiones, sin embargo, solemos presionar en Aceptar sin ser completamente conscientes de lo que esto significa. Los empleados de OpenAI podrían ver el contenido e incluso este podría ser utilizado para mejorar el chatbot.

Ventana Advertencia Ventana Advertencia La ventana emergente de ChatGPT con sugerencias de uso

Esto que acabamos de mencionar está detallado en la política de uso de datos de la compañía liderada por Sam Altman. OpenAI deja en claro que puede utilizar las indicaciones del usuario, las respuestas, las imágenes y los archivos para mejorar el rendimiento del modelo subyacente, es decir, GPT-3.5, GPT-4, GPT-4o o versiones futuras.

La forma de mejorar los modelos es entrenándolos con más información para que cuando alguien pregunte sobre un tema pueda brindar una respuesta más precisa. Así que, a menos que se hayan tomado algunos recaudos que veremos a continuación, se podría estar entrenado el modelo con datos confidenciales.

El peligro, no obstante, no radica únicamente en que ChatGPT pueda acabar filtrando secretos comerciales o de cualquier otro tipo. Una vez que los datos están en los servidores de OpenAI, los mismos pueden ser visualizados por empleados de la compañía o “proveedores de servicios de confianza” autorizados por diversos motivos.

Hay cuatro escenarios en los que otras personas pueden acabar viendo tu historial de actividad con el chatbot.

  1. Para investigar incidentes de seguridad.
  2. Para brindar asistencia que has solicitado.
  3. Para responder a asuntos legales.
  4. Para mejorar el rendimiento del modelo.

Este escenario ha llevado a compañías como Samsung a tomar medias para evitar que datos confidenciales acaben siendo filtrados. Por ejemplo, se ha limitado el uso del chatbots para ciertas tareas y se han implementado versiones corporativas que prometen no utilizar los datos de las conversaciones para tareas de entrenamiento.

Como mejorar la seguridad de los datos en ChatGPT

Los usuarios y las empresas tienen a su alcance dos alternativas concretas que, según promete OpenAI, permitirán proteger sus datos confidenciales: deshabilitar la opción de mejora del modelo con las conversaciones o utilizar una de las versiones empresariales de ChatGPT. Veamos detenidamente cómo utilizar cada una.

Si usas ChatGPT o ChatGPT Plus y quieres evitar que tus conversaciones sean utilizadas para entrenar modelos de OpenAI, puedes seguir los siguientes pasos:

Desactivar Mejora Del Modelo Desactivar Mejora Del Modelo La ventana para desactivar el entrenamiento
  • Abre ChatGPT desde un ordenador.
  • Pulsa en fu foto de perfil y después en Configuración.
  • Pulsa en Controles de datos y después en Mejorar el modelo para todos.
  • Asegúrate que el interruptor de Mejorar el modelo para todos esté desactivado.

Si trabajas en un ámbito profesional y usas las soluciones de pago ChatGPT Enterprise o ChatGPT Team, en todos los casos los datos no se utilizan para entrenar modelos de OpenAI. Adicionalmente, los mismos están protegidos por cifrado de datos en reposo (AES-256) y en tránsito (TLS 1.2+).

Tus chats todavía pueden ser vistos

Incluso utilizando algunas de las herramientas profesionales de pago mencionadas anteriormente, existen casos puntuales donde personas externas a tu empresa pueden ver las conversaciones.

En el caso de ChatGPT Enterprise, los empleados de OpenAI pueden acceder a las conversaciones para resolver incidentes, recuperar conversaciones de usuarios, siempre y cuando tengan su permiso, o cuando lo solicite la justicia.

En el caso de ChatGPT Team, los empleados de OpenAI pueden acceder a las conversaciones “para dar soporte de ingeniería”, investigar posibles abusos y garantizar el cumplimiento legal. Aquí entran en escena también “contratistas externos especializados” que pueden ver las conversaciones en escenarios de abuso o uso indebido.

Los empleados o actores externos de OpenAI que en todos los casos pueden ver las conversaciones de los usuarios de ChatGPT están sujetos a obligaciones de confidencialidad y seguridad. No caben dudas de que esto último es un recurso importante que ayuda a mantener cualquier tipo de datos que vean a salvo de miradas ajenas.

Sin embargo, no debemos perder de vista que estamos hablando de humanos. En el mundo empresarial hemos visto que las obligaciones de confidencialidad no suelen ser 100% efectivas. Uno de los ejemplos más claros que encontramos en este ámbito son las filtraciones de productos o servicios que surgen de las propias compañías.

Imágenes | OpenAI | Capturas de pantalla

En Xataka | Creíamos que ChatGPT era genial para programar: han hecho un estudio y la mitad de sus respuestas son incorrectas



via Robótica e IA - Xataka https://ift.tt/EICoztl