jueves, 18 de mayo de 2023

Las IA tienden a 'alucinar' ¿Cómo se produce este fenómeno y por qué es tan peligroso para la sociedad?

La inteligencia artificial (IA) avanza a paso ligero, pero todavía quedan muchos detalles por pulir . Su prematuro estado sirve en la actualidad a un puñado de sectores como los que la utilizan para interactuar con el cliente. Sin embargo, nada garantiza todavía que la información que 'escupen' estos procesadores de texto sea veraz, y su uso no podrá generalizarse hasta que no se solucione este problema. Errores como el del 'chatbot' de Google, Apprentice Bard , que en su presentación al mundo el pasado mes de febrero cometió una imprecisión que le costó al gigante de las búsquedas una caída en bolsa del 9 por ciento, son muy comunes y reciben el nombre de 'alucinación' . ¿Pero en qué consisten realmente? Código Desktop Bard is an experimental conversational AI service, powered by LaMDA. Built using our large language models and drawing on information from the web, it’s a launchpad for curiosity and can help simplify complex topics → https://t.co/fSp531xKy3 pic.twitter.com/JecHXVmt8l— Google (@Google) February 6, 2023 Imagen para móvil, amp y app Código móvil Bard is an experimental conversational AI service, powered by LaMDA. Built using our large language models and drawing on information from the web, it’s a launchpad for curiosity and can help simplify complex topics → https://t.co/fSp531xKy3 pic.twitter.com/JecHXVmt8l— Google (@Google) February 6, 2023 Código AMP Bard is an experimental conversational AI service, powered by LaMDA. Built using our large language models and drawing on information from the web, it’s a launchpad for curiosity and can help simplify complex topics → https://t.co/fSp531xKy3 pic.twitter.com/JecHXVmt8l— Google (@Google) February 6, 2023 Código APP Bard is an experimental conversational AI service, powered by LaMDA. Built using our large language models and drawing on information from the web, it’s a launchpad for curiosity and can help simplify complex topics → https://t.co/fSp531xKy3 pic.twitter.com/JecHXVmt8l— Google (@Google) February 6, 2023 En pocas palabras, una alucinación se produce cuando una IA ofrece información falsa pero muy detallada sobre un evento que no ha ocurrido o que lo ha hecho de otro modo. Esto sucede, principalmente, porque estos algoritmos no son conscientes realmente de lo que dicen , sólo analizan cantidades masivas de texto digital e identifican patrones que aprenden. Esto puede llevar, por supuesto, a que la IA repita alguna falsedad encontrada en la red, ya que por sí misma carece de criterio y su 'razonamiento' se basa principalmente en la estadística. Es decir, cuanta más información sobre un tema exista en internet, más difícil será que la información que proporciona una IA sea errónea. «Tendencia a alucinar» Los expertos advierten que el objetivo principal de estas IA es que sus respuestas parezcan humanas . Buscan, sobre todo, generar textos coherentes, con una redacción impecable, muy logrados en la forma pero no tanto en el fondo, del cual estos carecen de método alguno para contrastar lo que dicen . Noticias Relacionadas estandar No ¿Revolución del fútbol gracias a la IA? Así juegan los robots de Google que no tardarán en superar al hombre Jordi Martínez estandar No La Casa Blanca se reunirá con Google y Microsoft para garantizar que su inteligencia artificial sea segura R. Alonso Por ahora, las principales Big Tech involucradas en esta suerte de carrera tecnológica reconocen estos fallos en sus condiciones de uso y le piden al usuario que los tenga en cuenta. En el caso de OpenAI, aliado ahora con Microsoft y su buscador Bing, apuntan que «GPT-4 tiene la tendencia a 'alucinar' y producir contenido sin sentido o falso en relación con ciertas fuentes».

via Tecnología https://ift.tt/10IQd4p

No hay comentarios:

Publicar un comentario