Lo malo de las buenas ideas es que todos acaban copiándolas. Es justo lo que dijimos hace unos días al hablar de la expectación generada por los Rabbit R1, esos pequeños dispositivos que quieren llevar la experiencia de la IA a un terreno aún más cotidiano. La propuesta es ingeniosa, pero tiene el problema de que otros pueden copiarla. Que es justamente lo que está haciendo OpenAI.
Agentes. Según The Information, OpenAI está "desarrollando un tipo de agente software que automatiza tareas complejas tomando control efectivo del dispositivo del cliente". Esto significa que ChatGPT aprovecharía esos agentes no solo para buscarnos por ejemplo un buen restaurante japonés para esta noche: será capaz de hacer las reservas de forma autónoma si se lo pedimos para evitarnos esa gestión.
ChatGPT se viste de secretaria. Esta opción convierte el chatbot de OpenAI en un sistema capaz no solo de dar respuestas, sino de completar ciertas tareas conectándose a servicios y plataformas web. Eso se traduce tanto en prestaciones de productividad —relléname esta hoja de cálculo—, sino de la vida diaria. Lo de "tomar el control" de nuestro dispositivo supone que ChatGPT pueda, a través de estos agentes, realizar gestiones que antes teníamos que hacer nosotros.
Rabbit R1 ya proponía lo mismo. El sorprendente Rabbit R1 llama la atención por su diseño, pero su verdadera ventaja estaba en su Large Action Model (LAM). Este componente conecta su modelo de IA con plataformas software para poder ejecutar tareas automatizadas en ellas. Nos pondrá música, nos pedirá un Uber, y nos reservará un restaurante o un vuelo. La idea es una evolución de ChatGPT y sus competidores, que podían por ejemplo sugerirnos un restaurante pero no hacer una reserva en él. No "actuaban" tras la sugerencia, pero Rabbit R1 y su LAM sí.
Del chatbot pasivo al chatbot activo. La idea es desde luego potente y permite ir un paso más allá en la capacidad de estos modelos de IA generativa. Con esa nueva capacidad de "tomar el control del dispositivo" podemos delegar tareas pesadas y rutinarias para que las haga el modelo de IA. Hay que destacar, eso sí, que lo de que tomen el control no significa que eso plantee una amenaza ni un riesgo. La razón es sencilla.
Los agentes nos pedirán permiso para todo. La demo que realizó Jesse Lyu en la presentación del Rabbit R1 ya lo dejaba claro: antes de hacer definitivamente cualquier cosa —sobre todo si afecta a nuestra cartera—, este dispositivo nos pedirá confirmación. Lo mismo previsiblemente ocurrirá con ChatGPT y sus agentes, que deberían tener especial cuidado con completar tareas sin la supervisión y permiso del usuario.
Cuidado con chatbots autónomos. Precisamente el mecanismo de pedir permiso o confirmación para esas acciones automatizadas es casi obligatorio en estos sistemas. La razón es simple: los chatbots han demostrado equivocarse y alucinar en muchos escenarios, y aunque es probable que en estos ámbitos conocidos y controlados la tasa de fallo sea baja, será importante "no apartar las manos del volante" al utilizar estas funciones si finalmente —como parece— acaban estando disponibles.
via Robótica e IA - Xataka https://ift.tt/Hsa9NUQ
No hay comentarios:
Publicar un comentario