domingo, 18 de agosto de 2024

He probado Apple Intelligence en macOS. El tópico "es una evolución más que una revolución" se cumple a la perfección

He probado Apple Intelligence en macOS. El tópico "es una evolución más que una revolución" se cumple a la perfección

Todos mis veranos comienzan igual: en junio digo que este año no instalaré betas de los nuevos sistemas operativos de Apple, que en vacaciones aprovecharé para descansar y que si el Valencia completa un buen mercado puede pelear por Europa.

A la segunda quincena de agosto llego con betas hasta en el reloj, deseando que vuelva la rutina para espantar el estrés vacacional y rezando a Santa Cláusula, patrona de los imposibles y las causas perdidas, para que nos llegue al menos un pivote con un empeine competente.

Con lo de Mestalla no puedo hacer nada y lo de mi estrés es algo tautológico, así que al menos he aprovechado la chaladura de instalar una beta en mi único equipo de trabajo para contarles a ustedes, xatakeros, qué tal funciona Apple Intelligence en la beta de macOS Sequoia 15.1.

Empecemos: la beta de una beta

Antes que nada, afable recordatorio: esto es una beta dentro de una beta a la que aún faltan funciones por llegar. No sirve para sacar conclusiones, sino para empezar a entender la forma de integrarse y sus líneas maestras. Dicho eso, vamos al lío.

Activar Apple Intelligence a día de hoy requiere que tengamos el Mac en inglés de EE.UU. y la región emplazada allí. Solo funciona con texto en inglés, y aunque hay algún despiste en el que procesa algo en español, a priori solo inglés.

Escritura Inteligente. Lo primero que probé. Está disponible en casi cualquier campo de texto del sistema. Notas, Mail, Pages... Si escribimos o pegamos texto allí, al seleccionarlo y abrir el menú contextual veremos una nueva opción, 'Writing Tools'. Eso da acceso a todas las funciones: lectura profunda, reescritura, tono más amistoso, tono más profesional...

Cleanshot 2024 08 16 At 10 20 16 2x Cleanshot 2024 08 16 At 10 20 16 2x La interfaz de Apple Intelligence es tremendamente discreta. Es una utilidad tangencial y subterránea, no algo que quiera hacerse demasiado evidente. Imagen: Xataka.

Es algo a destacar: Apple Intelligence no va de generar texto, no está pensado para eso. Solo se orienta a trabajar sobre el texto que escribamos. En ChatGPT o Gemini la idea es que genere texto a partir de unas indicaciones. Aquí no.

Probé a escribir una frase intencionalmente mal redactada en Pages y pedirle que la corrigiera:

"belly howl because hunger I want to eat is almost 3 and hot"

Pages lo hizo, y además mejoró la estructura de la frase.

"My stomach growls because I’m hungry and it’s almost 3 pm, and it’s hot."

Luego le pedí la función de reescritura con un tono más "profesional".

My stomach growls due to hunger, as it is almost 3 pm and the weather is hot.

Es una buena transformación y creo que es ideal para todo aquel que por el motivo que sea no redacta correctamente. Con este tipo de funciones integradas le será mucho más fácil escribir bien cuando tenga que hacerlo.

Cleanshot 2024 08 16 At 13 20 32 2x Cleanshot 2024 08 16 At 13 20 32 2x La evolución de la frase original usando primero "Reescribir" y luego "Más profesional". Imagen: Xataka.

Otro ejemplo con un texto famoso: el de la campaña 'Think Different' de Apple de los noventa.

Este es el texto original:

“Here's to the crazy ones. The misfits. The rebels. The troublemakers. The round pegs in the square holes. The ones who see things differently. They're not fond of rules. And they have no respect for the status quo. You can quote them, disagree with them, glorify or vilify them. About the only thing you can't do is ignore them. Because they change things. They push the human race forward. And while some may see them as the crazy ones, we see genius. Because the people who are crazy enough to think they can change the world, are the ones who do.”

Y pasado por Apple Intelligence:

Cleanshot 2024 08 16 At 10 20 49 2x Cleanshot 2024 08 16 At 10 20 49 2x El resumen del 'Think Different'. Imagen: Xataka.
Cleanshot 2024 08 16 At 10 21 12 2x Cleanshot 2024 08 16 At 10 21 12 2x Y la versión "profesionalizada". Imagen: Xataka.

Mención para las funciones de resumen y paso de párrafos a puntos clave, ideales para sintetizar. Ya sea para ofrecer una versión breve de nuestro propio texto para quien quiera ir al grano, o ya sea para hacer lo propio con textos ajenos no muy bien estructurados.

Cleanshot 2024 08 16 At 10 41 52 2x Cleanshot 2024 08 16 At 10 41 52 2x El paso de un largo texto a puntos clave es de lo que mejor resultados da. Imagen: Xataka.

Una función que creo que tiene bastante margen de mejora es la de la corrección ("proofreading"). Devuelve un resultado, pero no indica qué cambios ha hecho. En una frase de una línea puede servir. En un artículo de 1.800 palabras, como el de The New York Times que usé como ejemplo, hay que revisar palabra a palabra en una vista paralela para detectar las modificaciones.

Cleanshot 2024 08 16 At 10 22 35 2x Cleanshot 2024 08 16 At 10 22 35 2x Esta es la interfaz con la que devuelve el texto tras la función 'Proofread', sin resaltar cambios. Imagen: Xataka.
Cleanshot 2024 08 16 At 10 24 40 2x Cleanshot 2024 08 16 At 10 24 40 2x Tuve que abrir un nuevo documento y crear una vista en paralelo para ir detectando posibles cambios. Al ser un artículo publicado por un medio de muy alta calidad (The New York Times), presumiblemente no había grandes cambios que hacer. Imagen: Xataka.

Con una interfaz que enfatice con un subrayado amarillo o algo similar las diferencias que ha provocado sería mucho más útil y facilitaría la edición. Quizás haya algún cambio aquí en la versión final de Sequoia, porque es muy evidente el problema.

Los resúmenes también llegan a Safari. Si abrimos la vista de lectura en un artículo nos aparecerá un botón para pedir el resumen. No ha dado grandes resultados. Resume, sí, pero de forma tan somera que apenas alarga el titular, incluso en artículos realmente largos.

Cleanshot 2024 08 16 At 11 47 18 2x Cleanshot 2024 08 16 At 11 47 18 2x Entre el titular y la imagen destacada aparece el botón para resumir en la vista de lectura de Safari. Imagen: Xataka.
Cleanshot 2024 08 16 At 11 45 28 2x Cleanshot 2024 08 16 At 11 45 28 2x A la derecha, el resumen. ¿Tan conciso que se deja demasiada información? Imagen: Xataka.

Aquí sería muy conveniente un esfuerzo más. Una cosa es resumir 1.000 palabras en cinco puntos clave de tres líneas cada uno. Otra cosa es resumir 1.000 o 3.000 palabras en poco más que un tuit.


Con el mail esta función es más útil. Recibo entre treinta y ciento veinte correos diarios (no es un farol, ya hablé de ello haciendo el recuento). En mi trabajo es como el llanto de un bebé: un mal necesario. A veces es necesario buscar la forma de resumir.

Con Apple Intelligence es muy fácil y eficaz resumir, aunque si el correo es muy denso, tiende a simplificar en exceso.

Cleanshot 2024 08 16 At 13 03 31 2x Cleanshot 2024 08 16 At 13 03 31 2x Newsletter del gran Mark Gurman, de Bloomberg. En el borde superior, el resumen. Nuevamente, demasiado escueto. Imagen: Xataka.

Lenguaje natural en Fotos. Es otra de las funciones importantes más allá de la escritura. Con lenguaje natural localizamos fotos o vídeos que de otra forma nos costaría mucho tiempo. Aquí, por ejemplo, busqué "Javier Lacort with sunglasses" para que me mostrase únicamente fotos donde aparezco yo, pero con gafas de sol.

Cleanshot 2024 08 16 At 13 05 20 2x2 Cleanshot 2024 08 16 At 13 05 20 2x2 La localización de fotos por lo que se ve en ellas mediante el lenguaje natural funciona realmente bien, aunque no perfectamente. Si se trata de encontrar una foto rápidamente, es mucho más que suficiente. Imagen: Xataka.

Una doble curiosidad:

Otro ejemplo buscando "a sunset on the sea". ¿Las encuentra? Sí, pero también se cuelan fotos que no tienen nada que ver, simplemente porque de fondo hay un atardecer. Y se nota que solo se guía por lo visual y no por la geolocalización, porque algún falso positivo mostró fotos hechas en Toledo.

Cleanshot 2024 08 16 At 13 49 24 2x Cleanshot 2024 08 16 At 13 49 24 2x Imagen: Xataka.

Curiosidad al margen, esta es una función muy útil que mejora lo que ya era muy bueno: la capacidad para localizar fotos rápidamente, aunque también hubo algún falso positivo donde no salgo con gafas de ningún tipo.

Hay una función nativa que no pude probar por un bug achacable a la beta y mi configuración: la transcripción de notas de voz. Otra semana será.

Por último: al principio mencionaba que aunque Apple Intelligence solo funciona en inglés, hay momentos puntuales en que procesa algo en español. Son los resúmenes inteligentes de las notificaciones.

Una función que es capaz, por ejemplo, de resumir un correo en la propia notificación. De esa forma en lugar de ver su introducción ("Estimado Javier, tengo a bien escribirle para proponerle un...") podemos ver directamente el turrón: "Propuesta de entrevista con el CEO de..."). También funciona con mensajes de iMessage: si el mensaje es lo suficientemente largo, opta por mostrar un resumen.

En resumen: Apple Intelligence es conveniente y discreto, solo aparecerá cuando lo invoquemos, y cumple bastante bien lo que promete, aunque con cierto margen de mejora aún

Funciona como muchas herramientas de ChatGPT integradas en el sistema operativo, y con el axioma de que no genera ningún texto, solo trabaja sobre lo que ya hemos escrito. Ahora será cosa del usuario recordar su existencia y sacarle partido, aunque visto lo que ya ofrecen OpenAI, Claude y compañía, esta es una incursión tímida y básica a estas alturas.

Imagen destacada |

En Xataka | Apple ya está ofreciendo su IA en algunos iPhone y Mac: si alguien esperaba algo revolucionario, tendrá que esperar más



via Robótica e IA - Xataka https://ift.tt/5Bl82nE

No hay comentarios:

Publicar un comentario