jueves, 31 de octubre de 2024

OpenAI consuma su golpe contra Google: lanza ChatGPT search con la promesa de mejorar la forma en la que hacemos búsquedas

OpenAI consuma su golpe contra Google: lanza ChatGPT search con la promesa de mejorar la forma en la que hacemos búsquedas

Era cuestión de tiempo que OpenAI se lanzara a competir directamente contra el buscador Google y Perplexity. La compañía liderada por Sam Altman ha comenzado el despliegue de ChatGPT search, un ambicioso producto que busca posicionarse como una sólida alternativa a la búsqueda tradicional. ¿Su ventaja? Ofrecer respuestas rápidas y actualizadas acompañadas de sus correspondientes enlaces.

Como lo sugiere su nombre, ChatGPT search es una función que forma parte de ChatGPT. Al momento de realizar una consulta, el chatbot decidirá si es necesario buscar la información en la Web. Lo usuarios, no obstante, tendremos la posibilidad de hacer este tipo de búsquedas de forma manual. Solo tendremos que pulsar en el botón “Búsqueda en Internet” que aparecerá en la nueva interfaz ChatGPT.

Esto nos propone el “buscador” de ChatGPT

OpenAI dice que quiere facilitar la forma en la que encontramos información. Explican que obtener respuestas útiles con los servicios de búsqueda tradicionales suele requerir mucho esfuerzo. “A menudo requiere múltiples búsquedas y búsquedas en enlaces para encontrar fuentes de calidad y la información adecuada para usted”, afirma la compañía de inteligencia artificial (IA) en una publicación.

ChatGPT search promete cambiar eso. La idea es que hagamos una pregunta de la manera más natural posible, incluso en conversaciones existentes. De esta forma, el chatbot con funciones de búsqueda utilizará su tecnología para comprender el contexto y buscar la respuesta en la web. ChatGPT search quiere ofrecerlo todo, desde noticias de última hora hasta información sobre el clima los deportes e imágenes.

Sources Sidebar Sources Sidebar

Nos encontraremos con una respuesta generativa acompañada de los enlaces que sostienen la información. Si pulsamos sobre el botón “Fuentes”, se abrirá un panel a la derecha de la pantalla con más detalles sobre los enlaces. Cabe señalar que seguimos interactuando con modelos de IA, por lo que OpenAI sigue advirtiendo que “ChatGPT puede cometer errores” y nos invita a verificar la información importante.

Si te preguntas por la disponibilidad de ChatGPT search, debemos decir que el despliegue ya ha comenzado en España. Comenzará a estar disponible desde hoy para los usuarios de los planes de pago ChatGPT Plus y Team. Aquellos que utilizan ChatGPT Enterprise y Edu recibirán acceso en las próximas semanas. También existe la promesa de que llegará a los usuarios gratuitos “en los próximos meses”.

Imágenes | Captura de pantalla | OpenAI

En Xataka | 01.AI es el nuevo gigante de la IA en China que compite con lo mejor de OpenAI. Su problema es precisamente China



via Robótica e IA - Xataka https://ift.tt/vnxITjL

miércoles, 30 de octubre de 2024

01.AI es el nuevo gigante de la IA en China que compite con lo mejor de OpenAI. Su problema es precisamente China

01.AI es el nuevo gigante de la IA en China que compite con lo mejor de OpenAI. Su problema es precisamente China

La carrera de la IA generativa tiene a empresas de EEUU como grandes protagonistas, pero China desde luego está intentando no perder demasiado terreno. Entre los esfuerzos de las empresas chinas, hay uno especialmente destacable en los últimos tiempos. Se trata de 01.AI, una startup china con una estrategia similar a la de Meta pero que se enfrenta a retos muy importantes.

Mucha experiencia. Como señala la newsletter Turing Post, Kai-Fu Lee comenzó a trabajar en el campo de la inteligencia artificial en los años 80, cuando estudió en la Carnegie Mellon University. Acabó ocupando puestos directivos en Apple, Microsoft y Google, y de hecho se convirtió en el máximo responsable de Google en China.

Nace 01.AI. Ahora su aventura es otra: en marzo de 2023 Lee, preocupado por cómo China se estaba quedando atrás en la carrera de la IA generativa, comenzó a trabajar en la creación de su nueva startup. La llamó 01.AI (Zero One Everything en China), y pronto logró una ronda de inversión de 200 millones de dólares en la que participó Alibaba.

Abierto, no propietario. El modelo de IA desarrollado por 01.AI, llamado Yi, está basado en Llama, el modelo Open Source de Meta. Elegir esa opción frente al desarrollo de un modelo propietario como el de OpenAI o Google tiene ventajas evidentes, sobre todo a la hora de atraer a nuevos desarrolladores y más y más proyectos.

Captura De Pantalla 2024 10 30 A Las 10 17 30 Captura De Pantalla 2024 10 30 A Las 10 17 30 Ranking de LMSYS en base a distintos benchmarks de rendimiento. Fuente: LMArena.ai.

Yi como alternativa a GPT-4. La familia de modelos Yi de 01.AI comenzó a hacer acto de presencia a finales de 2023. Desde entonces se han presentado modelos como Yi-Large —que trata de competir con GPT-4—, Yi-Vision o Yi-Coder, que es más pequeño pero también menos preciso que por ejemplo GPT-3.5. Su último gran modelo, llamado Yi-Lightning, compite con los modelos más potentes de la actualidad según LMSYS.

Wanzhi. El otro gran desarrollo de esta empresa es Whanzhi, un asistente de productividad que plantea funciones similares a las que por ejemplo ofrece Office 365 Copilot: asiste en la creación de jojas de cálculo, documentos o presentaciones, pero también puede interpretar documentos financieros, tomar notas de reuniones y resumir largos textos tanto en chino como en inglés.

Pero no es fácil probarlo. Aunque teóricamente la estrategia de 01.AI era la de ofrecer sus modelos libremente para uso y desarrollo, la empresa cortó el acceso a su API el pasado mes de agosto. La razón no quedaba clara y simplemente indicaban que el cierre se debía a "ajustes empresariales". Para probar el servicio parece ser obligatorio contar con un número de teléfono chino.

Ingresos. El modelo de negocio de 01.AI es el mismo que el de otras empresas de IA occidentales, y sobre todo se basa en cobrar por el acceso a su API. El precio de ese acceso en mayo de 2024 era de 2,5 dólares por cada millón de tokens de entrada (los que usamos para pedir cosas a la IA) y 12 dólares por cada millón de tokens de salida (lo que genera el chatbot). OpenAI cobra lo mismo por los tokens de entrada y 10 dólares por los de salida en GPT-4o, por ejemplo.

Un futuro complicado. A pesar de esos esfuerzos, la empresa de momento gasta más de lo que gana —algo normal en las startups de IA— y se enfrenta a un mercado fragmentado y a un futuro complejo. Según Turing Post "no puede escapar a las realidades de operar en el entorno regulatorio de China", en el que el control local puede ser un obstáculo notable para crecer como hacen algunas startups occidentales. La guerra comercial con EEUU —que entre otras cosas, pone casi imposible acceder a hardware o software con el que competir en este ámbito— es también otro de los retos a superar por 01.AI.

Imagen | TechCrunch

En Xataka | ChatGPT tiene mucha competencia en China. Así puedes usar sus rivales (y hablan inglés)



via Robótica e IA - Xataka https://ift.tt/hFwCmD0

Más del 25% del nuevo código de Google ya se genera con IA. Es un mensaje inquietante para todos los desarrolladores

Más del 25% del nuevo código de Google ya se genera con IA. Es un mensaje inquietante para todos los desarrolladores

Alphabet presentó los resultados financieros del tercer trimestre del año, pero lo interesante vino después: en la tradicional conversación con inversores para discutir esos resultados, Sundar Pichai, CEO de Alphabet y Google, presumió de algo inquietante: el código que gobierna todos sus productos cada vez está más desarrollado no por humanos, sino por máquinas.

Pichai explicaba cómo han fusionado los equipos de Gemini y DeepMind para "acelerar la implantación de nuevos modelos". Eso está notándose en muchos ámbitos en la empresa, pero como decíamos, hay un impacto especialmente notable en cómo se están desarrollando los productos de Google. Como dijo Pichai:

"Hoy, más de una cuarta parte de todo el nuevo código de Google está generado por IA, y luego es revisado y aceptado por ingenieros. Eso ayuda a nuestros ingenieros a hacer más y a moverse más rápido".

El dato desde luego confirma una tendencia clara: la IA ha conquistado el mundo de la programación. En verano de 2023 una encuesta de GitHub mostraba cómo el 92% de los programadores usaban herramientas de programación basadas en inteligencia artificial.

La popularidad de dichas herramientas —con GitHub Copilot a la cabeza— es clara señal de que ese segmento está cambiando a pesar de que la IA comete muchos errores a la hora de sugerir código. De hecho, la percepción de este mercado es que estas herramientas están provocando que los desarrolladores programen cada vez peor porque se fían del código que genera por ejemplo ChatGPT.

Aun así, para muchos expertos el futuro de la programación es claro. Mark Garman, CEO de AWS, explicaba que los ingenieros de software no programarán porque será la IA quien lo haga. En febrero de 2024 Jensen Huang hizo una apreciación similar e indicó que a estas alturas ya nadie debería aprender a programar porque ya lo hará la IA por nosotros.

La afirmación de Pichai por tanto cobra especial sentido y apunta a un futuro en el que los desarrolladores ya no programarán, sino que se limitarán a revisar y aceptar el código generado por las máquinas.

Las nuevas herramientas de IA generativa para programar convierten a casi cualquier usuario en un potencial desarrollador —lo vimos con Cursor, por ejemplo—, y eso plantea desde luego un futuro inquietante para los desarrolladores.

¿Es el mensaje de Pichai una pista de que acabarán deshaciéndose de un gran número de desarrolladores? A priori eso parece peligroso. Como explicaba un desarrollador llamado Darren Horrocks, el uso excesivo de plataformas como GitHub Copilot pueden provocar una erosión de la capacidad de programar, sobredependencia de código autogenerado y ausencia de responsabilidad sobre lo que uno programa porque el código no es suyo, sino de la IA. El futuro de este segmento, uno de los más rápidamente impactados por este tipo de herramientas, parece complicarse.

Imagen | Mohammad Rahmani

En Xataka | Están los programadores que usan tabuladores y los programadores que usan espacios. Y luego está Linus Torvalds



via Robótica e IA - Xataka https://ift.tt/BC4VQ0I

martes, 29 de octubre de 2024

Hay cuatro grandes tecnologías de IA que quieren revolucionarlo todo. Los prometedores agentes de IA son solo el principio

Hay cuatro grandes tecnologías de IA que quieren revolucionarlo todo. Los prometedores agentes de IA son solo el principio

El ciclo de las expectativas de Gartner suele reflejar de forma bastante precisa una realidad cotidiana: la de que las modas van y vienen, incluidas las tecnológicas. Con la inteligencia artificial generativa está pasando lo mismo: la expectación que generan los chatbots sigue siendo elevada, pero hay otras tendencias que han surgido más recientemente y que están claramente al alza.

Tendencias y expectación. Como indican en VentureBeat, el nuevo informe de Gartner sobre el ciclo de expectativas de la IA generativa revela cuatro grandes tendencias que están captando el mayor interés en la industria. Cada una de ellas va más allá que la tendencia que lo impulsó todo: la de los chatbots como ChatGPT que ahora se ven reforzados con variantes de lo más llamativas.

Agentes de IA. La primera y más importante de esas tendencias es sin duda la de los agentes de IA, modelos que se alejan de la pasividad de los chatbots tradicionales —te respondo y ya— a un perfil mucho más activo —te respondo y además hago lo que necesitas—.

Pero los agentes están muy verdes. Arun Chandrasekaran, responsable de ese estudio, explicaba que "para que los agentes autónomos [de IA] prosperen, los modelos tienen que evolucionar notablemente. Necesitan razonamiento, memoria y la capacidad de recordar y contextualizar las cosas.

Hype Cycle Illustation Hype Cycle Illustation El ciclo de las expectativas de Gartner sigue siendo una singular forma de retratar la evolución de las tendencias tecnológicas. Muchas siguen desde luego esa línea. Otras lo hacen en parte.

Primero memorizar, luego vendrán agentes de IA muy potentes. Es un discurso similar al que recientemente hacía Mustafa Suleyman, máximo responsable de la división de IA de Microsoft, que hablaba de las tres fases por las que están pasando sus proyectos en IA generativa. La primera, chatbots como Copilot. La segunda, memoria persistente. La tercera, agentes de IA.

Multimodalidad. La segunda de estas grandes tendencias es una que en realidad es algo más antigua. Mientras que la mayoría de modelos comenzaron trabajando con texto —escribes lo que quieres en el teclado, el chatbot te responde a su vez con un mensaje de texto—, poco a poco fueron añadiendo otros tipos de entradas y salidas (modelos de IA multimodales). Ahora es posible añadir como entrada una imagen, un vídeo de YouTube o un audio —grabado o en una conversación— a partir del cual un chatbot puede generar su respuesta.

IA Open Source. Chandrasekaran destacaba cómo hasta ahora el mercado ha estado dominado por modelos propietarios, pero poco a poco modelos de IA Open Source —o modelos que pretenden serlo, como Llama, de Meta— se han convertido en una potente forma de que las empresas los tomen como base para personalizarlos y desplegarlos de forma flexible.

IA local. La llamada "edge AI" es esa inteligencia artificial que es capaz de ejecutarse en local, sin conexión a la nube. Es por ejemplo el gran argumento de Apple Intelligence, ya que gracias a esa ejecución y procesamiento en local es posible proteger la privacidad de los datos y de la interacción con la máquina.

Cuidado con la desilusión. Tras el habitual pico de expectativas al que llegan estas tendencias suele producirse una caída del interés por dichas tecnologías, afirman en Gartner. Eso parece esar pasando con la IA generativa en ciertos ámbitos —algunos sienten que la prometida revolución sigue sin llegar—, y para estos analistas esa desilusión "es inevitable a corto plazo".

De burbuja, nada. En Gartner, eso sí, creen que no hay burbuja de la IA. "No estamos viviendo en una burbuja tecnológica hoy en día. Las tecnologías están avanzando suficientemente. Sin embargo, no están avanzando lo suficientemente rápido para mantener las elevadas expectativas que los líderes empresariales tienen hoy en día".

Imagen | aleelee1977 con Midjourney

En Xataka | Ya podemos probar el modo de voz avanzado de ChatGPT sin pasar por caja en la UE. Pero hay letra pequeña



via Robótica e IA - Xataka https://ift.tt/hFmqHCP

lunes, 28 de octubre de 2024

Ya tenemos definición para lo que es una "IA Open Source". Y como era de esperar, a Meta no le gusta demasiado

Ya tenemos definición para lo que es una "IA Open Source". Y como era de esperar, a Meta no le gusta demasiado

Presumir de que una IA es Open Source va a ser a partir de ahora más complicado. Hasta ahora no había una definición clara de qué diferenciaba a un modelo de IA Open Source uno que no lo era, pero tras varios meses de esfuerzo ya tenemos una buena forma de hacerlo. La Open Source Initiative (OSI), el organismo que trabaja para (entre otras cosas) establecer este tipo de consensos, acaba de publicar la versión 1.0 de esta definición.

OSAID. La llamada Open Source AI Definition (OSAID, por sus siglas en inglés) acaba de ser anunciada. Para llegar a ella la OSI ha tenido en cuenta criterios provenientes tanto de la industria como de entornos académicos e incluso regulatorios.

Recreable. Ese es en esencia el requisito que necesita una IA para ser Open Source. El creador del modelo debe ofrecer información suficiente para que cualquier otra persona pueda recrearlo. Así, el modelo debe ofrecer detalles sobre el conjunto de datos de entrenamiento, incluido su origen, cómo se procesaron los datos y cómo se pueden obtener o licenciar.

Usar, modificar, compartir. Como sucede con el código Open Source, una IA Open Source debe poder usarse libremente, pero también debe poder modificarse o compartirse sin pedir permiso a nadie. Stefano Maffulli, uno de los responsables de la definición, explicaba cómo es importante "poder crear algo sobre esa base", defendiendo así los célebres "forks" o iteraciones de un modelo que lo toman como base para crear otros derivados, como también ocurre con el código.

Meta no está de acuerdo. Según indican en TechCrunch, en Meta no están de acuerdo con esa definición. "No hay una única definición de IA Open Source, y definirla es un reto porque las definiciones previas de Open Source no sirven para las complejidades de los modelos de IA y su rápido avance". Para ellos su modelo Llama es "libre y está disponible abiertamente", y las restricciones que aplican en ciertos casos —sobre todo, si el modelo derivado tiene un éxito importante— están establecidas para "mantener a la gente segura".

¿De dónde has sacado los datos de entrenamiento? Una de las grandes preguntas para quienes desarrollan modelos de IA es precisamente esa, pero la transparencia aquí es casi siempre nula. Lo es desde luego por parte de Meta, pero también de otras como Google, que incluso deja claro que si el contenido es público, potencialmente lo usarán para entrenar sus modelos.

Esto es solo la versión 1.0. Esta definición es como decíamos la versión 1.0, y la idea es que a medida que pase el tiempo evolucione para poder reflejar más los distintos aspectos que rodean a estos desarrollos. Hay por ejemplo cierta polémica por la forma en la que la OSI considera que un modelo de IA puede ser Open Source incluso si los datos usados para entrenarlo puedan no estar libremente disponibles.

¿Y los derechos de autor? La definición permite excluir ciertos datos como parte del conjunto de datos de entrenamiento. En OSI afirman que eso se hace para permitir que datos sensibles y protegidos, como los referidos a la salud, no se compartan en el modelo Open Source. No se abordan los derechos de autor con detalle, y esa es un claro indicio de que aún habrá que trabajar en esta definición.

Imagen | Anthony Quintano

En Xataka | El Open Source arrasa y vive una época dorada, pero también hay algo de postureo



via Robótica e IA - Xataka https://ift.tt/W4TdcXp

Ya podemos probar el modo de voz avanzado de ChatGPT sin pasar por caja en la UE. Pero hay letra pequeña

Ya podemos probar el modo de voz avanzado de ChatGPT sin pasar por caja en la UE. Pero hay letra pequeña

Si vives en la Unión Europea (UE) ya no tienes que pagar para probar el modo de voz avanzado de ChatGPT. Esta característica, que nos recuerda a la película ‘Her’ y que recientemente fue puesta a prueba por nuestro compañero Javier Lacort, ha estado disponible desde la semana pasada para los usuarios del bloque.

Ahora bien, su acceso estaba estrictamente limitado a aquellos que tenían una suscripción a ChatGPT Plus. Si quería probar la mencionada novedad te veías obligado a gastar algo de dinero. Esto acaba de cambiar. SI tienes una cuenta free ahora puedes sumergirse en esta experiencia, aunque no por mucho tiempo.

Probando la voz avanzada de ChatGPT una vez al mes

Los usuarios de las cuentas gratuitas de ChatGPT tienen acceso al modo de voz estándar, una característica interesante, pero cuya latencia y falta de naturalidad son evidentes. La voz avanzada del chatbot promete abordar estas limitaciones gracias a que está impulsad por GPT-4o, un modelo multimodal avanzado.

Pero la mejor forma de saber si las promesas que nos hacen las compañías son ciertas es probando el producto de manera directa. En este sentido, los usuarios de ChatGPT ahora tendrán la posibilidad de utilizar la voz avanzada durante cierta cantidad de tiempo. Al abrir el modo de voz, la aplicación invitará a elegir una de las voces. Hay varias disponibles: Arbor, Breeze, Cove, Ember, Juniper, Maple, Sol, Spruce y Vale.

Modo De Voz Avanzado Chatgpt 2 Modo De Voz Avanzado Chatgpt 2

Una vez realizada la selección, podrás empezar a interactuar con con esta IA. En lugar del círculo negro de la voz estándar, aparecerá un círculo azul. Pero, como decimos, esta experiencia estará limitada a cierto tiempo de uso, una “demostración mensual”.

Cuando el tiempo se esté agotado, la aplicación te dirá que se está por alcanzar el límite mensual. En nuestras pruebas, los mensajes han aparecido cuando quedaban 15 minutos de uso. Cuando el tiempo de prueba se haya agotado, ChatGPT nos invitará a pagar por una suscripción, pasar al modo de voz estándar o esperar cuatro semanas para realizar otra prueba gratuita.

Imágenes | Warner Bros. Pictures | OpenAI

En Xataka | Perplexity quiere un trozo del pastel de Google: el buscador de IA ya procesa 100 millones de consultas a la semana



via Robótica e IA - Xataka https://ift.tt/6MNPoOU

Apple Intelligence ya está disponible en España (pero con limitaciones): requisitos y cómo probar el sistema hoy mismo

Apple Intelligence ya está disponible en España (pero con limitaciones): requisitos y cómo probar el sistema hoy mismo

Apple Intelligence comienza a estar disponible en la Unión Europea (UE). Se trata de un lanzamiento inicial bastante limitado que pensábamos que se daría más adelante, pero que finalmente ha llegado antes de lo previsto. El sistema de inteligencia personal de la compañía de la manzana ya está disponible en idioma inglés los Mac compatibles. Aquellos que deseen utilizarlo en su iPhone o iPad, por su parte, tendrán que esperar hasta la primavera de 2025.

¿Cómo probar Apple Intelligence en España?

Si vives en España ya puedes probar Apple Intelligence en Mac. No necesitas instalar una versión en desarrollo del sistema operativo (algo que suele ser bastante riesgoso y no es recomendable para la mayoría de los usuarios). La desventaja de sumergirte en Apple Intelligence en este momento es que solo está disponible en idioma inglés, por lo que tendrás que cambiar el idioma de tu dispositivo. Si quieres seguir adelante, aquí está el paso a paso.

Antes de comenzar, asegúrate de tener un ordenador con chip M1 o posterior. También es recomendable que realices una copia de seguridad de tu sistema.

  • Entra a Ajustes del sistema > General > Actualización de software.
  • Descarga e instala macOS Sequoia 15.1.
  • Entra a Ajustes del sistema > General > Idioma y región. En idiomas preferidos establece “English (US) - Inglés (EE. UU.)” como principal. No es necesario que cambies la región del dispositivo.
  • Una vez que tu ordenador se reinicie, entra en System Settings > Apple Intelligence & Siri y comprueba si el idioma del asistente está establecido en inglés. En caso contrario, cámbialo a “English (United States)”.
  • En el mismo apartado, haz clic en el botón “Join Apple Intelligence Waitlist” para apuntarte a la beta de Apple Intelligence.

La activación de Apple Intelligence no es inmediata. Al cabo de un par de horas deberías recibir la notificación “Ready for Apple Intelligence”. En este punto, ya ha superado lo más complicado. Al pulsar sobre la notificación se abrirá la configuración de Apple Intelligence.

Apple Intelligence Apple Intelligence
  • Haz clic en Continue si estás de acuerdo.
  • Acepta o no el resumen de notificaciones.
  • Haz clic en Continue para activar las funcionalidades de Siri.

Listo, ya tienes Apple Intelligence activado en tu Mac. Esto significa que podrás utilizar no solo la renovada versión de Siri, sino también recibir los resúmenes de las notificaciones y las herramientas de escritura para, por ejemplo, redactar correos electrónicos. La aplicación de Fotos también recibe novedades como la “búsqueda natural”, que te permite encontrar cosas simplemente describiéndolas.

¿Cuándo llegarán el resto de las funciones a Apple Intelligence?

Tal y como señalamos arriba, estamos ante un despliegue gradual de Apple Intelligence. Otras características como Image Playground, que permite crear imágenes divertidas; Genmoji, para crear emojis con descripciones textuales; así como la integración con ChatGPT, que servirá para obtener respuestas más complejas, estarán disponibles en diciembre de este año.

Apple Intelligence también dará pasos importantes el año próximo. El soporte para el idioma español se materializará en abril a través de una actualización de software. También en la primavera de 2024, la IA de Apple aterrizará de manera oficial tanto en los iPhone como iPad compatibles para los usuarios que viven dentro de la Unión Europea.

Imágenes | Apple

En Xataka | La IA necesita su propio iPhone. Y los fabricantes actuales están repitiendo los errores de 2006



via Robótica e IA - Xataka https://ift.tt/QZs6ldk

La IA necesita su propio iPhone. Y los fabricantes actuales están repitiendo los errores de 2006

La IA necesita su propio iPhone. Y los fabricantes actuales están repitiendo los errores de 2006

The Next Web publicó hace unos días un análisis certero sobre por qué la Inteligencia Artificial no está funcionando como gran argumento de venta para los nuevos smartphones.

Ese artículo apunta a que Apple perdió más de 100.000 millones de dólares en valor bursátil tras presentar sus iPhone 16 destacando su integración de Apple Intelligence.

Pero el problema va más allá.

La industria está repitiendo los errores que cometió antes del iPhone. En 2006, los fabricantes competían por añadir más funciones a los smartphones que ya habían hecho. Mejores teclados QWERTY, pantallas a color más grandes, sincronización con el PC. Todo construido sobre sistemas operativos pensados para la era pre-táctil.

Entonces llegó el iPhone, llegó Android, y lo cambiaron todo. No porque tuvieran más funciones, sino porque reimaginaron desde cero qué debía ser un teléfono inteligente.

Hoy vemos el mismo patrón. Las grandes tecnológicas compiten por añadir más capacidades de IA a dispositivos diseñados hace 15 años. Pero la IA necesita su propio iPhone, una metonimia para hablar de un dispositivo construido desde cero pensando en la interacción por voz, el procesamiento de lenguaje natural y la comprensión contextual.

Hay señales muy prometedoras. El proyecto de OpenAI, que quiere desarrollar su propio wearable de la mano de Jony Ive, o las Ray-Ban Meta, apuntan hacia dispositivos que integran la IA de forma más natural.

No son smartphones con IA pegada encima, sino nuevas categorías de producto que se adaptan a la nueva tecnología, no viejos dispositivos tratando de encajonarla.

La verdadera revolución de la IA móvil no vendrá de agregar funciones a los móviles actuales. Llegará cuando alguien reimagine desde cero cómo debe ser un dispositivo personal en la era de la IA.

Puede que lo logre Google, o Apple, o Samsung, u OpenAI. O quizás una startup que ni siquiera conocemos aún. Pero hay algo evidente: seguir el camino de BlackBerry y Nokia –apilar más funciones sobre plataformas antiguas– no es la respuesta.

La IA necesita su momento iPhone. Un dispositivo que no solo agregue IA, sino que la convierta en el núcleo de una nueva forma de interactuar con él y de comunicarnos con los demás.

En Xataka | Hay una verdad incómoda para Apple: con la IA generativa son claros followers y al menos este curso eso no cambiará

Imagen destacada | Xataka con Midjourney



via Robótica e IA - Xataka https://ift.tt/OvYwJus

Geoffrey Hinton ya era pesimista con la IA antes de ganar el Premio Nobel. Ahora lo es aún más

Geoffrey Hinton ya era pesimista con la IA antes de ganar el Premio Nobel. Ahora lo es aún más

Geoffrey Hinton, considerado como uno de los "padrinos de la IA", ha sido uno de los recientes Premios Nobel de 2024. Ese galardón no ha modificado en absoluto su discurso sobre esta disciplina. De hecho en una de las primeras entrevistas que ha concedido tras recibir el Nobel, Hinton vuelve a alertar sobre la amenaza existencial que para él supone la IA. Una que llegará incluso de lo que él pensaba hace no mucho.

Amenaza existencial en 20 años o menos. Geoffrey Hinton ya expuso su opinión sobre los riesgos a los que nos enfrentamos con la inteligencia artificial, pero con el tiempo ve aún más acuciante esa "amenaza existencial". Hasta no hace mucho él mismo creía que el riesgo estaba muy lejos, que la amenaza no se plantearía hasta dentro de 100 años, quizás 50, y por tanto tendríamos tiempo de afrontarla. "Ahora creo que es bastante probable que en algún momento en los próximos 20 años las IAs se vuelvan más inteligentes que nosotros y realmente necesitamos preocuparnos por lo que ocurrirá después". Es un mensaje similar al que Hinton ya dio en mayo en otra entrevista con la BBC.

Necesitamos mantener el control. Hinton explica en la entrevista (minuto 21:35) cómo habría que dedicar muchos más recursos a lograr que los seres humanos mantengan el control sobre el desarrollo y la operativa de la inteligencia artificial. Sin embargo, explica, los gobiernos no tienen los recursos para ello: son las grandes empresas las que lo tienen.

Un tercio de la potencia de cálculo, no de los ingresos. Pero además, destaca, aquí lo necesario sería no dedicar un porcentaje de los ingresos. Para él eso puede ser muy confuso y engañoso debido a cómo las empresas publican esos ingreoss. En lugar de eso, deberían dedicar un porcentaje de su capacidad de computación.

Una de cada cuatro GPUs deberían centrarse en los riesgos. Para él, ese porcentaje debería situarse en un 33%: la tercera parte de los recursos de computación de empresas como Microsoft, Google, Amazon o Meta debería dedicarse precisamente a investigar cómo evitar que la IA se convierta en una amenaza para los seres humanos. Él, no obstante, se conformaría incluso con que fuera una cuarta parte (un 25%) de esos recursos.

Abandonó Google y ahora evangeliza sobre los riesgos de la IA. Hinton fue uno de los grandes impulsores del aprendizaje automático. Su trabajo es base de muchos avances claves para el actual desarrollo de la IA, y durante un tiempo trabajó en esa división en Google. Sin embargo en la primavera de 2023, poco después de la explosión de la IA generativa, Hinton abandonó Google para alertar sobre los peligros de la inteligencia artificial "libremente".

Otros expertos como LeCun critican esa visión pesimista. Yann LeCun, máximo responsable de IA en Meta y otra de las grandes voces de este ámbito, tiene una visión muy distinta de lo que nos espera. En una entrevista reciente con The Wall Street Journal LeCun indicó que mensajes como los que lanza Hinton son "ridículos". Para él la IA tiene mucho potencial, pero hoy por hoy la IA generativa es básicamente tonta y este tipo de sistemas no lograrán igualar la inteligencia humana.

Imagen | Collision Conf en Flickr

En Xataka | La IA generativa parece estancada, pero Suleyman tiene claro que estamos en la primera "fase": quedan dos



via Robótica e IA - Xataka https://ift.tt/I6JS9pv

No hace falta que uses tu navegador, ya lo hace la IA por ti: Google prepara Jarvis, su propio "mayordomo virtual"

No hace falta que uses tu navegador, ya lo hace la IA por ti: Google prepara Jarvis, su propio "mayordomo virtual"

La semana pasada asistimos al comienzo de lo que parece el próximo gran paso de la IA generativa. Anthropic lanzaba Computer Use, un agente de IA capaz de tomar el control de nuestro ordenador para realizar todo tipo de acciones complejas. La característica ha vuelto a animar el segmento, y ahora parece comenzar una particular carrera entre las grandes del segmento. Según datos de The Information, Google está en ello.

Project Jarvis. Este es supuestamente el nombre en clave del agente de IA de Google que tomará el control del navegador del usuario para realizar todo tipo de tareas. Entre ellas están la de llevar a cabo búsquedas e investigaciones desde el navegador, comprar un producto o reservar un vuelo.

Control del navegador, no del ordenador. Todo apunta a que la opción formará parte de Gemini, la familia de grandes modelos de lenguaje (LLM) de Google. A diferencia del agente de IA de Anthropic, Jarvis tomará control del navegador, no de todo el ordenador. Supuestamente estará especialmente diseñado para trabajar con Chrome, y está dirigido a "automatizar tareas cotidianas basadas en la web".

Chatbot, no me digas lo que necesito, hazlo. La opción Computer Use de Claude nos demostró la semana pasada cómo su chatbot era capaz no solo de conversar con el usuario y responder a sus preguntas, sino también de hacer cosas por él directamente a partir de órdenes complejas. Por ejemplo, "crea una web de los 90 sobre un grupo de rock ", como demostraron en Anthropic y como se muestra en ese vídeo que acompaña a estas líneas.

Por ahora, limitado y caro. Este tipo de opción está aún dando sus primeros pasos, y en Anthropic ya avisaban de que el rendimiento es lento. Lo es porque para funcionar, el sistema de IA no para de sacar capturas de lo que está mostrando la pantalla para luego analizarlas y actuar en consecuencia. Esa forma de automatización también es de momento costosa: son necesarias muchas llamadas a la API de Anthropic para completar tareas algo más complejas como la de la demo.

Vienen más agentes de IA. En las últimas semanas hemos ido viendo cómo los "mayordomos virtuales" parecen ser el próximo gran reclamo de la IA generativa. Además de Anthropic y el supuesto Project Jarvis de Google, tenemos a Microsoft, que presentó hace unas semanas Copilot Vision, que permite que interactuemos con los sitios web que visitamos. Además, se espera que Apple Intelligence también pueda reconocer lo que hay en nuestra pantalla para realizar acciones en ella al conectarse con distintas aplicaciones.

¿Cuándo llegará Jarvis? Se espera que Google presente el supuesto "Gemini 2.0" en diciembre, y puede que precisamente sea entonces cuando la compañía aproveche para desvelar también el lanzamiento de Project Jarvis, cuyo nombre definitivo no se conoce. En The Information indican que Google podría ofrecer este agente de IA a algunos usuarios de forma preliminar para que lo prueben y así lanzar este proyecto con el menor número posible de fallos y conflictos.

Imagen | MrHomegrown con Midjourney

En Xataka | OpenAI necesita algo más grande que un GPT-4 más potente para salvar su 2025. Su esperanza se llama Orion



via Robótica e IA - Xataka https://ift.tt/pM0SD9K

sábado, 26 de octubre de 2024

El otro gran problema de Telegram no tiene nada que ver con Rusia: bots que desnudan a personas con IA

El otro gran problema de Telegram no tiene nada que ver con Rusia: bots que desnudan a personas con IA

Corría el año 2019. La IA generativa todavía estaba en pañales, pero ya empezaban a escucharse y hacer ruido términos como redes neuronales (para bien, por su potencial) y deepfakes (normalmente, para mal). Uno de los escándalos más sonados de 2019 fue el de DeepNude, una web que permitía desnudar a cualquier mujer con solo subir una foto. Entre bambalinas, lo que había era una red neuronal que había sido entrenada con más de 10.000 fotos de mujeres desnudas.

La web llevaba meses circulando, pero tras su descubrimiento solo duró unas horas. El desarrollador, que decía llamarse Alberto y residir en Estonia, cerró la plataforma alegando que "la probabilidad de que la gente haga mal uso de esta" era "demasiado alta" (no se podía saber) y que "el mundo aún no está preparado para DeepNude". Eso fue en 2019.

Hoy, en 2024, esta tecnología ha evolucionado hasta ser lo que es: un portento tecnológico cuya magnitud solo es igualada por el reto que supone frenar su mal uso. Porque la IA tiene infinitos casos de usos positivos, pero también puede usarse con fines menos éticos y morales. Fines como desnudar a personas a través de un bot de Telegram. Como DeepNude, pero más fácil y a la vista de todos. Porque el mundo, en 2024, sigue sin estar preparado para un desafío como este.

Cuatro millones de usuarios. Esos son los que, de acuerdo a una investigación de la revista WIRED, reúnen mensualmente al menos 50 bots de Telegram cuyo único fin es generar imágenes o vídeos de personas reales desnudas. Dos de ellos, asegura la revista, tienen 400.000 usuarios mensuales. Otros, 14 para ser exactos, superan los 100.000 usuarios.

Estamos hablando de miles de personas que (potencialmente) han generado imágenes de otras personas desnudas sin su consentimiento. Esto es, a todas luces, una violación de la protección de datos o privacidad, así como de la intimidad, honor y propia imagen. Y lejos de ser algo inocente, es una práctica que puede tener (y tiene) un impacto real en la vida de las personas. Entre 2022 y 2023, el contenido pornográfico deepfake aumentó un 464%, según el estudio State of Deepfakes de Home Security Heroes. El 99% de ese contenido está protagonizado por mujeres.

Cómo funcionan. Según detallan desde WIRED, estos bots se venden con mensajes como "Puedo hacer lo que quieras con la cara o la ropa de la foto que me des" y, en su mayoría, requieren que el usuario compre tokens con dinero real o criptomonedas. Que generen el resultado prometido o sean una estafa es otra historia. Algunos de estos bots permiten subir fotos de las personas para, afirman, entrenar a la IA y generar imágenes más precisas. Otros no se anuncian como bots para desnudar, pero sí enlazan a bots capaces de hacerlo.

El problema de fondo. No es que este tipo de bots se puedan encontrar y usar en Telegram, que también, sino lo complicado que es frenar este contenido. En lo que concierne a Telegram, una deep web en sí misma, la aplicación de mensajería ya ha sido objeto de polémica en alguna ocasión por cosas como esta.

El último caso es reciente, de hecho: la detención de su fundador. Pavel Durov fue detenido en Francia por, aparentemente, haber contribuido a cometer delitos en Telegram por la falta de moderación. Desde Telegram se defendieron, alegando que es "absurdo afirmar que una plataforma o su propietario son responsables del abuso de esa plataforma". Tras su detención, Durov aseguró que convertiría la moderación en una de las prioridades del servicio.

El problema de fondo está en lo complicado que es frenar la creación y difusión de este tipo de contenido

No obstante, cabe destacar que, a tenor del artículo de WIRED, Telegram ha eliminado los canales y bots reportados por la revista. Ahora bien, esos canales son lo que están, pero seguramente no estén todos los que son. Telegram, como indicábamos, en una deep web en sí misma que, no obstante, pone a disposición del usuario todas las herramientas necesarias para encontrar contenido. Un buscador, sin ir más lejos.

Atajarlo es complejo. Luchar contra los deepfakes es "básicamente una causa perdida". Esas fueron las palabras de Scarlett Johansson allá por 2019. La actriz fue una de las primeras víctimas de los deepfakes pornográficos (ni la única, desde luego) y hoy, en 2024, lo cierto es que la situación sigue más o menos igual. Ha habido algunos movimientos por parte de las grandes tecnológicas, pero la realidad es que los deepfakes siguen campando a sus anchas.

Ejemplo de imagen falsa generada con IA durante los estragos del huracán Helene | Pulsa en la imagen para ver el tweet original Ejemplo de imagen falsa generada con IA durante los estragos del huracán Helene | Pulsa en la imagen para ver el tweet original Ejemplo de imagen falsa generada con IA durante los estragos del huracán Helene | Pulsa en la imagen para ver el tweet original

Es más, las herramientas actuales han hecho que sea todavía más sencillo hacerlo. ¿Quieres una foto de Bill Gates sujetando un arma? ¿A Taylor Swift en lencería o apoyando a Donald Trump? Puedes hacerlo directamente en Grok, la IA de X, por ejemplo. Aunque algunas plataformas como Midjourney o DALL-E bloquean las peticiones polémicas, cualquier persona puede con una simple búsqueda en Internet, tiempo libre, muchas imágenes y mala idea entrenar su propia IA para vete a saber qué.

Ejemplos. Podemos encontrar tantos como queramos. Los más recientes los tenemos en Estados Unidos: los deepfakes generados a raíz de los estragos del huracán Helene. En Corea del Sur el problema del porno deepfake ha llegado a las más altas esferas y se ha convertido en una cuestión de interés nacional. Tanto que, hace unos días, se aprobaron una serie de leyes que contemplan penas de cárcel y multas por generar y hasta ver este contenido sintético. "Cualquier persona que posea, compre, almacene o mire material sexual sintético ilegal estará sujeta a una pena de prisión de hasta tres años o una multa de hasta 30 millones de wones (20.000 euros al cambio)", recogen en la BBC. Como dato, Telegram también ha jugado un papel importante en la difusión del contenido pornográfico sintético en Corea del Sur.

Qué se ha intentado. Uno de los enfoques de la industria es el marcaje del contenido generado mediante IA con marcas de agua invisibles. De momento, marcar el contenido como sintético o no depende del creador (Instagram y TikTok tienen herramientas para ello, por ejemplo), pero una marca de agua evitaría, o al menos reduciría, la difusión de contenido falso y fake news. Además, permitiría una detección temprana.

Sin embargo, la realidad es que su implantación a nivel global no es la norma. Si hablamos de contenido pornográfico sintético, el desafío es mucho mayor. No solo es una cuestión de moderación en las plataformas, sino de detección precoz, de evitar que se pueda hacer el daño. Una marca de agua no soluciona el problema per se, ya que tiene que implementarse.

Marca de agua para el contenido generado con IA propuesta por OpenAI | Imagen: OpenAI Marca de agua para el contenido generado con IA propuesta por OpenAI | Imagen: OpenAI Marca de agua para el contenido generado con IA propuesta por OpenAI | Imagen: OpenAI

Para que la marca de agua sea eficaz, esta debería implementarse en todos y cada uno de los modelos y herramientas de generación de contenido sintético. No solo en los comerciales, sino en los que un usuario puede ejecutar en local. De esa manera, todo el contenido generado por IA estaría marcado en origen y su detección por parte de los sistemas de las plataformas sería más sencilla. Pero una cosa es decirlo y otra muy distinta hacerlo.

Imagen | Wikimedia Commons y Pixabay editada por Xataka

En Xataka | Tenemos un gigantesco problema con las imágenes generadas por IA. Google cree tener la solución



via Robótica e IA - Xataka https://ift.tt/iIbMr4C

viernes, 25 de octubre de 2024

Perplexity quiere un trozo del pastel de Google: el buscador de IA ya procesa 100 millones de consultas a la semana

Perplexity quiere un trozo del pastel de Google: el buscador de IA ya procesa 100 millones de consultas a la semana

Durante mucho tiempo, el buscador Google ha disfrutado de una posición destacada en la que casi ningún competidor ha conseguido hacerle frente. Pero el auge de la inteligencia artificial (IA) que estamos viviendo en estos momentos está impulsando un cambio de panorama. Uno de los ejemplos más claros de esta realidad podemos encontrarlo en nuestro día a día.

Cuando en el pasado casi la totalidad de nuestras búsquedas partían desde Google, en la actualidad también buscamos información través de otras vías como ChatGPT o Perplexity. Lo que acabamos de mencionar, evidentemente, dependerá de cada tipo de usuario, pero el mensaje es claro: Google está dejando de ser ese punto de partida casi exclusivo.

Una alternativa a Google que saca músculo

Perplexity ya procesa 100 millones de consultas cada semana. La información nos llega desde Aravind Srinivas, el CEO de la compañía que ha celebrado el logro en X. En el mensaje compartido este viernes ha dejado caer cuál es el próximo objetivo que tienen en mente: alcanzar los 100 millones de consultas por día. Muy, pero muy ambicioso, desde luego.

Si tomamos las cifras compartidas por Srinivas y las proyectamos podemos calcular alrededor de 400 millones de consultas al mes. Una cifra que no pasa desapercibida si tenemos en cuenta que durante el mes de julio, Perplexity procesó 250 millones de consultas. Este buscador alternativo a Google crece sin pausa, aunque todavía está muy lejos de alcanzar a Google.

Perplexity 2 Perplexity 2

La compañía liderada por Sundar Pichai no brinda información sobre sus métricas de búsqueda. Sin embargo, HubSpot estima que el buscador líder del mercado procesa alrededor de 265.000 búsquedas cada segundo. Esto es algo así como 22.000 millones de búsquedas al día. Una cifra de vértigo que nos permite hacernos una idea de las dimensiones del buscador.

Pero si algo hemos aprendido en el mundo tecnológico es que ningún éxito está garantizado a lo largo del tiempo, por más grande que sea. El auge de la IA ha obligado a Google a tomar medidas que incluyen “códigos rojos” para seguir manteniendo su liderazgo. Entre ellas hemos visto aparecer aparecer la tecnología generativa en el cuadro de búsqueda con AI Overview.

A primera vista, Perplexity se parece mucho a Google. La página nos da la bienvenida con un cuadro de búsqueda, pero también aparecen otros elementos como términos sugeridos. Si nos encontramos con opciones para enfocar los resultados, por ejemplo, en vídeos, publicaciones en redes sociales o documentos académicos.

Perplexity nos ofrece una respuesta generativa acompañada de sus fuentes y, a través de una interfaz conversacional, nos permite profundizar en la información. También nos brinda la posibilidad de transformar nuestras búsquedas en páginas estructuradas y hasta atiene su propia sección para descubrir contenidos.

Imágenes | Capturas de pantalla | Perplexity

En Xataka | OpenAI necesita algo más grande que un GPT-4 más potente para salvar su 2025. Su esperanza se llama Orion



via Robótica e IA - Xataka https://ift.tt/KdSwPBT

"Teléfono, resuélveme la vida": el agente IA de Anthropic quiere que la IA cambie nuestras vidas de verdad

"Teléfono, resuélveme la vida": el agente IA de Anthropic quiere que la IA cambie nuestras vidas de verdad

Nuestros ordenadores hacen lo que queremos, pero lo hacen por pasos y siempre tras nuestra interacción distinta. Si queremos borrar un fichero tenemos que abrir el explorador de ficheros, ir a la carpeta donde está, seleccionarlo y enviarlo a la papelera. ¿Qué pasaría si pudieramos decirle con una sola orden al ordenador simplemente que encontrase el fichero y lo borrase?

Eso es lo que plantea la función 'Computer Use' de Claude, el chatbot de Anthropic. Presentada esta semana en formato casi experimental, esta característica permite darle órdenes a nuestro ordenador para que haga cosas que normalmente necesitaríamos hacer con ratón y teclado.

Se trata de una de las demostraciones más convincentes que hemos visto de cómo los agentes de IA pueden efectivamente simplificar nuestra vida. De los chatbots que nos dan respuestas ("este es un buen hotel") podemos pasar a agentes que hagan cosas con esas respuestas ("te he reservado este hotel para el sábado"). El cambio de paradigma es brutal.

Eso hace pensar en que nuestros ordenadores y sobre todo nuestros móviles nos resolverán la vida. Al menos un poco. Se convertirán en secretarios/mayordomos a los que pedirles cosas como si se las estuviéramos pidiendo a un secretario humano.

La magia está en algo que parece trivial pero no lo es: los nuevos sistemas de IA de Anthropic pueden ver lo que hay en pantalla, reconocerlo y realizar acciones con ratón y teclado.

Es algo parecido a lo que Microsoft plantea con Windows Recall o Google plantea con su nueva opción de Pixel Screenshots, porque en ambos casos se sacan capturas de pantalla para reconocer, etiquetar y analizar información de esas capturas. En esos casos el objetivo es poder consultar esa información. Con "Computer Use" lo que podemos hacer es actuar sobre ella, lo que es un paso adelante muy importante.

Algunos usuarios ya han mostrado su potencial

De momento la propuesta de Anthropic se puede probar de forma limitada: han querido evitar problemas. Como explicaba en sus pruebas el experto Simon Willison, La función se utiliza dentro de un contenedor de Docker con Ubuntu 22.04 preconfigurado con varias aplicaciones y un servidor VNC, que es el que permite que veamos todo en nuestra pantalla.

Él hacía algunas pruebas sencillas como navegar a su sitio web y buscar si había escrito algo sobre "pelícanos", compilar y ejecutar el típico "Hello World" en C, instalar el paquete ffmpeg en Ubuntu o intentar solucionar un Sudoku, algo en lo que Claude por lo visto fracasó estrepitosamente.

Esas pruebas, realizadas con el entorno aislado de Anthropic, pronto se han quedado en algo curioso pero que ha demostrado que se puede ir mucho más allá. Mckay Wrigley, un experto en IA, mostraba en un vídeo en X (antes Twitter) cómo había logrado controlar su iPhone al conectarlo a su MacBook Pro en modo espejo y luego utilizar comandos para hacer distintas cosas sobre la pantalla del móvil.

Los ejemplos que muchos usuarios han compartido en plataforams como X son llamativos y demuestran dos cosas. La primera, que esta tecnología tan solo está dando sus primeros pasos y por tanto tiene limitaciones importantes tanto en velocidad como en capacidad. La segunda, que su potencial es enorme

Lo vemos por ejemplo en las pruebas que un usuario hacía al intentar lograr que el chatbot jugase a Doom de forma autónoma, otro que lo probó en combinación con Figma para diseño de una interfaz de usuario, otro que pidió una pizza, u otro que creó una aplicación para Windows, macOS y Linux con la que controlar nuestro ordenador. 

Otro desarrollador llamado simplemente 'killian' en X demostraba cómo herramientas ya conocidas como open-interpreter (que permite ejecutar código con grandes modelos de lenguaje como el de Claude) se puede combinar con esta nueva función de Computer Use. El resultado: salirte del entorno aislado de Anthropic para, efectivamente, automatizar cosas en tu propio ordenador.

Este desarrollador avisaba: la interacción no es especialmente rápida, y Claude se toma su tiempo antes de hacer cada cosa porque tiene que analizar toda la pantalla e ir poco a poco ejecutando las acciones que teóricamente van a dar como resultado eso que le hemos pedido.

Hay otro factor importante aquí: el coste. Para poder usar todas estas funciones necesitaremos créditos de Claude, y esos créditos cuestan dinero. Un usuario apodado "near" en X mostraba cómo había encargado su comida con la plataforma Doordash desde su portátil, pero lograrlo —unos 15 minutos de uso del agente— implicó consumir 2,5 millones de tokens en Claude 3.5 Sonnet. El precio actual de esa API es de 15 dólares por cada millón de tokens de salida (3 dólares para los tokens de entrada, sus peticiones), así que pedir esa comida le salió bastante cara.

No obstante, es normal que estos primeros experimentos sean costosos: la tecnología está aún algo verde y su consumo de recursos es notable. Sin embargo, es de esperar que tanto la eficiencia como el coste mejoren de forma notable, lo que teóricamente hará que tengamos acceso a opciones mucho más potentes en los próximos meses. Esa parece desde luego ser una de las apuestas de Anthropic con esta propuesta, y desde luego la opción es muy, muy prometedora.

Imagen | Danhasnotes con Midjourney

En Xataka | Microsoft comienza a ofrecer agentes de IA autónomos. De momento son recetas IFTTT hipervitaminadas



via Robótica e IA - Xataka https://ift.tt/jt7zkw2