viernes, 17 de mayo de 2024

Reddit ya se alió con Google para alimentar su IA. Ahora ha hecho lo mismo con OpenAI

Reddit ya se alió con Google para alimentar su IA. Ahora ha hecho lo mismo con OpenAI

Los chatbots de inteligencia artificial (IA) están cambiando la forma en la que buscamos información. Hasta hace poco, si queríamos saber algo, lo primero que se nos solía venir a la mente era utilizar un buscador como el de Google. Ahora, no obstante, también podemos recurrir a alternativas conectadas a Internet como ChatGPT, Gemini o Perplexity.

El mencionado escenario está llevando a algunas fuentes de contenido a limitar el acceso a sus contenidos por parte de actores externos, a menos que paguen, claro. Reddit es una de ellas. Primero cerró su API. Después empezó a cobrar por acceder a ella. Google no tardó en poner millones de dólares sobre la mesa, y ahora es el turno de OpenAI.

ChatGPT tendrá acceso al contenido de Reddit en tiempo real

La compañía liderada por Sam Altman ha anunciado un acuerdo con Reddit. El mismo tiene tres interesantes vertientes. Por un lado, OpenAI podrá acceder a los millones de publicaciones y debates de Reddit a través de su API. esto le permitirá ofrecer información en tiempo real a través de ChatGPT, así como también a “productos futuros”.

“Esto permitirá que las herramientas de IA de OpenAI comprendan y muestren mejor el contenido de Reddit, especialmente sobre temas recientes”, explica el comunicado. Pero la asociación irá un paso más allá. También busca poner a disposición de Reddit los modelos de lenguaje de OpenAI, no sabemos cuáles, para impulsar funciones de IA.

Openai Openai

La compañía señala que también se convertirá en socio publicitario de Reddit. El acuerdo, cabe señalar, deja algunas preguntas sin resolver. Por ejemplo, no se precisa cuándo dinero le pagaría OpenAI a la plataforma cofundada y dirigida por Steve Huffman. En el caso de Google, el acuerdo se concretó en 60 millones de dólares al año.

El anuncio llega en medio de importantes cambios para ambas compañías. OpenAI presentó recientemente un modelo de IA llamado GPT-4o, que estará disponible para todos los usuarios. Reddit, por su parte, se convirtió en una empresa de capital abierto tras su salida a la bolsa el pasado mes de marzo.

Imágenes | Reddit | OpenAI

En Xataka | Qué es un token cuando hablamos de IA y por qué es importante que Gemini admita un millón



via Robótica e IA - Xataka https://ift.tt/Md0rJNh

Google I/O 2024: todas las novedades sobre Gemini, Android 15 y sus grandes avances en IA

Google I/O 2024: todas las novedades sobre Gemini, Android 15 y sus grandes avances en IA

El Google I/O 2024 ha sido uno de los eventos más importantes del año, dejándonos sobre la mesa la propuesta de Google en inteligencia artificial para el futuro más cercano. Se celebró tan solo unos días después del gran anuncio de GPT-4o, y nos ha dejado novedades para Android, WearOS, Android Automotive y todo aquel dispositivo que pueda alimentarse de Gemini, la familia de modelos IA de Google.

En Xataka hemos recopilado todas las novedades que se presentaron en el Google I/O 2024, desde las mejoras en su familia de modelos hasta todas las novedades que irán llegando a Android cuando aterrice la versión estable de Android 15.

Gemini 1.5 Pro y Gemini Flash

Gemini Gemini

Google nos habló de todas las mejoras que recibe la familia Gemini para este 2024. En primer lugar tenemos Gemini Flash, su modelo más ligero. Es, dentro de la familia Gemini, la solución más rápida y de menor latencia, ejecutado de forma local en los dispositivos (será ideal como alternativa a Gemini Nano en un futuro).  Aquellas aplicaciones que necesiten una respuesta rápida y no tanto un modelo más denso, podrán recurrir a Flash.

Además de introducir al nuevo miembro de la familia, Google nos habló de las mejoras que llegarían a Gemini 1.5 Pro. La primera de ellas es la velocidad de cálculo. 1.5 Pro será capaz de analizar documentos de gran tamaño: archivos de hasta 1.500 páginas en total, resumen de hasta 100 correos electrónicos de forma simultánea, una hora de vídeo o bases de código de más de 30.000 líneas.

También será más inteligente a la hora de comprender imágenes y será capaz de realizar planificaciones al detalle y en tiempo real de viajes, basándose en la información de nuestros correos, vuelos, calendario y más.

Project Astra

El naming con Google no es una tarea fácil de entender, pero vamos allá. Cuando hablamos de la familia de modelos de IA de Google hablamos de Gemini. Y Gemini ahora se compone de:

  • Gemini Flash (modelo ligero).
  • Gemini Nano (modelo no tan ligero, es el que se usa actualmente en móviles).
  • Gemini Pro (modelo más potente que nano).
  • Gemini Ultra (a priori, donde Google centrará los máximos esfuerzos. El modelo más potente).
  • Gemini Live (este no es un modelo en sí, es el nombre que recibe la interfaz conversacional que veremos integrada en apps móviles).
  • Gemini Advanced: suscripción de pago de Google que incluye acceso a la familia completa.


Por si no fuera poco con este lío, Google nos habló de 'Project Astra'. ¿Y qué es esto? Un proyecto con el que quieren "desarrollar agentes de IA universales que puedan ser útiles en nuestra vida cotidiana". Es la materialización de los planes de Google para crear un asistente perfecto, que recuerde lo que ve y lo que oye, con baja latencia, y con distintos tonos de voz.

Este 'Her' de Google acabará integrado en Gemini (como el asistente de voz que están probando para remplazar a Google Assistant, que también se llama Gemini), por lo que al final acabará siendo, como todo lo demás, Gemini. De hecho, una de las integraciones más interesantes que vimos fue la de Project Astra funcionando en unas gafas: una muestra de lo que nos vendrá en el futuro.

Veo e Imagen 3

Google Google Un paisaje fotorrealista. Imagen: Google.

Durante el I/O Google también anuncio tanto Veo como Imagen 3, las evoluciones de sus modelos de texto a imagen / texto a vídeo. Quieren competir así con con Midjourney, el futuro Sora y compañía.

Imagen 3 es la evolución de Imagen 2, y ha mejorado la interpretación del lenguaje natural, así como la capacidad de añadir detalles muy específicos a partir de prompts muy extensos.

Veo es el modelo de vídeo generativo más grande de Google hasta la fecha, y permite crear clips con resolución Full HD (1080p) de más de un minuto de duración. También puede crear timelapses y es capaz de aplicar todo tipo de técnicas cinematográficas. 

Mejoras por IA en la Búsqueda de Google

La búsqueda de Google fue otro de los grandes protagonistas del I/O. Bajo una característica llamada "AI Overviews", Google nos mostró una función de su buscador para mostrar resultados generados por IA. Esta función estará disponible primero en Estados Unidos, aunque podemos probarla a través de Google Labs si utilizamos una VPN. 

Novedades en Android

En lo respectivo a Android, hubo novedades relacionadas tanto con el sistema operativo como con aplicaciones relativas al mismo.

Imagen | Google

En Xataka | La película "Her", hecha realidad: la gente está empezando a tener relaciones con sus bots de IA



via Robótica e IA - Xataka https://ift.tt/jVGeQ6W

Qué es un token cuando hablamos de IA y por qué es importante que Gemini admita un millón

Qué es un token cuando hablamos de IA y por qué es importante que Gemini admita un millón

Cuando una firma como OpenAI o Google presenta alguna novedad relacionada con sus modelos del lenguaje (GPT, Gemini) es normal que presuma de tokens. Tokens, tokens, tokens. El otro día, durante el Google I/O, la empresa de Mountain View hizo especial hincapié en que Gemini 1.5 Pro admite un millón de tokens y en algunos casos, hasta dos millones. La pregunta es: ¿qué es exactamente un token cuando hablamos de inteligencia artificial? Es más, ¿por qué debería importarnos? Vamos a salir de dudas.

¿Qué es un token? Empecemos por lo básico. La forma más sencilla de entender los tokens es imaginarlos como fragmentos de palabras, como la unidad mínima de texto de un modelo de IA. Cuando introducimos un texto en ChatGPT o Gemini, el modelo coge ese texto, lo divide mediante un algoritmo tokenizador en fragmentos más pequeños siguiendo unas reglas (por ejemplo, ¿empieza por mayúscula? ¿Tiene un punto al final? ¿Lleva tilde?) y lo procesa.

Chiste de Gemini Chiste de Gemini Será todo lo lista que quieras, pero lo del humor no lo llevan bien | Captura: Xataka

Aunque podemos hacer la asociación "un token, una palabra", no tiene por qué ser así. De hecho, una palabra en inglés no usa los mismos tokens que la misma palabra en español o francés. Los tokens no se cortan exactamente donde empiezan y acaban las palabras, ya que pueden incluir espacios finales, subpalabras, puntos, comas, emojis...

¿Me lo explicas con un ejemplo? Por supuesto. Usaremos el siguiente texto, que es el primer párrafo de 'Don Quijote de la Mancha". Nosotros vemos el texto tal que así:

"En un lugar de la Mancha, de cuyo nombre no quiero acordarme, no ha mucho tiempo que vivía un hidalgo de los de lanza en astillero, adarga antigua, rocín flaco y galgo corredor. Una olla de algo más vaca que carnero, salpicón las más noches, duelos y quebrantos los sábados, lantejas los viernes, algún palomino de añadidura los domingos, consumían las tres partes de su hacienda. El resto della concluían sayo de velarte, calzas de velludo para las fiestas, con sus pantuflos de lo mesmo, y los días de entresemana se honraba con su vellorí de lo más fino".

Pues si se lo metemos a una IA como GPT-4, el algoritmo tokenizador lo dividirá en tokens y descompondrá en unidades mínimas de información de la siguiente manera:

Tokens Tokens El primer párrafo del Quijote equivale a 174 tokens | Captura: Xataka

Si le metemos el mismo párrafo, pero en inglés:

"In a village of La Mancha, the name of which I have no desire to call to mind, there lived not long since one of those gentlemen that keep a lance in the lance-rack, an old buckler, a lean hack, and a greyhound for coursing. An olla of rather more beef than mutton, a salad on most nights, scraps on Saturdays, lentils on Fridays, and a pigeon or so extra on Sundays, made away with three-quarters of his income. The rest of it went in a doublet of fine cloth and velvet breeches and shoes to match for holidays, while on week-days he made a brave figure in his best homespun".

GPT-4 lo divide de la siguiente forma:

El primer párrafo del Quijote en inglés equivale a 138 tokens | Captura: Xataka El primer párrafo del Quijote en inglés equivale a 138 tokens | Captura: Xataka El primer párrafo del Quijote en inglés equivale a 138 tokens | Captura: Xataka

¿Y cuántas palabras es un token? Depende del idioma, el contexto, la frase... Es algo más complejo que decir "un token, una palabra". Sin embargo, una regla básica que podemos usar es la que nos ofrece OpenAI:

  • Un token ± cuatro caracteres en inglés o 3/4 de palabra.
  • 100 tokens ± 75 palabras.
  • Un párrafo ± 100 tokens.
  • 1.500 palabras: 2.048 tokens.
  • Lo que va de artículo, incluido esta última línea: 724 tokens.

La ventana de contexto. Ahora que ya sabemos qué es un token, toca pasar a otro concepto importante: la ventana de contexto. ¿Cómo se usa ChatGPT, Gemini y compañía? Normalmente, le enviamos un texto y nos devuelve una respuesta en forma de texto. Es decir, enviamos un texto, se convierte en tokens, se procesan y se genera una respuesta en forma de tokens que nosotros vemos como uno, dos o tantos párrafos como GPT, Gemini y compañía consideren oportunos.

Pues la cantidad de tokens máxima que un modelo puede procesar a la vez se llama ventana de contexto. Cuanto mayor sea la ventana de contexto, más información podremos incluir como entrada para que luego la IA nos conteste en base a toda esa información.

Y eso quiere decir... Vamos con otro ejemplo: "Jose cerró la puerta y se dirigió al salón". ¿Qué tenemos en esta frase? Palabras, sí, pero dentro de un contexto. Sabemos que "Jose" es probablemente el protagonista de la historia, que "cerró" se refiere a una acción física en pasado y que "puerta" es un objeto que permite entrar o salir de una habitación. También sabemos que "se dirigió" significa movimiento y que "salón" es un lugar específico de, probablemente, una casa.

En este caso, la IA entiende perfectamente lo que queremos decir porque la frase es muy corta, apenas necesita tokens. ¿Pero qué pasa si le metemos 20 PDFs de 300 páginas cada uno? La cosa cambia. Necesitaremos una ventana de contexto mucho más grande para que el modelo sea capaz de manejar tanta información a la vez.

ChatGPT ChatGPT ChatGPT no solo entiende texto, sino que también nos permite usar la IA mediante audio | Imagen: Solen Feyissa en Pexels

IA multimodal. Hasta ahora hemos hablado de texto, pero lo cierto es que la tendencia es ir hacia lo multimodal. Una IA multimodal es aquella que no solo entiende texto, sino que puede procesar a la vez varios tipos de datos, como texto, vídeo y audio. Project Astra o los últimos avances de OpenAI son, precisamente, ejemplos de inteligencias artificiales multimodales. Y efectivamente, no es lo mismo una hora de vídeo que diez páginas de texto.

¿Por qué nos interesa que la ventana de contexto sea mayor? Porque una inteligencia artificial multimodal debe procesar muchísima información al mismo tiempo. Piensa en todos los inputs que puede haber en un vídeo caminando por la calle en solo diez segundos: nombres, señales, número de personas, colores de la ropa, tiendas, restaurantes...

Que una IA tenga una ventana de contexto de uno y dos millones de tokens no es para que entienda una tesis doctoral en texto (que también), sino para trabajar con textos, audios y vídeos cada vez más largos y obtener información, respuestas y todo tipo de datos a partir de ellos.

Imagen | Solen Feyissa en Pexels

En Xataka | Gracias a GPT-4o, ChatGPT se convierte en el profesor particular ideal. Es otra revolución para la enseñanza



via Robótica e IA - Xataka https://ift.tt/oYzmb3C

Sony Music advierte a 700 empresas de IA: cuidado con entrenar con música de nuestros artistas

Sony Music advierte a 700 empresas de IA: cuidado con entrenar con música de nuestros artistas

Los músicos son los últimos en declararle la guerra a la inteligencia artificial. Es lo que demuestra la última decisión de Sony Music Group (SMG), que ha querido proteger su propiedad intelectual antes de que las cosas se le puedan ir de las manos.

Nada de entrenar a la IA con nuestros artistas. Como indican en Financial Times, la discográfica ha enviado cartas de aviso a más de 700 empresas y servicios de streaming de música con un mensaje claro: que no se les ocurra entrenar modelos de IA con música de sus artistas sin permiso explícito.

Ya lo están haciendo. En la carta, que se ha filtrado a varios medios, los responsables de Sony indican que tienen "razones para creer" que quienes han recibido ese mensaje "podrían haber comenzado ya a ahcer un uso no autorizado" de su contenido.

La IA tiene potencial, pero ojo. La discográfica reconoce que la inteligencia artificial tiene un "potencial significativo", pero advierte de que "el uso no autorizado del contenido de SMG en el entrenamiento, desarrollo o comercialización de sistemas de IA" impide que tanto la firma como sus artistas puedan mantener el control y accedan a una "compensación adecuada" por este tipo de uso de esa música.

Sony se pone seria. La firma ha publicado además un comunicado en el que destacan que "apoyamos a los artistas y compositores que toman la iniciativa de adoptar las nuevas tecnologías en apoyo de su arte. Sin embargo, esa innovación debe garantizar que se respeten los derechos de los compositores y artistas, incluidos los derechos de autor".

Amenazas. En la carta, eso sí, exigen a las empresas sospechosas de entrenar sus modelos de IA que den detalles sobre cómo accedieron a las canciones, cuántas copias realizaron y si hay copias aún disponibles. Se añade una fecha límite para responder a esas exigencias y aclaraciones, o de lo contrario la empresa amenaza con hacer valer sus derechos de autor en la "máxima medida permitida por la legislación aplicable en todas las jurisdicciones".

El camino hacia otros ingresos. La forma de actuar de Sony Music Group es similar a la de empresas que en otros sectores han actuado protegiéndose contra empresas de IA. Primero advirtieron y amenazaron con tomar acciones legales —o las tomaron— y luego acabaron llegando a acuerdos con esas mismas empresas a las que acusaban de entrenar sus modelos de IA con sus contenidos. Es el caso de Reddit o varios grupos editoriales, y ahora podría ocurrir algo similar en el mundo de la música.

Imagen | Bigotes de Gato

En Xataka | Cuando las redes sociales ya no son sociales: el auge del candado en Twitter y de los grupos de WhatsApp



via Robótica e IA - Xataka https://ift.tt/yzj8Jmc

Sundar Pichai (CEO de Google) cree que 'Her' es inevitable: "habrá personas que se enamoren de una IA y deberíamos prepararnos"

Sundar Pichai (CEO de Google) cree que 'Her' es inevitable:

Es la película de la semana en Silicon Valley. Ha pasado poco más de una década desde que se estrenó 'Her' y ya podemos decir que ha dejado de ser ciencia ficción para convertirse en algo muy real. Esta semana las dos grandes empresas de inteligencia artificial han presentado dos proyectos (GPT-4o y Astra) que nos recuerdan claramente a Samantha, el asistente virtual de voz protagonizado por Scarlett Johansson.

El nivel de expectación con los nuevos agentes de IA con voz es tan alto que incluso Sundar Pichai, CEO de Google, ha tenido que dar su visión sobre el asunto. En un encuentro con periodistas internacionales realizado durante el Google I/O 2024 y en el que desde Xataka hemos participado, se le ha preguntado por las relaciones que tendremos con la IA, sobre las futuras gafas de Google y un repaso a cómo Gemini está propagándose rápidamente por toda la compañía. "Empieza una nueva era", afirman desde Google. Así lo explica su máximo responsable.

Lo primero que defiende Sundar Pichai es que "en Google llevamos en el camino de la IA desde hace mucho, mucho tiempo. Es genial ver que ahora estamos aprovechando estos beneficios de la IA en todos nuestros productos".

Aunque el momento que cambió la tendencia fue la llegada de ChatGPT, desde Google aprovechan cualquier oportunidad para justificar que ellos ya eran referentes desde mucho antes. Eran tiempos donde el equipo de DeepMind realizaba trabajos espectaculares, aunque propios del mundo académico y muy alejados de los servicios de Google que usamos.

El año que hablaremos con la IA (y esta verá lo que hacemos)

"Debido al tamaño de nuestros productos, creemos que realmente podemos ayudar a los usuarios en una escala muy grande. Nuestros modelos de Gemini fueron construidos nativamente de forma multimodal y ahora con Project Astra estamos viendo cómo eso se está haciendo realidad", describe Pichai.

En la misma línea iba Sergey Brin, el fundador de Google con quien también hemos tenido la oportunidad de coincidir esta semana. "No esperaba que nuestros experimentos fueran a llegar tan lejos", nos explicaba Brin, en referencia a que Gemini se creó con el texto en mente, pero al ser multimodal ya se dejó la puerta abierta a lo que este año vamos a ver. "Es una visión que ya tuvimos cuando fuimos uno de los primeros en entrenar, desde cero, un modelo multimodal nativo", explica Pichai, de nuevo defendiendo que Google no sigue los pasos de otras empresas, pese a que sus demostraciones sí estén llegando más tarde.

Nos referimos a poder hablar con la IA. El New York Times fue uno de los primeros esta semana en afirmar que la era de 'Her' ha llegado. Y aunque, como apuntan desde El País, esta comparación no es más que una estrategia de marketing para magnificar las posibilidades de la IA, es divertido discutir sobre sus implicaciones sociales.

"Antes de decir nada más, tengo que decir que quiero a mi mujer", bromeaba Pichai antes de contestar sobre 'Her'. "Con cada tecnología, a medida que se avanza, existen muchos casos de uso duales. Con la voz, habrá por ejemplo quien quiera utilizar la IA para preservar memorias de sus seres queridos ya fallecidos. Es una tecnología muy poderosa. Y sí, también habrá gente que con el tiempo pueda establecer relaciones más profundas con estos asistentes o agentes de IA. Y sí, también creo que deberíamos prepararnos para todas esas posibilidades. Creo que por eso es tan importante que esta tecnología se implemente de manera responsable. Y estamos comprometidos en hacerlo así. Pienso en protecciones como SynthID, que hemos hecho con imágenes y lo vamos a llevar a la voz y vídeo también".

Pichai no se ha enamorado de una IA, pero sí nos explica cuando se enamoró de la IA. "Fue cuando vi una demostración de Google Brain, ahora en DeepMind. Cuando las redes neuronales fueron capaces de reconocer la imagen de un gato. Ese momento fue la primera vez que en mi mente fue algo especial. Un momento donde me di cuenta que esta tecnología iba a funcionar", recuerda el CEO de Google.

En este Google I/O, que el propio Pichai bromea describiéndolo como la versión tech del 'Eras Tour' de Taylor Swift pero "con menos cambios de vestuario", también se han presentado avances más allá de la multimodalidad. La IA no solo ahora trabajará con voz y vídeo, también tendrá un mejor contexto. Esto lo representa Google con la versión de Gemini Pro con hasta dos millones de tokens, disponible en preview. La memoria y el contexto al que tendrán acceso las IA será mucho mayor, lo que nos permitirá tener conversaciones más largas y con más factores en juego. Algo que también recuerda a 'Her'.

El tercer aspecto que defiende Pichai es el de los agentes de IA. En el sentido de que podrán hacer acciones por nosotros: "ya sea una búsqueda haciendo consultas complejas, o Gemini tratando de planificar un viaje. Con el tiempo, podremos tenerlo en Chrome, en segundo plano, ayudándonos en nuestros proyectos. Creo que estamos bien posicionados por nuestro liderazgo en investigación,  infraestructura, innovación y nuestra huella global".

Google ya podría llamarse Gemini

Gemini Gemini

Google está interiorizando Gemini de golpe. No es una tarea fácil. Google dispone de cerca de unos 180.000 empleados en todo el mundo. Y en poco más de un año han forzado a todos los equipos a que la IA sea una parte troncal de su trabajo. Prueba de la prioridad que se le está dando es que Demis Hassabis, CEO de DeepMind, ha tenido un rol muy destacado durante el Google I/O e incluso suena como posible sucesor de Pichai en el puesto de CEO. Algo a priori difícil de concebir, pues Hassabis es un perfil más técnico y tiene, según describe Business Insider la idea de gestionar cada día decenas de equipos variados y centenares de miles de trabajadores "sería una pesadilla para él".

"Estamos en una etapa en la que todos los diferentes productos y proyectos de Google estamos interiorizando Gemini y repensando cómo hacemos las cosas. Y es realmente emocionante, porque estamos viendo cómo dar el siguiente paso y buscando cuál es la forma correcta de trabajar para los usuarios", describe Pichai.

"Estamos hablando de una de las tecnologías más trascendentales en las que la humanidad trabajará jamás", afirma el CEO de Google. No en pasado, sino en futuro. Como si una vez consigamos que la IA sea totalmente autónoma, ya no tendremos más tareas donde los humanos tengamos un papel mejor.

"Es un punto de inflexión. Desde Google llevamos invirtiendo en esto desde hace mucho tiempo; construyendo modelos de referencia y trabajando para implementarlo en la vida diaria de miles de millones de personas. Me encanta la innovación y para mí, creo que esta ha sido una gran semana para estar en el mundo de la tecnología", se enorgullece.

De Android a las gafas

En la demostración de Project Astra se ve a un usuario interactuando por voz y vídeo a través de unas gafas. Sundar Pichai confirma los planes de Google de lanzar sus propias gafas con Astra y abre la puerta a crear un ecosistema nuevo alrededor de ellas: "Project Astra es parte de nuestra tecnología en móviles, pero creo que como realmente se aprovecha es con un formato tipo gafas. Siempre ha sido nuestra visión. Vamos a invertir en crear un ecosistema de gafas inteligentes de realidad aumentada. Próximamente tendremos interesantes productos de los que hablaros".

En el pasado el Google I/O giraba totalmente alrededor de Android. Esta vez ha quedado desplazado al segundo día. Son otros tiempos. Entre las novedades de Android 15 tenemos el plan para acabar con las llamadas de SPAM mediante la IA. Y estará basado en Gemini Nano.

"Es un momento increíble ver cómo los sistemas operativos están evolucionando. Cada año vamos a poder empaquetar más en el dispositivo. Lo que ahora es Gemini Flash acabará siendo Gemini Nano. Creo que la capacidad de trasladar más inteligencia al dispositivo va a ampliar enormemente las posibilidades. Como lo que hemos visto con la detección de estafas de manera privada, si eliges participar. Pero es solo la punta del iceberg. La IA del dispositivo nos ayudará con nuestros documentos, con las fotos... en cualquier momento que se lo digamos", describe alegremente Pichai, que además apunta a que piensa en el largo plazo: "siento que en mi cabeza hay una década de planes con todos los proyectos que quiero que los equipos construyan. Y ahí empezamos a trabajar. Y lo que es una década pueden acabar siendo unos pocos años".

Google, en medio de los grandes problemas del mundo

Google Sundar Pichai Google Sundar Pichai

Este es un año de elecciones. Más de 3.000 millones de personas van a votar este año. En Google están pendientes del papel que puede tener la IA en ellas, pero Pichai se muestra confiado.

"Es probablemente una de las cuestiones más importantes del momento. Desde Google invertimos desde hace tiempo en proteger la integridad de las elecciones. Es una de nuestras máximas prioridades como compañía, particularmente en productos como Search y Youtube. Hemos desplegado SynthID y el RED Team, para ocuparnos. También investigamos con Project Jigsaw. Primero entendemos los patrones y luego actuamos. Y compartimos esa información con la gente adecuada y los gobiernos afectados".

"Creo que hemos hecho un gran y creo que estamos en un momento que como sociedad ya sabemos discernir fácilmente lo que es real y lo que no. Soy cautelosamente optimista de que podremos hacer nuestra parte correctamente. Creo que lo que está en juego en el futuro es más difícil, pero para este año soy cautelosamente optimista".

Como uno de los directivos más poderosos del mundo, Sundar Pichai tiene respuesta diplomática preparada incluso para las preguntas más polémicas. Sobre Project Nimbus y el despido de casi una treintena de trabajadores por protestar, el CEO de Google responde que esos despidos "no tienen nada que ver con expresar las preocupaciones". Pichai defiende que Google "más que ninguna otra compañía", permite a sus empleados "expresarse". Lo justifica como establecer un "código de conducta, de una forma que no sea destructiva para el lugar de trabajo".

"Tenemos claro que no queremos que nuestros sistemas de IA se desplieguen en sistemas de emergencia para armas y demás. Project Nimbus es una empresa que ha firmado acuerdos comerciales con un gobierno, como muchos otros acuerdos comerciales. En esos acuerdos hay unas condiciones de uso y siempre están vigentes", describe James Manyika, VP de Investigación, Tecnología y Sociedad en Google. 

Sobre los gobiernos, Pichai termina hablando sobre la importancia de la regulación de la IA. "Tiene sentido para mí que los países piensen sobre este extraordinario e importante tema.  Si me pongo en su posición, cuando piensas en el impacto de la IA en la sociedad, es lógico que se quiera tener un debate y establecer un equilibrio. La IA va a traer una gran oportunidad económica, pero también va a afectar a muchos industrias. A medida que pasa el tiempo tengo claro que necesitamos más marcos globales. Lo que hace que Internet sea la fuerza que es hoy es porque es un bien global; porque todos estamos de acuerdo en estándares comunes y en una forma de trabajar juntos. Espero que con la IA pueda aplicarse también". 

En Xataka | Hace tres años creé un robot inspirado en Scarlett Johansson, ahora quiero ayudarte a que tú también puedas hacerlo



via Robótica e IA - Xataka https://ift.tt/Yz7cmJa

España ha aprobado su Estrategia de Inteligencia Artificial 2024. Tiene tres ejes y un enfoque "responsable"

España ha aprobado su Estrategia de Inteligencia Artificial 2024. Tiene tres ejes y un enfoque

El Consejo de Ministros ha aprobado la Estrategia de Inteligencia Artificial 2024. Es un plan para posicionar a España en en el desarrollo y la aplicación de la IA gracias a una inversión de 1.500 millones de euros.

Su objetivo: facilitar la adopción de la IA en el sector público y en el privado, fortalecer las capacidades tecnológicas del país y asegurar que la tecnología se desarrolle de forma ética y transparente.

Por qué es importante. La estrategia quiere posicionar a España en el uso de la tecnología más prometedora que hemos visto nacer en mucho tiempo, lo cual puede impulsar nuestra economía y mejorar la administración pública gracias a la aplicación de la IA.

La estrategia se enfoca en tres ejes de actuación:

Refuerzo de capacidades. Se destinarán 90 millones de euros a crear nuevos clústeres de supercomputación y a mejorar las capacidades del MareNostrum 5 de Barcelona, presentado a finales de año. También se crearán Centros de Procesamientos de Datos ambientalmente sostenibles.

  • Se desarrollará una infraestructura pública de IA con la creación de una familia de LLMs en castellano y el resto de lenguas cooficiales. Se llamará ALIA y las empresas podrán acceder gratis a ella.
  • También se destinarán 160 millones de euros en becas, programas de FP y capacitación de docentes. En resumen: fomento del talento.

Aplicación de la IA. Tanto en el sector público como en el privado. El proyecto GobTech Lab, un laboratorio de innovación, va a desarrollar proyectos piloto de IA para la Administración General del Estado. En el sector privado se invertirán 650 millones de euros en programas de impulso y adopción a través del Kit Digital y otros 400 millones de euros a través del Fondo Next Tech.

  • Son iniciativas orientadas a garantizar que la IA pueda llegar a las pymes
  • También se implementará una nueva Ley de Ciberseguridad

IA ética y transparente. El fomento de una IA responsable y humanista se articulará mediante la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) que el Gobierno abrirá en A Coruña.

  • La AESIA será un centro de análisis sobre la IA
  • Certificará sistemas de IA de acuerdo al Reglamento Europeo
  • Y representará a España en instituciones internacionales sobre IA

Esta implementación estará coordinada por la Secretaría de Estado de Digitalización e Inteligencia Artificial y participarán todos los ministerios a través de la Comisión Interministerial mediante reuniones semestrales.

El Gobierno busca fomentar el desarrollo tecnológico de una forma que beneficie a toda la sociedad. No solo busca la innovación, sino un enfoque responsable. Para ver los resultados y la comparativas con otros países habrá que esperar unos años.

Imagen destacada | Xataka con Midjourney

En Xataka | España ha firmado un acuerdo con IBM para chatbots de IA en euskera, gallego y catalán. El problema es que ya existen



via Robótica e IA - Xataka https://ift.tt/DZQ9pIB

ChatGPT quiere reinar en la oficina: creará gráficos y tablas desde documentos de Google Drive y Microsoft OneDrive

ChatGPT quiere reinar en la oficina: creará gráficos y tablas desde documentos de Google Drive y Microsoft OneDrive

La evolución de ChatGPT no se detiene. A principios de esta semana hablábamos del nuevo modo de voz del chatbot, una sorprendente función basada en GPT-4o. Ahora acabamos de conocer un conjunto de novedades que apuntan directamente a los usuarios profesionales.

OpenAI ha anunciado que ChatGPT podrá extraer documentos directamente desde Google Drive y Microsoft OneDrive. Además, podrá crear tablas y gráficos interactivos en base a los datos analizados. Todo, promete la firma de IA, de manera sencilla y con lenguaje natural.

ChatGPT, un analista de datos en la oficina

En la actualidad podemos arrastrar documentos desde cualquier carpeta de nuestro ordenador a ChatGPT. La primera novedad, como decimos, se trata de una integración con servicios externos. Al pulsar sobre el icono de adjuntar archivo podremos conectar con Google Drive y OneDrive.

La integración funcionará como con otros servicios. Una ventana emergente nos preguntará si queremos darle permiso a ChatGPT para acceder a nuestros archivos. Acto seguido, podemos navegar entre las carpetas del servicio en la nube para elegir el documento deseado.

ChatGPT analizará los datos y los mostrará tanto en una tabla interactiva como en texto a continuación. En el caso de la tabla, podremos expandirla y hacer clic en áreas específicas para hacer preguntas o ejecutar acciones en lenguaje natural. Veamos algunos ejemplos.

Chatgpt Datos Chatgpt Datos

OpenAI dice que esta funcionalidad será útil para combinar hojas de cálculo de gastos mensajes y crear una tabla dinámica segmentada por tipo de gasto. Es como si estuviéramos chateando con una especie de Microsoft Excel, pero integrado dentro de ChatGPT.

Las nuevas capacidades de ChatGPT, impulsadas por GPT-4o, prometen ser útiles para tareas más complejas, como limpieza de grandes conjuntos de datos y segmentación de información específica. Se trata de tareas que podrían ser muy valoradas en el ámbito empresarial.

Chatgpt Datos2 Chatgpt Datos2

En relación a la presentación visual de la información, no solo trabaja con tablas. También podemos pedirle que cree gráficos de barras, líneas y más. En todos los casos, los gráficos son interactivos y personalizables. Y, además, algo muy importante, se podrán descargar.

La compañía liderada por Sam Altman dice que estas funciones estarán disponibles “en las próximas semanas”, por lo que toca esperar para empezar a utilizarlas. Eso sí, no estarán disponibles para todos, sino para los miembros de ChatGPT Plus, Team y Enterprise.

Cabe señalar que, si bien este tipo de funcionalidades pueden resultar prometedoras, no debemos perder de vista las debilidades de la IA. Los algoritmos generativos pueden alucinar, por lo que no está claro el nivel de precisión que pueden llegar a tener herramientas.

Imágenes | OpenAI

En Xataka | Gracias a GPT-4o, ChatGPT se convierte en el profesor particular ideal. Es otra revolución para la enseñanza

En Xataka | Quién es Jakub Pachocki, el nuevo científico jefe de OpenAI que releva a Ilya Sutskever



via Robótica e IA - Xataka https://ift.tt/5e8yFUl