sábado, 31 de agosto de 2024

Las startups indias están haciendo que el idioma deje de ser un problema. Ya han conquistado incluso a Microsoft

Las startups indias están haciendo que el idioma deje de ser un problema. Ya han conquistado incluso a Microsoft

Una revolución tecnológica está gestándose en India, donde sus startups están derribando la barrera idiomática en un país donde el inglés no es demasiado popular, pero sí existe la necesidad de usar servicios en ese idioma.

Por qué es importante. Estas empresas compiten por crear IA activada por voz que hable los idiomas de sus ciudadanos, con el potencial de cambiar la forma en que 1.400 millones de personas interactúan con la tecnología.

Solo una fracción de esa ciudadanía se sienta cómoda en inglés, y la IA por voz en su idioma local les puede democratizar el acceso a servicios digitales.

La panorámica. La IA en India está centrada en pasar del texto a la voz:

  • Sarvam AI, conocida como 'la OpenAI india', acaba de presentar un software que interactúa con clientes mediante la voz en diez idiomas locales indios. Su precio: una rupia por minuto (1,1 céntimos de euro).
  • CoRover AI ha lanzado un bot que reserva billetes de tren y realiza pagos únicamente con comandos de voz.
  • Gnani AI mantiene millones de conversaciones al día para los principales bancos y aseguradoras del país.

Entre bambalinas. Las grandes tecnológicas están al tanto de estos avances. Ejecutivos de DeepMind (Alphabet), Meta y Microsoft estuvieron presentes en el lanzamiento de Sarvam en Bangalore, un hub tecnológico del que ya hablamos en el pasado por sus lazos con el Sevilla FC.

Microsoft, de hecho, anunció la integración de Sarvam en Azure a principios de año. Esto demuestra el creciente interés por el ecosistema de IA que se ha generado en India.

El contexto. A diferencia de las grandes empresas de IA de Estados Unidos, las startups indias tienen acceso a grandes conjuntos de datos en sus idiomas locales, y eso les da una ventaja para su propio (y gigantesco) mercado.

"Intenta usar GPT-4 o Claude con Sri Mandir. Te garantizo que no funcionará" dijo Vivek Raghaban, cofundador de Sarvam. Sri Mandir es una aplicación religiosa muy popular en India que incorpora la IA de Sarvam para reconocimiento de voz. Según dijo TechCrunch hace unas semanas, ha procesado 270.000 conversaciones por hora.

En perspectiva. Estas startups tienen la vocación de salir de su país natal y algunas se van expandiendo internacionalmente. Gnani AI opera en California, ayudando a una empresa de leasing de Harley-Davidson a llegar a clientes hispanohablantes.

Sarvam, según su fundador, está lista para integrarse en multitud de plataformas, incluso en WhatsApp. Es una señal de cómo las startups indias están acelerando para que sus soluciones localizadas transformen su país y potencialmente vayan más allá.

En Xataka | India es la gran esperanza de futuro de la industria del smartphone. El problema: los indios no opinan igual

Imagen destacada | Microsoft, Sarvam



via Robótica e IA - Xataka https://ift.tt/KUjYu2I

viernes, 30 de agosto de 2024

OpenAI y Anthropic compartirán sus modelos con el gobierno de EE.UU. antes de publicarlos. El motivo: comprobar que sean seguros

OpenAI y Anthropic compartirán sus modelos con el gobierno de EE.UU. antes de publicarlos. El motivo: comprobar que sean seguros

Hace un año la Administración de Joe Biden lanzó el Instituto de Seguridad de la Inteligencia Artificial, una iniciativa cuyo objetivo, explicaron en su momento, es evaluar los riesgos conocidos y emergentes de los modelos fundacionales de inteligencia artificial. Es decir, evaluar el posible impacto que podrían tener aquellos modelos entrenados con una enorme cantidad de datos, véanse GPT, Claude, Gemini o LLaMA.

Para ello es vital la colaboración de la industria. Al fin y al cabo, sin acceso a los modelos poco o nada puede estudiarse. Pues esta semana se ha anunciado el primer acuerdo entre el gobierno estadounidense y dos empresas líderes del sector: OpenAI (GPT) y Anthropic (Claude), que compartirán con el gobierno sus modelos antes de lanzarlos para someterlos a estudio.

Colaboración formal. Según ha informado el Instituto de Seguridad de la IA, que depende del NIST (National Institute of Standards and Technology) que, a su vez, depende del Departamento de Comercio estadounidense, el gobierno, OpenAI y Anthropic han establecido una "colaboración formal en la investigación, prueba y evaluación de la seguridad" de sus inteligencias artificiales.

¿Qué harán? Dar acceso a sus modelos, por supuesto. Según detalla la institución en un comunicado, tendrá "acceso a los principales modelos nuevos de cada empresa antes y después de su lanzamiento público". Esto permitirá "la investigación colaborativa sobre cómo evaluar las capacidades y los riesgos de seguridad, así como los métodos para mitigar esos riesgos".

En contrapartida, el Instituto de Seguridad de la IA "planea dar feedback a Anthropic y OpenAI sobre posibles mejoras de seguridad en sus modelos", algo que harán en "estrecha colaboración" con el Instituto de Seguridad de IA en Reino Unido. Dicho en pocas palabras, el objetivo es auditar los modelos, detectar riesgos potenciales y encontrar posibles soluciones, todo ello con el fin último de lograr un desarrollo responsable de la IA.

Cómo regular la IA. Este es un pequeño paso adelante, pero no por ello menos significativo. Regular la inteligencia artificial no está siendo fácil, ya que tiene infinitos matices que tener en cuenta. Hay, además, un importante riesgo asociado: una regulación demasiado férrea podría reducir la innovación y perjudicar, sobre todo, a los desarrolladores más pequeños.

Por no hablar de que, aunque Estados Unidos es hogar de algunas de las empresas más punteras del sector, China también está moviendo ficha y de qué manera. Aunque Estados Unidos tiene a OpenAI, Anthropic y Meta, entre otras firmas, China tiene muchísimas más patentes relacionadas con inteligencia artificial. Las cifras hablan por sí mismas: entre 2013 y 2023, China registró 38.000 patentes. Estados Unidos, "solo" 6.300.

Estados Unidos quiere liderar esta tecnología, pero China le pisa los talones y le supera en patentes

Según ha expresado Elizabeth Kelly, directora del Instituto de Seguridad de la IA de Estados Unidos, "estos acuerdos son solo el comienzo, pero son un hito importante a medida que trabajamos para ayudar a gestionar de manera responsable el futuro de la IA”. Jason Kwon, director de estrategia de OpenAI, ha expresado que "creemos que el instituto tiene un papel fundamental que desempeñar en la definición del liderazgo estadounidense en el desarrollo responsable de la inteligencia artificial y esperamos que nuestro trabajo conjunto ofrezca un marco en el que pueda basarse el resto del mundo".

Claude Claude Imagen | Xataka con Mockuuups Studio

Autorregulación. Cabe destacar que el pasado 21 de julio de 2023, siete empresas (Amazon, Google, OpenAI, Microsoft, Meta, Anthropic e Inflection) se comprometieron a cumplir con un conjunto de ocho compromisos voluntarios relacionados con, por ejemplo, la transparencia, el testeo, la gestión de riesgos o la inversión en ciberseguridad. Aquí (PDF) pueden leerse todos.

Si bien ese acuerdo no es vinculante, la colaboración de OpenAI y Anthropic se enmarca en el primer compromiso por el cual "las empresas se comprometen a realizar pruebas de seguridad internas y externas de sus sistemas de IA antes de su lanzamiento. Estas pruebas, que llevarán a cabo en parte expertos independientes, protegen contra algunas de las fuentes más significativas de riesgos de la IA, como la bioseguridad y la ciberseguridad, así como contra sus efectos sociales más amplios".

Imagen | Unsplash 1, 2, editada por Xataka

En Xataka | ChatGPT y sus rivales son unos sosainas. Y convertirlos en chatbots graciosos no va a ser nada fácil



via Robótica e IA - Xataka https://ift.tt/S1Qa7eP

Crock-Pot: analizamos el modelo SCCPBPP605-050

crock-pot

Todo buen aficionado a la cocina debería tener en casa una buena olla de cocción lenta o slow cooker. La marca Crock-Pot se ha vuelto tan popular que ha conseguido ser identificada con el nombre genérico del producto (como lo que le pasó a Danone y sus yogures). Así, cuando decimos «crock-pot» todo el mundo entiende que se trata de un tipo de olla muy concreto.

En este post vamos a analizar un producto de Crock-Pot muy concreto: el modelo SCCPBPP605-050. Seguro que, después de conocerla, muchos lectores van a acabar incorporando esta olla para cocer lentamente a la cocina de su hogar.

¿Qué es una Crock-Pot?

Aunque, por culpa del éxito de la marca, todos llamamos a este pequeño electrodoméstico Crock-Pot, lo correcto sería denominarlo Slow Cooker, o bien olla de cocción lenta, en español.

cholent

La gran ventaja de esta olla es que nos permite cocinar a baja temperatura durante largos periodos  de tiempo, lo cual nos abre un horizonte lleno de nuevas posibilidades de cocinado.

La Crock-Pot es un invento del estadounidense de ascendencia judía Irving Naxon. Al parecer, para su creación se inspiró en las viejas ollas que utilizaba su abuela en Lituania a principios del siglo XX, con las que preparaba guisos lentos y elaborados, como por ejemplo el tradicional cholent, hecho a base de legumbres, verduras y carne (ver imagen de más arriba).

Naxon inventó un artilugio capaz de hacer el mismo trabajo que aquellas viejas ollas, pero de forma más moderna y eficaz. Así nació la actual Crock-Pot, que se convirtió en marca comercial hace ahora unos 50 años.

¿Cómo se usa una Crock-Pot?

Es probable que los que ya tienen un robot de cocina en casa piensen que no necesitan este electrodoméstico. Sin embargo, se equivocan, porque los resultados que se consiguen con una olla de cocción lenta no se pueden lograr con ningún otro aparato.

slow cooking

Para utilizarlo, simplemente hay que colocarlo sobre la encimera. No es un aparato demasiado voluminoso, así que no ocupa mucho espacio. En su interior hay una serie de resistencias eléctricas. La carcasa exterior es de acero inoxidable y cuenta con un recipiente extraíble que generalmente suele ser de porcelana o cerámica. Ahí es donde va la comida que queremos cocinar.

Cuando conectamos el Slow Cooker a la corriente eléctrica, las resistencias se calientan y transmiten el calor al recipiente extraíble. Todo lo que tenemos que hacer es colocar allí todos los ingredientes del guiso y taparlo. Después, es posible regular la temperatura mediante los diferentes modos de potencia (son los que ofrece el modelo oficial) así como el tiempo de cocinado mediante el temporizador.

Ventajas de cocinar con el Slow Cooker

De manera muy resumida, se puede decir que la Crock-Pot funciona de manera opuesta a la de la olla exprés: el cocinado es largo y lento. Eso es ya de por sí un rasgo característico y una ventaja. Aunque hay muchas otras:

  • Fácil de transportar. Además de ocupar poco espacio en la cocina, el hecho de que sea portátil nos permite llevárnosla a cualquier parte, incluso de viaje. No hay piezas difíciles de montar o desmontar. Hay modelos de diferentes capacidades, con tamaños que oscilan entre los 2,5 y los 7 litros.
  • Ahorra tiempo y esfuerzos. La máquina lo hace todo, incluso encargarse del tiempo de cocción mediante el temporizador. También posee una función para mantener la comida caliente durante algún tiempo después de haber sido cocinada.
  • Fácil de limpiar. Al ser fácil de desmontar, todas las piezas se pueden introducir en el lavavajillas. Solo hay que ser especialmente cuidadoso con la carcasa, que es el elemento que va enchufado a la corriente eléctrica, el cual es mejor lavar a mano.
  • Consume poca electricidad. A pesar de lo que se pueda pensar, este tipo de ollas de cocción lenta se caracterizan por tener un consumo energético bajo. Inferior al de una tostadora o una placa de vitro o inducción.

Así es la olla de cocción lenta Crock-Pot SCCPBPP605-050

Es el modelo clásico, y el más vendido. Esta olla de cocción lenta de la marca Crock-Pot tiene una capacidad de 5,6 litros y se puede configurar con hasta 12 horas de antelación. Nuestro mejor aliado en la cocina para conseguir replicar aquellas viejas recetas de la abuela tan llenas de sabor.

Su capacidad es de 5.7 litros, ideal para 6 personas. Ofrece dos niveles diferentes de potencia y una función automática para mantener la comida caliente después de que haya sido cocinada. Además, posee un temporizador programable de hasta 20 horas. Su tapa de seguridad nos permite disfrutar de una experiencia de cocción más silenciosa. Además, podemos servirnos directamente desde el recipiente de cerámica.

El recipiente principal es desmontable, lo cual le hace apto para horno y para microondas. Y también para lavarlo cómodamente en el lavavajillas.

Sus dimensiones (30,48 x 38,1 x 20,32 c) y su peso de 5,9 kg hacen de la olla de cocción lenta Crock-Pot SCCPBPP605-050 un electrodoméstico muy cómodo para usar en cualquier tipo de cocina. Y su color plateado la hace combinar perfectamente con la decoración que tengamos.

En resumen, un Slow Cooker de gran calidad que convence y enamora a todos sus usuarios (las reseñas del producto hablan por sí solas) y que todo buen amante de la cocina tradicional debería tener en casa.



via Actualidad Gadget https://ift.tt/QTpyjsH

La ronda de financiación de OpenAI viene con sorpresa: Apple y NVIDIA quieren formar parte de ella, según 'The New York Times'

La ronda de financiación de OpenAI viene con sorpresa: Apple y NVIDIA quieren formar parte de ella, según 'The New York Times'

Apple está en conversaciones para unirse a una nueva ronda de financiación de OpenAI, según publicó Wall Street Journal. Esta ronda la convertiría en una startup de 100.000 millones de dólares.

Poco después dio la misma noticia The New York Times citando a sus propias fuentes y ampliándola a otra gran tecnológica que también estaría buscando ser parte de la ronda: NVIDIA.

Por qué es importante. Esta potencial inversión es un espaldarazo a la reputación de OpenAI en el mercado y demuestra, una vez más, el interés de las grandes tecnológicas por asegurarse el acceso a tecnologías punteras como los modelos tras ChatGPT.

El contexto. OpenAI cambió la agenda de la IA a largo plazo cuando lanzó ChatGPT a finales de 2022. Desde entonces, varios inversores de todos los tamaños han invertido decenas de miles de millones en startups de IA. Microsoft lo hizo rápido con la propia OpenAI, Amazon repartió en dos rondas su entrada en Anthropic.

Esta nueva ronda, liderada por Thrive Capital, busca varios miles de millones de dólares para una OpenAI que sigue necesitando mucho efectivo con el que mantener su liderazgo. Microsoft también participaría en ella.

  • Apple anunció en junio la integración directa de ChatGPT en iOS y Siri como parte de Apple Intelligence. NVIDIA, por su parte, es proveedor clave en los chips que alimentan los servicios de OpenAI.

En cifras:

  • Valoración actual de OpenAI: 80.000 millones de dólares.
  • Valoración potencial tras la ronda: 100.000 millones de dólares.
  • Inversión prevista de Thrive Capital: al menos 1.000 millones de dólares.

En detalle. OpenAI necesita miles de millones en potencia computacional para seguir desarrollando sus tecnologías. NVIDIA es quien suministra la mayor parte y viene de un crecimiento espectacular en el último año y medio.

La entrada de Apple y NVIDIA consolidaría el rol líder de OpenAI en IA generativa, y dificultaría que Google o Meta la adelanten. Sin embargo, una inversión de Apple podría complicar su idea de ser un socio neutral para otras tecnológicas.

  • Apple ha sido tradicionalmente reacia a invertir en startups sin una adquisición completa.
  • Esta es una señal de su necesidad de no quedarse atrás en la IA generativa.
  • Hace un par de meses planeó que Phil Schiller entrase en la junta de OpenAI, aunque luego lo canceló, según The Verge.

La incógnita. ¿Podrá OpenAI mantener su independencia frente a las grandes tecnológicas, o acabará siendo absorbida? Su objetivo de 100.000 millones de valoración le dejan a un nivel en el que la adquisición sería muy complicada.

Por dar contexto, la mayor adquisición de la historia la sigue marcando Microsoft y los casi 70.000 millones de dólares que desembolsó para hacerse con Activision-Blizzard en 2022. La mayor compra que ha hecho Apple fue la de Beats hace diez años por 3.000 millones.

En Xataka | Los pilares del éxito profesional según Sam Altman: los principios que han guiado su carrera hacia el éxito

Imagen destacada | Xataka con Midjourney



via Robótica e IA - Xataka https://ift.tt/afHG6iu

jueves, 29 de agosto de 2024

A día de hoy no está nada claro qué es y qué no es una "IA Open Source". Eso está a punto de cambiar

A día de hoy no está nada claro qué es y qué no es una "IA Open Source". Eso está a punto de cambiar

Son muchos los que en el mundo de la inteligencia artificial utilizan con alegría el término "Open" (abierto) y presumen de que sus modelos son Open Source. En los últimos tiempos se ha criticado mucho ese tipo de mensajes, pero lo cierto es que la definición de modelos de IA Open Source no era nada clara hasta el momento. Eso es algo que la OSI quiere cambiar.

Quién es la OSI. La Open Source Initiative (OSI) es una organización sin ánimo de lucro dedicada a la promoción del código abierto. Creada en 1998, es la responsable de la adopción de la llamada Open Source Definition para el software de código abierto. Es por tanto a la hora de saber qué condiciones y requisitos debe cumplir un desarrollo software para ser considerado como Open Source.

Meta en el ojo del huracán. El debate sobre esa definición y el uso teóricamente injustificado del término Open Source se reactivaron especialmente por culpa de Meta. La compañía no paró de hablar de Llama 2 como modelo Open Source, y aunque relajó un poco el discurso con Llama 3, es fácil comprobar que abusan del término. No es la única empresa que lo hace, claro: la mismísima OpenAI, referente en este campo con ChatGPT, usa la palabra "Open" en su propio nombre cuando su modelo y sus políticas están entre las más cerradas del sector.

Ambigüedad y confusión. Aunque Llama 3 está disponible libremente y permite, no se ajusta a la definición tradicional de Open Source porque impone ciertas restricciones a su licencia de uso según el tamaño del proyecto o el tipo de contenido. Flux, un modelo de IA para generación de imágenes que está ganando mucha popularidad, también plantea esa confusión, y aunque tanto esos como otros proyectos suelen aprovechar ese discurso de apertura, la confusión para los usuarios es evidente porque no hay modelos que entren en la definición clásica de Open Source.

Solución a la vista. Como indican en Ars Technica, la OSI ha reunido a un equipo de unos 70 expertos —investigadores, abogados, activistas, o reguladores— para crear una definición de modelos de IA Open Source. Hay incluso representantes de Meta, Google o Amazon, y ya tienen un borrador (versión 0.0.9) disponible de esa definición.

Qué es una IA Open Source. Aunque el proceso no se ha completado, el borrador incide en "cuatro libertades fundamentales" que se inspiran en las del software Open Source. Así, se debería dar a los usuarios de esos modelos Open Source de IA libertad para usar esos modelos con cualquier propósito sin permiso, estudiar su funcionamiento, modificarlos para cualquier propósito y compartirlos con o sin modificaciones.

Más allá de los "pesos abiertos". A menudo los modelos que presumen de ser Open Source comparten los "pesos", que proporcionan información sobre cómo se realizan sus cálculos. En la OSI indican que el borrador incluye no solo el modelo de IA o sus pesos, sino todo el sistema y sus componentes. Eso haría necesario ser totalmente transparentes con los datos con los que se ha entrenado el modelo —ninguno de los grandes lo hace—, el código fuente utilizado para entrenar y ejecutar el modelo, y los pesos y parámetros usados en el modelo.

No los datos, pero sí los metadatos. En esa búsqueda de la transparencia, la OSI aclara en su borrador que no es necesario publicar los datos de entrenamiento "en crudo". En realidad lo que se busca es tener los metadatos de ese conjunto de datos de entrenamiento y de los métodos de entrenamiento: fuentes de los datos, criterios de selección, técnicas de preprocesado y cualquier otro detalle que permita a otras personas o grupos recrear sistemas de forma similar. Eso es importante, porque la definición no obliga a que los datos de entrenamiento como tales no se publiquen.

Definición definitiva en octubre. Se espera que esa definición definitiva de una "IA Open Source" esté completa el próximo mes de octubre, cuando se celebra la conferencia All Things Open 2024. La OSI aun así sigue animando a cualquiera a que aporte su granito de arena a la hora de perfilar esa definición definitiva, y ha creado un foro de discusión pública donde debatir sobre el tema.

¿Qué impacto tendrá la definición? La aparición de una definición formal y aceptada de "IA Open Source" puede ser especialmente importante para el desarrollo de futuros modelos por parte tanto de empresas como de personas o grupos que trabajan de forma independiente: cumplir con los requisitos de esa definición permitirá garantizar esos requisitos, lo que sin duda impulsará los modelos Open Source como ya ha ocurrido durante cuatro décadas en el caso del software de código abierto.

Imagen | Anthony Quintano

En Xataka | El Open Source arrasa y vive una época dorada, pero también hay algo de postureo



via Robótica e IA - Xataka https://ift.tt/r4whtvn

Sabíamos que el chip B200 de NVIDIA para IA sería una bestia. Nos quedamos cortos con su potencia

Sabíamos que el chip B200 de NVIDIA para IA sería una bestia. Nos quedamos cortos con su potencia

Cuando NVIDIA dio a conocer en marzo de este año su chip B200 para aplicaciones de inteligencia artificial (IA) era evidente que tenía entre manos una auténtica bestia. Sus características son de las que quitan el hipo: 208.000 millones de transistores, arquitectura Blackwell de última generación, 20 petaFLOPS máximos de rendimiento en operaciones FP4 si está acompañado de refrigeración líquida, puede trabajar codo con codo con un mapa de memoria de hasta 192 GB de VRAM y alcanza un ancho de banda de 8 TB/s.

Es evidente que con estas especificaciones el Departamento de Comercio de EEUU liderado por Gina Raimondo no va a permitir a NVIDIA vender esta GPU en China. En cualquier caso, esa es harina de otro costal. Presumiblemente la compañía de Jensen Huang comenzará la producción a gran escala del chip B200 durante el cuarto trimestre de 2024, por lo que las primeras entregas de esta GPU se llevarán a cabo antes de que finalice este año. No obstante, la producción de este chip no ha sido en absoluto pan comido para NVIDIA.

La fabricación ha sido complicada, pero al final el rendimiento encaja (según NVIDIA)

Las primeras unidades del chip B200 han tardado en llegar. NVIDIA ha confesado que el rendimiento de sus procesos de fabricación era inferior al esperado, lo que ha obligado a sus ingenieros a rediseñar algunas capas del chip con el propósito de subsanar un problema que podría demorar la entrega de las primeras unidades. "Nos vimos obligados a introducir un cambio en la máscara de la GPU Blackwell para mejorar el rendimiento de la producción", ha admitido NVIDIA en un comunicado.

"Nos vimos obligados a introducir un cambio en la máscara de la GPU Blackwell para mejorar el rendimiento de la producción"

Sea como sea parece que los cambios introducidos por los técnicos de la compañía en la máscara han funcionado. Como hemos visto unas líneas más arriba, la fabricación a gran escala de este chip arrancará durante el cuarto trimestre de este año. Y para ir abriendo boca NVIDIA ha publicado en su blog los primeros índices de rendimiento del chip B200. Sabíamos que iba a ser muy potente, y sí, estos primeros números reflejan que cuando llegue será sin lugar a dudas la GPU para IA más capaz del mercado. Es evidente que lo más prudente es que aceptemos los números de NVIDIA con cierto escepticismo, pero nos sirven para hacernos una idea aproximada de la capacidad de este chip.

Según los primeros resultados en MLPerf 4.1 el chip B200 multiplica por cuatro el rendimiento de su predecesora, la GPU H100 implementada sobre la microarquitectura Hopper. De ser así esta diferencia de rendimiento es una barbaridad. Además, el chip B200, de nuevo según NVIDIA, entrega 10.755 tókenes por segundo en una prueba de inferencia y 11.264 tókenes por segundo en un test de referencia offline. Podéis consultar todos los resultados en el artículo que ha publicado NVIDIA. Es evidente que la GPU B200 va a ser el chip para IA a batir, pero podemos estar seguros de que AMD, Huawei y otras compañías no tardarán en responder. Estaremos atentos.

Imagen | NVIDIA

Más información | NVIDIA

En Xataka | Huawei quiere devorar a NVIDIA en el mercado chino. Para lograrlo trabaja en una nueva GPU para IA



via Robótica e IA - Xataka https://ift.tt/Y8qhiDp

iAsk AI es la última amenaza a Google como nueva alternativa para las búsquedas. Y funciona realmente bien

iAsk AI es la última amenaza a Google como nueva alternativa para las búsquedas. Y funciona realmente bien

La era de las búsquedas online estaba llamada a una revolución desde que la IA generativa y los LLM aparecieron de forma masiva. Las listas de enlaces en color azul estaban destinadas a transformarse en respuestas directas. Lo vimos con Perplexity, lo vimos de forma accidentada con la propia Google y ahora lo vemos con iAsk AI.

Por qué es importante. iAsk supera a los motores de búsqueda tradicionales, pero además está dejando atrás a gigantes de la IA como ChatGPT en algunas pruebas sintéticas de rendimiento. Está llamado a hacerse un nombre.

iAsk en acción. iAsk en acción. iAsk en acción. Imagen: Xataka.

En detalle. Fue lanzado hace algo más de un año, y ya procesa en torno a 1,5 millones de búsquedas diarias. Una cifra que languidece frente a las 8.500 millones de Google, pero que es el inicio de algo más.

iAsk usa procesamiento avanzado del lenguaje natural para entender el contexto y la intención tras cada búsqueda, en lugar de limitarse a las palabras clave. Según los benchmarks:

  • Precisión del 93,9 % en MMLU, un benchmark de preguntas de opción múltiple que cubren 57 áreas de conocimiento.
  • Superó a GPT-4 por más de diez puntos porcentuales.
  • En TruthfulQA, un benchmark diseñado para medir la veracidad de los modelos lingüísticos a la hora de generar respuestas en 38 áreas, consiguió un 90,1% frente al 59% de GPT-4.

iAsk Pro, su opción avanzada y de pago, lidera el benchmark MMLU Pro, considerado el estándar de oro para evaluar los modelos de lenguaje de IA. MMLU Pro abarca 14 grandes áreas de conocimiento desglosadas en más de 12.000 preguntas obtenidas de libros de texto y exámenes académicos.

Entre líneas. Este hito posiciona a iAsk como un motor de búsqueda muy a considerar, pero también como una IA con potencial para ser la más precisa de entre todas las disponibles a día de hoy.

  • No obstante, tiene que demostrar su eficacia en el día a día de un uso a gran escala, algo que Google lleva lustros perfeccionando.

Otro ejemplo práctico. Le hemos hecho a iAsk la pregunta "¿Cómo resolverías un conflicto ético complejo, como el dilema del tranvía, explicando las posibles consecuencias de cada opción desde diferentes perspectivas filosóficas?".

Su respuesta detalla las perspectivas utilitarista, virtuosa, deontológica, social contractualista, y enumera las consecuencias positivas y negativas de cada una de ellas. Al final hace referencia a las fuentes que ha utilizado.

El contraste. Google está especializado en conseguir resultados fiables a partir de palabras clave mediante una amplia cobertura web. iAsk ofrece respuestas directas y una comprensión contextual superior.

En este momento, Google parece más apropiada para encontrar páginas web específicas, pero iAsk está en otro nivel a la hora de ofrecer respuestas directas.

En resumen. iAsk tiene mucho terreno que ganar, compitiendo contra el gran gigante de las búsquedas, pero también con quienes usan tecnologías similares a la suya y comparten objetivos, empezando por Perplexity.

Ahora queda ver qué recorrido tiene como motor de búsqueda y si puede mantener la ventaja en los benchmarks frente a Google y OpenAI, además de traducirla en una experiencia de uso que capture usuarios.

En Xataka | Google lleva dos décadas siendo el rey de las búsquedas. Ahora mira con inquietud a un futuro post-búsquedas

Imagen destacada | iAsk AI, Xataka, Mockuuups Studio



via Robótica e IA - Xataka https://ift.tt/zoA8hqy

NVIDIA ha vuelto a romper récords de ingresos y beneficios. Ni siquiera eso ha sido suficiente

NVIDIA ha vuelto a romper récords de ingresos y beneficios. Ni siquiera eso ha sido suficiente

NVIDIA ha presentado sus últimos resultados trimestrales, y si ya eran importantes, esta vez lo eran más por considerarse el canario en la mina de la industria tecnológica: ¿sigue habiendo espacio para el crecimiento vertical del gigante de la IA?

La respuesta es sí, aunque con matices.

Por qué es importante. NVIDIA es un termómetro, barómetro y brújula del auge de la IA. Ha impulsado gran parte del rally bursátil de este año. Sus resultados son un indicador clave de la demanda de tecnología de IA.

Las cifras:

  • Ingresos trimestrales de 30.040 millones de dólares, un 122% más y por encima de las expectativas del mercado.
  • Beneficio por acción de 0,68 dólares (la previsión era de 0,65).
  • Previsión de 32.500 millones de dólares para el próximo trimestre, superior a lo esperado.
  • Beneficio neto de 16.599 millones de dólares (crecimiento de un 168%).
  • Margen bruto del 75,1% (frente al 75,5% esperado).

Vuelvan a leer el dato del margen bruto si no lo han asimilado.

Nvidia Quarterly Revenue Nvidia Quarterly Revenue
Nvidia Quarterly Benefits Nvidia Quarterly Benefits

NVIDIA sigue beneficiándose de las grandes expectativas por la IA entre las grandes tecnológicas, que son sus principales clientes por volumen.

Sí, pero. Pese a batir las expectativas, sus acciones han caído casi un 7% tras el cierre del mercado. Incluso unos resultados sobresalientes pueden decepcionar a los inversores. Es el mercado, amigo.

La caída refleja que el mercado esperaba todavía más, sobre todo en la previsión de ingresos: algunos analistas apuntaban a la horquilla de entre 33.000 y 34.000 millones de dólares ingresados para el próximo trimestre.

Nvidia Last 5 Years Nvidia Last 5 Years

Lo próximo.

  • NVIDIA ha anunciado un programa de recompra de acciones por 50.000 millones de dólares.
  • Ha confirmado el lanzamiento de su chip Blackwell para el cuarto trimestre fiscal. Está siendo un lanzamiento accidentado.
  • Los inversores quedan atentos a ese lanzamiento y su adopción posterior... y a las posibles señales de desaceleración en el gasto en IA de las grandes tecnológicas.

Jensen Huang, el CEO, dijo que la demanda de IA sigue acelerándose, pero la ligera caída del margen bruto y una previsión algo por debajo de las expectativas han generado cierta cautela entre inversores.

En perspectiva. NVIDIA ha multiplicado por nueve su valoración desde finales de 2022 y ya superó los 3 billones de dólares. Solo hay otras dos empresas en el mundo por encima de esa barrera: Microsoft y Apple. Y NVIDIA lo ha logrado con muchos menos empleados. No obstante, pertenecer a ese selecto club deja poco margen para decepciones, por mínimas que sean.

NVIDIA sigue y seguirá siendo por un tiempo la líder de la revolución de la IA, pero la exigencia extrema del mercado no pasa por alto ni un detalle de cara a mantener el ritmo de crecimiento de sus acciones.

En Xataka | Así es como gana dinero NVIDIA: de ser una empresa de gaming a dominar los centros de datos en la era de la IA

Imagen destacada | NVIDIA, Vecteezy, Xataka



via Robótica e IA - Xataka https://ift.tt/1rvQ8X5

OpenAI prepara otra ronda de inversión. Una que la convertirá en la startup de los 100.000 millones de dólares

OpenAI prepara otra ronda de inversión. Una que  la convertirá en la startup de los 100.000 millones de dólares

En OpenAI necesitan más "gasolina". La multimillonaria inversión de Microsoft a principios de 2023 ha permitido a la empresa seguir expandiéndose y desarrollar aún más sus modelos de IA, pero según The Wall Street Journal ahora buscan nuevos fondos. Y lo hacen a través de una ronda de inversión que hará que la valoración estimada de la empresa sea espectacular.

La startup de los 100.000 millones de dólares. Como también indican en The New York Times, esta ronda de inversión permitirá que la valoración de la empresa crezca hasta los 100.000 millones de dólares. Es una cifra asombrosa, sobre todo considerando que en estos momentos Nike tiene una capitalización bursátil de 124.130 millones de dólares, Iberdrola de 90.440 millones de dólares y BP de 93.530 millones.

Un inversor destaca. Los datos filtrados indican que Thrive Capital, una empresa de capital riesgo, liderará la ronda con una inversión de 1.000 millones de dólares. Microsoft también es uno de los candidatos a participar en este nuevo proceso de recaudación de fondos que se lleva meses preparando.

La valoración no para de crecer. La propia Thrive Capital ya fue protagonista en la pasada ronda de inversión de febrero de 2024. En esa ronda la valoración de OpenAI creció hasta los 80.000 millones de dólares, y ahora volverá a subir otros 20.000 millones de dólares según los expertos.

Avanzar en IA es muy caro. Shirin Ghaffary, de Bloomberg, habla de un comunicado interno en el que se confirman esos datos. Según dicho mensaje, los fondos se utilizarán para poder cubrir los gastos operativos, incluidos los que afectan al uso y expansión de la potencia de computación que OpenAI necesita para desarrollar futuros modelos de IA.

Pero los ingresos son aún modestos. Las rondas de inversión y la valoración de la empresa vuelven a sorprender, sobre todo teniendo en cuenta que hoy por hoy los ingresos que genera OpenAI son muy bajos para su teórica dimensión. Según los últimos datos, sus ingresos anuales rondan los 3.500 millones de dólares.

¿Insostenible? La situación lo es para algunos analistas como Ed Zitron, que explicaba en X que "OpenAI tendrá que levantar más dinero del que nunca ha sido levantado para sobrevivir y, además, tendrá que hacerlo con una valoración más alta de lo que ninguna empresa privada lo ha hecho nunca". Según sus cálculos, la empresa "quema" 5.000 millones de dólares al año, y necesitan levantar al menos 3.000 millones de dólares para sobrevivir.

Imagen | Wikimedia Commons (TechCrunch)

En Xataka | Los consejos de Sam Altman para alcanzar el éxito en un mundo competitivo: construir una red sólida y ser constante



via Robótica e IA - Xataka https://ift.tt/UvzYBqy

miércoles, 28 de agosto de 2024

La rumoreada nueva versión de Alexa tiene un reto colosal: que la usemos para algo más que preguntarle por el tiempo

La rumoreada nueva versión de Alexa tiene un reto colosal: que la usemos para algo más que preguntarle por el tiempo

Todo apunta a que Alexa tendrá versión con IA. Algunos hablan de que el servicio se llamará "Remarkable Alexa", y teóricamente competirá con chatbots con capacidad conversacional con voces sintetizadas. Puede que este sea uno de los retos más difíciles a los que se ha enfrentado jamás la compañía fundada por Jeff Bezos.

Alexa quiere hablar contigo. La evolución natural de los chatbots parece llevarnos de los actuales, en los que escribimos, a los futuros, en los que hablaremos. Es algo que ya hemos visto en las espectaculares demos de GPT-4o (OpenAI) y Project Astra (Google), por ejemplo. Amazon parece estar por fin a punto de lanzar su propia alternativa, aunque el desarrollo del proyecto ha sido caótico y el resultado, si se confirma finalmente el lanzamiento en octubre, incierto.

"Más tontos que una piedra". Hace casi una década que los asistentes de voz trataron de conquistarnos, pero Siri, Cortana, Alexa y Google Assistant han acabado teniendo un uso residual. En la mayoría de los casos los hemos usado para configurar alarmas o preguntar por el tiempo. Satya Nadella, CEO de Microsoft, dejaba clara su opinión al respecto, y afirmaba que estos desarrollos "eran más tontos que una piedra"

Miles de millones de dólares perdidos en Alexa y Echo. La rentabilidad de Alexa y de la división de hardware Amazon Echo ha sido un desastre en todo este tiempo, y se estima que solo en 2022 la empresa perdió alrededor de 10.000 millones de dólares con esta división. Sus altavoces se venden a pérdida —el precio de venta es menor que el de fabricación y distribución—, y la intención de Amazon de que sirvieran para impulsar las compras online no se ha visto satisfecha.

¿Qué tiempo hace hoy? A principios de 2023, The New York Times publicó los resultados de una encuesta singular. En ella preguntaba qué tipo de cosas le preguntaban los usuarios a sus Amazon Echo con Alexa. "Los que usaban el asistente de voz dijeron que lo utilizaban principalmente para tareas mundanas como programar temporizadores y consultar el tiempo". Da igual que Amazon planteara características llamativas como los 'Skills' para personalizar distintas interacciones con sus altavoces con Alexa: no había mucha gente que los usara.

El reto colosal de "Remarkable Alexa". Los chatbots de IA han conseguido generar mucho más interés que los asistentes de voz, y millones de usuarios los usan a diario para hacer los deberes, resumir tus reuniones, programar, o dejar de usar Google como buscador. De momento nos relacionamos con esos chatbots con chats de texto escrito y leído, pero OpenAI nos enseñó el futuro con GPT-4o: uno en el que hablaremos con las máquinas de forma natural. Ese es el colosal reto de la nueva versión de Alexa. Bueno, en realidad son dos.

¿Puede Amazon competir con OpenAI en su campo? El primer gran reto está precisamente en las prestaciones de su nueva versión de Alexa. Lo que mostró OpenAI con GPT-4o —y lo que también mostró Google con Project Astra— demuestra que la IA puede conversar de forma natural y servir por ejemplo como profesora de mates o en un singular perro lazarillo. ¿Puede competir el nuevo Alexa con esas funciones? Ahí es donde entra en juego Olympus.

Olympus al rescate. En Amazon llevan tiempo trabajando en un LLM gigantesco llamado Olympus del que teóricamente se nutrirán tanto el nuevo y remozado Alexa como su chatbot web, que tiene como nombre en clave Metis. Se desconoce la capacidad de ambos desarrollos, pero igualar a GPT-4o, aunque no es imposible, parece difícil sobre todo para un recién llegado al campo de la IA como Amazon.

La nube de Amazon puede ayudar (o no). Aunque Amazon llega tarde a este campo, lo hace con una ayuda importante: se trata del proveedor más importante del mundo de infraestructura en la nube. Su plataforma AWS ha sido uno de los pilares de esa internet que disfrutamos desde hace años, pero hay un problema: aunque han invertido en ese tipo de hardware, no están comprando chips de NVIDIA a lo bestia como sí están haciendo sus competidores. Eso hace pensar que su infraestructura no está tan preparada como otras para este ámbito, y de hecho en Financial Times indicaban en mayo cómo Amazon ha decidido esperar a chips más potentes de la compañía en lugar de comprar los actuales.

¿Pagarías por usar un Alexa con IA? Ese es el segundo gran reto de esta nueva versión. El más importante, de hecho. Teniendo en cuenta los rivales a los que se enfrenta, Amazon va a necesitar demostrar que es mejor que GPT-4o o cualquiera de sus alternativas si quiere que paguemos por él. La nueva versión de Alexa necesita, en resumen, que la necesitemos de verdad. 

Imagen | Xataka con Freepik

En Xataka | Anthropic ha publicado los 'prompts' del sistema que guían el comportamiento de Claude. Es un ejemplo de transparencia



via Robótica e IA - Xataka https://ift.tt/uveJAo2

martes, 27 de agosto de 2024

Amazon prepara su Alexa supervitaminado con IA: será una suscripción y llegará en octubre según The Washington Post

Amazon prepara su Alexa supervitaminado con IA: será una suscripción y llegará en octubre según The Washington Post

Alexa quiere volver a ser protagonista. El asistente de voz de Amazon se prepara para el mayor cambio de su historia: la nueva versión, que supuestamente se llamará "Remarkable Alexa", estará basada en una IA generativa que quiere plantar batalla a chatbots de referencia como GPT-4o, sobre todo en esa capacidad conversacional con lenguaje natural.

Documentos internos de Amazon obtenidos por The Washington Post revelan que esta nueva versión supervitaminada de Alexa con IA llegará el próximo mes de octubre, pero para usarlo, como se rumoreaba desde hace meses, necesitaremos pagar una suscripción.

Entre las opciones del renovado Alexa llegará una característica llamada "Smart Briefing" (algo así como "Informe inteligente") que proporcionará resúmenes generados por IA de las principales noticias en base a las preferencias de cada cliente. Esa opción, afirman los responsables de Amazon en esos documentos, permitirá generar una "participación recurrente", es decir, una interacción constante con el servicio.

La suscripción al nuevo chatbot de Amazon tendrá un coste de "hasta 10 dólares al mes", mientras que la versión clásica de Alexa seguirá estando disponible gratuitamente. El proyecto de desarrollo de esta versión renovada ha sido especialmente caótico y ha sufrido numersoso retrasos, pero parece que por fin llegará al mercado.

Entre otras opciones adicionales, Remarkable Alexa —también conocido como Project Banyan— ofrecerá ayuda para encontrar recetas e incluso se plantea una versión del chatbot orientado a los niños. Se espera también una serie de potenciales herramientas de asistencia a las compras —como por ejemplo, alertas de que un producto está en oferta—, lo que tiene sentido de cara a impulsar aún más las ventas de productos en Amazon.

Se espera que la renovada versión de Alexa sea especialmente "conversacional y carismática", aseguran esos documentos internos. No se dan detalles sobre su síntesis de voz y lenguaje natural, pero es de esperar que la propuesta de Amazon vaya en la misma dirección que plantea GPT-4o, el chatbot de OpenAI que demostró unas capacidades sorprendentes en esa comunicación hablada. Google también apunta a lo mismo con Project Astra.

Es interesante des Amazon también lanzará Project Metis, un servicio web que se comportará como una alternativa a ChatGPT, Claude, Gemini y otros chatbots que se pueden usar desde el navegador.

Estos proyectos son sin duda una apuesta fundamental para una Amazon que hasta ahora apenas tenía presencia en el sector de la IA generativa. No solo eso: su inversión en los dispositivos de la familia Amazon Echo, que precisamente debían impulsar el uso de Alexa, ha sido un desastre, y la compañía no para de perder dinero con ellos. Puede que esta Alexa renovada cambie esa tendencia.

En Xataka | Las Ray-Ban Meta son las primeras gafas inteligentes que han conseguido impresionarme. Son el principio de algo más



via Robótica e IA - Xataka https://ift.tt/u5wAm9j

Anthropic ha publicado los 'prompts' del sistema que guían el comportamiento de Claude. Es un ejemplo de transparencia

Anthropic ha publicado los 'prompts' del sistema que guían el comportamiento de Claude. Es un ejemplo de transparencia

En una acción sin precedentes, Anthropic, la empresa tras los modelos Claude de IA generativa, ha hecho públicos los 'prompts' o instrucciones del sistema que antepone a las peticiones de los usuarios, según ha avanzado TechCrunch.

Por qué es importante. Esta medida posiciona a Anthropic como una empresa más abierta y transparente en una industria, la de la IA, habitualmente criticada por su opacidad y secretismo.

Lo nuevo:

  • Anthropic ha publicado los system prompts que guían sus modelos de lenguaje más avanzados: Claude 3.5 Opus, Claude 3.5 Sonnet y Claude Haiku.
  • Son instrucciones diseñadas para moderar el tono y evitar respuestas tóxicas, sesgadas o controvertidas por parte de los chatbots.
  • Las instrucciones del mayor modelo rondan las 1.000 palabras. Las del resto son más breves.
  • La empresa ha dicho que quiere hacer de esta práctica una costumbre, actualizando los system prompts con cada nuevo lanzamiento o gran actualización.

El contexto. Este es el tipo de material que las empresas de la industria de la IA tratan de preservar, tanto por razones competitivas como de seguridad. Revelar estas indicaciones puede facilitar a usuarios malintencionados (o simplemente curiosos) encontrar formas de evadirlas.

Detalles clave:

  • Las instrucciones prohíben a los modelos abrir URLs o vídeos, y son especialmente restrictivas a la hora de realizar reconocimiento facial.
  • Se les ordena ser totalmente ciegos en cuanto a los rostros, y evitar identificar o mencionar a personas concretas en imágenes.
  • También se les indican ciertos rasgos de personalidad, como ser "muy inteligentes e intelectualmente curiosos".
  • Deben tratar temas controvertidos con imparcialidad, proporcionando "pensamientos cuidadosos" e "información clara".

Las implicaciones. Esta medida puede servir de presión a los competidores, empezando por OpenAI, para que sean igual de transparentes con sus propios system prompts. Otra cosa es que lo consiga.

Al desvelar esta pequeña parte de su sistema, Anthropic se posiciona como un actor algo más confiable en la industria de la IA, y desde luego más transparente. Y de paso nos recuerdan lo dependientes que siguen siendo estos modelos de la guía humana para funcionar de forma efectiva y ética.

Imagen destacada | Xataka con Mockuuups Studio

En Xataka | Un grupo de autores ha denunciado a Anthropic. El motivo: ha entrenado a su IA con copias de sus libros



via Robótica e IA - Xataka https://ift.tt/olkNx6F

viernes, 23 de agosto de 2024

Perplexity AI planea meter anuncios en su buscador. Y es lógico pensar que ChatGPT, Claude y Gemini sigan sus pasos

Perplexity AI planea meter anuncios en su buscador. Y es lógico pensar que ChatGPT, Claude y Gemini sigan sus pasos

La aparición de Perplexity AI nos hizo vislumbrar ya a principios de 2023 cuál podía ser el futuro de los buscadores. Este chatbot se comportaba como un buscador conversacional, y lo hacía de forma notable mientras mejoraba cada vez más sus opciones. 

En Perplexity AI, eso sí, no se han librado de la polémica. Su saqueo de los contenidos de internet ha sido muy criticado, pero aún así su servicio sigue siendo popular, y ahora la empresa parece estar planificando cuál es su siguiente paso: 

La publicidad.

Es lo que afirma CNBC, que según fuentes internas revela que Perplexity AI planea meter anuncios en su buscador en el cuarto trimestre del año. La información proviene de una presentación comercial de la compañía que promociona el alcance y crecimiento de uso de su servicio. 

Según dicha presentación, la app móvil de Perplexity se ha descargado más de dos millones de veces y su plataforma contesta más de 230 millones de peticiones al mes. 

Los datos filtrados revelan que solo en EEUU el número de peticiones se ha multiplicado en los últimos 12 meses, algo que no resulta extraño teniendo en cuenta que la empresa se fundó en agosto de 2022 — ChatGPT  tardaría aún tres meses en llegar— y su popularidad en aquel primer momento fue muy limitada.

Publicaciones como Forbes o Wired afirmaron tener pruebas de cómo Perplexity había plagiado sus artículos parcial o totalmente al dar respuestas a ciertas peticiones, lo que llevó a Perplexity a cambiar la forma en la que citaba fuentes.

Perp Perp

Más tarde anunció un modelo de compartición de ingresos que permitía a las editoriales de contenidos ganar dinero con el buscador de Perplexity. 

Fortune, Time o WordPress son algunas de las organizaciones que han unido a ese programa, pero ahora la firma —con un valor estimado de 1.000 millones de dólares— prepara un cambio potencialmente radical que haría que en esas respuestas de su buscador se inserten anuncios publicitarios.

Perplexity AI será la primera, pero probablemente no la última

El modelo que parece que seguirá es el conocido CPM (Cost per thousand impressions), pero con una tarifa muy elevada: los precios CPM serán de más de 50 dólares, cuando lo normal en anuncios en escritorio rondan los 2,5 dólaresy los vídeos móviles tienen un CPM de unos 11,10 dólares (el anunciante paga esa cantidad a la plataforma de vídeo cuando su vídeo se ve 1.000 veces).

Los planes de Perplexity AI son probablemente un primer ejemplo de lo que podría convertirse en la norma en el futuro próximo. Los chatbots que manejamos a día de hoy —ChatGPT, Gemini o Claude, por ejemplo— ofrecen una interfaz "limpia" incluso en sus versiones gratuitas, lo que ha permitido que sus creadores —OpenAI, Google, Anthropic— ganen popularidad, usuarios y cuota de mercado.

Lo han hecho además con esas variantes gratuitas que permiten ser usadas sin limitaciones realmente importantes para usuarios ocasionales. Las versiones premium de estos servicios obligan a pagar una suscripción mensual, pero las versiones estándar y gratuitas son suficientes para los millones de usuarios que las están aprovechando día tras día.

Su crecimiento ha sido notable, y eso ha hecho que hayan logrado ese primer objetivo: contar con una base de usuarios lo suficientemente grande. Y una vez hecho esto, prácticamente todas las plataformas online gratuitas han acabado haciendo lo mismo: seguir dejando que las uses, pero metiendo publicidad. Perplexity AI parece que será la primera en hacerlo, pero es probable que no sea ni mucho menos la última.

Imagen destacada | Xataka con Mockuuups Studio

En Xataka | Perplexity transforma tus búsquedas en páginas estructuradas. Es un Notion automático que debería preocupar a Wikipedia



via Robótica e IA - Xataka https://ift.tt/PWFz6Yr