viernes, 20 de septiembre de 2024

Cómo la gigantesca ronda de inversión de OpenAI tiene mucho que ver con George Lucas y Star Wars

Cómo la gigantesca ronda de inversión de OpenAI tiene mucho que ver con George Lucas y Star Wars


OpenAI está quemando dinero como si no hubiera mañana. La empresa gasta más de lo que gana. La inversión multimillonaria que recibió de Microsoft fue importante para seguir creciendo y mejorando sus modelos, pero ahora busca nuevos fondos.

Lo está haciendo con una gigantesca ronda de inversión en la que según todos los rumores quieren llegar a levantar 6.500 millones de dólares. Es una cantidad colosal, pero lo sorprendente aquí es que de hecho podría levantar mucho dinero más

Lo indican en Bloomberg, donde revelan que la ronda de financiación está a punto de completarse. La liderará el fondo de capital riesgo Thrive con una inversión de 1.250 millones de dólares.

Como decimos, lo que sorprende es que haya una "sobresuscripción" de inversores: las firmas y empresas que participan esperaban de hecho poder poner más dinero del que OpenAI estaba preparada para recibir.

Una de las fuentes citadas en el artículo reveló que de hecho el exceso de demanda hubieran significado varios miles de millones más de ingresos para OpenAI. Algunos inversores ni siquiera han logrado entrar en la ronda, aunque parece que tanto Microsoft como NVIDIA e incluso Apple formarán parte de ella.

Tú invierte, yo ya te daré parte de mis ganancias si eso

Todo apunta a que muy pronto se confirmará oficialmente esa ronda de inversión, y de hacerlo la valoración de OpenAI (que actualmente es de unos 86.000 millones de dólares) será de unos 150.000 millones de dólares.

Eso la situará al nivel de empresas como Inditex o The Walt Disney Company, pero hay otra nota curiosa aquí. Normalmente en las rondas de inversión los inversores reciben acciones (equity) a cambio. Se hacen con un "cachito" de la empresa al invertir, pero no está claro que esa vaya a ser la realidad en esta ronda.

Así lo indicaban en The Information, donde revelaban que los inversores no recibirán acciones tradicionales, sino "unidades", una especie de certificado o contrato con las que prometen una parte de las ganancias de una empresa.

Es más: solo recibirán esa parte de las ganancias una vez que la empresa comience a generarlas, un modelo de inversión muy poco convencional donde los inversores simplemente obtienen el derecho a una parte de las ganancias futuras si estas llegan a producirse.

Cualquier inversión es una apuesta, pero esta lo es incluso más. Nos recuerda de hecho a la historia de George Lucas cuando negoció para dirigir 'Star Wars: Episodio IV - Una nueva esperanza' (1977).

Lucas aceptó un salario muy bajo, pero a cambio pudo retener tanto los derechos de las secuelas como los de merchandising. En 20th Century Fox pensaron que estaban haciendo un buen trato, pero Star Wars se convirtió en un fenómeno cultural y comercial y el merchandising en particular generó (¡y genera!) ganancias astronómicas.

Eso es precisamente en lo que confían los inversores: en que las ganancias de OpenAI acabarán siendo tan astronómicas que su inversión acabará dando muchos frutos. 

Que lo hagan está por ver: en la actualidad se estima que los ingresos de OpenAI rondan los 2.700 millones de dólares al año, pero sus gastos son tan enormes que según The Information aun con esos ingresos acabarán perdiendo 5.000 millones de dólares en 2024. Está claro que de momento las cuentas no salen: veremos si acaban haciéndolo en el futuro.

Imagen | 20th Century Fox

En Xataka | O1 no "razona" ni es una AGI, pero sí permite mitigar el gran problema de los chatbots: que dejen de alucinar tanto



via Robótica e IA - Xataka https://ift.tt/CuqjML2

Ya sabemos lo sedienta que está la inteligencia artificial: un email de 100 palabras consume una botellita de agua

Ya sabemos lo sedienta que está la inteligencia artificial: un email de 100 palabras consume una botellita de agua

La inteligencia artificial generativa (GenAI) ha llegado para quedarse. En la actualidad, millones de personas utilizan herramientas como ChatGPT, Midjourney o Suno AI para dar lugar a diversos tipos de contenido. Como usuarios, abrimos una aplicación, escribimos un prompt y ¡voilà! lo que queremos ver aparece como por arte de magia. En términos reales esto tiene poco de mágico. Lo que vemos es producto de un complejo proceso que incluye recolección una enorme cantidad de datos, entrenamiento de modelos de lenguaje y procesos de inferencia.

Estas tareas no suelen ejecutarse en nuestros dispositivos. Las compañías que están detrás de las aplicaciones de GenAI cuentan con centros de datos con gran capacidad de cálculo que se encargan de hacer la mayor parte del trabajo. No es ningún secreto que este tipo de infraestructura necesita las más modernas unidades de procesamiento, por ejemplo las H100 de NVDIA, pero nos cuesta un poco dimensionar la cantidad de recursos que entran en juego porque no es tan fácil encontrar información al respecto. En concreto, mucha energía y agua.

Una consulta de ChatGPT, una botellita de agua

Los centros de datos consumen agua, pero… ¿qué cantidad de agua? Como decimos, encontrar una respuesta no es tarea fácil, pero tenemos algunos datos que pueden ayudarnos a comprender el asunto. El presente auge de la GenAI ha llegado acompañado de un importante aumento global del consumo de agua por parte de Microsoft. Según un informe ambiental de la compañía de Redmond, esta métrica creció un 34% de 2021 a 2022. Curiosamente, ChatGPT fue lanzado en noviembre de 2021, y tiempo antes su modelo estuvo entrenándose.

Si te preguntas por qué relacionamos a ChatGPT, un producto de OpenAI, con Microsoft, es porque la compañía detrás de chatbot de IA más famoso del momento tiene una relación estratégica con los creadores de Windows. Básicamente, OpenAI utiliza la infraestructura en la nube de Azure AI para entrenar y ejecutar sus productos de IA. Pero no solo se trata de Microsoft. El consumo en todo el mundo de agua por parte de Google se disparó un 20% en el mismo período, momento en el que la IA estaba (y sigue estando) en pleno auge.

Centro Datos Centro Datos Vista exterior del centro de datos de Microsoft de Washington

Un estudio publicado por The Washington Post brinda un poco más de luz en este escenario. Investigadores de la Universidad de California llegaron a la conclusión de que una petición de escribir un correo electrónico de 100 palabras en ChatGPT se traduce en un consumo de 519 mililitros de agua. Se trata de un cálculo promedio, pero que nos ayuda hacernos una idea más tangible de lo que ocurre con estos centros de datos. Estamos hablando de poco más de una botella de medio de litro de agua, como la que podemos comprar en cualquier mercado.

El agua es un recurso clave para los sistemas de refrigeración de los centros de datos más grandes, aunque su consumo depende de la ubicación de los mismos, la temporada del año y las condiciones climáticas. Las preocupaciones medioambientales relacionadas al funcionamiento de estos equipos tan sedientos no son recientes. Desde hace mucho tiempo que las compañías tecnológicas, muchas veces impulsadas por las regulaciones y los activistas, han estado trabajando en nuevas soluciones para limitar el consumo de recursos.

Hemos visto a Microsoft sumergir un centro de datos experimental en el océano para abordar el problema de las temperaturas, y también hemos visto a compañías como Meta y Google queriendo poner servidores en ubicaciones geográficas donde el agua parece no abundar. Como señalamos arriba, el funcionamiento de la GenAI no se produce por arte de magia, y todo parece indicar que los centros de datos seguirán multiplicándose en diferentes partes del mundo detrás de inversiones multimillonarias en una carrera por dominar el sector.

Imágenes | Freepik | Microsoft | Xataka con Bing Image Creator

En Xataka | Meta y Spotify avisan a la UE: la regulación va a provocar que pierda el tren de la IA



via Robótica e IA - Xataka https://ift.tt/OwexFQS

jueves, 19 de septiembre de 2024

Meta y Spotify avisan a la UE: la regulación va a provocar que pierda el tren de la IA

Meta y Spotify avisan a la UE: la regulación va a provocar que pierda el tren de la IA

La Unión Europea no innova (mucho). Sobre todo, regula. Esa es la visión del célebre efecto Bruselas que está plasmándose cada vez más en el viejo continente. Son muchos los analistas que han advertido de los riesgos que eso implica, y el propio y reciente informe de Mario Draghi incidía en esa amenaza. Ahora son algunas grandes de la tecnología los que vuelven a advertir del error en el que puede caer la Unión Europea.

Cuidado que se nos va el tren de la IA. Como revela The Wall Street Journal, un grupo de empresas entre las que destacan Meta y Spotify han publicado una carta abierta junto a otras empresas. En ella advierten a la Unión Europea de los riesgos a los que se enfrentan los países miembros en el ámbito de la inteligencia artificial. La regulación tecnológica, sostienen, puede provocar que en la UE nos perdamos las ventajas de esta tecnología.

Las empresas europeas reconocen el problema. El mensaje es en realidad una repetición del que Daniel Ek y Mark Zuckerberg ya ofrecieron el pasado mes de agosto. Entre las empresas que también firman la misiva están grandes grupos empresariales europeos como Ericsson, SAP, Thyssenkrupp o, curiosamente, la firma italiana de moda Prada. Todas ellas creen que "Europa se ha convertido en menos competitiva y menos innovadora con respecto a otras regiones y ahora se arriesga a quedarse aún más atrás en la era de la IA debido a la toma de decisiones incosistente a nivel regulador".

IA a dos velocidades, la europea y la del resto del mundo. Tanto Meta como Apple o Microsoft han anunciado en los últimos meses nuevos productos y servicios de inteligencia artificial. Sin embargo, esos servicios quedan excluidos en la Unión Europea y los usuarios de los países miembros no pueden disfrutar de ellos. Es lo que ha pasado con Copilot en Windows 11 o con Apple Intelligence, que comenzará a estar disponible en octubre pero no en la UE, donde su fecha de salida es totalmente incierta.

Las empresas no saben a qué atenerse. La regulación tiene además el problema de estar sujeta a interpretación, y no está claro que lanzar ciertas opciones de IA pueda o no acabar violando esas leyes. Eso hace que las empresas prefieran curarse en salud y no lanzar dichas opciones en la Unión Europea, lo que perjudica a los usaurios.

Las buenas intenciones nos están dejando atrás. La obsesión reguladora de la UE probablemente es bienintencionada, y de hecho los euroreguladores han conseguido frenar algunos comportamientos anticompetitivos de las grandes tecnológicas. La reciente disponibilidad de tiendas de terceros en iOS es por ejemplo una victoria para los usuarios de la UE. Sin embargo en el caso de la IA está suponiendo un freno tanto al desarrollo e innovación en este ámbito como en su uso por parte de los 450 millones de consumidores europeos.

La regulación preventiva es un problema. Zuckerberg y Ek ya lo destacabn en agosto: regular algo una vez se conocen los daños es necesario, "pero la regulación preventiva de los daños teóricos de tecnologías incipientes como la IA de código abierto ahogará la innovación". Ambos directivos aludían a la "aversión al riesgo" que tiene la UE, y ciertamente la postura extremadamente cauta de los euroreguladores está teniendo ya impacto en empresas y usuarios del viejo continente.

Imagen | Anthony Quintano | Fortune Brainstorm TECH 2011

En Xataka | Del riesgo mínimo al riesgo inaceptable: así define la UE los cuatro niveles de los sistemas de IA en su nueva Ley



via Robótica e IA - Xataka https://ift.tt/2UWj6CD

SocialAI es una red social donde tú eres el único humano. En el último experimento digital solo te responde un ejército de bots

SocialAI es una red social donde tú eres el único humano. En el último experimento digital solo te responde un ejército de bots

Hubo un tiempo en el que estaba de moda ver llegar nuevas propuestas de redes sociales. La consolidación de unas pocas frenó esa tendencia, pero el auge de la IA generativa nos trae otro nuevo enfoque: una red social en la que se interactúa únicamente con bots de IA.

Por qué es importante. SocialAI plantea muchas preguntas sobre el futuro de las interacciones online, la aceptación de las cámaras de eco digitales y el papel de la IA en nuestra vida digital.

La panorámica.

  • SocialAI es una red en la que el usuario es el único humano. El resto de su universo son bots de IA.
  • La aplicación imita la interfaz de X, pero elimina toda interacción con personas reales. De momento solo está para iOS, sin web.
  • El usuario elige qué tipo de bots quiere que "sigan" sus publicaciones y las comenten, con qué tipo de carácter, qué tipo de respuestas, etc.
  • Su creador, Michael Sayman, la presenta como un "espacio seguro" donde expresarse sin miedo a ser juzgado o a la toxicidad.

En detalle. Al registrarte en SocialAI puedes elegir entre 32 tipos de "seguidores" hechos con IA. Fans, trolls, intelectuales, bromistas... Esos bots responderán a tus publicaciones según su personalidad programado.

Al publicar contenido en ella, se generan respuestas instantáneas, generando la falsa ilusión de estar en una red social activa donde nuestras palabras tienen relevancia. Todo es artificial. En X hay bots, pero no son todo el universo ni están bajo el control del usuario.

  • El fundador es un exempleado de Facebook y define la experiencia como "liberadora" al eliminar la presión social.

Veamos un ejemplo de las respuestas que llegan. La elección de personalidad de los bots es la de la imagen que encabeza este artículo.

Mockuuups Iphone 15 Pro In Hand Mockup Mockuuups Iphone 15 Pro In Hand Mockup Imagen: Xataka, Mockuuups Studio.

Entre líneas. Aunque se presenta como un espacio seguro, SocialAI tiene un enfoque claro: reforzar burbujas ideológicas al permitir al usuario un control absoluto de su entorno y eliminar las posibles inseguridades que genera enfrentarse a gente real.

Si esta red social tiene una cierta acogida, será una señal de nuestra creciente comodidad con los bots.

En perspectiva. Aunque su creador transmite seriedad y convencimiento, SocialAI también puede entenderse como:

  • Una crítica irónica a las redes sociales actuales, sin mayor intención.
  • Un experimento sobre nuestras necesidades emocionales online.
  • Una herramienta casi terapéutica para entrenar las interacciones sociales.
  • Un paso más hacia la normalización de las relaciones humano-IA.

En resumen. Todavía no está claro cómo recordaremos SocialAI dentro de cinco años: si como una broma, un experimento, una curiosidad pasajera, un intento serio de crear un negocio o el principio de una tendencia.

El tiempo dirá.

En Xataka | He probado un traductor con inteligencia artificial de 700 euros. La mejor forma de hacerlo era viendo anime

Imagen destacada | SocialAI, Xataka, Mockuuups Studio



via Robótica e IA - Xataka https://ift.tt/YGWc7tF

Hemos calculado cuánto dinero se están gastando las Big Tech en centros de datos para IA. Los números son mareantes

Hemos calculado cuánto dinero se están gastando las Big Tech en centros de datos para IA. Los números son mareantes

Las Big Tech están gastando dinero en IA como si no hubiera un mañana. Estas gigantescas inversiones son el arma que todas ellas tienen para ganar la carrera de la inteligencia artificial, y en los últimos tiempos se centran especialmente en un apartado: los centros de datos.

Centros de datos al poder. Estas instalaciones albergan miles de servidores en los que se recibe, almacena, procesa y envía la información, y para funcionar necesitan mucho hardware y mucha energía. O lo que es lo mismo: mucho (muchísimo) dinero.

Cuantos más (y más distribuidos), mejor. Microsoft es un claro ejemplo de esta fiebre por tener todos los centros de datos que pueda. En los últimos doce meses ha invertido más de 30.000 millones de dólares y ha llegado a acuerdos con diversos países en todo el mundo para crear nuevos centros de datos o al menos impulsar el desarrollo de la IA en esas localizaciones. Su objetivo, como el de sus competidores, es armarse para esa guerra de la IA, pero eso ha hecho que tanto ella como el resto vean cómo los gastos no paran de subir. Y para entender lo que está pasando basta con prestar atención a los gastos de capital, conocidos como CapEx.

Qué es el CapEx. Son los gastos que realiza una compañía para adquirir, mejorar o mantener activos fijos a largo plazo. Estos activos pueden incluir equipos, infraestructura, software o bienes raíces, que son esenciales para las operaciones de la empresa. Es un concepto distinto de los gastos operativos (pagos de sueldos, servicios), y es especialmente interesante porque revela qué inversiones hace una empresa para su crecimiento futuro a medio y largo plazo. Más sobre esto más adelante.

El CapEx conjunto ya roza los 60.000 millones de dólares. Como señalaban en The New York Times, las grandes empresas tecnológicas han acelerado en su inversión en tecnología de IA generativa. Un estudio del Capex de las cinco grandes protagonistas (Amazon, Apple, Google, Meta y Microsoft) revela cómo sus gastos de capital conjuntos ya rozaron los 60.000 millones de dólares en el segundo trimestre de 2024, cuando el anterior ese gasto no llegaba a los 50.000 y hace un año apenas rondaba los 35.000 millones de dólares. Y cuidado, porque todo apunta a que esa cifra irá a más los próximos trimestres.

Captura De Pantalla 2024 09 18 A Las 15 52 03 Captura De Pantalla 2024 09 18 A Las 15 52 03 El CapEx de las Big Tech no ha parado de crecer, pero el auge de la IA ha hecho que se dispare desde mediados de 2023, cuando la fiebre por la IA generativa comenzó a explotar de verdad. Fuente: NYT.

Más madera, es la guerra. La célebre frase —que apareció en la versión española de la película 'Los hermanos Marx en el Oeste' de 1940— es perfectamente aplicable en este ámbito. Todas las grandes tecnológicas han comenzado a invertir cada vez más dinero y recursos en IA, y precisamente es posible analizar la situación a través del CapEx que han ido indicando todas ellas en sus resultados trimestrales. Algunos ejemplos y una aclaración: las cifras de CapEx utilizadas se deben en gran parte a las inversiones en centros de datos para IA, pero incluyen otros gastos de capital que pueden no estar relacionados con ese ámbito específico. Por ejemplo, el de la propia operativa de la infraestructura en la nube de estas empresas.

  • Meta. Mark Zuckerberg comenzó el año indicando que Meta invertiría 30.000 millones de dólares en 2024 en nueva infraestructura. En abril la cifra se elevó a 35.000 millones de dólares. A finales de julio volvió a cambiar esa previsión y dijo que serían al menos 37.000 millones de dólares. En los seis primeros meses del año el CapEx ha sido de 14.500 millones de dólares. Susa Li, CFO de la empresa, indicó que esperaban que el CapEx "continúe creciendo al invertir agresivamente para apoyar nuestros esfuerzos en el desarrollo de productos e investigación de IA". La ambición de Meta es además crear una AGI.
  • Google. Google está gastando aún más, y en los seis primeros meses del año ya lleva un CapEx combinado de más de 25.000 millones de dólares. En la ronda de preguntas al presentar los resultados del segundo trimestre, alguien le preguntó a Sundar Pichai si no se estaban pasando. Él explicó claramente que no: "el riesgo de invertir de menos es dramáticamente mayor que el riesgo de invertir de más para nosotros aquí, incluso en escenarios en los que si resulta que estamos invirtiendo de más... son infraestructuras que nos son ampliamente útiles...». Es una apreciación interesante: incluso si la apuesta por la IA no sale bien, todo ese hardware seguirá siendo útil según Pichai.
  • Amazon. El gigante del comercio electrónico ha cambiado el foco. Ya no quiere ser (solo) la tienda en la que encontrar de todo. Ahora también quiere ganar la guerra de la IA, y planea gastar 100.000 millones de dólares a lo largo de la próxima década para conseguirlo. No va por mal camino: solo en los primeros seis meses de 2024 su CapEx combinado ha sido de 32.600 millones de dólares. El CFO dijo en verano que esperan que el CapEx sea aún mayor en la segunda mitad del año, y que "la mayor parte del gasto se destinará a apoyar la creciente necesidad de infraestructura de AWS, ya que seguimos observando una fuerte demanda tanto en la IA generativa como en nuestras cargas de trabajo de IA no generativa".
  • Microsoft. Como decíamos, si hay una empresa que está apostando por los centros de datos para IA, esa es Microsoft. Su CapEx combinado para los dos primeros trimestres de 2024 no es tan alto como el de Amazon, "solo" 25.000 millones de dólares), pero como hemos visto, sus planes a corto plazo pasan por invertir mucho, mucho más. Su ambición con los centros de datos es tan grande que es probable que eso impida que cumpla con su promesa de ser negativo en carbono en 2030. Hay que tener en cuenta aquí que Microsoft se encarga de dar servicio a OpenAI y a ChatGPT, el chatbot de IA generativa más popular del mercado ahora mismo. Eso consume muchos recursos y hace necesarias inversiones importantes.
  • Apple. La firma de Cupertino puede tener aquí problemas, porque al menos en lo que se refiere a la inversión destinada a IA, su cuantía es mucho más limitada. En los primeros seis meses de 2024 su CapEx total fue de algo más de 4.000 millones de dólares, y aunque la empresa está desarrollando su propia estrategia —como chips de IA para centros de datos— no parece tener prisa ni ganas de construir centros de datos por todos lados.
Captura De Pantalla 2024 09 18 A Las 16 29 52 Captura De Pantalla 2024 09 18 A Las 16 29 52 CapEx de Google desde 2004. La empresa gastó para ampliar su infraestructura en el boom de los smartphones o el vídeo (YouTube), pero las cifras se quedan pequeñas respecto a las últimas. Fuente: FinanceCharts.

Una inversión histórica (y que deja en ridículo a las anteriores). Lo que está ocurriendo actualmente con la IA es especialmente llamativo si tenemos en cuenta que los CapEx de estas compañías jamás fueron tan altos en anteriores "explosiones tecnológicas". Google, que lideró el auge de la web 2.0 con su buscador y YouTube invirtió en centros de datos, pero jamás con la voracidad que lo está haciendo ahora. Lo mismo es cierto para Meta, que hasta 2020 casi nunca había superado los 3.000 millones de dólares de CapEx por trimestre.

Captura De Pantalla 2024 09 18 A Las 16 35 58 Captura De Pantalla 2024 09 18 A Las 16 35 58 Amazon tampoco había invertido tanto en CapEx como en los últimos cuatro años, pero la cosa se ha acelerado en los últimos doce meses, y parece que va a más. Fuente: FinanceCharts.

Incluso Amazon y Microsoft, que son responsables de las dos principales infraestructuras en la nube del mundo (AWS y Azure) . Hasta principios de 2020 los CapEx máximos rondaban los 5.000 millones de dólares (Amazon) y 4.000 millones de dólares (Microsoft). A partir de ahí se dispararon, sobre todo en los últimos doce meses.

Apostando a largo plazo. Decíamos que el CapEx revela mucho sobre las inversiones a medio y largo plazo, y en el caso de la IA es precisamente así. Varios responsables de grandes empresas tecnológicas llevan tiempo tratando de explicar que con esta tecnología no están buscando beneficios inmediatos: la rentabilidad a la que aspiran está en el largo plazo. Amy Hood, directora financiera de Microsoft, lo comentó en julio de 2024 en Forbes: "Nuestras inversiones en centros de datos están destinadas a respaldar la monetización de nuestra tecnología de IA durante los próximos 15 años y más allá". Es desde luego un mensaje claro para los inversores, a quienes Microsoft quiere tratar de pedir paciencia. Otra cosa muy distinta es que la tengan.

Esto se nos está yendo de las manos. Los propios analistas no ven nada claro el sentido de estas inversiones y por todos lados se habla de que estamos ante una potencial burbuja. La IA es el probablemente la mayor hoguera de dinero de toda la historia. Un informe reciente de Goldman Sachs estima que el gasto conjunto seguirá creciendo en los próximos años y ascenderá a un billón de dólares, una cantidad absolutamente demencial: se estima que el producto interior bruto de España en 2024 será de 1,65 billones de dólares, por ejemplo. Como decía Jim Covello, uno de los responsables del estudio de Goldman, "¿Qué problema que valga un billón de dólares va a resolver la IA?". Es una buena pregunta. Y los CEOs de las Big Tech no acaban de darnos la respuesta.

Imagen | Microsoft

En Xataka | OpenAI está quemando el dinero como si no hubiera mañana. La pregunta es cuánto podrá aguantar así



via Robótica e IA - Xataka https://ift.tt/GZDwKlc

LinkedIn está entrenando modelos de IA con los datos de sus usuarios sin apenas avisar. En la UE estamos a salvo

LinkedIn está entrenando modelos de IA con los datos de sus usuarios sin apenas avisar. En la UE estamos a salvo

Es una práctica cada vez más extendida: las redes y plataformas sociales llevan tiempo aprovechando todos los datos que tienen de nosotros para entrenar modelos de inteligencia artificial, o vender esos datos a quienes quieren usarlos. Meta es un buen ejemplo de lo primero, y Reddit de lo segundo. Ahora tenemos un nuevo y preocupante ejemplo: LinkedIn.

Sin consentimiento previo. Como indican en 404 Media, LinkedIn ha comenzado a utilizar los datos de sus usuarios para entrenar modelos de IA generativa. Lo ha hecho sin consentimiento previo y sin ningún tipo de anuncio al respecto, activando la opción por defecto en muchos países como Estados Unidos.

Ya ha actualizado su política de privacidad. En TechCrunch señalan que esta plataforma ya ha actualizado su política de privacidad para señalar los cambios, pero no la habían cambiado cuando empezaron a hacer uso de dichos datos. En esos nuevos términos explican lo siguiente:

"Podemos utilizar sus datos personales para mejorar, desarrollar y proporcionar productos y Servicios, desarrollar y entrenar modelos de inteligencia artificial (IA), desarrollar, proporcionar y personalizar nuestros Servicios, y obtener información con la ayuda de IA, sistemas automatizados e inferencias, de modo que nuestros Servicios puedan ser más relevantes y útiles para usted y otros".

¿Para qué está haciendo esto LinkedIn? El objetivo de LinkedIn es plantear nuevas opciones al servicio. Al menos eso apuntan en una página de ayuda en la que señalan que la iA generativa podrá ofrecer asistencia en la escritura de publicaciones.

En la UE estamos a salvo. LinkedIn ha activado esa opción en países como Estados Unidos y así lo han indicado usuarios que han recibido un aviso sobre ese uso de datos, pero dicho tipo de notificación no aparece para usuarios de la Unión Europea, aunque no está claro si esto es por la GDPR o por la AI Act.

Los usuarios pueden desactivar esa opción. Quienes estén afectados por ese uso de sus datos pueden revocar esos permisos. Para ello deben ir a la pestaña de privacidad de datos de sus ajustes y hacer clic en "Data for Generative AI Improvement". Allí encontrarán un interruptor que podrán situar en posición "Off" (apagado) para deshabilitar el uso de sus datos para entrenar modelos de IA.

Pero quizás ya se hayan usado. Deshabilitar la opción permitirá evitar desde ese momento que los datos que hayamos publicado en LinkedIn puedan ser usados para entrenar modelos de IA, pero como explican en la plataforma "no afecta al entrenamiento que ya haya tenido lugar". No hay información ni detalles sobre si nuestros datos se han usado hasta este momento, desde cuándo o cuántos y cuáles.

Imagen | Souvik Banerjee

En Xataka | LinkedIn se quita la corbata. Planea incluir juegos y vídeos cortos para atraer a otro tipo de usuarios



via Robótica e IA - Xataka https://ift.tt/U2OXlFC

miércoles, 18 de septiembre de 2024

El buscador de Google no diferenciaba entre imágenes normales e imágenes generadas por IA. Hasta ahora

El buscador de Google no diferenciaba entre imágenes normales e imágenes generadas por IA. Hasta ahora

Encontrar imágenes en Google es muy sencillo, pero los resultados plantean dos problemas. El primero, que a menudo es difícil conocer su procedencia y si están protegidas por derechos de autor. El segundo, aún más acuciante y preocupante, es si esas imágenes no son reales, sino que han sido generadas por IA. Y ahí es donde la empresa empieza a plantear soluciones.

Más transparencia. Google anunció el martes que su buscador ha comenzado a ser más transparente a la hora de reflejar si una imagen se ha generado con inteligencia artificial o no. Es un movimiento que forma parte de su colaboración con la Coalition for Content Provenance and Authenticity (C2PA).

Etiquetas para aclararlo todo. La solución de Google es bastante obvia: están añadiendo etiquetas a imágenes que Google ha detectado que han sido generadas o editadas mediante modelos de inteligencia artificial. El despliegue de dichas etiquetas tardará algún tiempo, pero lo comenzaremos a ver en los próximos meses.

Dónde veremos esas etiquetas. La medida acabará mostrándose en la opción "Acerca de esta imagen" y se aplicará al buscador, a Google Lens y a la opción "Rodear para buscar" de Android. En Google están integrando este tipo de información en su plataforma de publicidad y están considerando añadirla incluso en vídeos de YouTube, algo que confirmarán antes de que acabe el año.

Pero no dependen de ellos mismos. Para identificar esas imágenes, Google hará uso de los metadatos que los miembros de la C2PA han comenzado a integrar en imágenes generadas por IA. Empresas como Amazon, Microsoft, OpenAI o Adobe forman parte de esa coalición, y algunos desarrollos importantes como Flux —una popular alternativa a Midjourney— también comienzan a integrar dicha información. Aun así, pasará bastante tiempo antes de que esos metadatos se adopten de forma masiva... si es que eso llega a ocurrir.

Al menos es un principio. La medida tendrá por tanto un alcance limitado al menos a corto plazo, pero es un buen primer paso teniendo en cuenta la avalancha de imágenes generadas por IA que están inundando internet. Este tipo de etiquetado puede ser útil para mitigar parcialmente el peligro que plantean los deepfakes, y desde luego será una forma útil de poder creernos lo que estamos viendo... o no.

En Xataka | ¿Eres capaz de distinguir una imagen real de una generada por IA? Aquí tienes 20 fotos para comprobarlo



via Robótica e IA - Xataka https://ift.tt/oCtmX5Z

martes, 17 de septiembre de 2024

Sam Altman deja de vigilarse a sí mismo. OpenAI busca credibilidad en su comité de seguridad

Sam Altman deja de vigilarse a sí mismo. OpenAI busca credibilidad en su comité de seguridad

En mayo supimos que OpenAI estaba remodelando su comité de seguridad para poner al frente a Sam Altman. Dicho de otro modo, Altman sería el máximo responsable de vigilar la seguridad de los desarrollos de Altman. No parecía una gran idea y no tranquilizaría a los críticos.

Cuatro meses después, el CEO está deshaciendo los pasos y ha abandonado el comité de seguridad junto a Bret Taylor, quien la presidía hasta ahora, según ha publicado Axios.

Por qué es importante. Esta reestructuración busca una mayor independencia y credibilidad al comité encargado de supervisar aspectos críticos para la seguridad en el desarrollo de productos de OpenAI.

Los hechos:

  • El comité ahora estará formado únicamente por miembros independientes de la junta directiva.
  • El nuevo presidente es Zico Kolter, profesor de la Universidad Carnegie Mellon.
  • Entre el resto de miembros están el CEO de Quora, Adam D'Angelo; el general retirado Paul Nakasone y la exconsejera general de Sony, Nicole Seligman.

El contexto. OpenAI creó este comité en mayo, tras la salida de varios empleados que manifestaron inquietudes o directamente acusaciones en torno a la seguridad de los desarrollos. Llegaron a decir que OpenAI estaba anteponiendo el lanzamiento de productos brillantes a la seguridad.

La presencia de Altman en este comité echó por tierra la intención de transmitir que la seguridad era prioritaria. No tenía sentido que peso y contrapeso fueran ejercidos por la misma persona.

Entre líneas. La salida de Altman puede interpretarse como un intento por apaciguar críticas y mostrar externamente un mayor compromiso por la seguridad. OpenAI ha cambiado mucho en dos años, y parte de ese cambio lo marca un escrutinio mucho mayor.

Los incentivos comerciales han crecido al son del éxito de ChatGPT y han sido avivados por las enormes cantidades de dinero que necesita la empresa para seguir entrenando sus modelos, muy por encima del ritmo de ingresos.

En perspectiva. Esta reestructuración llega en medio de las filtraciones sobre la empresa negociando una ronda de financiación que dispararía su valoración y el capital disponible.

La misión original de OpenAI, desarrollar IA en beneficio de la humanidad, se ha ido cuestionando cada vez más a medida que los objetivos comerciales iban subiendo de nivel. Ahora queda ver si esta renovación del comité es un cambio cosmético o un convencimiento estratégico.

Imagen destacada | Xataka con Midjourney

En Xataka | Los pilares del éxito profesional según Sam Altman: los principios que han guiado su carrera hacia el éxito



via Robótica e IA - Xataka https://ift.tt/QDz8YU3

Más gigantes chinos pierden la paciencia ante EEUU: la empresa de TikTok prepara sus propios chips de IA, según The Information

Más gigantes chinos pierden la paciencia ante EEUU: la empresa de TikTok prepara sus propios chips de IA, según The Information

Dicen que todas las decisiones importantes suelen llegar acompañadas de efectos colaterales. Un ejemplo de este escenario podemos encontrarlo en la guerra de chips entre Estados Unidos y China. Washington lleva un buen tiempo queriendo limitar el desarrollo de este sector por parte del gigante asiático por razones de seguridad nacional. Las autoridades entienden que si este país rival accede a tecnología de vanguardia como los últimos chips de NVIDIA o las máquinas de litografía ultravioleta extrema de ASML puede utilizarlos para impulsar proyectos militares.

Que desde los misiles hasta los ordenadores de IA del sector militar chino necesitan semiconductores, no es ningún secreto. Ahora bien, esta contienda parece estar fortaleciendo la independencia de las compañías que se encuentran dentro de las fronteras del país gobernado por Xi Jinping. ByteDance, el grupo detrás de TikTok, está trabajando para diseñar sus propios chips, según The Information. Y no estamos hablando de cualquier actor tecnológico, se trata de una que recientemente ha gastado más de 1.000 millones de dólares en chips de NVIDIA.

ByteDance quiere sus propios chips de IA

Como muchos de vosotros ya sabéis, NVIDIA tiene prohibido enviar sus gráficas más avanzadas a China debido a las restricciones comerciales vigentes del Departamento de Comercio. Los liderados por Jensen Huang han creado versiones alternativas que sí pueden ser exportadas, como las que ByteDance ha comprado. Pero en el pasado hemos visto como Estados Unidos mueve ficha para bloquear la venta de estos productos alternativos también. Las NVIDIA H800 fueron una alternativa permitida a las H100 que finalmente también fueron prohibidas.

En medio de este escenario, ByteDance está acelerando sus planes para desarrollar sus propios chips de alto rendimiento para inteligencia artificial (IA). The Information señala que ya ha diseñado junto a Taiwan Semiconductor Manufacturing Company (TSMC) dos productos que planea comenzar a producir en masa en 2026. Estamos frente a un movimiento muy interesante que, en caso de materializarse, podría reducir la dependencia de la matriz de TikTok de los chips de NVIDIA, cuyo acceso está cada vez más limitado por las restricciones comerciales.

Todavía quedan muchas preguntas por responder, por ejemplo, qué características tendrá estos chips y su la influencia internacional de Estados Unidos acabará perjudicando de alguna manera estos planes. Cabe señalar que esta no es la primera vez que aparece información sobre los planes de la compañía china para desarrollar sus propios chips. Hace poco más de tres meses Reuters señaló que ByteDance estaba trabajando con Broadcom para diseñar un chip de 5 nm en cumplimiento con las restricciones estadounidenses, y con TSMC como socio del proyecto.

Imágenes | BoliviaInteligente

En Xataka | China suspira aliviada: el diseñador de chips Loongson está preparando una brutal CPU de 64 núcleos



via Robótica e IA - Xataka https://ift.tt/dae40iA

lunes, 16 de septiembre de 2024

Microsoft refuerza su Copilot en las apps Microsoft 365: la IA hace más para que tú puedas hacer menos

Microsoft refuerza su Copilot en las apps Microsoft 365: la IA hace más para que tú puedas hacer menos

Microsoft 365, la evolución de la vieja suite ofimática Office, no para de supervitaminarse. La llegada de ChatGPT permitió integrarlo con esta suite de herramientas y ahora llega la segunda oleada de novedades. Una que permite que sus usuarios reciban mucha ayuda de la IA en todo tipo de tareas, sobre todo las que afectan al ámbito empresarial.

Business Chat. El llamado BizChat se convierte en una especie de punto de encuentro en el que se aglutinan los datos web, de trabajo y de nuestra línea de negocio a nivel interno para que Copilot sirva como una especie de secretario preparado para ayudarnos a encontrar de todo en todo momento.

Copilot Pages. Es parte integral de la esa herramienta anterior, y hace que el acceso a eos datos sea más visual y práctico. Es posible crear páginas en las que podamos ir colaborando con otros compañeros y que cada uno añada contenido aprovechando tanto la IA como sus propias labores de edición de esas páginas informativas.

Excel Excel

Excel potenciado por Python. Lograr extraer conclusiones de documentos Excel se vuelve ahora más sencillo con la nueva versión de Copilot que gana la capacidad de trabajar con Python. El sistema de IA de Microsoft 365 no solo analiza los datos, sino que crea automáticamente scripts en Python con los que obtener conclusiones y datos importantes que antes nos llevaría mucho más tiempo y esfuerzo obtener. Previsiones, análisis de riesgo, visualización de datos y otros elementos son accesibles con lenguaje natural.

La narrativa lo es todo. En PowerPoint la IA generativa de Copilot saca todo su partido a través del llamado Narrative builder, una herramienta que nos asiste y que a partir de un pequeño prompt en modo texto es capaz de desarrollar un guión para la presentación. A partir de ahí podemos editarlo, añadir información y documentos que puede resumir en una o varias diapositivas, y a partir de todo ello es capaz de generar una presentación PPT completa con un diseño y un contenido notables que luego solo tendremos que revisar para ir editando si lo necesitamos.

Ppt Ppt

Mensajes prioritarios primero. Hace mucho que los clientes de correo electrónico tratan de automatizar la gestión y priorizar qué correos deberíamos atender primero. Es lo que ahora potencia Copilot en Outlook gracias a la opión "Prioritize my inbox". que analiza los mensajes y con nuestra ayuda —señalando que cierto remitente es un cliente importante, por ejemplo— es capaz de organizar los mensajes que van llegando e incluso resumir en dos líneas las respuestas que van llegando a nuestros mensajes si éstas son muy largas.

Word, Teams y OneDrive también mejoran. Copilot es ahora capaz de analizar y resumir mejor las reuniones de Teams y nos puede decir si hay por ejemplo preguntas que quedaron sin responder. En Word destaca la nueva opción de integrar contenido de otros documentos y aplicaciones de la suite, mientras que en OneDrive puede por ejemplo comparar hasta cinco ficheros para analizar las diferencias entre todos ellos.

Vienen los agentes Copilot. Los agentes de IA son una de las evoluciones más prometedoras de la IA, y en Copilot ya han comenzado a ofrecer estos componentes. Así, podrán tanto ser pequeños asistentes que responden a ciertas peticiones como agentes que realizan tareas repetitivas e incluso que van más allá. Microsoft ofrece un "constructor de agentes" basado en Copilot Studio y que permite por ejemplo crear agentes de IA en BizChat o SharePoint.

En Xataka | Bill Gates ha contado como convirtió a Microsoft en el gigante que es ahora: “enfoqué mi vida solo en un único trabajo”



via Robótica e IA - Xataka https://ift.tt/VCYbPIo

OpenAI está quemando el dinero como si no hubiera mañana. La pregunta es cuánto podrá aguantar así

OpenAI está quemando el dinero como si no hubiera mañana. La pregunta es cuánto podrá aguantar así

A Sam Altman no le salen las cuentas. No sabemos si está preocupado por ello, pero no lo parece. La empresa de la que es CEO, OpenAI, sigue marcando el paso del segmento de la inteligencia artificial, pero quizás tenga problemas para seguir haciéndolo.

El problema es el dinero. OpenAI gasta el dinero como si no hubiera mañana. La inversión multimillonaria que Microsoft hizo a principios de 2023 le permitió consolidar su dominio del mercado tras el lanzamiento de ChatGPT, pero una cosa es cierta.

Gasta (mucho) más de lo que gana.

Es al menos lo que creen los analistas que está ocurriendo ahora mismo. Según datos recientes de The Information, ChatGPT cuenta con 10 millones de suscriptores de pago, a los que se suma otro millón de planes aun más caros dirigidos a empresas.

Eso hace que los ingresos mensuales de OpenAI ronden ahora mismo los 225 millones de dólares, unos 2.700 millones de dólares anuales, según los datos filtrados a ese medio. Es mucho dinero, sí, pero no lo suficiente.

OpenAI necesita "gasolina". Y mucha

Lo demuestra el hecho de que año y medio después de aquella inversión de unos 10.000 millones de dólares por parte de Microsoft, Altman está haciendo varios movimientos para recaudar nuevos fondos.

Hace semanas que se rumorea que OpenAI planea "levantar" 6.5000 millones de dólares. Eso la convertiría en una startup absolutamente gigantesca. Ya lo es en la actualidad —se estima que su valor ronda los 85.000 millones de dólares— pero con esa ronda la valoración de OpenAI rondaría los 150.000 millones de dólares, en el rango de Disney o Inditex. Se espera que Microsoft, NVIDIA y Apple participen en la ronda de inversión.

Esa valoración, no obstante, está sujeta a condiciones. OpenAI nació como una organización sin ánimo de lucro, pero en 2018 todo empezó a cambiar y la empresa publicó una carta en la que anticipaba su intención de dejar de ser una non-profit.

El motivo: la imposibilidad de seguir afrontando los gastos que se duplicaban cada tres o cuatro meses. Pocos meses después, en marzo de 2019, Microsoft hacía su primera apuesta por OpenAI e invertía 1.000 millones de dólares en ella.Sin embargo, el cambio de estructura imponía un límite artificial: cada socio "solo" podría recuperar su inversión multiplicada por cien.

Pero la empresa quiere ir aún más allá, y como decíamos la ronda de inversión y su valoración dependerán de si el fabricante de ChatGPT puede modificar su estructura corporativa y eliminar ese tope de beneficios para los inversores. No solo eso: según Reuters, hay debate interno sobre cómo pasar a una estructura de empresa convencional "for-profit", que es la misma que tienen rivales como Anthropic o xAI.

Es algo que también indicaban en Fortune recientemente. Portavoces de OpenAI insistían en que "[la parte de negocio] sin ánimo de lucro es clave para nuestra misión y seguirá existiendo". Y sin embargo, las intenciones parecen claras porque a grandes males, grandes remedios.

El nuevo o1 es prometedor, pero no un "hacedor de dinero"

El lanzamiento de su nuevo modelo o1 —cuyo nombre en clave es 'Strawberry'— ha sido especialmente llamativo por ser una aproximación distinta a lo que hasta ahora planteaba OpenAI.

Openai O1 Openai O1

Así, con el modelo o1 la intención es equivocarse menos. En OpenAI afirman que el modelo tiene capacidad de razonamiento, pero en realidad lo que hace es revisar una y otra vez su respuesta y reconstruirla para validarla y finalmente mostrarla al usuario. Eso hace que, insistimos, teóricamente se equivoque menos aunque siga pudiendo cometer errores..

Solo los suscriptores están comenzando a tener acceso a los primeros modelos o1 disponibles (mini y preview), y las opiniones, aunque positivas, no apuntan a una verdadera revolución aquí. 

Habrá sin duda nichos en los que el argumento de "más lento es mejor" será muy apropiado, pero para la mayoría de los usuarios y escenarios —que quieren respuestas rápidas, aun sabiendo que pueden ser incorrectas—, eso de esperar un ratito a la respuesta no parece que vaya a convencer de que se hagan suscriptores de ChatGPT Plus.

Esa es la razón de que o1, que no es ni mucho menos una AGI, pueda no ser suficiente para convencernos de que OpenAI puede seguir liderando este segmento. Empresas como Anthropic y su chatbot Claude 3.5 Sonnet están ganando mucha popularidad entre los usuarios, pero para OpenAI el problema real es que ellos, sin ser pequeños, no son realmente grandes.

Y precisamente ahí es donde Google, Microsoft, Meta, o Apple (veremos qué pasa con Amazon) pueden acabar volviendo a ganar la partida. Tienen muchos más recursos y mucha menos prisa. Hace tiempo que están moviendo fichas a sus propios ritmos, y lo que está claro es que sus plataformas propias de IA no paran de mejorar. Las alianzas que algunas tienen con OpenAI son necesarias, pero probablemente tengan fecha de caducidad.

Es de hecho algo que comentábamos recientemente: la IA requiere inversiones gigantescas, y ahí las Big Tech tienen toda la ventaja. Eso es una mala (malísima) noticia para las startups, que se enfrentan a barreras de entrada prohibitivas.

OpenAI es el perfecto ejemplo de la situación: a pesar de haber contado con apoyos financieros fortísimos y de seguir buscándolos, su futuro en la industria y su actual posición de dominio podrían estar comprometidos. La empresa es un sumidero de dinero —como todas sus competidoras—, y los inversores están comenzando a impacientarse porque la IA no acaba de ser la revolución que muchos esperaban a corto plazo.

Y si no lo es, ¿cuánto tiempo pasará hasta que esos inversores se cansen de darlo todo sin recibir (casi) nada a cambio?

Nadie lo sabe. Pero una cosa es segura: Sam Altman y OpenAI están tratando de que no se cansen todavía.

Imagen | Nibor con Midjourney



via Robótica e IA - Xataka https://ift.tt/fojure8

sábado, 14 de septiembre de 2024

He probado un traductor con inteligencia artificial de 700 euros. La mejor forma de hacerlo era viendo anime

He probado un traductor con inteligencia artificial de 700 euros. La mejor forma de hacerlo era viendo anime

La inteligencia artificial ha puesto el mundo patas arriba y uno de los palos que ha tocado, está tocando y tocará más con el paso del tiempo es el de los idiomas. Son muchos factores los que juegan en ese sentido, pero la IA tiene un potencial enorme para romper la barrera del idioma. Por eso no resulta extraño que ya tengamos en el mercado traductores basados en esta tecnología como el que hoy nos ocupa.

Su nombre es Timekettle X1 AI Interpreter Hub (Timekettle X1 de aquí en adelante por motivos evidentes) y su precio asciende a 699,99 euros. ¿Su propuesta? Ofrecer un hub de traducción e interpretación basado en inteligencia artificial para que el idioma no sea un problema. ¿Qué tal se comporta? ¿Cómo rinde este peculiar dispositivo? Desde Xataka ya hemos tenido ocasión de echarle el guante y esta ha sido nuestra experiencia.

¿Cómo hemos afrontado este análisis? La realidad es que este dispositivo está muy, pero que muy pensado para el entorno empresarial. Está ideado para traducir pequeñas conferencias presenciales, videollamadas y conversaciones cara a cara y, de hecho, varias de sus funciones están orientas hacia eso. Dado que, para mi desgracia, no suelo hacer ventas de SaaS B2B en calls con USA para llegar a los KPIs del budget, hemos usado este dispositivo para traducir cosas más de andar por casa.

En otras palabras, nos hemos puesto un poquito de anime en japonés para ver qué tal lo traduce en tiempo real, alguna que otra charla TED en diferentes idiomas y, por supuesto, una charla en chino. Entre otras cosas, claro está. La idea era simular en casa algunos casos de uso en los que llevar este dispositivo podría tener sentido. Dicho lo cual, comencemos.

Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka

El intérprete por fuera. Es muy bonito, realmente. El dispositivo es la viva imagen de un hub, con un frontal gobernado por una pantalla bastante generosa táctil y a color, así como un botón que sirve para volver atrás. En la parte superior encontramos los botones de volumen y el de inicio, en la parte delantera la conexión NFC para emparejarlo con otros traductores y en la parte inferior el puerto de carga. Si pulsamos en la parte inferior abriremos el cajón donde se encuentran los auriculares.

Es un dispositivo relativamente pesado y bastante grande, por lo que sí, abulta en el bolsillo y, dado su acabado esquinado, puede ser algo incómodo de transportar. Eso si queremos llevarlo en el bolsillo. Si vamos a usar una mochila o un bolso podemos obviar esto por completo.

Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka

¿Has dicho auriculares? Sí, recordemos que esto es un intérprete, así que el flujo de uso suele ser, normalmente, seleccionar el modo y los idiomas de entrada y salida, ponernos los auriculares y dejar que el intérprete haga lo suyo. El hub analiza el audio de entrada, lo traduce y lo reproduce doblado a nuestro idioma directamente en los auriculares. No obstante, dependerá del modo. Por ejemplo:

  • Cara a cara: la persona A habla en inglés y la persona B habla en español. Cada uno lleva un auricular y escucha la traducción en su idioma. Este sería el modo "tengo una reunión con un compañero de Corea y ni él habla español ni yo hablo coreano".
  • Escuchar y reproducir: la persona A lleva los dos auriculares y escucha a la persona B hablar en otro idioma. Si la persona A quiere hablar, lo hace a través de los auriculares. Estos recogen el sonido, lo mandan al hub y este reproduce la traducción a través del altavoz incorporado. Este sería el modo "he ido a una conferencia en francés sin tener ni idea de francés".
  • Preguntar e ir: la persona A habla en español y se acerca a la persona B, que habla en inglés, para preguntarle algo. Ambos hablan a través del hub con los micrófonos y altavoz incorporado. Este sería el modo "estoy de viaje y necesito saber dónde está la parada de metro más cercana, pero no conozco el idioma".
Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka

Luego hay otros modos enfocados al uso puramente empresarial, como la llamada por voz (para llamar a otro Timekettle X1 y obtener una interpretación simultánea) y la conferencia múltiple (que permite unir hasta cinco dispositivos para traducir en hasta cinco idiomas para 20 personas a la vez). A nivel usuario, lo más probable es que el uso quede reducido a los dos últimos. A mí, personalmente, lo de dejarle a otra persona un auricular que luego me voy a poner yo no me parece lo más higiénico.

Y por cierto, cuidad los auriculares incluidos, porque el Timekettle X1 no permite conectar otros auriculares por Bluetooth. Afortunadamente, los incluidos son cómodos y se escuchan bien, pero no habría estado de más ofrecer esta posibilidad. Sobra decir que tampoco podemos conectar los auriculares incluidos a otros dispositivos para hacer cosas como escuchar música o ver películas.

Las capacidades del Timekettle X1. El intérprete admite 40 idiomas y 93 acentos (por ejemplo, inglés de Reino Unido o Estados Unidos, español de España o de México, etc.). Ahora bien, hay un matiz. Para acceder a todos estos idiomas tenemos que tener una conexión a Internet permanente. Es posible descargar combinaciones de idiomas (que no idiomas completos) para usarlos sin conexión, pero las opciones son más limitadas.

Lista de idiomas admitidos (requiere conexión a Internet): árabe, búlgaro, cantonés, catalán, chino, croata, checo, danés, holandés, inglés, finlandés, filipino, francés, alemán, griego, hebreo, hindi, húngaro, islandés, indonesio, italiano, japonés, coreano, malayo, Noruego, polaco, portugués, rumano, ruso, eslovaco, esloveno, español, sueco, tamil, telugu, tailandés, turco, ucraniano, urdu, árabe vietnamita.
Paquetes offline: inglés-chino, inglés-japonés, inglés-coreano, inglés-francés, inglés-español, inglés-ruso, inglés-alemán, chino-inglés, chino-japonés, chino-coreano, chino-francés, chino-español, chino-ruso y chino-alemán.

¿Y cómo se comporta? Ahora que ya conocemos mejor el dispositivo, vamos a hablar de su rendimiento. Como decíamos anteriormente, hemos hecho varias pruebas para ver qué tal se comporta. Las pruebas las hemos hecho con conexión a Internet, pero luego hablaremos también del rendimiento sin conexión.

Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka

Primera prueba: charla TED. Para esta prueba hemos visto esta charla TED en inglés, este podcast en noruego y este otro en polaco. También hemos visto esta charla en chino. Hemos usado el modo "Escuchar y reproducir", de forma que el sonido original ha salido por la barra de sonido de mi ordenador, ha sido recogido por el micrófono del hub y reproducido por los dos auriculares en mis orejas.

Tanto en noruego como en polaco, la traducción es buena y suficiente para entender el contexto general de la conversación, pero algunas veces tiende a ser algo tosca o demasiado literal. Pasa mucho con algunas frases hechas. En chino, sin embargo, es espectacular. No es perfecta, pero hemos podido ver varios vídeos en chino y entender de qué iba todo sin problema.

Por ponerle una pega, el tiempo que pasa entre que traduce y dobla suele ser algo alto, de manera que tienes la sensación de que te estás quedando atrás en la conversación. Además, cabe destacar que no hemos tenido ocasión de probarlo en un auditorio con sonido más pobre.

Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka

Segunda prueba: anime en japo. Para este segunda prueba nos hemos puesto cómodos y hemos dedicado un ratito a vernos un par de capitulitos de anime en japonés. ¿Para qué queremos hacer esto? Porque aunque lo más fácil sería poner los subtítulos directamente, esta prueba nos sirve para ver cómo se comporta el dispositivo con diferentes voces y acentos. Y bueno, el japonés es un idioma complicado, así que por qué no.

Esta experiencia ha sido peor. La música de fondo hace que el intérprete no detecte bien la voz y eso provoca que, en ciertos momentos, nos quedemos sin traducción. Sin embargo, cuando la escena es más tranquila, la detección es mucho mejor y tanto la traducción como el doblaje es correcto. No obstante, la lentitud y el retraso en el doblaje hace que sea imposible usar el traductor para este fin que, en su defensa, hay que decir que no es para lo que está pensado.

Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka

Tercera prueba: conversación en tiempo real. Lamentablemente, no tengo cerca a ningún conocido de origen extranjero, pero mi pareja estudió Traducción e Interpretación, tiene un nivel C1 de inglés certificado, trabaja en una empresa estadounidense relacionada con la traducción y pasa todo el día hablando, escribiendo y leyendo en inglés. Así que, dado que no es viable irme a Estados Unidos a charlar con los amigos que hice cuando estuve allí de Erasmus, le he pedido que me eche una mano. Hemos usado el modo cara a cara. Ella ha hablado en inglés y yo en español.

El rendimiento del dispositivo ha sido bueno, muy bueno. Tiene ciertos problemas con algunas palabras debido a mi muy marcado acento andaluz, pero los auriculares recogen perfectamente nuestra voz, traducen bien y doblar a un ritmo y velocidad suficientes para que la conversación pueda ser fluida. Hemos hablado de comida y cine y la charla se ha podido mantener sin problema. Ha sido, sin lugar a dudas, el uso más interesante, aunque me habría encantado poder probarlo con idiomas más complejos, como el chino o el japonés.

Realmente, este dispositivo se pondría a prueba en combinaciones de idiomas más complejas, como árabe-alemán, japonés-noruego, etc., pero desgraciadamente no tenemos la capacidad operativa para llevar a cabo esas pruebas en este momento.

Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka

Cuarta prueba: Internet fuera. Para esta prueba, nos hemos puesto en la situación de alguien que atiende a una charla en inglés sin tener ni idea de inglés y sin acceso a datos móviles o WiFi. Así pues, hemos descargado el paquete de idiomas correspondiente (inglés-español) y activado la conexión fuera de línea. Acto seguido, hemos reproducido esta charla de Bill Gates.

La experiencia es muchísimo peor, por no decir imposible. El dispositivo no entiende bien el texto y, cuando lo hace, lo hace a trompicones, lo que provoca que la traducción también sea mala. Y lo es en ambos sentidos: inglés-español y español-inglés. No te puedes fiar de la traducción sin conexión y eso es un problema bastante importante.

Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka Timekettle X1 AI Interpreter Hub | Imagen: Xataka

En resumen. El Timekettle X1 está muy bien y, cuando tiene conexión a Internet, su rendimiento es bueno, pero es demasiado caro para lo que ofrece. No me cabe duda de que en un entorno corporativo e internacional podría tener muchísimo sentido, pero para un usuario que busca traducción durante un viaje, el traductor de Google o DeepL es más que suficiente y, sobre todo, gratis. Además, no poder fiarse de la traducción offline es un handicap.

El concepto es interesante y la propuesta está bien ejecutada, al menos en términos de hardware. El dispositivo se nota bien construido, los auriculares se escuchan genial y son cómodos (y menos mal, porque no se pueden usar otros), pero 700 euros... es una cifra bastante alta para las funciones que ofrece.

Imágenes | Xataka

En Xataka | Mejor traductor: 22 herramientas para traducir textos, webs, PDFs, conversaciones o fotografías

Este dispositivo ha sido cedido para pruebas por parte de Timekettle. Puedes consultar cómo hacemos las reviews en Xataka y nuestra política de relaciones con empresas



via Robótica e IA - Xataka https://ift.tt/rAjSsbz