lunes, 30 de septiembre de 2024

China ha respondido a EEUU con un hito: ya tiene un modelo de IA capaz de correr en GPU con distintas arquitecturas

China ha respondido a EEUU con un hito: ya tiene un modelo de IA capaz de correr en GPU con distintas arquitecturas

Sundar Pichai, el director general de Alphabet, la corporación a la que pertenece Google, está convencido de que "la escala del trabajo que está llevando a cabo China en el ámbito de la inteligencia artificial (IA) es asombrosa [...] China va a estar a la vanguardia de esta disciplina. Es un hecho", ha apuntado Pichai. "A largo plazo la única forma de consolidar el progreso consiste en que China y EEUU colaboren de una forma estrecha en un ámbito tan decisivo como el de la IA. Debería ser una parte integral del proceso".

Este ejecutivo de Alphabet no es el único que ha expresado la elevada capacidad que tiene China en el ámbito de la IA. Jensen Huang, el fundador y director general de NVIDIA, lo dejó claro en Computex 2023: "China está dedicando unos recursos masivos a la puesta en marcha de empresas emergentes especializadas en el desarrollo de GPU. No las subestiméis". Esta advertencia estaba dirigida al Gobierno de EEUU en un claro intento de prevenirle acerca de las consecuencias que tendrán las sanciones que persiguen frenar el desarrollo tecnológico de China.

Sea como sea de una cosa no cabe duda: el país liderado por Xi Jinping no solo se ha subido al tren de la IA; viaja cómodamente sentado en un vagón de primera clase. Esta disciplina tiene un rol estratégico para las grandes potencias, y China no es una excepción. Algunas de las sanciones que ha desplegado la Administración estadounidense persiguen poner fuera de su alcance los semiconductores para IA más avanzados, como las GPU A100 o H100 de NVIDIA, pero China ya ha tomado cartas en el asunto.

China tiene un modelo de IA muy especial

La presión a la que EEUU y sus aliados están sometiendo a China en el ámbito de los circuitos integrados es considerable, y en estas circunstancias este país asiático no tiene otra opción que agudizar el ingenio. Y es justo lo que está haciendo. Según Patrick Moorhead, que es analista principal de la consultora Moor Insights & Strategy, China ha desarrollado un modelo de IA generativa diseñado para ser ejecutado en varios centros de datos diferentes y sobre arquitecturas heterogéneas.

Esta tecnología permite a China dar un paso hacia delante muy importante con el propósito de que sus avances en IA no se vean frenados en seco

Esto significa, sencillamente, que funciona correctamente sobre GPU con microarquitecturas distintas, algo que sobre el papel no es nada fácil conseguir. Y, además, este modelo se puede entrenar en varios centros de datos alojados en distintas ubicaciones. Es evidente que en la coyuntura actual en la que China no tiene fácil acceso a los chips para IA más avanzados de NVIDIA esta tecnología le permite dar un paso hacia delante muy importante con el propósito de que sus avances en esta disciplina no se vean frenados en seco.

Según Moorhead este modelo de IA generativa puede ejecutarse sin problema sobre uno o varios clústeres de servidores con GPU de NVIDIA, como la A100, y también con otros chips menos avanzados, como el H20 de la propia NVIDIA o el Ascend 910B de Huawei. China no necesita ni que todas las GPU sean idénticas ni que residan en servidores alojados en un único centro de datos. Desafortunadamente aún no tenemos más detalles acerca de esta tecnología, pero no cabe duda de que pinta realmente bien. Tanto, de hecho, que es razonable prever que pronto otros países desarrollarán soluciones similares debido a las evidentes ventajas que conlleva desde un punto de vista práctico.

Imagen | Panumas Nikhomkhai

Más información | Tom's Hardware

En Xataka | China tiene cada vez mejores equipos de litografía propios. Aun así están muy lejos de las máquinas de ASML



via Robótica e IA - Xataka https://ift.tt/XxPnvyR

OpenAI quiere triplicar sus ingresos para el año que viene. Su plan es simple: que pagues más

OpenAI quiere triplicar sus ingresos para el año que viene. Su plan es simple: que pagues más

La IA va a convertir a OpenAI en un absoluto gigante. O eso es lo que espera la empresa, de la que no paran de aparecer datos y proyecciones en las que se habla de un futuro espectacular. Las expectativas y el 'hype' —que son solo eso— se producen en un momento perfecto para los de Sam Altman: están cerrando una nueva y colosal ronda de financiación, así que disparar las estimaciones es una decisión esperable... pero peligrosa.

OpenAI es muy optimista. Como indican en Reuters, fuentes cercanas a la empresa han revelado los ingresos estimados que OpenAI tiene proyectados para los próximos años. Esa estimación es la que la empresa está distribuyendo entre potenciales inversores. El objetivo: atraerlos y que participen en la gigantesca ronda de inversión de 6.500 millones de dólares que se espera cierren estos días. Las cifras de ingresos son escandalosas y plantean un crecimiento absolutamente espectacular de su negocio:

  • 2023: 700 millones de dólares
  • 2024: 3.700 millones de dólares (estimados)
  • 2025: 11.600 millones de dólares (estimados)
  • 2029: 100.000 millones de dólares (estimados)

Parece que la cosa marcha. Según revelan en The New York Times, los ingresos mensuales de OpenAI alcanzaron los 300 millones de dólares el pasado mes de agosto. Eso supone un crecimiento del 1.700% respecto a principios de 2023, cuando obviamente su oferta comercial era mucho más reducida y ChatGPT tan solo acababa de despegar. Aun así, esos ingresos hacen prever que en 2024 los ingresos anuales acaben siendo de unos 3.700 millones de dólares.

¿Y las pérdidas, qué? Sin embargo esos ingresos están totalmente contrarrestados con los gastos generados por la empresa, que son aún más colosales. De hecho a pesar de esos ingresos se espera que la empresa acabe perdiendo unos 5.000 millones de dólares. La infraestructura (servidores, energía), los sueldos y el alquiler de oficinas e instalaciones son los principales componentes de ese gasto. No se incluyen pagos basados en posibles capitalizaciones de acciones correspondientes a los empleados, y en esos documentos no se explica con claridad cuánto dinero están perdiendo.

Más rodas de financiación en el futuro. De hecho, estos datos filtrados señalan además que OpenAI podría necesitar seguir organizando nuevas rondas de inversión el año que viene. La razón es clara: sus gastos crecerán de forma paralela al teórico crecimiento del número de usuarios y servicios.

350 millones de usuarios mensuales (del ChatGPT gratuito). La base de usuarios de OpenAI ha crecido de forma considerable, y según esos documentos ronda ahora los 350 millones de usuarios. Ese dato se refiere a los que usan la versión gratuita de ChatGPT, ya que se estima que solo unos 10 millones de usuarios pagan la suscripción de 20 dólares al mes para disfrutar de ChatGPT Plus o alguna de las ofertas de pago de la plataforma, como la API. Más de un millón de desarrolladores independientes hacen uso de la tecnología de OpenAI para ofrecer sus propios servicios, por ejemplo.

Quiero ganar más, así que subiré (un montón) los precios. Esas proyecciones de ingresos tienen detrás una razón: OpenAI subirá precios. Según los documentos revelados por el New York Times, la suscripción pasará a costar dos dólares más a final de año, pero ese será tan solo el principio de una escalada que hará que en cinco años la suscripción de 20 dólares cueste 44 dólares.

En 2029 OpenAI ingresará 100.000 millones de dólares. Esa es al menos la otra gran proyección que se cita en los documentos, y que plantea que en cinco años los ingresos de 2024 se multiplicarán por 27 y alcanzarán los 100.000 millones de dólares. Esa es la cantidad que en la actualidad ingresa Nestlé, con una capitalización de mercado de 260.000 millones.

¿Nuevos modelos (más caros) a la vista? Puede que subir precios no sea suficiente para lograr esos objetivos. El reciente lanzamiento de o1, por ejemplo, no parece haber llamado especialmente la atención, y se critica que sus resultados en varios escenarios no son tan buenos para costar seis veces más que GPT-4o. Puede que un potencial GPT-5 o las interesantes opciones de voz —las demos eran realmente prometedoras— atraigan a más usuarios, desde luego, pero por ahora todo aquí son incertidumbres. Y también puede que esas opciones sean excusa perfecta para que OpenAI suba gradualmente el precio del servicio.

En Xataka | Sam Altman se postula como el Zuckerberg de la IA: está cada vez más solo, y que OpenAI triunfe o fracase será cosa suya



via Robótica e IA - Xataka https://ift.tt/KDGjrmQ

Apple no participará en la nueva ronda de inversión de OpenAI, según el WSJ. Tiene buenos motivos

Apple no participará en la nueva ronda de inversión de OpenAI, según el WSJ. Tiene buenos motivos

La ronda de inversión de OpenAI podría cerrarse estos días. Se espera que la firma levante 6.500 millones de dólares y que su valoración estimada alcance unos espectaculares 150.000 millones de dólares. En esa ronda participarán supuestamente gigantes como Microsoft o NVIDIA, pero hay una empresa que no lo hará.

Apple pasa de OpenAI. Al menos eso es lo que aseguran en The Wall Street Journal, donde según una fuente cercana a las negociaciones Apple habría decidido no participar en la ronda de inversión de OpenAI a pesar de los rumores que la situaban como una de las protagonistas de la ronda.

Hubiera sido extraño. Como señalaban también en el WSJ hace semanas, el movimiento hubiera sido raro en una Apple que no suele invertir en startups aunque sí lo hace en socios en el ámbito de la producción. En los últimos años ha invertido solo de forma ocasional: lo hizo en 2016 en Didi Chuxing y en 2017 en Vision Fund, subsidiaria de SoftBank Group.

No sería neutral. Cuando en Cupertino lanzaron Apple Intelligence hablaron de ChatGPT como una opción si los usuarios querían utilizarlo para algunos escenarios en su interacción con los nuevos iPhone. Sin embargo indicaron que estaban abiertos a ofrecer otras opciones —como Gemini, de Google—. De haber participado en la ronda de inversión de OpenAI, su postura sería menos neutral y podría comprometer el compromiso con otros desarrollos y chatbots.

Microsoft y NVIDIA, candidatas. Se espera que Microsoft —que ya ha invertido miles de millones en OpenAI— y NVIDIA participen en la ronda de inversión. Su papel será previsiblemente menor que el del fondo de capital riesgo Thrive Capital, que se espera lidere la ronda con 1.000 millones de dólares. Otro de los protagonistas podría ser la firma de inversión MGX, respaldada por los Emiratos Árabes Unidos.

Apple confía en su propia IA. La decisión puede tener también mucho que ver con la confianza que Apple puede tener en su propia plataforma de inteligencia artificial, Apple Intelligence, y la que tiene en la de OpenAI. El despliegue de Apple Intelligence está a punto de producirse, pero sus opciones serán limitadas de momento. La firma parece querer ir con mucha cautela, pero lo que parece claro es que su ecosistema —como los de Google o Microsoft— le da una ventaja excepcional para acabar convirtiéndose en referente en este mercado.

Imagen | ACC & Apple Partnership | The Grove 2022

En Xataka | Nvidia, OpenAI y Microsoft están siendo los grandes ganadores de la IA. Estados Unidos cree que tienen demasiado poder



via Robótica e IA - Xataka https://ift.tt/Q3lg251

Zuckerberg nos anticipó el futuro en 2016. Su hoja de ruta para Meta se está cumpliendo con una precisión milimétrica

Zuckerberg nos anticipó el futuro en 2016. Su hoja de ruta para Meta se está cumpliendo con una precisión milimétrica

Mark Zuckerberg presentó en 2016 un plan a diez años para la entonces Facebook, hoy Meta. Detallaba, por fases, las tecnologías y plataformas que irían llegando. Ocho años después, esa hoja de ruta se está cumpliendo con una precisión espectacular.

Por qué es importante. El buen ojo de Zuckerberg demuestra su visión a largo plazo... y lo importante que resulta en un fundador y CEO para que la empresa perseguir objetivos estratégicos, no solo buenos resultados trimestrales.

Roadmap Roadmap Imagen: Meta.

La panorámica. El plan del CEO se basaba en tres pilares:

  1. Conectividad global.
  2. Inteligencia Artificial.
  3. Realidad virtual / aumentada.

Hoy, Meta está liderando o impulsando de forma importante esas tres áreas.

En detalle:

  • Conectividad: aunque su plan con drones no funcionó, Meta ha invertido en soluciones terrestres, como infraestructura de fibra óptica.
  • IA: ya en 2016 se contemplaba el razonamiento y la capacidad de planificar. Hoy Meta es uno de los líderes en procesamiento de lenguaje natural y visión computacional.
  • Realidad virtual / aumentada: la división Reality Labs sigue innovando, tanto con la línea Quest como con las Ray-Ban Meta y las recién mostradas Orion.

Qué ha ocurrido. En estos ocho años, Meta ha...

  • Conectado a miles de millones de personas mediante Facebook, Instagram y WhatsApp.
  • Desarrollado IA de código abierto (con matices) y de primer nivel.
  • Liderado la innovación en realidad virtual y aumentada.

Y ahora qué. Con dos años por delante hasta el horizonte de su plan original, Zuckerberg parece empeñado en cumplir con uno de sus asteriscos, el Metaverso, además de consolidar a Meta en el resto de áreas.

Su éxito se basa en una visión a largo plazo que el tiempo ha demostrado coherente, una disposición a asumir riesgos y apostar los recursos de la empresa, y un fomento de la innovación por encima del conformismo sobre los terrenos conquistados.

De paso, nos recuerda el buen hacer a largo plazo de un fundador ahora que el founder mode divide a Silicon Valley.

En Xataka | La tapada de la IA es Meta. Lleva más de una década apostando por ella y ya tiene mucho más que LLaMa

Imagen destacada | Facebook



via Robótica e IA - Xataka https://ift.tt/zJIf4wm

Mark Zuckerberg explica en dos minutos por qué las Big Tech van a seguir gastando dinero en IA como si no hubiera mañana

Mark Zuckerberg explica en dos minutos por qué las Big Tech van a seguir gastando dinero en IA como si no hubiera mañana

La semana pasada Meta celebró un evento en el que nos habló de sus gafas Orion de realidad aumentada o de las Meta Quest 3S. Pero también aprovechó para presentar Llama 3.2, la nueva versión de su LLM que ahora también está muy enfocada a conquistar nuestros móviles. En una entrevista comentando estos lanzamientos, Mark Zuckerberg hablaba de un tema importante: por qué están invirtiendo dinero en IA como si no hubiera mañana.

La IA tenía límite. En una entrevista reciente con la youtuber Cleo Abram, Mark Zuckerberg explicaba cómo en arquitecturas IA anteriormente exploradas podías alimentar el sistema con cierta cantidad de datos pero en algún momento daba igual que  lo alimentaras con más datos o usaras más recursos para entrenarlo: llegabas a un punto muerto y aquello no avanzaba más.

Pero ahora no parece tenerlo. Sin embargo, con los sistemas basados en la arquitectura "Transformer" ese punto muerto no parece alcanzarse nunca. En los últimos años no han parado de alimentarse estos sistemas con más y más datos y las infraestructuras de entrenamiento e inferencia no paran de crecer, pero da igual: los modelos siguen mejorando. Como dice Zuckerberg, "aún no hemos encontrado el límite".

Llama seguirá creciendo. El CEO de Meta destacaba que debido a esto "eso nos lleva a esa dinámica en la que podríamos entrenar Llama 3 con entre 10 y 20.000 GPUs, luego entrenar Llama 4 con más de 100.000 y con Llama 5 podríamos escalar aún más, y ahí se plantea una interesante pregunta, que es hasta dónde podemos llegar".

Pero pueden estar equivocados. Zuckerberg, eso sí, es consciente de que podrían equivocarse. "Es totalmente posible que en algún momento alcancemos el límite" pero cree que no llegaremos a ese límite a corto plazo. Están apostando claramente por ello, pero reconoce que no está seguro de lo que puede pasar. Eso sí, por el momento está claro: seguirán invirtiendo dinero sin parar.

Es lo que hacen todas. El discurso de Zuckerberg respalda la situación actual. No ya la de Meta, sino la de todas las grandes tecnológicas, que han invertido sumas de dinero absolutamente descomunales confiando en que efectivamente los modelos de IA son el futuro.

Matizaciones. Yann LeCun, máximo responsable de IA en Meta, también compartía ese framento en X. Un usuario le preguntaba qué opinaba al respecto y LeCunn aclaraba que los grandes modelos de lenguaje (LLM) "puros y auto-regresivos" son "un callejón sin salida" si buscamos una IA de nivel humano, pero "siguen siendo muy útiles a corto plazo". Para él toda esa infraestructura puede ir más allá de simplemente exprimir los modelos de IA generativa actuales.

Zuck dice esto porque tiene que decirlo. Las palabras de Mark Zuckerberg no son en absoluto sorprendentes: tiene que defender su apuesta en IA como antes lo hizo con la apuesta del metaverso. Con aquella perdió y sigue perdiendo una verdadera fortuna, pero en aquella oscasión Meta fue la única que confió en el concepto. Ahora han virado y han dejado el metaverso en segundo plano —pero siguen trabajando en el concepto—, pero la diferencia es que su clara apuesta por la IA no es solo de ellos: es de toda una industria. Eso no quiere decir que toda la industria no pueda estar equivocada, por supuesto: el propio Zuckerberg lo apunta en esos comentarios.

En Xataka | OpenAI está quemando el dinero como si no hubiera mañana. La pregunta es cuánto podrá aguantar así



via Robótica e IA - Xataka https://ift.tt/NT7Png4

domingo, 29 de septiembre de 2024

Un centro de estudios carísimo de Londres va a probar a tener una clase que aprenda sólo con IA. Y hay polémica

Un centro de estudios carísimo de Londres va a probar a tener una clase que aprenda sólo con IA. Y hay polémica

Parece que, al contrario que otras revoluciones tecnológicas, la inteligencia artificial ha llegado para quedarse. El bombardeo de la IA es constante y es algo que está presente en todos los sectores: desde los teléfonos que tenemos en nuestros bolsillos, como el iPhone 16 (en algún momento, al menos), el Pixel 9 o el Galaxy S24, hasta el uso en centrales nucleares, pasando por otras muchas aplicaciones. Y también nos está ayudando a ser más productivos. Por otro lado, una gran pregunta es la de si nos sustituirá en algún momento, y parecía que, entre las profesiones susceptibles, los docentes podían estar tranquilos.

Una escuela privada de Londres quiere tambalear eso y ha empezado a dar clases en las que la inteligencia artificial será la docente. ¿Sus motivos? Ofrecer a los alumnos un aprendizaje más preciso y personalizado.

La IA manda. El uso de inteligencia artificial como copiloto o compañero de investigación es algo realmente interesante. Ya hay quien está empezando a formar a los científicos para que optimicen el uso de la IA de cara a que sea esta la que realice las pruebas más mecánicas mientras ellos se dedican a otras labores. Este tipo de herramientas de IA se pueden aplicar casi a cualquier sector y son útiles para aligerar la carga de trabajo en tareas monótonas, pero en el David Game College, será ella la que lleve la voz cantante.

De momento, la IA se encargará de dar las clases en uno de los cursos para 20 estudiantes. Y será para alumnos que se estén preparando para el General Certificate of Secondary Education (el título de educación secundaria para estudiantes de 15 y 16 años).

Realidad virtual, cómo no. Estos estudiantes tendrán como material escolar un ordenador con la plataforma de inteligencia artificial y unos cascos de realidad virtual. Y es esa plataforma de IA la que detecta de qué nivel parte el alumno, aprende sobre sus puntos fuertes y débiles y va adaptando su plan de aprendizaje de manera trimestral. Los más complejos estarán al final del trimestre, mientras que los más asequibles se empiezan a abordar desde el comienzo de curso.

¿El precio? 27.000 libras. Puede parecer elevado, pero el precio de las escuelas e institutos privados de Reino Unido oscila entre las 10.000 y 40.000 libras, dependiendo del nivel del centro y sus recursos.

Todo ventajas. El plan de aprendizaje estará personalizado a cada estudiante y John Dalton, codirector del David Game College, afirma que, aunque "hay muchos profesores excelentes, todos somos falibles". Afirma que los sistemas de inteligencia artificial pueden detectar con más eficacia que un humano si un alumno está aprendiendo o no. Además, pone en valor estas herramientas afirmando que "es muy difícil lograr el nivel de precisión y exactitud de la IA, y también esa evaluación continua".

"Entrenadores de aprendizaje". Hay alumnos que dan la razón a Dalton. Uno de ellos comenta que "un profesor no conoce realmente sus defectos porque tiene muchos estudiantes, pero la IA descubrirá cuáles son esos defectos y lo ayudará a mejorar". Ahora bien, la IA no estará sola, ya que hay tres "entrenadores de aprendizaje" que brindarán apoyo a los alumnos y están presentes para supervisar el comportamiento. No han afirmado si el comportamiento de la IA o de los estudiantes.

Lo que sí se ha especificado es que esta educación será ideal para estudiantes no tradicionales que prefieran aprender fuera de un entorno de aula tradicional o que hayan sido educados en casa y, ahora, quieran empezar a ir a un centro.

La IA no es omnipotente. ¿Significa eso que los profesores están acabados? Por mucha confianza que el centro tenga en la inteligencia artificial, parece que reconoce que hay tareas que la IA no puede realizar y serán esos 'profesores asistentes de la IA' los que impartirán las clases de arte, educación sexual y otras materias en las que la IA tiene problemas.

Uno de esos profesores es Alexander Vansittart, exprofesor de latín que se une al equipo de asistentes de IA y declara que está entusiasmado por lo mucho que esto "podría hacer por los jóvenes a la hora de cambiar sus vidas".

Es ir demasiado lejos. Como no podía ser de otra forma, la idea de que sea una máquina la que imparta las clases no gusta a todo el mundo. Un docente no es una mera Wikipedia, ya que se encarga de otras muchas cosas y Chris McGovern, un director de escuela que ya está jubilado, cree que la IA puede tener un papel en las aulas, pero que confiar la educación de los jóvenes a esta herramienta es llevarla demasiado lejos.

McGovern comenta que "el problema con la IA y la pantalla de los ordenadores es que es una máquina y, por tanto, inerte. Esto deshumaniza el proceso de aprendizaje al eliminar las habilidades interpersonales y la interacción entre alumnos y docentes". Además, complementa con una reflexión: "si se va a seguir únicamente el camino de la IA, nos espera un futuro desolador y sin alma".

Dinero. Algo que también afirma McGovern es que entiende los motivos, ya que las escuelas impulsarán esto al ser más barato. No está de acuerdo el centro, ya que han comentado que han contratado más personal para poder realizar el curso.

Y desde el Gobierno, lo cierto es que se busca impulsar el uso de la IA en el aula como herramienta y para otorgar a los maestros "una mano amiga". Sin embargo, en el David Game College, no es una mano amiga, sino quien lleva la voz cantante.

Imagen | David Game College

En Xataka | Una IA aprendió gracias a mis canciones a componer, ¿tengo derecho a una parte de los ingresos que generen sus "obras"?



via Robótica e IA - Xataka https://ift.tt/JANj3bz

sábado, 28 de septiembre de 2024

Un antiguo problema de geometría ha inquietado a los matemáticos durante décadas. Por fin lo han resuelto

Un antiguo problema de geometría ha inquietado a los matemáticos durante décadas. Por fin lo han resuelto

Los sólidos de espesor o anchura constante apasionan a algunos matemáticos desde hace décadas. Si nos ceñimos a su geometría estos objetos tridimensionales se caracterizan por tener la misma anchura, entendida como la distancia que existe entre dos de sus lados opuestos, medida desde cualquier dirección. Lo más curioso es que esta peculiar geometría permite a estos cuerpos rodar como una esfera, si, por ejemplo, los colocamos entre dos superficies planas. Pero no son esferas. Y, además, como su anchura es constante la distancia entre las dos superficies planas mientras ruedan entre ellas siempre es la misma.

En el ámbito de la geometría no es fácil entender con cierta precisión de qué estamos hablando si no podemos ir más allá de las palabras. Afortunadamente, la imagen de portada de este artículo ilustra estupendamente qué es un sólido de anchura constante. Por supuesto, el objeto que nos interesa es el de la derecha, y se conoce como triángulo de Reuleaux. Si lo observamos cuando está en reposo cuesta aceptar que sea capaz de rodar como una esfera. Pero sí, rueda. Solo tenemos que aplicarle una fuerza para comprobarlo. Y la razón por la que lo hace es, sencillamente, porque, como hemos visto, tiene el mismo grosor en todas las direcciones.

La pregunta de Oded Schramm lo inició todo

En 1988 Oded Schramm, un estudiante de posgrado en matemáticas de la Universidad de Princeton (EEUU), se preguntó si sería posible construir un cuerpo de anchura constante en cualquier dimensión que sea exponencialmente más pequeño que una esfera. En este contexto es importante que sepamos que una esfera es el objeto de mayor anchura constante en tres dimensiones. La pregunta de Schramm puede parecer artificiosa, e, incluso, irrelevante. Pero no lo es en absoluto. Este es el tipo de preguntas que se hacen los matemáticos, y con frecuencia la respuesta, cuando dan con ella, les entrega un conocimiento que a veces tiene aplicaciones prácticas muy importantes.

Desde entonces han pasado ya más de tres décadas y media, y, por fin, ha llegado la respuesta al interrogante de Oded Schramm. Sus artífices son cuatro matemáticos ucranianos y uno estadounidense. Su investigación en el ámbito de la geometría provocó que sus caminos terminasen cruzándose, y a finales del pasado mes de mayo publicaron un artículo científico en el que han demostrado que la respuesta a la pregunta de Schramm es sí. Sí es posible construir un cuerpo de anchura constante en cualquier dimensión exponencialmente más pequeño que una esfera.

Gracias a este trabajo los matemáticos que investigan en esta área por fin van a poder acceder a un lugar de la geometría que hasta ahora resultaba inalcanzable

Una vez que hemos llegado a este punto es razonable que nos hagamos dos preguntas. La primera es evidente: ¿qué procedimiento han seguido estos matemáticos para llegar a esta conclusión? Y, lo que es si cabe aún más importante, ¿qué implicaciones tiene este hallazgo en el ámbito de la geometría? En este artículo no vamos a indagar de forma meticulosa en la demostración que han elaborado estos investigadores porque es demasiado complicada, pero esto no significa que no podamos formarnos una idea más o menos certera acerca de cuál ha sido su estrategia.

A grandes rasgos lo que han hecho para responder afirmativamente a la pregunta de Schramm ha sido tomar como punto de partida el triángulo de Reuleaux en dos dimensiones. El algoritmo que permite construir desde un punto de vista geométrico este cuerpo se puede utilizar para llegar a sólidos de anchura constante en dimensiones superiores. El problema es que cada vez es mucho más difícil construir este objeto porque a medida que aumenta el número de dimensiones la diferencia entre los volúmenes de los cuerpos de anchura constante más pequeños y más grandes crece exponencialmente. Las matemáticas que sostienen todo este esqueleto son complicadas, pero estas son las ideas que les han permitido encontrar la respuesta a la pregunta que formuló Schramm a finales de los 80.

En cualquier caso, es incluso más interesante averiguar qué posibles implicaciones tiene el trabajo de estos cinco matemáticos. Curiosamente, el triángulo de Reuleaux tiene aplicaciones prácticas desde hace mucho tiempo. De hecho, se utiliza en la punta de algunas brocas, púas de guitarra y tuercas. Y en dimensiones superiores, según Andrii Arman, uno de los matemáticos que han participado en esta investigación, los cuerpos de anchura constante podrían resultar útiles para desarrollar métodos de aprendizaje automático ideales para analizar conjuntos de datos de alta dimensión (se trata de datos que dependen de un gran número de variables). Gracias a este trabajo los matemáticos que investigan en esta área por fin van a poder acceder a un lugar de la geometría que hasta ahora resultaba inalcanzable. Esta es, en realidad, la mejor noticia de este artículo.

Imagen | Ramona Trusheim

Más información | arXiv | Quanta Magazine

En Xataka | Esta joven china de 17 años es un prodigio de las matemáticas. Ha derrotado a estudiantes del MIT, Cambridge y Stanford



via Robótica e IA - Xataka https://ift.tt/lwS1gpK

viernes, 27 de septiembre de 2024

Microsoft se ha puesto las pilas: así ha actualizado Recall de Windows 11 tras una avalancha de críticas de seguridad

Microsoft se ha puesto las pilas: así ha actualizado Recall de Windows 11 tras una avalancha de críticas de seguridad

Se suponía que Recall sería una de las características estrella de los nuevos PC Copilot+ anunciados en mayo. La propuesta era más que interesante. Esta “memoria fotográfica” impulsada por inteligencia artificial (IA) tomaría instantáneas periódicas de nuestra pantalla con el objetivo de que pudiéramos recuperar cierta información que no apuntamos de manera sencilla. Por ejemplo, ese restaurante que nos recomendó un amigo tiempo atrás.

El problema es que Recall también era una auténtica pesadilla de seguridad. Las críticas se multiplicaron por todas partes, principalmente por especialistas en la materia. Este escenario llevó a la compañía de Redmond adoptó una postura de “mejor prevenir que curar”. Como señalábamos en un artículo anterior, el lanzamiento de la característica fue demorado. ¿La razón? Precisamente, abordar aquello que estaba empañando su lanzamiento.

Recall se actualiza con la mirada puesta en la seguridad

Uno de los cambios más importantes es que Recall será opcional desde el principio. Esto quiere decir que los usuarios tendremos que activarla conscientemente antes de empezar a utilizarla. No se tratará de una característica predeterminada. Por otra parte, Windows 11 permitirá quitar completamente Recall de nuestra máquina. Esto último, aparentemente, es un cambio reciente. Recordemos que Microsoft había descartado la opción de desinstalación.

La compañía de Redmond también ha abordado un problema que podía permitir que actores malintencionados se hicieran con datos sensibles del usuario. Esto se debía a que las instantáneas no estaban debidamente protegidas, por lo que quedaban expuestas. Recall ahora se apoya en el Módulo de Plataforma Segura (TPM), uno de los requisitos indispensables de Windows 11, para fortalecer el cifrado y ofrecer mayor seguridad.

Windows 11 Recall 2 Windows 11 Recall 2

Técnicamente, la única forma de recuperar estos datos es pasar por Windows Hello, la plataforma de autenticación de Windows 11 que puede ser utilizada con datos biométricos. “Hay una capa de aplicación de interfaz de usuario que no tiene acceso a capturas de pantalla sin procesar ni a la base de datos de Recall”, dijo David Weston, VP de seguridad empresarial y de sistemas operativos de Microsoft, en comentarios a The Verge.

Recall Settings Dialog Recall Settings Dialog

Los cambios también alcanzan el tipo de información que Recall puede almacenar. Esta característica tendrá ajustes que permitirán excluir determinados tipos de contenidos, como datos de tarjetas de crédito, contraseñas y más. Microsoft tiene una página dedicada con más datos sobre lo que consideran información confidencial. La compañía también agregará la capacidad de eliminar un rango de la base de datos de Recall.

Todavía no hay un marco de lanzamiento claro. Microsoft ha dicho que Recall estará disponible para Windows Insiders, el programa que brinda acceso a versiones preliminares de Windows, en octubre. Más tarde se producirá el lanzamiento generalizado. Cabe señalar que, en todos los casos, los únicos que podrán utilizar esta herramienta serán quienes posean equipos PC Copilot+, es decir, con Windows 11 y más de 45 TOPS de rendimiento.

Imágenes | Microsoft

En Xataka | Kaspersky les ha instalado un nuevo antivirus a sus usuarios. Lo ha hecho por sorpresa y sin apenas avisos

En Xataka | Microsoft nos dijo que Recall solo funcionaría en los nuevos PC Copilot+. Alguien acaba de activarlo en un ordenador común



via Robótica e IA - Xataka https://ift.tt/qVmZt0E

Meta quiere meter Llama en nuestros móviles, pero lo tiene crudo: pasó lo mismo con los navegadores web

Meta quiere meter Llama en nuestros móviles, pero lo tiene crudo: pasó lo mismo con los navegadores web

El miércoles se celebró el evento Meta Connect 2024, y en él pudimos conocer llamativas novedades como las gafas Orion de realidad aumentada o las nuevas gafas de realidad mixta asequibles de a compañía, las Meta Quest 3S.

De lo que no se habló tanto fue de Llama 3.2, la nueva versión del LLM —ahora, multimodal— con el que la compañía sigue tratando de conquistar este segmento. 

Que siga presumiendo de que su IA es Open Source es ya casi lo de menos: lo curioso es que en Llama 3.2 se ofrecen no solo chatbots que compiten con ChatGPT o Claude, sino también versiones "compactas" destinadas a nuestros móviles.

Meta quiere colarse en nuestro móvil con Llama

Es cierto que Llama 3.2 contará con un modelo gigante 405B (405.000 millones de parámetros) y otros dos más convencionales (90B y 11B), pero además ofrecerá  dos modelos ligeros con 1.000 y 3.000 millones de parámetros (1B y 3B, respectivamente) que como decimos quieren "meterse" en nuestros móviles.

Benchmarks Benchmarks El rendimiento de los modelos "ligeros" de Llama 3.2 es prometedor. No está nada claro que eso sirva de mucho.

Según análisis internos de Meta, las prestaciones de dichos modelos están a la altura de competidores como Gemma 2 2.6B o Phi-3.5-mini en tareas como generar resúmenes, reescribir textos o seguir instrucciones.

En la empresa han colaborado con Qualcomm y MediaTek en este desarrollo, lo que plantea un funcionamiento fluido en estos chips.

Meta 1 Meta 1

Está claro que quieren poder meter Llama en nuestros móviles, pero hay un componente software que debería mostrarle a Meta lo díficil que es eso.

El navegador web.

La trampa de los navegadores "por defecto"

Así es. Una de las grandes guerras tecnológicas tuvo como protagonista a los navegadores. El auge de internet convirtió a Netscape en la OpenAI de finales de los 90. Microsoft pronto le cortó las alas a aquel proyecto, y logró meter con calzador su Internet Explorer como parte integral de Windows... durante un tiempo.

Luego llegarían Firefox, las demandas antimonopolio, la célebre ballot screen y un Google Chrome que aplastó a todos sus rivales, incluido Safari, con una cuota reducida (apnas un 9,4%) incluso en los Mac.

Eso en el PC, claro, porque con la llegada de los smartphones tanto Google como Apple quisieron apretarnos los tornillos. Les merecía la pena, claro: esos navegadores integraban motores de búsqueda, y esos motores de búsqueda daban mucho dinero.

Y así es como llegamos a una situación como la actual en la que nuestros smartphones nos dejan ciertamente utilizar otros navegadores, pero el navegador por defecto, el preinstalado, es Chrome en Android y Safari en iOS. Y no hay mucha gente que cambie el navegador por defecto, y Google y Apple lo saben.

Mobile Browser Mobile Browser Cuota global de mercado de navegadores en dispositivos móviles. Chrome y Safari están en 9 de cada 10 dispositivos.

Eso hace que dos de cada tres usuarios utilicen Chrome como navegador en el móvil (66,2%, según Statcounter GlobalStats), y casi uno de cada cuatro utilice Safari (23,26%, misma fuente), que aquí gana muchos enteros gracias a la inmensa popularidad del iPhone.

¿Hay otros navegadores disponibles en iOS y Android? Desde luego. Sabéis cuál es su cuota conjunta en la actualidad? Apenas un 10%, que se reduce a un 6% si excluimos al navegador de Samsung, que lógicamente también aprovecha la popularidad de sus móviles para sacar (un poco de) tajada.

Google, Apple y Microsoft no van a ponerlo nada fácil

La situación de los navegadores en móviles nos hace pensar en ese futuro de la IA en nuestros PCs y portátiles. Los movimientos que estamos viendo en los últimos meses así lo confirman:

  • Google. está integrando Gemini todo lo que puede como parte de la experiencia Android para ir más allá de lo que hasta ahora podíamos hacer con el asistente de Google.
  • Apple. El lanzamiento de Apple Intelligence como parte integral de iOS, iPadOS y macOS plantea justo lo mismo para los iPhone, pero también para iPad o Mac.
  • Microsoft. Los copilotos nos envuelven, y poco a poco van también siendo un componente nativo de Windows 11.

Los tres grandes protagonistas de la experiencia software en nuestros móviles y PCs están moviendo ficha para ofrecer sus experiencias de IA por defecto —como ya hicieron con el navegador— y dejar a los rivales en clara desventaja.

Meta, Anthropic, e incluso OpenAI se enfrentan a un futuro complicado: a menos que puedan plantear un desarrollo con unas prestaciones diferenciales, tendrán muy difícil que los usemos porque "oye, ya tenemos un chatbot preinstalado y que no va mal".

Es lo que ocurrió con los navegadores, insistimos. Y es muy probable que acabe ocurriendo con estas plataformas de IA que quieren meterse en nuestros PCs y nuestros móviles.

En Xataka | La Ley de IA europea acaba de ser aceptada por más de 100 empresas. Hay dos grandes ausencias: Apple y Meta



via Robótica e IA - Xataka https://ift.tt/P2IyDNb

Hugging Face es la joya de los "exploradores de IA": ya tiene un millón de modelos para probar

Hugging Face es la joya de los "exploradores de IA": ya tiene un millón de modelos para probar

Si quieres probar un nuevo modelo de IA generativa, tienes varias opciones. Puede que sus desarrolladores ofrezcan su propio servicio web —como hacen OpenAI, Google, Microsoft, Meta o Anthropic—, pero en muchos casos, sobre todo para desarrolladores Open Source, no es así. Y ahí es donde Hugging Face se ha convertido en absoluta referencia.

Nada de descargas e instalaciones. En Hugging Face han conseguido facilitar el acceso a esos modelos de forma notable. La plataforma, con una estructura que recuerda ligeramente a GitHub, aglutina todo tipo de modelos para que si queremos podamos "desplegarlos" y usarlos como si lo estuviéramos haciéndolo en nuestro propio PC.

Captura De Pantalla 2024 09 27 A Las 11 44 14 Captura De Pantalla 2024 09 27 A Las 11 44 14 El número de modelos se ha incrementado de forma espectacular en los últimos meses. Fuente: Hugging Face.

Más de un millón de modelos de IA. Como señalan en Ars Technica, la plataforma ya cuenta con más de un millón de modelos de IA disponibles, algo que deja claro el inmenso número de proyectos que han surgido desde que ChatGPT iniciara esa explosión de IA generativa.

Comenzó como un chatbot. Es curioso, pero en sus inicios en 2016 Hugging Face inició su andadura como un limitado chatbot de IA. En 2020, dos años antes antes del lanzamiento de ChatGPT, pivotaron y se convirtieron en un concentrador de modelos de IA con filosofía Open Source. El número de modelos en la plataforma ha crecido de forma espectacular, sobre todo desde el inicio de 2023. El año pasado, eso sí, lanzaron su propio rival Open Source de ChatGPT.

Captura De Pantalla 2024 09 27 A Las 12 12 27 Captura De Pantalla 2024 09 27 A Las 12 12 27 Probando el nuevo Llama 3.2 (3B) gracias a Hugging Face. Como era de esperar, se sigue haciendo un lío contando erres, como ocurre en la mayoría de modelos. Aun así, Lo importante es que poder probar modelos como este a golpe de clic es muy fácil gracias a esta plataforma.

Grandes modelos, pero también pequeños. Clement Delangue, cofundador y CEO de la empresa, celebraba el hito destacando que la plataforma ofrece acceso a grandes modelos (Llama, Gemma, Phi, Flux, Mistral, Stable Diffusion, Grok, Whisper, entre ellos), pero "también a otros 999,984".

Que vivan los modelos especializados. Para Delangue el mensaje de "un modelo para dominarlos a todos" es una falacia. Según él, "es mejor disponer de modelos más pequeños, personalizados y optimizados para tu caso de uso, tu dominio, tu lenguaje, tu hardware y, en general, tus limitaciones".

Forks por doquier. Esa labor de "ajuste" y personalización de modelos ha impulsado ese crecimiento de modelos disponibles. Muchos parten de una misma base para luego sufrir modificaciones y procesos de "fine-tuning" a partir de los cuales aparecen modelos derivados, algo así como los forks de proyectos software. Llama, el LLM de Meta, es un buen ejemplo de ello: de él han salido muchísimos modelos derivados y ajustados para casos de uso específicos.

De todo y para todos. En Hugging Face podemos encontrar modelos para todos los gustos. Tenemos chatbots de texto tradicionales y variantes dedicadas a procesar texto, pero también modelos especializados para clasificación de imágenes, o detección de objetos. Su lista con los más descargados y usados es una demostración de esa variedad: el primero es un modelo paraclasificar contenido de audio, mientras que el segundo, BERT (de Google) se usa en proyectos de modelado del lenguaje.

En Xataka | La Ley de IA europea acaba de ser aceptada por más de 100 empresas. Hay dos grandes ausencias: Apple y Meta



via Robótica e IA - Xataka https://ift.tt/9sCwu5q

Una de las grandes beneficiadas en bolsa por la IA, investigada por irregularidades contables. Supermicro está en problemas

Una de las grandes beneficiadas en bolsa por la IA, investigada por irregularidades contables. Supermicro está en problemas

Supermicro comenzó el año como una de las grandes beneficiadas en bolsa por el auge de la IA generativa. Su enfoque corporativo le hizo pasar bajo el radar, pero vio cómo su valor explotaba. Ahora eso está cuestionado por una investigación del Department of Justice de Estados Unidos, el equivalente a nuestro Ministerio de Justicia.

Por qué es importante. Este fabricante de servidores ve su reputación y su negocio en juego. Si la investigación termina de forma desfavorable, podría no solo sufrir un correctivo en bolsa aún peor, sino ver su credibilidad ante los clientes rota.

Las cifras:

  • Las acciones de Supermicro cayeron hasta un 18,6% durante la jornada del jueves, tocando su mínimo desde enero.
  • La empresa tiene una capitalización bursátil de casi 24.000 millones de dólares.
  • El valor de las acciones ha caído más de un 30% desde finales de agosto.
Supermicro Stock Evolution Supermicro Stock Evolution

El contexto. Fue en agosto cuando Hindenburg Research, una firma de inversión, publicó un informe acusando a la empresa de manipulación contable. A finales de mes Supermicro retrasó la presentación de su informe anual.

Lo hizo citando la necesidad de contar con algo más de tiempo para evaluar sus mecanismos internos de control. En abril, un exempleado presentó una demanda por supuestas irregularidades contables.

Qué ha ocurrido. Según The Wall Street Journal, el Department of Justice ha abierto una investigación a Supermicro tras el informe de Hindenburg.

La investigación todavía está en su fase inicial, con un fiscal de San Francisco buscando información presumiblemente relacionada con las acusaciones del exempleado.

Entre líneas. El timing de la investigación, justo tras el informe de Hindenburg, sugiere que sus acusaciones pueden tener, como mínimo, fundamento.

El retraso en la presentación del informe anual podría indicar que Supermicro ya había detectado problemas internamente.

supermicro supermicro

Sí, pero. La investigación está en curso y todavía no hay un veredicto. Supermicro negó las acusaciones de Hindenburg, tachándolas de "falsas o inexactas".

Hindenburg es un actor similar a Gotham Research, famoso por destapar a Gowex en 2014:

  1. Busca empresas con irregularidades contables que presuman de una salud mucho mejor a la que realmente tienen.
  2. Una vez encuentran una, invierten en corto hacia ella: se beneficia financieramente si sus acciones caen.
  3. Cuando publican sus informes es lo que suele ocurrir: las acciones se desploman y consiguen ese beneficio.

Y ahora qué. Los inversores van a ser los primeros interesados en conocer cualquier avance de la investigación. Y va a ser especialmente interesante ver si Supermicro presenta su informe anual.

El resultado de la investigación dirá si todo queda en un susto o si Supermicro se enfrenta a una crisis que podría tener consecuencias devastadoras para la empresa.

Imagen destacada | Supermicro

En Xataka | La enorme línea que separa el hype de la realidad: apenas un 5% de las personas que compraron el Rabbit R1 lo usan a diario



via Robótica e IA - Xataka https://ift.tt/9kz1XWw

jueves, 26 de septiembre de 2024

Sam Altman se postula como el Zuckerberg de la IA: está cada vez más solo, y que OpenAI triunfe o fracase será cosa suya

Sam Altman se postula como el Zuckerberg de la IA: está cada vez más solo, y que OpenAI triunfe o fracase será cosa suya

El anuncio ayer de la dimisión de Mira Murati, CTO de OpenAI, ha sacudido una vez más a la industria tecnológica en general y al segmento de la IA en particular. Es en realidad una más en una desbandada preocupante

Un CEO con un sueldo de soldado raso. Sam Altman siempre dijo que no quería tener acciones de OpenAI, que ya tenía suficiente dinero. Lo tenía y lo tiene, desde luego, pero ahora podría tener mucho —muchísimo más—. Su sueldo en OpenAI, que en 2022 fue de unos 73.000 dólares, es sorprendentemente bajo para el CEO de una startup de estas dimensiones, pero la transformación de la empresa puede convertirle en un multimillonario de primer nivel.

Ronda de inversión colosal. En las últimas semanas se acumulan los datos y filtraciones sobre una nueva ronda de inversión. Según dichos datos, OpenAI levantará 6.500 millones de dólares, lo que hará que su valoración de mercado sea de 150.000 millones de dólares. Eso la situaría al nivel de Disney o Inditex, pero además hay otro cambio fundamental.

Hola, ánimo de lucro. Aunque OpenAI nació como una organización sin ánimo de lucro, las cosas comenzaron a cambiar en 2018, cuando la empresa pivotó. Pasó a adoptar una estructura en la que parte de la empresa si tenía ánimo de lucro, aunque con beneficios limitados artificialmente para cada socio. Aquel era en realidad un primer paso para la transformación total de la empresa en una compañía tradicional con ánimo de lucro. Esa metamorfosis permitirá lograr mejores inversiones a largo plazo, pero tendrá otro efecto.

Sam Altman se postula como el Zuckerberg de la IA. La larga lista de fundadores y directivos de OpenAI que han ido dejando la empresa ha hecho que su CEO, Sam Altman, asuma cada vez más poder y responsabilidad. En la actualidad no hay otras grandes figuras a su alrededor. Greg Brockman, uno de los últimos fundadores que aún siguen en la empresa, está de excedencia. Todo ello hace pensar un par de cosas. La primera, que algo no funciona en OpenAI —al menos, a juzgar por las dimisiones—, y eso que no funciona podría ser precisamente Sam Altman. Y la segunda, que todo apunta a que el futuro de OpenAI depende ya del citado Altman, que tiene un control casi absoluto de la empresa.

Acciones para Altman. Esa reestructuración y ese creciente protagonismo absoluto han levantado cada vez más dudas. Entre otras cosas, por las posibles implicaciones económicas que eso tendrá para el propia Altman Según Bloomberg, la directiva de OpenAI está debatiendo darle a Sam Altman un 7% de la compañía una vez se convierta totalmente en una empresa tradicional con ánimo de lucro. De confirmarse esa reestructuración y esa participación, Altman tendría un 7% de esos estimados 150.000 millones de dólares, o lo que es lo mismo, 10.500 millones de dólares a los que sumaría su actual fortuna personal, que se estima ronda los 2.000 millones de dólares. Estará aun muy lejos de las grandes fortunas actuales: en estos momentos Elon Musk tiene una fortuna de 195.000 millones de dólares según Forbes, por ejemplo.

Prepárense para las curvas. El futuro de OpenAI parece por tanto tan difícil de predecir como lo era el de Twitter cuando Elon Musk tomó el mando. La forma de actuar de Sam Altman en los últimos años parece dejar claro que él aboga de momento por el "muévete rápido y rompe cosas" y por lanzar (y comercializar) sus modelos de IA cuanto antes.

Del dicho al hecho hay mucho trecho. Su discurso público es también interesante. Por ejemplo, abogó por regular la IA con reuniones con varios mandatarios en la UE, pero lo hizo con un mensaje que beneficiaba a OpenAI. Lo mismo ha hecho con sus promesas sobre lo cerca que estamos de lograr desarrollar una AGI: sus recientes declaraciones son muy optimistas, pero no hay pruebas de que eso pueda ocurrir. Ni pronto, ni tarde. Esa promesa le conviene, por supuesto: está tratando de conseguir esa colosal ronda de inversión porque sabe mejor que nadie que OpenAI necesita mucho, muchísimo dinero para poder seguir trabajando en sus modelos de IA.

Imagen | TechCrunch | Anthony Quintano

En Xataka | Cómo conseguiremos que la inteligencia artificial no se nos vaya de las manos



via Robótica e IA - Xataka https://ift.tt/CZmP6oH