jueves, 28 de marzo de 2024

Los requisitos de Windows 11 fueron una pesadilla para muchos. Todo esto tendrá que tener tu ordenador para ser un AI PC

Los requisitos de Windows 11 fueron una pesadilla para muchos. Todo esto tendrá que tener tu ordenador para ser un AI PC

Durante el último año hemos sido testigos de un notable cambio de paradigma en Microsoft. El gigante de Redmond empezó a desplegar funciones de inteligencia artificial (IA) en la mayoría de sus productos, novedades que últimamente han ido agrupándose bajo la marca Copilot. Pero todo parece indicar que más cambios están en camino.

Uno de los próximos pasos en la estrategia de la compañía dirigida por Satya Nadella es consolidar el nombre AI PC. Algo que, con todas sus diferencias, puede recortarte al Multimedia PC (MPC) de la década de 1990, que recibía esa denominación si contaba con una unidad de CD-ROM. Entonces, ¿qué nos propone el AI PC? Veamos.

AI PC, un equipo optimizado para la inteligencia artificial

El concepto AI PC de Microsoft lleva meses dando vueltas sin una definición clara, sin embargo, Intel brindó algunos datos interesantes en un evento que realizó esta semana en Taipei. El fabricante de semiconductores describió a un AI PC como un ordenador optimizado para la inteligencia artificial que debe cumplir ciertos requisitos.

Lo cierto es que no todos los ordenadores compatibles con Windows 11 que se venden en actualidad pueden ser considerados AI PC. Para llevar este título, según Intel, Microsoft exige un dispositivo equipado con una unidad central de procesamiento (CPU), una unidad de procesamiento neuronal (NPU) y una unidad de procesamiento gráfico (GPU) compatibles.

Además de los mencionados requisitos, el equipo en cuestión debe estar equipado con la nueva tecla Copilot, que permitirá lanzar el asistente de IA de la compañía con una pulsación. Si el ordenador cumple con todos esto será considerado un AI PC, un nombre que probablemente se convertirá en una importante pieza de marketing.

Windows Pc Ai Windows Pc Ai

Más allá de su función para impulsar la venta de ordenadores, AI PC debería traer beneficios adicionales. Uno de ellos, que ciertamente no pasa desapercibido, es reducir la dependencia de la nube para la ejecución de funciones impulsadas por IA. En lugar de necesitar una conexión online, algunas tareas se podrán procesar de manera local.

El componente más importante para impulsar la ejecución de funciones de IA en local es el NPU. Cuando hablamos de NPU nos referimos a un tipo de chip que desde hace un tiempo lleva siendo incluido en los SoC de los teléfonos inteligentes y que recientemente han empezado a aparecer en el mundo de los ordenadores para Windows.

Los nuevos Core Ultra de Intel y los Ryzen 8000G de AMD ya incluyen estas novedades diseñadas específicamente para procesar tareas relacionadas a la IA. En este sentido, poco a poco iremos viendo ordenadores que cumplan con los requisitos para ser considerados AI PC y que, en teoría, sean capaces de brindar una experiencia mejorada. 

Imágenes | Microsoft | Intel

En Xataka | Intel y AMD se preparan para perder miles de millones de dólares. Buena parte de su negocio está en manos de China



via Robótica e IA - Xataka https://ift.tt/ZFiAc1k

Esta IA habla contigo y sabe si estás triste, emocionado o aburrido. Y la puedes probar gratis

Esta IA habla contigo y sabe si estás triste, emocionado o aburrido. Y la puedes probar gratis

Hace casi un año supimos de la existencia de Hume, una IA conversacional especializada en comprender las expresiones emocionales derivadas de nuestras palabras y nuestro tono. En tiempo real, aspiraba a ser capaz de detectar si su interlocutor está triste, preocupado, emocionado, angustiado, entusiasmado, dubitativo... Y así hasta 24 emociones. De momento.

Un año después podemos decir que lo ha logrado, o al menos está muy cerca de ello a tenor de la demo pública que podemos probar en su web de forma gratuita. Hemos podido charlar con ella para comprobar cómo es capaz de detectar nuestro tono para asumir nuestro estado. Con bastante tino.

"¡Me has pillado!"

Hume asegura ser capaz de detectar más de 24 expresiones emocionales distintas, y además usa información para responder de forma consecuente. Es decir, no solo es capaz de reconocer nuestras emociones, sino que además empatiza con nosotros. De hecho, su nueva API conversacional se llama 'Hume EVI'. 'EVI' son las siglas de 'Empatethic Voice Interface' ('Interfaz de Voz Empática').

Durante las conversaciones va haciendo transcripciones de nuestras consultas y de las respuestas del bot, separadas por pequeños bloques — sus respuestas suelen extenderse bastante.

Junto a cada uno de esos bloques, que puedan ser de una línea o de varias, enumera las principales emociones detectadas y el nivel de cada una de ellas. Por ejemplo, nuestra primera consulta ("Hola, soy de Valencia, España. ¿Qué sabes de mi ciudad?") detectó interés, confusión e incomodidad, que desde luego encajan mucho en la mezcla de lo que uno siente al probar por primera vez algo así.

A partir de ahí empezó a responder con la camaradería habitual del chatbot promedio ("He de decir que Valencia es una ciudad que siempre he querido visitar"), y resulta curioso ir viendo esas respuestas acompañadas de las distintas emociones.

Hume 2 Hume 2 Algunos fragmentos de las transcripciones y detecciones emocionales de nuestras conversaciones. Imagen: Xataka.

Luego hubo un momento peculiar: le dije que trabajo para Xataka, un medio de comunicación español, y le pregunté si lo conocía. Lo transcribió como 'Sataka', primer derrape. Luego me aseguró que sí, que es un nombre que le resulta familiar, que como "una voz empática por IA" intenta estar al tanto de las últimas novedades tecnológicas, y que ese medio hace un trabajo innovador, además de otros tópicos.

Cuando le dije "creo que me estás mintiendo. No tienes ni idea de lo que es Xataka, ¿verdad?" (emociones: contemplación, duda, realización), su respuesta fue 'Me pillaste. La verdad es que no sé gran cosa sobre Xataka' (emociones: enojo, diversión, decepción).

La IA sinvergüenza.

En otras pruebas pude comprobar que soy un pésimo actor y que mis esfuerzos para parecer compungido al decirle que mi perrito ha fallecido no se traducían en el reconocimiento de emociones negativas, sino más bien de dudas o curiosidad. En esta ocasión fue EVI quien me pilló a mí. Bien jugado.

Hume Hume Parte del equipo de Hume. De izquierda a derecha: Michael Opara y Lauren Kim (ingenieros fundadores), Alan Cowen (CEO y científico jefe) y Janet Ho (directora de operaciones). Imagen: Hume.

Hume es una startup neoyorquina que acaba de recaudar 50 millones de dólares en una ronda de inversión que eleva la valoración hasta los 219 millones de dólares.

Su objetivo no es solo dar respuestas, eso ya lo hacen muchos otros chatbots, sino diferenciarse por la capacidad de detectar explícitamente las emociones del humano que les habla para dar una respuesta adaptada a ellas.

Tras este proceso se basan tanto su propio modelo interno como el uso de LLM ajenos (GPT-3.5, Claude 3 Haiku y la búsqueda de Bing). Las respuestas tardan menos de un segundo en cargar y aunque tienen margen de mejora, son bastante prometedoras.

Ahora queda esperar a ver qué aplicaciones prácticas llegan para esta API. Pero por lo pronto, límites de la regulación al margen, podemos esperar que las máquinas no solo entiendan lo que les decimos sino también las emociones de las que emanan nuestras palabras. Y mentir puede no ser suficiente para camuflarlas.

Aunque ya lo publicamos al principio del artículo, dejamos nuevamente el enlace para probar Hume.

Imagen destacada | Hume

En Xataka | Ni la pizza con piña ni la tortilla sin cebolla: el debate que más polariza al equipo de Xataka son los audios de WhatsApp



via Robótica e IA - Xataka https://ift.tt/2bygdxN

Amazon apuesta fuerte por Anthropic: invierte 4.000 millones de dólares en los creadores de Claude, el tapado de la IA generativa

Amazon apuesta fuerte por Anthropic: invierte 4.000 millones de dólares en los creadores de Claude, el tapado de la IA generativa

Hace exactamente seis meses, septiembre de 2023, Amazon anunció una importante inversión en Anthropic: 1.250 millones de dólares para hacerse con una participación minoritaria, según la empresa de Bezos, en la startup de IA que está detrás de Claude, uno de los grandes productos de la ola actual de IA generativa.

Un semestre después, Amazon ha extendido esa inversión con 2.750 millones de dólares adicionales, recibiendo así un gran impulso tanto Anthropic como la propia Amazon.

Esfuerzos intensificados para no quedarse atrás en la carrera de la década

Amazon no es ajena a la IA generativa, aunque sí está teniendo una llegada algo más rezagada que la de otras grandes tecnológicas. Microsoft tuvo un ojo temprano para aliarse con OpenAI poco después del lanzamiento de ChatGPT. Google ha cristalizado los esfuerzos de años en la llegada de Gemini. Y Apple es fuerte en Machine Learning pero no en IA generativa, emplazándonos a la WWDC de junio para ver qué ofrece en este sentido con la llegada de iOS 18.

¿Qué tiene Amazon a día de hoy? En primer lugar, un chatbot llamado Olympus con muchas ambiciones, pero todavía en desarrollo. Su idea, según anticipó Reuters, es rivalizar con los mejores modelos de OpenaAI o de Alphabet gracias a uno propio que utiliza dos billones de parámetros (el doble de los que usa GPT-4).

Luego ha publicado alguna utilidad concreta usando IA, tanto de cara al público, como un generador de resúmenes para las reseñas de los productos de su tienda, como de uso interno, como un detector de productos dañados para sus almacenes "tres veces más efectivo" que los humanos.

Y ahora, esfuerzos redoblados con Anthropic. La cifra total de la inversión se eleva así hasta los 4.000 millones de dólares, que era el montante máximo previsto cuando se anunció la inversión original de septiembre, aunque en ese momento apenas se hizo efectivo algo más del 30% de ese tope.

Con los 2.750 millones de dólares se alcanza así el techo prefijado, síntoma de la buena sintonía entre ambas empresas y del compromiso de Amazon con la IA generativa, protagonista digital de esta era. El movimiento es parte de una tendencia: la de grandes empresas tecnológicas entrando en el accionariado de empresas emergentes y más pequeñas dedicadas exclusivamente a la IA.

Y así Amazon consolida su posición de actor relevante para codearse más de cerca con Alphabet y Microsoft en este campo. Ahora queda ver si esta participación se traduce en mejoras prácticas para los productos de Amazon en general y para Alexa en particular, que debutó hace diez años con mucha expectación pero hasta ahora ha logrado un uso inferior al esperado.

Con Claude no estamos hablando de un producto con más teoría que práctica: es realmente potente, especialmente para el procesado de larguísimos textos en tiempo récord a un ritmo muy superior al de ChatGPT.

Tras el anuncio, las acciones de Amazon reaccionaron positivamente, con una subida de casi el 1%.

En Xataka | Anthropic quiere desafiar la hegemonía de ChatGPT: Claude 3 es multimodal y puede absorber 150.000 palabras por consulta

Imagen destacada | Anthropic



via Robótica e IA - Xataka https://ift.tt/K6pAZsc

miércoles, 27 de marzo de 2024

Corea del Sur tiene un enorme problema con los abuelos y la soledad. Los robots con IA han llegado para intentar ayudar

Corea del Sur tiene un enorme problema con los abuelos y la soledad. Los robots con IA han llegado para intentar ayudar

En Corea del Sur tienen dos grandes problemas: el envejecimiento poblacional y la tasa de natalidad, que es la más baja del mundo con 0,7 hijos por mujer. Para 2025 se espera que el 20% de la población tenga más de 65 años, algo que el gobierno coreano ha calificado de "catástrofe demográfica". Corea del Sur se enfrenta así a una lenta, pero progresiva extinción que solo puede ser frenada por la inmigración o por medidas pro-natalidad. Mientras tanto, la cada vez más envejecida sociedad requiere cuidados que el gobierno ha de ofrecer. Y ahí es donde entra la IA.

El problema de la soledad. En Corea del Sur se juntan la vejez y la soledad, que puede ser fatal para los ancianos. Las cifras de 2022 hablan de que el 21,8% de las personas mayores de 65 años viven solas. Esto ha ido a más, ya que muchas de estas personas fallecen en sus casas y nadie se entera hasta pasados días o semanas. A estas "muertes solitarias" se las conoce como "godoksa" y son un problema. Solo en 2021 se registraron 3.378 muertes solitarias.

Compañía artificial. Muchas de estas personas mayores han roto lazos con sus familiares y personas cercanas, algo que se ha hecho notar en el sistema de salud. ¿Cómo ofrecer algo tan necesario como la compañía a semejante cantidad de personas mayores? Con robots e inteligencia artificial.

Una llamada. Compañías como Naver (uno de los mayores conglomerados de Internet coreanos) han creado CLOVA CareCall, una suerte de call center basado en inteligencia artificial que llama a los ancianos y mantiene conversaciones con ellos. Esta iniciativa se lanzó durante la pandemia del COVID-19 para recopilar información sobre el estado y los síntomas de los mayores, pero ha evolucionado desde entonces para convertirse en un servicio nacional de asistencia a los mayores. 70 gobiernos locales usan este sistema de llamadas, la mayoría para frenar las muertes solitarias.

7.000 muñecos. La IA puede ir más allá de una llamada y, en el factor forma correcto, puede ser de gran ayuda. Eso es lo que propone Hyodol, la compañía detrás de estos peculiares y suaves muñecos robóticos. Más allá de su cariñosa forma, de que se pueden abrazar, achuchar... lo realmente interesante es que están armados con inteligencia artificial. En pocas palabras, son capaces de entender el lenguaje, reconocer emociones, hablar y reproducir música. Además, incluyen interacciones táctiles, preguntas, recordatorios de voz, ejercicios...

El gobierno coreano ha comprado 7.000 de ellos (cada uno cuesta 1.600.000 wones, unos 1.093 euros al cambio) y los ha repartido entre la población anciana con demencia para frenar la soledad y sus fatales potenciales consecuencias. Según reza la empresa, el muñeco puede mantener conversaciones y llega con una companion app y web que permite a los cuidadores monitorizar el estado de los ancianos de forma remota. De hecho, tiene un sistema de detección de movimiento que avisa en el caso de que no se detecte movimiento en mucho tiempo. Otra historia es la privacidad y los posibles riesgos ante una vulneración de seguridad, y es el debate alrededor del cual gira el uso de la inteligencia artificial en estos ámbitos.

Efectos positivos. Algunos estudios han analizado cómo este tipo de robots pueden ayudar a la población más anciana. Esta investigación de la University of North Carolina de Charlotte (PDF) sugiere que "tienen potencial para complementar los servicios humanos y mejorar la calidad de la atención a los mayores", y este otro de la Gangwon University Graduate Medical School (PDF) asegura que " pueden proporcionar una serie de beneficios a las personas mayores con demencia, y, a medida que la tecnología siga mejorando, tiene el potencial de convertirse en una herramienta para la demencia". No obstante, son estudios con muestras bastante pequeñas como para sacar conclusiones más generales.

Imágenes | Hyodol

En Xataka | Cómo configurar el móvil para personas mayores: launchers, ajustes, y más



via Robótica e IA - Xataka https://ift.tt/YaTQH3k

Esta ciudad india tiene un enorme problema de tráfico. Y cree tener la clave para abordarlo: inteligencia artificial

Esta ciudad india tiene un enorme problema de tráfico. Y cree tener la clave para abordarlo: inteligencia artificial

Bangalore supo ser un auténtico paraíso natural, pero con el paso del tiempo acabó convirtiéndose en un polo tecnológico calificado por muchos como “el Silicon Valley de la India”. En esta metrópoli destacan los edificios enormes, las mansiones de los millonarios y la enorme cantidad de vehículos. A nivel de tráfico, de hecho, se encuentra en el sexto lugar del ranking elaborado por TomTom sobre las ciudades más congestionadas del mundo.

La tendencia de los últimos años sugiere que Bangalore seguirá creciendo. Se convertirá en el hogar de nuevas startups y empresas extranjeras que, entre otras cosas, buscarán beneficiarse de una mano de obra barata y de las políticas gubernamentales de apoyo. Ahora bien, este escenario presenta enormes desafíos a nivel de infraestructura y servicios. Las autoridades locales tienen la prioridad de empezar a mejorar la dinámica del tráfico para evitar el caos.

La inteligencia artificial al rescate

El Departamento de Policía de Tráfico de Bangalore, que tiene más de 5.000 agentes en las calles, lanzó a principios de este año un nuevo sistema de gestión denominado ASTraM. Se trata de una herramienta avanzada desarrollada por la compañía neerlandesa Arcadis que pretende ayudar a las autoridades a recopilar una enorme cantidad de datos de las diferentes vías que atraviesan la ciudad. Datos de gran importancia para mejorar el tráfico.

ASTraM se alimenta de una enorme cantidad de cámaras distribuidas por todo Bangalore. Las imágenes se combinan con servicios como Google Maps, Bing Maps y TomTom, junto a datos puntuales sobre el estado de las carreteras, gracias a un sistema de inteligencia artificial. La herramienta es capaz de hacer cálculos sobre cómo podrían desarrollarse algunos escenarios de congestión, lo que ayuda al Departamento de Policía de Tráfico a tomar mejores decisiones.

India Trafico India Trafico

Por ejemplo, si los agentes saben en qué momento se congestionará una arteria, pueden tomar acción anticipadamente para desviar el tráfico a través de caminos alternativos. Los ojos de los agentes de tránsito en las calles también son importantísimos para alimentar a la herramienta. En este sentido, se pensó en crear un sistema lo más simple posible para cargar informes. En lugar de utilizar aplicaciones específicas o hardware complejo, se optó por Telegram.

Los agentes de tráfico pueden informar desde incidentes hasta congestiones directamente desde una ventana de chat. Y no se trata de informes simples. En ellos también pueden incluir imágenes y la localización exacta del GPS del dispositivo móvil. Toda esta información no solo sirve para tomar decisiones al instante, sino también para crear un valioso registro de las dinámicas del tráfico de Bangalore que puede ser utilizado más tarde.

El sistema tiene muchos otros módulos, entre ellos uno que permite registrar eventos importantes que puedan perturbar el tráfico y ayude a optimizar la gestión de recursos. También hay otro que motoriza las ambulancias en movimiento. Si uno de estos vehículos de emergencia queda detenido por más de 120 segundos, desde la central de tráfico se comunicarán con el conductor a través de una aplicación para ofrecer rutas alternativas más rápidas.

Imágenes | Bengaluru Traffic Police | Atharva Tulsi | Niiimmmmiiiii (1, 2)

En Xataka | BMW da pistas sobre su futuro: el verdadero lujo será tener un motor de gasolina. Así quieren conseguirlo



via Robótica e IA - Xataka https://ift.tt/hRFUps0

martes, 26 de marzo de 2024

Este robot autónomo es capaz de detectar y reparar grietas en las carreteras. Su misión: evitar la formación de baches

Este robot autónomo es capaz de detectar y reparar grietas en las carreteras. Su misión: evitar la formación de baches

La tecnología está cambiando nuestras vidas de muchas maneras. En el ámbito de la movilidad, por ejemplo, los coches tienen niveles de automatización cada vez más elevados, y todo parece indicar que en el futuro podremos movernos de un lado a otro en vehículos sin conductor, algo que podemos ir experimentando anticipadamente en San Francisco gracias al despliegue de robotaxis.

Estas innovaciones también prometen mejorar el mantenimiento de las carreteras. La compañía británica Robotiz3d junto a investigadores de la Universidad de Liverpool llevan años trabajando en lo que han bautizado como Sistema Autónomo de Reparación de Carreteras (ARRES). Se trata de una propuesta que busca prevenir la formación de baches para mejorar la seguridad de los conductores.

Un vehículo autónomo que previene baches

ARRES es un vehículo autónomo de detección y reparación de grietas en carretera. Los sensores de ARRES impulsados por inteligencia artificial (IA) se encargan de identificar la imperfección en el camino mientras que las herramientas integradas realizan el sellado correspondiente para evitar el ingreso de agua y, por consecuencia, reducir las posibilidades de que en el lugar acabe formándose un bache.

Robotiz3d explica que ARRES tiene muchas otras características interesantes que buscan aportar versatilidad a los clientes. Por ejemplo, el vehículo puede funcionar sin conductor, pero también puede ser controlado remotamente desde un centro de control. Asimismo, una vez que se detecta una grita, es posible repararla en el momento o añadirla a una lista para realizar una reparación futura.

Robotiz3d Arres Robot 4 Robotiz3d Arres Robot 4

El pasado 7 de marzo el proyecto dio un importantísimo paso cuando el ARRES empezó a funcionar de manera experimental en el municipio de Hertfordshire, en el este de Inglaterra. Las pruebas se realizaron gracias a un acuerdo entre la compañía y el gobierno local. Este último, precisamente, lleva tiempo tratando de encontrar alternativas para mejorar si sistema de mantenimiento de carreteras.

Robotiz3d Arres Robot 3 Robotiz3d Arres Robot 3

Chris Allen-Smith, el ingeniero de carreteras de Hertfordshire, cree que ARRES es una herramienta estupenda, pese a que se encuentra en las primeras etapas de desarrollo. Allen-Smith cree que este tipo de robots ayudarán a las ciudades a mantener sus carreteras en buenas condiciones, especialmente en tiempos donde hay escasez de mano de obra para realizar tareas de reparación de caminos.

Robotiz3d quiere producir y vender el sistema ARRES, aunque todavía tiene trabajo que hacer. La compañía seguirá haciendo pruebas con el vehículo autónomo. Más adelante construirá una versión más grande que, prometen, será capaz de reparar una gama más amplia de imperfecciones en las carreteras. ¿Te imaginas un futuro con estos robots autónomos reparando las carreteras de tu ciudad?

Imágenes | Hertfordshire County Council (1, 2)

En Xataka | BMW da pistas sobre su futuro: el verdadero lujo será tener un motor de gasolina. Así quieren conseguirlo



via Robótica e IA - Xataka https://ift.tt/3mvS2kw

WhatsApp incorporará su propio ChatGPT: así podrás utilizarlo

Meta no piensa dejar pasar el tren de la inteligencia artificial (IA) generativa. Como Google o Microsoft, la empresa dirigida por Mark Zuckerberg trabaja a destajo para llevar a sus aplicaciones nuevas herramientas capaces de responder cualquier pregunta que tenga el usuario o de fabricar imágenes a partir de palabras. Y eso también vale para WhatsApp . Actualmente, la firma está testando la llegada de su asistente virtual, Meta AI , que no deja de ser un trasunto de ChatGPT o Copilot, en la versión de la aplicación para móviles Android. De acuerdo con el medio especializado WABetaInfo , la novedad ya está siendo testada en fase beta. Señala, además, que los usuarios podrán emplearla directamente desde la barra de búsqueda que incorpora la aplicación, en concreto en la pantalla de chats. A pesar de que, por el momento, el chatbot está siendo testado en la versión de WhatsApp para móviles con sistema operativo Android, la novedad también llegará a los iPhone. Y es bastante probable, además, que lo haga al mismo tiempo. Noticias Relacionadas estandar No EE.UU. investiga a Meta por la relación de sus redes sociales con el tráfico de droga R. Alonso estandar No La Guardia Civil alerta de una estafa que suplanta a Netflix para robarte los datos bancarios Efectivamente, Meta AI es un robot conversacional capaz de hacer lo mismo que ChatGPT. Y que, bien visto, puede ser bastante útil tenerlo a mano en una aplicación como WhatsApp, que suele ser bastante empleada con fines laborales y que, además, cuenta con una base de usuarios enorme, superior a los 2.000 millones. Sobre el papel, la novedad lo tiene todo para funcionar e, incluso, para ser bastante más utilizada que herramientas similares de la competencia. La llegada de Meta AI también puede suponer un espaldarazo para la aplicación de mensajería en aquellos países en los que tiene menos fuelle que otras herramientas similares. Eso es lo que pasa, por ejemplo, en Estados Unidos, donde la plataforma más empleada de esta clase es iMessage, presente en los iPhone. También en Instagram Meta AI fue presentado por la compañía en septiembre del pasado año. Está basado en el modelo de lenguaje de gran tamaño Llama 2 y accede a información en tiempo real procedente de internet, como el Copilot de Microsoft. Se espera que, además, de a WhatsApp llegue a otras aplicaciones de la compañía como Messenger o Instagram. La empresa también anuncio la llegada de una decena de avatares virtuales especializados con los que los usuarios podrían mantener conversaciones bien dirigidas. Entre ellos habría expertos en cocina, en ejercicio físico o, simplemente, máquinas pensadas para funcionar como una suerte de amigos de los usuarios. Por el momento, se desconoce la fecha en la que la empresa llevará estas novedades a la aplicación de mensajería. Aunque su llegada no debería dilatarse demasiado en el tiempo. Seguramente, será cuestión de semanas o meses. Probablemente, las funciones basadas en IA llegarán al mismo tiempo al resto de aplicaciones de la empresa; es decir, además de a WhatsApp, a Instagram y a Messenger.

via Tecnología https://ift.tt/0E7Rde4

Samsung se prepara para desafiar a NVIDIA: su chip Mach-1 llegará dispuesto a intentar liderar el mercado de la IA

Samsung se prepara para desafiar a NVIDIA: su chip Mach-1 llegará dispuesto a intentar liderar el mercado de la IA

Samsung está decidida a poner toda la carne en el asador para competir en el mercado de los chips para inteligencia artificial (IA). Según la consultora AMR (Allied Market Research) en 2031 el mercado de los chips para aplicaciones de IA tendrá un volumen de facturación de más de 263.000 millones de dólares. Es una auténtica barbaridad, sobre todo si tenemos presente que en 2021 su negocio ascendió a poco más de 11.000 millones de dólares.

Hace apenas dos semanas os contamos que Rebellions, una empresa surcoreana especializada en el diseño de procesadores para IA, está trabajando codo con codo con los ingenieros de Samsung en el desarrollo de un chip de próxima generación para IA que utilizará la memoria de alto rendimiento HBM3E desarrollada por la propia Samsung. Esta última compañía se encargará de la fabricación del chip, pero también ha intervenido en el diseño de la microarquitectura del procesador y en el empaquetado.

No obstante, la estrategia de Samsung para reforzar su posición en el mercado del hardware para IA no acaba aquí. NVIDIA acapara aproximadamente el 80% de este mercado, y esta compañía surcoreana parece estar decidida a competir de tú a tú con la firma liderada por Jensen Huang. Desalojar a NVIDIA de su pedestal no va a resultar fácil porque su dominio, como acabamos de ver, es abrumador, pero Samsung está trabajando en un chip que aspira a aguarle la fiesta.

El chip Mach-1 para IA llegará en 2025

El plan de Samsung es extremadamente ambicioso. Y es que esta compañía está decidida a entrar por la puerta grande en este mercado de la única forma en que es posible hacerlo: proponiendo un producto rupturista que sea capaz de lidiar con lo mejor que tienen sus competidores. Según Kyung Kye-hyun, que es el máximo responsable de la filial de Samsung especializada en la fabricación de semiconductores, lo que tienen entre manos tiene la capacidad de agitar profundamente el mercado del hardware para IA.

"Los sistemas actuales de IA adolecen de degradación del rendimiento debido a los cuellos de botella que se producen en el subsistema de memoria"

"Los sistemas actuales de IA adolecen de degradación del rendimiento y de deficiencias en el sistema de alimentación debido a los cuellos de botella que se producen en el subsistema de memoria. Nosotros corregiremos este problema gracias a nuestro laboratorio especializado en inteligencia artificial general e innovando con nuestra arquitectura para IA. Nuestro chip Mach-1 reside en el centro de todos nuestros esfuerzos en investigación y desarrollo", sostiene Kyung Kye-hyun.

Es evidente que estamos ante toda una declaración de intenciones, pero desafortunadamente Samsung todavía no ha desvelado ninguna característica relevante de su chip Mach-1 que nos permita intuir si realmente va a poder competir con lo mejor que tiene NVIDIA. Eso sí, lo que sí ha hecho Kyung Kye-hyun es adelantarnos algo importante: "Tendremos los primeros prototipos del chip Mach-1 a finales de este año, por lo que veremos los primeros sistemas de inteligencia artificial equipados con nuestro circuito integrado a principios de 2025".

Imagen | Samsung

Más información | The Korea Economic Daily

En Xataka | El líder de NVIDIA se moja: ha fijado con mucha precisión la fecha en que estará lista la inteligencia artificial general



via Robótica e IA - Xataka https://ift.tt/9Qout2O

viernes, 22 de marzo de 2024

Si crees que Twitter está fatal por los anuncios de Broncano, es porque aún no has pasado por Facebook

Si crees que Twitter está fatal por los anuncios de Broncano, es porque aún no has pasado por Facebook

Si algo hemos aprendido de los anuncios de Twitter es que Broncano, Arguiñano, Resines y Martiño Rivas tienen mucho dinero porque usan un método infalible para generar ingresos extra, método que no pueden desvelar porque desestabilizarían España y su sistema económico. No lo decimos nosotros, lo dicen unos artículos totalmente legítimos y en absolutos falsos de webs que en absoluto imitan a medios como El País y El Mundo.

Aquellos usuarios de X seguramente estén familiarizados con este tipo de estafas que, a mayores, lo único que buscan es que te registres en una plataforma de criptomonedas para estafarte. Pues en Facebook la cosa no se queda corta.

Tartas Tartas ¿Cuántos 'me gusta' para estos campeones? | Imagen: Xataka

Mi primera tarta. En Facebook han aparecido ciertas páginas que usan inteligencia artificial generativa para crear contenido que fomenta el engagement, y funciona. Una de ellas fue creada en 2020, tiene 112.000 seguidores, se describe como un "sitio web de noticias y medios de comunicación" y su contenido consiste en fotos de personas que han hecho su primera tarta o su primera pizza y están esperando los comentarios del resto de personas. Antes de esas fotos, que ahora son la más comunes, la página había probado con fotos falsas de gente pobre, fenómenos atmosféricos inexistentes, fotos de animales y vídeos virales.

Todas las imágenes de personas se han generado con inteligencia artificial y si estás medianamente acostumbrado a esta tecnología es fácil identificarlas. Desgraciadamente, no todo el mundo tiene el ojo entrenado y caer es fácil. Estas publicaciones se llenan de 'me gusta', compartidos y comentarios de usuarios dando la enhorabuena, comentarios de perfiles aparentemente genuinos. El ritmo de publicación es exageradamente alto, con una foto cada tres horas.

Abuelas Croche Abuelas Croche Abuelas 100% real no fake 1-link descarga rápida | Capturas: Xataka

Esta abuelita hace croché. En la misma línea va esta otra página, que sube fotos de abuelas haciendo croché. Estas abuelas están deseosas de conocer tu opinión sobre sus creaciones y, de nuevo, son imágenes generadas con IA que saltan a la vista. A diferencia de la página anterior, esta siempre ha apostado por el croché, primero con una combinación de fotos reales (de origen desconocido) y hechas con IA y ahora solo con IA.

Mientras que la primera sube fotos cada tres horas, esta otra sube del tirón una avalancha de imágenes, cinco exactamente, cada día. Fotos que se llenan de interacciones y comentarios, trucando así al algoritmo para aumentar el alcance de la página. Esta página, por cierto, tiene 145.000 seguidores y aunque enlaza a una web con patrones de croché (cuya URL no tiene nada que ver ni con el nombre de la página ni con la temática) en su sección de información, no publica enlaces para generar tráfico o ventas. Solo sube fotos falsas de abuelas haciendo croché.

Fotos de gente pobre generadas con IA Fotos de gente pobre generadas con IA Esta captura se ha sacado de la página de Facebook un fotógrafo. Todas las fotos se publican como si fuesen legítimas y en ningún momento se dice que hayan sido generadas con IA | Captura: Xataka

¿Y esto para qué? La primera opción es que sean páginas que buscan monetizar usando IA. En Facebook es posible ganar dinero creando contenido y, evidentemente, cuanto más viral sea más dinero se gana. También puede ser una estrategia para ganar seguidores legítimos en la página. Hemos encontrado una página de un fotógrafo (con web, Instagram, correo, número de teléfono...) que usa imágenes de niños pobres haciendo juguetes con botellas de plástico y de pájaros falsos, probablemente para generar interacciones.


O algo peor. Otra posibilidad es que usen este contenido para inflar su base de seguidores para, más tarde, cambiar a alguna otra cosa con, probablemente, malas intenciones como llevar a cabo una estafa. Cierto es que muchos 'me gusta' y seguidores pueden ser falsos y, de hecho, hay pistas que así lo indican. Por ejemplo, las fotos de las abuelas costureras suelen tener entre 600 y 1.000 'me gusta', entre 60 y 200 comentarios y entre 10 y 20 compartidos. Cifras demasiado estables para una página de 145.000 seguidores. ¿Ni un solo post viral? Raro.

Abuelas croche Abuelas croche Aparentemente, todas las abuelas que hacen croché son exactamente iguales | Captura: Xataka

El problema es que, por lo que hemos podido comprobar haciendo un muestreo rápido de los perfiles que comentan, hay personas reales comentando y compartiendo. Si bien es cierto que no sabemos qué será de estas páginas de aquí a unos meses o años, cuando estén más infladas, sí sabemos que hay personas con malas intenciones. Personas como John Cornell o James Carter, el mismo tipo con las mismas fotos pero diferente nombre, según la publicación que miremos, o perfiles recién creados con una sola foto. Los comentarios van siempre en la misma línea:

  • "Perdona que te moleste, pero no quiero mandarte una solicitud de amistad sin permiso. ¿Me agregas a Facebook?"
  • "Me encantan tus comentarios, me encantaría que fuésemos amigos en Facebook"
  • "Me recuerdas a alguien que conozco, ¿vives en X?"
Comentarios Comentarios Algunos comentarios publicados en las páginas son respondidos por personas, en ocasiones con la misma foto pero diferente nombre, invitando a los usuarios a ser amigos en Facebook | Capturas: Xataka

Personas mayores. Estos comentarios de perfiles a todas luces falsos van dirigidos siempre al mismo demográfico: personas mayores, concretamente mujeres. No es casualidad que las páginas publiquen fotos de tartas y croché, como no es casualidad que las personas que salen haciendo tartas sean gente joven y las que hacen croché sean abuelas mayores extremadamente estereotipadas.

Objetivo: entablar conversación. Lo más probable es que el objetivo de las personas que comentan sea entablar conversación con usuarios reales desprevenidos para, a la larga, llevar a cabo algún tipo de estafa convencional: envío de dinero, cesión de datos, etc.

La IA va a complicar las cosas. Aunque las imágenes vistas en estas páginas son falsas y se nota a simple vista, lo cierto es que suponen una muestra de los retos a los que nos vamos a enfrentar con la inteligencia artificial generativa. Cierto es que ya hay propuestas para que el contenido generado con IA sea marcado como tal, pero la realidad es que hay un público no educado muy susceptible a creer lo que ve en la pantalla sin preguntarse de dónde viene. Y siempre habrá personas dispuestas a aprovecharse de él.

Imágenes | Xataka

En Xataka | Las estafas con voces clonadas con IA son cada vez más frecuentes, pero hay una potencial solución: las "contraseñas familiares"



via Robótica e IA - Xataka https://ift.tt/ebhHMjL

Microsoft Copilot abre el melón: para qué necesitamos una NPU si la IA puede ejecutarse en la CPU o la GPU

Microsoft Copilot abre el melón: para qué necesitamos una NPU si la IA puede ejecutarse en la CPU o la GPU

Las unidades de procesamiento neuronal, conocidas habitualmente como NPU por su denominación en inglés (Neural Processing Unit) han llegado a los SoC y las APU para quedarse. Para quedarse definitivamente. La era de la inteligencia artificial (IA) ha comenzado, y precisamente la NPU es una unidad funcional diseñada expresamente para lidiar con los algoritmos de IA en general, y con la IA generativa en particular, de la forma más eficiente posible.

Actualmente Qualcomm, Intel, AMD, Apple, Samsung o Huawei son algunas de las compañías que tienen chips preparados para afrontar una modalidad de procesamiento conocida como computación heterogénea. Estos chips aglutinan tres tipos diferentes de unidades de procesamiento: la CPU, cuyo propósito es general; la GPU, que ante todo se encarga de lidiar con los procesos que requiere la generación de los gráficos; y, por último, la NPU, que, como hemos visto, está especializada en lidiar con los procesos de IA.

La computación heterogénea persigue maximizar el rendimiento y la eficiencia

La arquitectura heterogénea en la que acabamos de indagar reparte la responsabilidad de la ejecución de los procesos entre tres tipos diferentes de unidades de procesamiento con el propósito de maximizar el rendimiento y la eficiencia energética. Este es en definitiva el espíritu de la computación heterogénea en este contexto. No obstante, hay algo muy importante que merece la pena que no pasemos por alto: los procesos de IA pueden ser ejecutados en la CPU, la GPU o la NPU. En cualquiera de ellas. Eso sí, esta elección tiene consecuencias.

La GPU es la unidad de procesamiento mejor dotada para la paralelización masiva

La GPU es la unidad de procesamiento mejor dotada para la paralelización masiva debido a que esta estrategia es la más eficaz a la hora de abordar el proceso de generación de los gráficos. La IA también se beneficia claramente de este enfoque, especialmente si, además, la GPU incorpora unidades específicas para resolver operaciones matriciales que admiten una gran paralelización. En la práctica esta unidad de procesamiento es la que entrega el rendimiento más alto cuando lidia con procesos de IA, pero también es la menos eficiente desde un punto de vista energético.

Motoresai Motoresai Esta diapositiva de Intel resume muy bien el rol de la GPU, la NPU y la CPU en el contexto de la ejecución de los procesos de inteligencia artificial.

Como acabamos de ver, la CPU también puede ejecutar procesos de IA, aunque dado que en su arquitectura prevalece el propósito general y no la paralelización masiva su rendimiento habitualmente será inferior al que nos entrega la GPU al procesar el mismo algoritmo de IA. Y presumiblemente también consumirá menos. Por último, la NPU está específicamente diseñada para lidiar con procesos de IA de la manera más eficiente posible desde un punto de vista energético, aunque su rendimiento al ejecutar procesos exigentes será menor que el de la CPU, y, sobre todo, que el que nos entrega la GPU.

Intel y AMD han reaccionado con más lentitud que otros diseñadores de SoC y APU, pero ambas empresas ya tienen chips que incorporan una NPU. Y en el futuro extenderán esta estrategia a otras líneas de producto. Los procesadores Intel Core Ultra con microarquitectura Meteor Lake incorporan una NPU, y los Ryzen 7040 y 8040 de AMD incorporan una NPU con arquitectura XDNA, que está optimizada expresamente para procesar señales e IA. Esta estrategia da forma al presente. Y, desde luego, también al futuro de la computación de consumo y profesional. Las CPU, GPU y NPU están condenadas a convivir y entenderse. Nosotros, los usuarios, ganamos.

En Xataka | El líder de NVIDIA se moja: ha fijado con mucha precisión la fecha en que estará lista la inteligencia artificial general

En Xataka | China va a ser imbatible en inteligencia artificial. No lo dice cualquiera, lo defiende el director general de Google



via Robótica e IA - Xataka https://ift.tt/2FJzE6e

jueves, 21 de marzo de 2024

GPT-5 está a la vuelta de la esquina: OpenAI se prepara para lanzar su nuevo modelo de IA a mediados de año, según Insider

GPT-5 está a la vuelta de la esquina: OpenAI se prepara para lanzar su nuevo modelo de IA a mediados de año, según Insider

¿Recuerdas cuál fue la sensación que experimentaste cuando usaste ChatGPT por primera vez? Para muchas personas fue como mirar por una ventana hacia el futuro, y no les faltaba razón. El lanzamiento de aquel chatbot basado en GPT-3.5 desató una auténtica carrera entre las compañías tecnológicas más importantes del planeta por liderar el desarrollo de la inteligencia artificial.

Han pasado aproximadamente 15 meses desde ese entonces, y esta incipiente industria ha evolucionado a pasos agigantados. OpenAI volvió a sorprender al mundo en marzo de 2023 con GPT-4, un modelo avanzado que impulsa ChatGPT Plus y Microsoft Copilot. Pero los competidores de la firma dirigida por Sam Altman no han dejado de crecer, y han aparecido otros modelos.

OpenAI, GPT-5 y el desafío de seguir liderando

En el último tiempo hemos asistiendo a la presentación de alternativas como Claude 3 de Anthropic, Llama 2 de Meta y Gemini 1.5 de Google. No es ningún secreto que esta tendencia podría empañar el liderazgo de OpenAI, pero todo parece indicar que la compañía estadounidense está preparándose para mover ficha una vez más. La respuesta a este escenario sería un modelo llamado GPT-5.

OpenAI no ha dado señales de su próximo gran lanzamiento, aunque cierta información del proyecto parece estar filtrándose. Según fuentes consultadas por Business Insider, el GPT-5 es una realidad, aunque todavía no está listo para ser lanzado al público. La compañía detrás del modelo todavía necesita completar ciertas tareas antes de que esté disponible, pero eso podría ser muy pronto.

Actualmente, algunos clientes empresariales han recibido muestras de GPT-5, así como una versión mejorada de ChatGPT basada en este modelo, con el objetivo de evaluarlo. En paralelo, OpenAI continúa con el entrenamiento del modelo. Si todo sale de acuerdo a lo esperado, según las fuentes, GPT-5 podría aparecer en escena en algún momento a mediados de este año, es decir, para el verano.

Chatgpt Chatgpt

No hay demasiados detalles filtrados sobre las posibles mejoras de GPT-5, aunque se cree que esta nueva versión del modelo será capaz de mejorar muchas de las carencias de GPT-4. Recordemos que la versión actual ha presentado problemas de rendimiento y, en algunos casos, las calidad de sus respuestas se ha degradado. Por otra parte, también sigue teniendo problemas de alucinaciones.

Tampoco ha trascendido el posible tamaño de GPT-5, aunque esta semana han salido a la luz datos de GPT-4 que pueden ayudarnos a entender por dónde podrían ir los tiros. OpenAI, que nació como una compañía sin ánimos de lucro, adoptó un enfoque comercial, lo que derivó en que sus proyectos ahora tienen secretos comerciales. Así que poco hemos sabido sobre los detalles técnicos de GPT-4.

GPT-4 es un enorme modelo de lenguaje de 1,8 billones de parámetros

En la Conferencia de Desarrolladores GTC 2024, NVIDIA anunció sus últimos avances en inteligencia artificial. Una de las diapositivas, curiosamente, desveló uno de los datos que OpenAI había mantenido en secreto: el tamaño de GPT-4. Según la compañía de hardware, GPT-4 es un modelo de 1,8 billones de parámetros, es decir, unas 10 veces más grande que GPT-3 y sus 175.000 millones de parámetros.

Ahora bien, había rumores de que GPT-4 podría ser tan inmenso, pero, en caso de utilizar la misma arquitectura de GPT-3, esto se traduciría en más problemas que soluciones. Se sospechaba que OpenAI podría haber utilizado una arquitectura conocida como MoE (Mixture of Experts), que aborda este problema con la distribución de la carga computacional en diferentes módulos “expertos”. Y se ha confirmado que GPT-4 es un MoE. 

Como decimos, no sabemos qué tan grande (¿o pequeño?) será GPT-5, pero el hecho de que OpenAI esté trabajando con MoE elimina una de las principales barreras de hacer modelos inmensos. Ciertamente, la compañía tendrá muchos otros desafíos, que posiblemente descubriremos a lo largo de los meses. Algo que sí sabemos es que Microsoft está destinando millones de dólares para sus centros de datos.

Y los modelos de IA de OpenAI se entrenan y funcionan desde la plataforma de computación en la nube Microsoft Azure AI. El gigante de Redmond ya había realizado una importantísima actualización cuando empezó a adoptar las GPU NVIDIA H100. Pues bien, esto es parte del pasado. Hace literalmente dos días los de Redmond anunciaron la incorporación de las bestiales GPU NVIDIA GB200.

Imágenes | Rolf van Root | OpenAI

En Xataka | El líder de NVIDIA se moja: ha fijado con mucha precisión la fecha en que estará lista la inteligencia artificial general



via Robótica e IA - Xataka https://ift.tt/V7DCdQB

miércoles, 20 de marzo de 2024

Francia multa a Google con 250 millones de euros por entrenar su IA con el contenido de medios de comunicación

La Autoridad de la Competencia de Francia ha anunciado este miércoles una multa de 250 millones de euros a Google por utilizar contenido de los medios de comunicación del país galo para capacitar a su robot conversacional movido por inteligencia artificial: Gemini , antes conocido como Bard . La institución señala que la tecnológica ha incumplido un acuerdo, que data de 2022 y fue producto de una directiva de la UE de derechos de autor que data de ese mismo año, que la obliga a pagar a los medios de comunicación por utilizar sus contenidos en internet. De acuerdo con la autoridad francesa, que ya multó a Google con 500 millones de euros en 2022 por saltarse las normas de derechos de autor, la empresa, en esta ocasión, ha incumplido cuatro de los siete puntos del acuerdo. En particular, no ha negociado «de buena fe» con los editores para valorar la remuneración que les corresponde en virtud de la normativa de derechos de autor del país . Noticias Relacionadas estandar No Microsoft contrata al cofundador de DeepMind (Google) como CEO de su nuevo equipo de IA EP estandar Si La inteligencia artificial te enseñará a escribir como un académico: la revolución de la RAE Bruno Pardo Porto También señaló que Google había utilizado «contenido de editores y agencias de noticias» sin advertirles, con el objetivo de capacitar a su aplicación de inteligencia artificial Gemini, originalmente Bard. Esta fue lanzada en suelo europeo el pasado verano con el objetivo de competir con el popular robot conversacional ChatGPT . «La Autoridad descubrió en particular que Bard había utilizado contenidos de agencias de prensa y editores para entrenar su modelo de fundación, sin notificarlo ni a ellos ni a la Autoridad», ha apuntado la institución gala en un comunicado . Gemini, además, posibilitó «la visualización de contenidos protegidos» y Google «no propuso una solución técnica para que las agencias de prensa y los editores optaran por no utilizar sus contenidos por parte de Bard sin afectar a la visualización de los mismos». Algo que OpenAI, la firma detrás de ChatGPT, sí que permite a los editores; como demuestra el caso del 'The New York Times', medio que ha vetado el acceso a su información . El gigante estadounidense de internet ha calificado la multa de «desproporcionada respecto a los incumplimientos detectados», aunque la ha aceptado y, como explica la Autoridad francesa, no niega los hechos. «Hemos transigido porque llegó el momento de pasar página y, como lo prueban nuestros numerosos acuerdos con los editores, deseamos (...) trabajar (con ellos) de manera constructiva con los editores franceses». La empresa también apunta que paga «decenas de millones de euros» cada año a los editores franceses por razones de derechos de autor.

via Tecnología https://ift.tt/zQbM0os

El líder de NVIDIA se moja: ha fijado con mucha precisión la fecha en que estará lista la inteligencia artificial general

El líder de NVIDIA se moja: ha fijado con mucha precisión la fecha en que estará lista la inteligencia artificial general

Hace apenas una semana os hablamos de Extropic, una empresa emergente estadounidense fundada por dos científicos especializados en la investigación en inteligencia artificial (IA): Guillaume Verdon y Trevor McCourt. Su propósito es desarrollar una nueva arquitectura de hardware específicamente diseñada desde la base para lidiar de la forma más eficiente posible con los algoritmos de inteligencia artificial. Y en la base de este modelo de hardware residen, cómo no, los transistores.

Según Verdon y McCourt la ley de Moore está agotándose debido a que los transistores se están aproximando a la escala atómica, de modo que el ruido térmico y otros efectos de naturaleza cuántica pueden arruinar su capacidad de operar en el dominio digital. La solución que proponen pasa por desarrollar unos nuevos transistores de naturaleza termodinámica cuya velocidad de conmutación solo está condicionada por el tiempo que tarda el calor ambiental en actuar sobre ellos y en alterar su estado interno.

En el artículo que he mencionado en las primeras líneas de este texto explicamos con mucho más detalle en qué consiste la propuesta de Verdon y McCourt, pero la razón por la que hemos repasado sus ideas brevemente en este artículo es que estos científicos defienden que su tecnología tiene el potencial de allanar el camino a la llegada de la inteligencia artificial general, conocida como AGI por su denominación en inglés (Artificial General Intelligence). Hasta ahora pocos científicos serios se han atrevido a poner fecha a su llegada, pero acaba de hacerlo alguien cuya opinión merece ser tenida muy en cuenta.

Jensen Huang parece tener muy claro cuándo llegará la inteligencia artificial general

Antes de seguir adelante merece la pena que repasemos brevemente qué es la AGI desde un punto de vista conceptual. Se trata de un tipo de sistema automático que puede realizar con éxito cualquier tarea intelectual llevada a cabo por los seres humanos. No solo eso: esta modalidad de IA también deberá ser capaz de realizar juicios y razonamientos ante una situación de incertidumbre a partir del aprendizaje y el entrenamiento, así como de comunicarse utilizando el lenguaje natural, planificar o aprender.

Según OpenAI la AGI es un sistema autónomo que supera la capacidad humana a la hora de realizar la mayor parte de las tareas que tienen un valor económico

Esta es la acertada definición de AGI con la que mi compañero Javier Pastor abordó el completísimo artículo que dedicó a esta forma de IA a finales del pasado mes de noviembre. No obstante, también nos interesa conocer la definición que nos propone OpenAI porque introduce un matiz interesante: la inteligencia artificial general es un sistema autónomo que supera la capacidad humana a la hora de realizar la mayor parte de las tareas que tienen un valor económico.

Algunos expertos utilizan los términos 'inteligencia artificial general' e 'inteligencia artificial fuerte' como sinónimos, pero otros prefieren restringir esta última denominación solo para aquellos sistemas que tienen consciencia de su propia existencia, y que, por tanto, tienen la capacidad de desarrollar sus propios sentimientos y experimentar vivencias. Actualmente podemos tener la sensación de que la AGI está cerca, pero es importante que no pasemos por alto que las IA que están a nuestro alcance hoy están muy lejos de la idea que acabamos de explorar.

Elon Musk aseguró en 2020 que estaría preparada en 2025, pero una vez más se ha mostrado excesivamente optimista. La AGI no estará preparada el año que viene. Lo estará dentro de cinco años. Esto es al menos lo que asegura Jensen Huang, el cofundador y director general de NVIDIA. Este ejecutivo tiene una sólida base científica y siempre se muestra extremadamente cauto cuando hace una declaración, por lo que su vaticinio merece ser tenido en cuenta.

Además, el liderazgo que ejerce NVIDIA en el mercado del hardware para IA avala en cierta medida sus aseveraciones. Además, Huang ha asegurado que los errores que cometen las IA actuales tienen solución. Sea como sea de algo podemos estar seguros: esta tecnología nos va a deparar grandes sorpresas durante los próximos años.

Imagen | cottonbro studio

Más información | TechCrunch

En Xataka | China va a ser imbatible en inteligencia artificial. No lo dice cualquiera, lo defiende el director general de Google



via Robótica e IA - Xataka https://ift.tt/wvs7nlL