viernes, 30 de diciembre de 2022

EEUU lidera en inteligencia artificial y China no quiere quedarse atrás: Europa está en una situación muy distinta

EEUU lidera en inteligencia artificial y China no quiere quedarse atrás: Europa está en una situación muy distinta

Los últimos avances en materia de inteligencia artificial (IA) hacen pensar que esta disciplina será epicentro de una revolución que abarcará un amplio abanico de industrias. La educación, el marketing, el comercio electrónico, la medicina y el transporte son algunas de las candidatas idóneas para beneficiarse con la presente aceleración tecnológica.

No hace falta decir que los países que dominen la IA y lideren su desarrollo tendrán un papel protagónico en los próximos años. Estados Unidos, seguido de China, ha tomado la delantera desde el punto de vista la investigación y la explotación comercial de esta rama de las ciencias de la computación. Europa, por su parte, parece estar un paso atrás.

El posible precio a pagar por quedarse atrás en la revolución de la IA

El desarrollo de la inteligencia artificial no es algo que haya surgido en la última década. Las primeras investigaciones comenzaron a finales de la década de 1950. De hecho, un grupo de investigadores de la Universidad de Stanford, en Estados Unidos, había conseguido en 1966 desarrollar un sistema de identificación de compuestos químicos llamado “DENDRAL”.

Ya en 1970, la Universidad de Northwestern ya había empezado a aplicar la IA en el ajedrez informático con una serie de programas que podían jugar partidas con los humanos. Y, a medida que pasaba el tiempo, los resultados empezaban a acelerarse más y más. En 1997, una IA de IBM venció al campeón del mundo de ajedrez Garry Kasparov.

Después, entre otras cosas, llegaron los avances en conducción autónoma, fotografía computacional, servicios de reclutamiento predictivo, la agricultura, la meteorología. La lista es enorme. Pero este año la IA empezó a estar en boca de todos con la llegada de generadores de imágenes como DALL-E 2, Stable Diffusion 2.0 e IMAGEN, asistentes de programación como GitHub Copilot y sistemas de predicción de la estructura de las proteínas como AlphaFold.

Y, por si eso fuera poco, cuando todavía no acabábamos de recuperarnos de aquellos lanzamientos, OpenAI apareció en escena con ChatGPT, un bot conversacional que tardó solo algunas horas en convertirse en un fenómeno en Internet. El bot está basado en GPT-3.5, una versión avanzada del aclamado GPT-3, un modelo de lenguaje autorregresivo que desde hace tiempo se licencia y está presente en una gran cantidad de apps.

Los avances más prominentes, como podemos ver, provienen desde Estados Unidos, con empresas como la mencionada OpenAI, Alphabet, Met y Microsoft. China, aunque de una posición más modesta, también está presentado atención a la IA con productos que están siendo desarrollados por Baidu, Huawei e Inspur. Entonces, ¿qué está pasando con Europa?

Un informe de Future of Life Institute señala que el continente no está haciendo lo suficiente como para obtener un impacto sustancial en el universo de la IA desde el sector privado. El instituto dice que las empresas europeas no están dispuestas a invertir la enorme cantidad de dinero y recursos computacionales que exige estar a la vanguardia de este desafío.

Lo cierto es que, como mencionamos arriba, el mundo no se detiene y son cada vez más las industrias que tienen sed de inteligencia artificial para mejorar sus procesos. En este sentido, según el informe, puede que las empresas europeas terminen dependiendo de sistemas desarrollados en otras regiones, pagando por ellos y alimentando gratuitamente sus algoritmos con su uso.

Cabe señalar que, en materia legislativa, Europa ha sido pionera en aprobar la postura sobre el ‘Informe sobre Inteligencia Artificial en la Era Digital' que pretende marcar las pautas a seguir para la regulación de la IA. El continente, sin dudas, quiere explotar la industria basa en la IA, por lo que queda estar atentos a sus próximos movimientos para saber si consigue sortear la dependencia de la tecnologías desarrolladas fuera de su territorio.

Imágenes: Possessed Photography

En Xataka: El doblaje de películas tiene un problema, se llama inteligencia artificial y ya tiene alucinantes resultados




via Robótica e IA - Xataka https://ift.tt/BSAX6Mr

miércoles, 28 de diciembre de 2022

Un desarrollador ha creado una IA que te sugiere qué decir en las reuniones de trabajo: así es 'Tele-Prompt'

Un desarrollador ha creado una IA que te sugiere qué decir en las reuniones de trabajo: así es 'Tele-Prompt'

Casi todas las personas nos hemos quedado en algún momento sin saber qué decir en una reunión de trabajo. La inteligencia artificial (IA), que ya nos deleita con aplicaciones como DALL-E 2 y bots conversacionales como ChatGPT, podría acudir a nuestro rescate.

Daniel Gross, un desarrollador que trabajó durante varios años en el campo de la IA dentro de Apple, acaba de presentar Tele-Prompt. Se trata de un programa que escucha el encuentro con tus colegas y sugiere comentarios para aportar a la conversación.

Una solución que no necesita conexión a Internet

El creador ha explicado en un hilo de Twitter que Tele-Prompt funciona sin estar conectado a Internet. “Todo sucede de forma privada en su ordenador”, asegura Gross. En líneas generales, todo comienza con un sistema de reconocimiento de voz que capta lo que se dice.

Después entra en juego un marco de Python para incrustaciones de oraciones conocido como SentenceTransformer. Este se encarga de encontrar frases relacionadas en el dataset kaggle, que tiene millones de citas categorizadas por autores, estilo y popularidad.

Así, como podemos ver en un vídeo, si el programa de IA reconoce que alguien está pidiendo encontrar la solución a un problema, este sugerirá frases como “la solución vendrá cuando las personas encargadas sean las responsables del problema”.

También, en caso de conversaciones relacionadas a las ventas, puede sugerir frases de personas destacadas del sector. “Nunca se puede aprender a vender leyendo libros y viendo videos. Para aprender a vender hay que hacer más de 300 llamadas al día”.

En la demostración publicada por el desarrollador en Twitter podemos observar algunas expresiones destinados a hacer reflexionar a los participantes de la reunión. “La libertad es una liberación atrevida” y “La libertad es un estado de ánimo”.

No quedan dudas de que Tele-Prompt es un programa que se encuentra en fase experimental y todavía tiene un largo camino que recorrer. Sin embargo, su existencia es otro ejemplo del incansable avance de la IA por estos tiempos, que ya no está limitada a compañías de cierto nivel.

De hecho, los interesados en explorar a fondo este programa y, por qué no, inspirarse para mejorarlo o crear versiones alternativas. Pueden hacerlo desde el perfil de desarrollador en GitHub.

Imágenes | Headway

En Xataka: Stable Diffusion nos alucinó con sus imágenes. Ahora resulta que también es capaz de generar música



via Robótica e IA - Xataka https://ift.tt/0yQwcil

Así es el primer McDonald automatizado del mundo sin personal que te atienda

Las máquinas siguen avanzando y desbancando a los humanos en algunos ámbitos laborales y uno de los últimos pasos ha sido en la hostelería. Si ya hemos podido ver locales con robots sirviendo o limpiando mesas, lo último ha sido un McDonald's automatizado sin personal que atienda a los clientes. Está en Texas, en la ciudad de Fort Worth. Allí, las pantallas táctiles sustituyeron a los empleados que trabajaban en caja o en la ventanilla del McAuto. En ellas, ya no hay un empleado entregando los pedidos, sino un transportador de comida y bebida. Según ha explicado uno de los portavoces a 'The Guardian', no se trata de un restaurante automatizado del todo puesto que cuenta con una cantidad de empleados similar al resto de locales. Sin embargo, no están de cara al público, por lo que el contacto del cliente con los trabajadores es prácticamente inexistente. Noticia Relacionada estandar No McDonald's obliga a una hamburguesería de Cádiz a cambiar su nombre: Menoc Donald ABC El gigante McDonald's ha obligado a un veterano establecimiento gaditano a cambiar su nombre después de 34 años De hecho, el concepto de este restaurante está pensado para clientes que no vayan a consumir en su interior, sino para clientes «en movimiento» que solo acudan a recoger su pedido para llevar. De ahí que la interacciones con los empleados estén más limitadas, ya que, explican, cuenta con «tecnología mejorada que permite que el equipo del restaurante comience a preparar los pedidos de los clientes cuando están cerca». El objetivo, explican, es mejorar la velocidad y la precisión. De esta forma, los clientes tienen la opción de recoger sus pedidos en un carril de «carril de pedido anticipado» o pedir en el quiosco con pantalla táctil dentro de la tienda. Este nuevo concepto, sin embargo, no ha estado exento de polémica, ya que ha sido muy criticado por activistas que reclaman unas mejores condiciones económicas para los empleados, que en muchos casos no llegan a tener un salario digno en la mayoría de estados.

via Tecnología https://ift.tt/KfAyp21

sábado, 24 de diciembre de 2022

Meta se ha topado con un límite insospechado en su carrera por la inteligencia artificial: la ciencia

Meta se ha topado con un límite insospechado en su carrera por la inteligencia artificial: la ciencia

¿Quieres ponerte al día en computación cuántica, tecnología CRISPR o, pongamos por caso, el estudio de la materia oscura? Genial. Puedes abrir Google, teclear las palabras clave y prepararte para digerir cientos y cientos de sesudos artículos que, en el mejor de los casos, te dejarán con una noción aproximada de lo que buscas. O puedes recurrir a una inteligencia artificial (IA) que mastique y degluta esa información por ti para presentártela luego de una forma resumida y asequible.

Esa última apuesta es la de Galactica, la herramienta de IA presentada por Meta a mediados de noviembre. El recurso, basado en el conocido como Large Language Model (LLM), herramientas de IA entrenadas con ingentes cantidades de datos, apunta alto para destacar percisamente en el ruedo científico. “Es capaz de resumir literatura académica, resolver problemas matemáticos, generar artículos Wiki o escribir código científico”, señalaban sus responsables, entre otras virtudes.

El planteamiento era relativamente sencillo.

Adiós "masa de papeles"

En vez de limitarse a recabar, apilar y ofrecer “una masa de papeles” en la que cada vez resulta más difícil “distinguir entre lo relevante e intrascendente”, Galactica aspira a ofrecer una interfaz dinámica. Su apuesta no se centra en los motores de búsqueda tradicionales, sino en los modelos de lenguaje. No es la única. Google trabaja también en LaMDA y en las últimas semanas ChatGPT, de la firma OpenAI, ha mostrado el enorme potencial de los modelos de lenguaje por inteligencia artificial.

Con ese propósito Meta trabajó en un poderoso LLM que entrenó con más de 48 millones de artículos, libros y referencias, entre otras fuentes de conocimiento científico. “Puede usarlo para explorar la literatura, hacer preguntas científicas, escribir código científico y mucho más”, resaltan los impulsores del proyecto, si bien aclaran a pie de página que los modelos de lenguaje están muy lejos de ser infalibles y pueden presentar sesgos, fallos y resultados erróneos. Y eso, recalcan, es aplicable “incluso a los LLM entrenados con datos de alta calidad, como Galactica”.

El tiempo ha demostrado que la advertencia resulta bastante preceptiva. Y, de paso, ha constatado que la búsqueda de modelos de lenguaje de inteligencia artificial tan ambiciosos y en campos tan delicados como el que plantea Galactica resulta un camino todavía plagado de desafíos.

Meta presentó Galactica el 15 de noviembre como una herramienta diseñada y entrenada para ayudar a los investigadores. Su planteamiento prometía: un recurso capaz de generar documentos científicos sustentados en millones de estudios. Para demostrar hasta dónde podía llegar su LLM la compañía lanzó una demo online. La prueba no marchó probablemente como pensaban y duró un suspiro. Apenas un par de días después la compañía decidía retirar la demostración.

¿El motivo? Sus sonoros patinazos.

Solo unas horas después de su lanzamiento —relata el MIT Technology Review— científicos de diferentes áreas empezaron a compartir en redes sus críticas e incluso pruebas que demostraban cómo fallaba. “Pregunté a Galactica sobre algunas cosas que sé y estoy preocupado. En todos los casos estaba mal o sesgado, pero sonaba correcto y con autoridad. Creo que es peligroso”, señala Michael Black, director del Instituto Max Planck para Sistema Inteligentes en Alemania.

No fue el único en alzar la voz. Carl Bergstrom, profesor de Biología la Universidad de Washington, tildó la herramienta directamente de “generador de tonterías al azar”, crítica similar a la lanzada por el célebre ingeniero de software Grandy Booch, para quien Galactica es “poco más que una tontería estadística a escala”. “Divertido. Peligroso. Y, en mi opinión, poco ético”, advertía en Twitter.

Entre los críticos con Galactica hay quien señalan la falta de rigor de algunas respuestas o que la herramienta aporta en ocasiones resultados confusos en cuestiones delicadas, como cuando un usuario le preguntó supuestamente si existe algún tipo de relación entre la vacunas y el autismo. También hay quien se encontró con errores al realizar operaciones matemáticas sencillas.

El resultado fue que solo un par de días después de haber lanzado la demo, sus responsables publicaban otro mensaje, en esta ocasión para dar un paso atrás: “Gracias a todos por probar la demostración del modelo Galactica. Agradecemos los comentarios que hemos recibido hasta ahora de la comunidad. Hemos detenido la demo por ahora. Nuestros modelos están disponibles para los investigadores que desean aprender más sobre el trabajo y reproducir los resultados”.

El mensaje se lanzó a través de la cuenta de Papers with Code, que no ha vuelto a publicar desde esa fecha y ha compartido un artículo en el que detalla cómo Galactica ha superado a otros modelos ya existentes en tareas científicas, como GPT-3, Chinchilla o PaLM 540B.

El informe recalca además las ventajas del modelo para la ciencia en un escenario marcado por la “sobrecarga de información”. “El crecimiento explosivo de la literatura y los datos ha hecho que sea cada vez más difícil descubrir ideas útiles en una gran cantidad de información —recoge el artículo—. Hoy se accede al conocimiento científico a través de buscadores, pero estos por sí solos no son capaces de organizar el conocimiento científico”. Galactica aspira a ir más allá, almacenando, combinando y presentando tras haber bebido de un amplio corpus de referencias.

Más allá de los resultados iniciales de Galactica o de que se echase el freno a su demo —"la demostración está off line por ahora", tuiteaba el gurú de AI de Meta, Yan LeCun—, la experiencia demuestra una vez más el reto que representa el lanzamiento de este tipo de modelos de lenguaje. En 2021 se experimentó un resultado inesperados con el proyecto Delphi. "Galactica se encuentra en una etapa temprana, pero los modelos de IA más potentes que organizan el conocimiento científico podrían presentar riesgos graves", explica a CENT Dan Hendrycks, investigador de seguridad de IA en la Universidad de California, Berkeley, quien apunta la utilidad de aplicar ciertos filtros.

Imagen de portada: Possessed Photography (Unsplash)



via Robótica e IA - Xataka https://ift.tt/DjVxqbv

jueves, 22 de diciembre de 2022

El doblaje de películas tiene un problema, se llama inteligencia artificial y ya tiene alucinantes resultados

El doblaje de películas tiene un problema, se llama inteligencia artificial y ya tiene alucinantes resultados

Demasiadas palabrotas. Ese era el problema de 'Fall', la última película del director Scott Mann. Lionsgate, la productora de este thriller de supervivencia, quería conseguir una calificación PG-13 para abrir la producción a un público mucho más amplio. ¿Cómo conseguirlo? Fácil: usando inteligencia artificial.

"jo***". Las histriónicas protagonistas no paraban de usar tacos y variaciones de la palabra "jo***" en la película. La situación que viven es para ello, claro, pero eso era un problema de cara a poder estrenar la película y que la pudieran ver públicos más jóvenes.

Deepfakes al rescate. La tecnología lleva décadas siendo una gran aliada del cine, y en los últimos tiempos la cosa ha ido más. La inteligencia artificial ha ayudado a que los deepfakes aplicados al séptimo arte permitan cosas alucinantes como rejuvenecer o envejecer a los actores o, en los últimos tiempos, preservar sus voces para siempre.

Donde dije digo, digo Diego. Mann, que había tenido malas experiencias con otros rodajes, descubrió un estudio académico que hablaba de redes neuronales y de cómo se podían aplicar para este ámbito. Contactó con los autores y logró crear una herramienta rudimentaria para crear una nueva solución de doblaje.

"Vubbing". En lugar de doblar tradicionalmente el audio, se realiza un doblaje (dubbing) visual (de ahí la "v" inicial). Tras fichar a otro experto llamado Nick Lynes, se creó la empresa Flawless AI, especializada en esta evolución de los deepfakes especialmente orientada al mundo del cine, bien para doblajes, bien para modificar lo que los actores decían y corregirlo sin tener que repetir tomas a posteriori (con la complejidad que eso implica).

Robert de Niro habla alemán... La tecnología TrueSync de Flawless AI identifica patrones en los fonemas (sonidos que hacen) y visemas (cómo mueven la boca al hacerlos) de los actores. Tras entrenar el sistema, éste es capaz luego de simular que el actor dice cualquier otra cosa, o que lo dice en cualquier otro idioma.

... pero también mueve la boca como lo haría un alemán. Lo realmente interesante de esta tecnología es que la boca se mueve de forma acorde a la pronunciación de esas palabras, así que el doblaje ya no "canta" tanto.

En el vídeo se puede ver cómo en el doblaje tradicional se nota que Jack Nicholson no parece estar hablando francés, pero con este sistema Robert de Niro parece estar hablando alemán porque la boca se mueve (más o menos) como debería hacerlo al pronunciar esas palabras. El resultado no es perfecto, desde luego, pero no para de mejorar. Esas imágenes son de hace un año.

La cosa mejora. Como decimos, los modelos que permiten ajustar el resultado han mejorado mucho en estos últimos meses, y eso se nota en 'Fall'. En este vídeo de Flawless se puede ver cómo hablan del proceso y en el minuto 1:54 se muestra cómo van modificando a una de las protagonistas para que en lugar de 'fuc****' diga 'freaking', mucho más aceptable para las salas.

Los actores de doblaje, en peligro. Como en tantos otros ámbitos "amenazados" por la inteligencia artificial, este tipo de herramientas —hay más en desarrollo, como demuestra la propuesta de Papercup— pueden limitar el futuro de los actores de doblaje. En España esa opción es parte tradicional de los contenidos emitidos en idiomas extranjeros, aunque eso sí: provoca que hablemos peor inglés que los suecos o los portugueses.

No te creas lo que ves. El debate, desde luego, va más allá. Esta herramienta tiene obvias ventajas para el mundo del cine y la televisión, pero también confirma el peligro que tienen los deepfakes, cada vez más creíbles, si son usados no ya para la sátira, sino para difundir noticias falsas o cometer todo tipo de fraudes. A este paso, va a ser imposible saber lo que es realidad y lo que no.

Imagen: Flawless AI





via Robótica e IA - Xataka https://ift.tt/rgAF9Lp

Google en "código rojo" por ChatGPT: la competencia de la IA despierta internamente al gigante

Google en

Google tiene que mover ficha. La llegada de ChatGPT ha dejado claro que si el buscador se queda como está, sus rivales lo van a adelantar rápidamente. Pero algo se está moviendo internamente. Según describe el New York Times, Sundar Pichai, CEO de Google, ha declarado un "código rojo" interno, mandando el mensaje de que hace falta reestructurar equipos y tomarse ChatGPT como una seria amenaza a su negocio.

Google al fin despierta. Google es el líder indiscutible en búsquedas. ChatGPT es muy capaz, pero ni se le acerca. Sin embargo ofrece algo distinto. Algo que en Google también han percibido. Es el potencial de ofrecer respuestas mucho más apropiadas.

Para intentar evitar que la herramienta de OpenAI sea el inicio del fin del buscador de Google, desde la compañía de Pichai van a hacer cambios. Se reasignará a varios departamentos nuevos proyectos para desarrollar prototipos y productos de inteligencia artificial.

"Desde ahora hasta la conferencia de Google en mayo, los equipos de investigación, confianza y seguridad de Google y otros departamentos han sido reasignados para ayudar a desarrollar y lanzar nuevos A.I. prototipos y productos", ha anunciado internamente Pichai.

También en la generación de imágenes. Además del buscador, desde Google también han tomado nota del avance de DALL-E y explican que estos cambios internos también aplicarán en las IAs que pueden crear arte y otras imágenes. Google ya ha mostrado su propia IA generadora, de nombre IMAGEN. Por el momento está reservada para investigadores e internamente, pero se espera que en los próximos meses se anuncie su disponibilidad al público.

Google ya tiene una IA ultra avanzada: LaMDA. En el Google I/O 2023 podremos ver muchas novedades. Una de ellas podría ser la heredera de LaMDA, la IA de Google que puede enfrentarse a ChatGPT pero no se utiliza porque desde Google no están seguros de su fiabilidad.

Según explican desde la propia Google, utilizar LaMDA en el buscador podría dañar su reputación, al ofrecer respuestas sesgadas o directamente erróneas. Mientras OpenAI puede permitirse lanzar una herramienta casi a modo de prueba, una gran empresa como Google no quiere arriesgarse. Una opción que podría tener Google es limitar por ejemplo sus prototipos de IA a 500.000 usuarios.

Imagen | Mitchell Luo



via Robótica e IA - Xataka https://ift.tt/z6Nxkbv

miércoles, 21 de diciembre de 2022

OpenAI va más allá de DALL-E y ChatGPT: acaba de lanzar una IA que genera modelos en 3D

OpenAI va más allá de DALL-E y ChatGPT: acaba de lanzar una IA que genera modelos en 3D

OpenAI, la compañía detrás de DALL-E y ChatGPT, acaba de abrir al público de una herramienta de inteligencia artificial que genera modelos en 3D a partir de texto y renders. El programa, denominado Point-E, necesita ejecutarse de manera local, pero no requiere hardware de última generación para hacer su trabajo.

Según un artículo de OpenAI, la herramienta es capaz de generar nubes de puntos que representan una forma en 3D utilizando una Nvidia V100, es decir, una tarjeta gráfica con arquitectura Volta que fue lanzada al mercado hace poco más de cinco años. Point-E necesita un texto (prompt) o un render como punto de partida.

Más herramientas para la generación en 3D

OpenAI no es la única compañía que está utilizando la IA para crear este tipo de herramientas. Por ejemplo, Google tiene a DreamFusion, pero el programa puede demorar varias horas en crear modelos en 3D. La solución de la compañía dirigida por Sam Altman promete hacer el mismo trabajo, en tan solo unos minutos.

El modelo de generación de texto a imagen funciona de manera similar a DALL-E, Midjourney o Stable Diffusion. Si le pedimos una imagen de un aguacate con forma de silla, el modelo generará un renderizado 3D de una nube de puntos de nuestra solicitud. También podemos pedirle que genera una nube de puntos a partir de un modelo que ha sido generado con otra herramienta.

Openai Modelos 3d 23

Como podemos ver, las nubes de puntos en 3D están lejos de ser elementos perfectamente diseñados, pero eso tiene una explicación. Estos son utilizados frecuentemente por diseñadores para tareas de modelado en 3D para una amplia variedad de tareas. Desde la fabricación de objetos hasta la creación de animaciones complejas para las industrias del cine y los videojuegos. 

Openai Modelos 3d 3

OpenAI asegura que seguirá trabajando para mejorar las capacidades de Point-E. La buena noticia es que, como decíamos, el programa en la fase actual se puede descargar para probar localmente. Aunque, eso sí, esta posibilidad está limitada a los usuarios con ciertos conocimientos técnicos.

Descargar el código al ordenador no será suficiente. Será necesario bajar un software adicional, como Jupyter notebook, para ejecutar el código en el navegador web. El perfil en GitHub del proyecto, además de proveer los recursos de OpenAI, brinda información para hacer funcionar esta nueva herramienta de IA.

Muchas de las posibilidades que ha presentado la IA eran inimaginables hace tan solo unos años atrás. En poco tiempo, las herramientas de generación de imágenes y los chatbots han evolucionado a pasos agigantados, y pareen haber llegado para quedarse. Será interesante ver el progreso de estas nuevas herramientas de generación de modelos en 3D.

Imágenes: Ashley Whitlatch

En Xataka: Hay una IA para cancelar el ruido al comer patatas fritas. La hemos probado para ver si funciona



via Robótica e IA - Xataka https://ift.tt/sMnLkTa

Las cuatro cosas que jamás debes cocinar en tu freidora de aire

Se acercan las Navidades, época de compartir tiempo con la familia y, también, para realizar regalos. De una tiempo a esta parte, las freidoras de aire, o ' air fryer ', en las que el usuario no necesita emplear aceite, se han ido haciendo un hueco en las viviendas de, cada vez, más usuarios. Si estás pensando en comprarte una, o en pedírsela a los Reyes Magos, para elaborar platos que resulten algo más ligeros y contengan menos calorías, debes tener en cuenta que este tipo de dispositivos no son válidos para cocinar cualquier alimento. Si quieres evitar problemas, y que el dispositivo acabe averiado, es importante que tengas claro cuáles son las cosas que no debes meter en el interior de tu 'air fryer' . Compartimos algunas de las más peligrosos para el funcionamiento del electrodoméstico. Nada de líquidos Los líquidos pueden averiar este tipo de dispositivos, por tanto, olvídate de utilizar la freidora para calentar o hacer sopas o purés . Evidentemente, cuando cocines carne o pescado, es normal que el alimento suelte algo de líquido, y en este sentido no hay ningún problema. El fallo está en meter en el interior algo que empape completamente el dispositivo. Ojo con el queso El queso también puede ser problemático. Puedes meter en el interior de la freidora alimentos que lo lleven, por ejemplo, un sandwich, pero intentando evitar que, al calentarse y derretirse, acabe encima de la superficie de la 'air fryer'. Si acaba saliéndose, te va a tocar limpiar la freidora para continuar utilizándola. El dispositivo incluso podría comenzar a dar problemas. Papel de aluminio Tampoco es recomendable que utilices papel plata. Para empezar, porque en caso de emplearlo evitarás que el aire se reparta correctamente por toda la superficie de la freidora, lo que provocará que el plato que estás intentando cocinar acabe siendo un fracaso. En caso de que el aluminio entre en contacto con la resistencia, puede provocar daños en el dispositivo. El sitio ' Directo al paladar ' recomienda recurrir, en su lugar, a papel de horno con agujeros. Algo que permitirá que el aire se reparta mejor y el plato se cocine adecuadamente. MÁS INFORMACIÓN noticia No Los robots de cocina que necesitas para no enloquecer estas Navidades noticia No 5 trucos para comer sano Nada de accesorios indebidos Esto pasa con la amplia mayoría de dispositivos electrónicos. Para evitar averías, es importante que el usuario no utilice accesorios que no sean compatibles con la freidora, independientemente del material del que estén hechos . Cabe destacar que, en caso de que utilicemos, por ejemplo, un recipiente indebido, este puede rallar o dañar de algún modo la superficie de la la 'air fryer', por lo que es importante que el usuario lo evite siempre que pueda.

via Tecnología https://ift.tt/3RG4kNZ

lunes, 19 de diciembre de 2022

ChatGPT no será gratis para siempre. OpenAI espera que genere 1.000 millones de dólares en 2024, según Reuters

ChatGPT no será gratis para siempre. OpenAI espera que genere 1.000 millones de dólares en 2024, según Reuters

ChatGPT es una de las aplicaciones del momento. Su sorprendente capacidad para responder a casi cualquier cosa que se le pida está siendo utilizada para una amplia variedad de tareas. Desde resumir reuniones hasta crear videojuegos en 2D. Sin embargo, todo parece indicar que las bondades de esta herramienta desarrollada por OpenAI no siempre serán gratuitas.

De acuerdo a Reuters, la compañía dirigida por Sam Altman espera que la tecnología subyacente del popular ChatGPT se convierta en uno de sus pilares económicos. En otras palabras, las proyecciones destinadas a los inversionistas señalan que GTP-3.5 podría generar 200 millones de dólares en ingresos el próximo año y 1.000 millones de dólares en 2024.

En busca del músculo financiero

OpenAI, fundada en 2015 por varios inversionistas entre los que se encontraban Elon Musk (que se retiró en 2018) todavía es una compañía pequeña en comparación con las Big Tech. Bajo su status de startup, en 2018 recibió una inversión de 1.000 millones de dólares por parte de Microsoft para impulsar sus desarrollos, entre los que se encuentran DALL-E y GPT.

Con el paso de los años, y especialmente en los últimos meses, estos modelos han pasado de ser una primitiva expresión de las posibilidades de la inteligencia artificial a soluciones reales que se han puesto a disposición del público. El propio Altman reconoce este escenario con la siguiente reflexión: “una vez que comienza una revolución tecnológica, no se puede detener”.

Así, todo parece indicar que la “revolución tecnológica” de la IA estimulada por OpenAI puede traducirse en un importante salto en los balances trimestrales de la compañía. DALL-E 2 ya es un producto comercial. Los usuarios reciben una determinada cantidad de créditos gratuitos, pero si quieren seguir usando la herramienta deben comprar más créditos.

Brain 1

El modelo de lenguaje GPT-3 también aporta a los ingresos de OpenAI. La compañía licencia el uso de su tecnología a diferentes compañías para su uso en apps como Synthesia, Jasper y Canva Docs, pero el salto en las capacidades de GPT-3.5, el corazón de ChatGPT, y la futurible llegada de GPT-4, podría atraer a nuevos clientes si se lanzan comercialmente.

OpenAI no ha hecho comentarios sobre la supuesta estrategia difundida por la agencia de noticias. No obstante, Altman sí ha sugerido que ChatGPT podría dejar de ser gratuito. El consejero delegado de la compañía dijo que los costes relacionados a la infraestructura en la nube para mantener en funcionamiento el programa “son deslumbrantes”.

“Tendremos que monetizarlo de alguna manera en algún momento”, dijo el ejecutivo, dando luz sobre el futuro de ChatGPT. La herramienta, recordemos, de momento se encuentra en fase de desarrollo y liberarla al público ha sido parte de la estrategia de OpenAI para refinar sus habilidades. Aparentemente, el chatbot también aspira a convertirse como tal en una app comercial.

Imágenes: Destacada generada con DALL-E | OpenAI | Boris Dayma

En Xataka: Stack Overflow acaba de prohibir las respuestas de ChatGPT: esto es lo que ha sucedido



via Robótica e IA - Xataka https://ift.tt/3u2Sh4G

viernes, 16 de diciembre de 2022

Esta empresa ha creado un chatbot de IA capaz de hablar con atención al cliente por ti y conseguir descuentos

Esta empresa ha creado un chatbot de IA capaz de hablar con atención al cliente por ti y conseguir descuentos

Comunicarnos con los servicios de atención al cliente, por lo general, no suele ser la tarea más agradable de nuestras vidas. Entre los minutos que tenemos que esperar hasta que nos contesten y las posibles demoras en resolver nuestras reclamaciones, podemos llegar a perder bastante tiempo y paciencia.

La inteligencia artificial, que bajo nuestras órdenes ya puede diseñar, escribir, sugerir código y hasta tocar la batería, también puede ayudarnos con nuestras comunicaciones con los servicios de atención al cliente. Además, en ciertos casos, es capaz de conseguir que paguemos menos en la próxima factura.

El chatbot que consigue descuentos

La herramienta, que todavía no tiene nombre, es el más reciente desarrollo de DoNotPay, una compañía estadounidense que tiene distintos productos impulsados por IA, como uno que ayuda a los usuarios a recurrir sus multas de aparcamiento. Ahora también renegocia facturas y cancela servicios.

En una serie de mensajes publicados en Twitter, el consejero delegado de la compañía, Joshua Browder, demostró las capacidades del chatbot. La IA se contactó con servicio al cliente de la compañía de telecomunicaciones Comcast y consiguió un descuento de 10 dólares en la próxima factura del servicio de Internet de Xfinity.

Según explica el ejecutivo, el chatbot habló en nombre de uno de sus ingenieros y, para conseguir los beneficios, “exageró las interrupciones de Internet, de forma similar a como lo haría un cliente”. De hecho, según podemos ver en la conversación, la IA amenazó con emprender acciones legales por los “problemas de servicio”.

DoNotPay señala que su chatbot todavía tiene que mejorar, pero asegura que lanzarán una versión comercial que permitirá a los usuarios utilizarlo en formularios en línea, chats y correo electrónico. La compañía, no obstante, no ha indicado una fecha específica para el despliegue de esta herramienta.

El "cerebro" detrás de esta herramienta no es otro que GPT-3, el modelo de lenguaje autorregresivo de OpenAI que está siendo implementado en distintos productos y servicios. Una de las compañías más recientes en adoptarlo ha sido Canva, precisamente como asistente en su herramienta de redacción de textos.

Omer Shahzad Cjlgqrhk7di Unsplash

Con este tipo de herramientas apareciendo en escena, surgen algunas preguntas sobre las futuras dinámicas de los servicios de atención al cliente. Algunos usuarios han expresado su preocupación que, en caso de popularizarse, las compañías endurezcan sus términos para ofrecer posibles descuentos a los clientes.

Por otra parte, surge la posibilidad curiosa posibilidad de que un chatbot contratado por un cliente se conecte con un chatbot de la compañía que se quiere obtener el descuento. ¿Quién ganaría? ¿El chatbot mejor entrenado? Con el tiempo sabremos si este escenario termina haciéndose una realidad.

En Xataka: Stable Diffusion nos alucinó con sus imágenes. Ahora resulta que también es capaz de generar música

Imágenes: Owen Beard | Omer Shahzad | Flaticon | Pngmart

En Xataka: Los programadores ya alucinaban con CoPilot y ChatGPT, pero ahora DeepMind va más allá con AplhaCode



via Robótica e IA - Xataka https://ift.tt/DkLVf3l

Stable Diffusion nos alucinó con sus imágenes. Ahora resulta que también es capaz de generar música

Stable Diffusion nos alucinó con sus imágenes. Ahora resulta que también es capaz de generar música

DALL·E 2, Midjourney y sobre todo Stable Diffusion se han convertido en un verdadero fenómeno que ha sacudido el mundo de arte y el diseño y ha permitido a cualquiera generar imágenes sorprendentes gracias a la inteligencia artificial. Las aplicaciones parecían fantásticas en esa disciplina artística, pero unos desarrolladores nos han dado una sorpresa y han ido un poco más allá.

Riffusion. Así se llama el modelo de inteligencia artificial que es una pequeña variación de Stable Diffusion y que genera música. Riffusion ha sido creado "como un hobby) por dos desarrolladores que aprovechan su capacidad para generar unas imágenes muy especiales.

Captura De Pantalla 2022 12 16 A Las 9 56 55

Hola, espectrograma. Stable Diffusion no solo puede generar imágenes al estilo de cualquier artista: si uno se lo manda, puede generar curiosos espectrogramas. Estas singulares representaciones del espectro de una señal tienen la particularidad de que se pueden convertir en clips de audio.

Del texto al sonido. Los 'prompts' o descripciones de imagen que le damos a Stable Diffusion acaban por tanto convirtiéndose en música, y como explican los desarrolladores, el procesado de audio se realiza de forma transparente con un modelo basado en Torchaudio que además puede crear "variaciones infinitas" al ir haciendo que la "semilla" —el prompt original— cambie ligeramente.

Pequeños clips que se hacen grandes. Los espectrogramas generan clips de audio de apenas cinco segundos, pero los desarrolladores querían "ritmos infinitos generados por IA".

Para ello lo que hacían era, a partir de un espectrograma inicial, ir variando esa semilla para que la música fluyera de forma continua. Aplicaron además una serie de técnicas para que los espectrogramas fueran demasiado distintos y las transiciones fueran suaves.

Prueba en la web o instálatelo. Los desarrolladores tienen un singular generador de melodías en el sitio web del proyecto, pero el código está disponible en GitHub y solo necesitas un equipo con una GPU decente para generar este tipo de melodías en apenas unos segundos.

No compondrá bandas sonoras, pero... La música creada probablemente no vaya a ganar premios de la crítica, pero una vez más puede ser utilizada como inspiración o "borrador" para el compositor humano, que puede elaborar melodías con o sin letra a partir de ella. Eso sí: Esto plantea una potencial amenaza a la industria musical.



via Robótica e IA - Xataka https://ift.tt/HuN2DtO

Google tiene LaMDA para enfrentarse a ChatGPT, pero no lo sacará del laboratorio para no dañar su reputación

Google tiene LaMDA para enfrentarse a ChatGPT, pero no lo sacará del laboratorio para no dañar su reputación

ChatGPT lleva poco más de dos semanas entre nosotros, pero gran parte de Internet está hablando de él. Las sorprendentes capacidades del chatbot de OpenAI han ayudado a que el programa de inteligencia artificial se convierta rápidamente en un fenómeno viral, poniendo a prueba las capacidades de la infraestructura en la nube que permite su funcionamiento.

Durante todos estos días se ha especulado bastante sobre el futuro de los modelos de lenguaje avanzados, como GPT-3.5, que es el corazón de ChatGPT. Algunas personas, incluso, creen que esta tecnología conversacional podría reemplazar a los buscadores tradicionales en muchos casos. Google, sin embargo, cree que es demasiado pronto como para adoptar esta herramienta.

Un problema de reputación

De acuerdo a CNBC, el consejero delegado de Alphabet, Sundar Pichai, abordó junto al jefe de inteligencia artificial de Google, Jeff Dean, el fenómeno de ChatGPT. En la reunión, un empleado preguntó si el programa de OpenAI podría significar “una oportunidad perdida” para el buscador de la compañía. Los ejecutivos dejaron en claro la postura actual de la compañía.

Pichai y Dean señalaron que Alphabet debe actuar “de manera más conservadora que una empresa emergente” debido a los “riesgos de reputación” relacionados al estado actual de los modelos de lenguaje de inteligencia artificial. No obstante, los ejecutivos no olvidaron de señalar que sí están trabajando activamente para adoptar esta tecnología.

“Estamos absolutamente buscando convertir estas cosas en productos reales y en cosas que presenten de manera más prominente el modelo de lenguaje en lugar de debajo de las cubiertas”, dijo Dean. Pichai, por su parte, aseguró que Google tiene “mucho” planeado con este tipo de tecnología para el año que viene, aunque remarcó que trabajarán cautelosamente.

Pichai y Dean, al menos según el artículo de CNBC, no profundizaron sobre los problemas específicos que pondrían en riesgo la reputación de la compañía, pero los propios desarrolladores de estas herramientas de inteligencia artificial admiten que su funcionamiento incluye sesgos, respuestas incorrectas y todavía tienen problemas para moderar el contenido peligroso.

Lamda Google 12
Ilustración de Google sobre LaMDA.

Ahora bien, no debemos olvidar que OpenAI no es la única compañía que ha hecho avances significativos en el campo de los bots conversacionales. Google es un peso pesado en este campo, aunque ha sido mucho más cautelosa en publicar sus avances y, de momento, no ha puesto a disposición del público las capacidades de sus modelos más avanzados.

La compañía del buscador ha destinado una gran cantidad de recursos en entrenar grandes modelos de lenguaje que estarían a la altura de GPT-3,5, como MUM y LaMDA. En relación a este último, recordemos, que un ingeniero de Google había asegurado que la herramienta estaba cobrando “cierta conciencia”, e incluso acabó publicando lo que él aseguraba que eran las charlas.

Google, por su parte, reaccionó con contundencia. Dijo que las afirmaciones del ingeniero eran “totalmente infundadas” y aseguró que había hecho pública información confidencial de la empresa sobre sus investigaciones en materia de inteligencia artificial. La respuesta de la compañía fue despedirlo.

Puede Google no abrace inmediatamente estos modelos de IA, pero si algo queda claro en todo este asunto es que la inteligencia artificial ha llegado para quedarse. Ya sea como bots conversacionales, como asistentes de programación o como generadores de imágenes a partir de texto. Se avecinan tiempos de muchos cambios y, también, de grandes desafíos.

Imágenes: Google | Gertruda Valaseviciute

En Xataka: Ya hay detectores de texto artificial: los profesores podrán saber cuando los deberes se han hecho con IA



via Robótica e IA - Xataka https://ift.tt/msgCTjf

jueves, 15 de diciembre de 2022

Hay una IA para cancelar el ruido al comer patatas fritas. La hemos probado con unos Doritos, Chettos y Ruffles

Hay una IA para cancelar el ruido al comer patatas fritas. La hemos probado con unos Doritos, Chettos y Ruffles

¿Sabéis qué hay mejor que tener un par de horas (o más) para viciar a tu juego favorito? Jugar y picar algo entre y durante partida y partida. Que sí Jose Miguel, que tú tienes una vida y no pasas tus horas delante del ordenador jugando al 'WoW' y comiendo Doritos, pero algunos disfrutamos de estos pequeños placeres de la vida.

En fin, volviendo al tema. ¿Cuál es el problema de picar algo mientras juegas? Que se te llenan los dedos de grasa y pizcos (salvo que te comas una pera, que bueno, no es lo normal) y, por supuesto, que tus compañeros de escuadra seguramente estén deseando saber donde vives para ir a decirte de forma muy respetuosa que dejes de comer patatas mientras hablas por Discord.

¿Y cómo solucionamos este problema? ¿Cómo hacemos que la gente pueda seguir comiendo Doritos mientras juega a 'Warzone 2.0' sin que el chat de voz se llene de ñams, cracks, crunchs y demás sonidos al masticar? Pues Doritos ha tenido una idea: un sistema basado en inteligencia artificial bautizado Doritos Crunch Cancellation. Y sí, lo hemos probado.

Lo primero: cómo funciona el filtro antidoritos

Doritos

Antes de poner a prueba esta tecnología, no está de más repasar cómo funciona. Muy grosso modo, una inteligencia artificial necesita mucha información para aprender a hacer algo. Por ejemplo, imaginemos que queremos enseñarle a una IA a dibujar un árbol. ¿Cómo lo hacemos? La entrenamos con miles y miles y miles de imágenes de árboles para que sepa qué es un árbol, cuál es su estructura, etc. Insisto, esto es en términos muy generales, la realidad es bastante más compleja.

Pues con los sonidos es igual. Si queremos que la IA sepa detectar y, en este caso, filtrar un sonido tan característico como puede ser el crack al comer Doritos, "simplemente" tenemos que exponerla a cuántos más cracks diferentes, mejor. Eso es, más o menos, lo que han hecho Doritos y Glassworks a través de su departamento Glassworks Labs para desarrollar esta, cuanto menos, curiosa funcionalidad que no deja de ser parte de una campaña de publicidad ideada por la agencia TWBA.

Para desarrollar el software, Doritos pidió a los usuarios que enviasen vídeos o audios comiendo Doritos (el llamado "Casting de crujidos"). Con esos clips (y algo más, como veremos enseguida), Glassworks (la compañía que hay detrás de esta tecnología) se encargó de desarrollar el sistema. El desarrollo ha llevado cuatro meses y se ha usado como base una biblioteca de NVIDIA: Maxine.

Doritos
Captura del software para PC.

El software se puede descargar de forma totalmente gratuita desde la web de Doritos previa cumplimentación de un formulario. Es compatible solo con Windows 10/11 y requiere de una tarjeta gráfica NVIDIA RTX 20 o 30 para funcionar. Una barrera de entrada, sin duda, pero por una razón sencilla: la librería Maxine de NVIDIA.

Según nos explican Xavi Tribó (Director Tecnológico en Glassworks) y Clara Titos (Producer en Glassworks), el software desarrollado para Doritos está basado en la librería Maxine de NVIDIA, cuyo SDK es compatible con las arquitecturas Turing, Ampere y Ada. Si bien es cierto que los crujidos enviados por los usuarios se han usado para entrenar al modelo, la mayor parte de la magia recae en manos del SDK de NVIDIA. Si el nombre de Maxine te resulta familiar es posible que se deba a que hayas usado NVIDIA Broadcast, puesto que usa la misma biblioteca.

Gran parte de la magia sucede gracias a la biblioteca Maxine de NVIDIA

Básicamente, el software ejecuta la inteligencia artificial en tiempo real con un retraso de 25 milisegundos, algo que desde Glassworks aseguran es inapreciable en el uso. El software recoge 1.000 muestras de audio por segundo y lo envía a la gráfica, que se encarga de ejecutar los algoritmos en tiempo real. La gráfica hace uso de los Tensor Core para este proceso (y no precisamente bajo), de ahí que se requiera una gráfica de la serie 20 o 30 de NVIDIA. La RTX 40 también debería funcionar, pero es más nueva.

Y ahora que ya conocemos mejor el sistema, toca la parte divertida: comer Doritos y, ya que estamos, merendar ver si funciona con otras patatas.

Doritos, otros snacks e inteligencia artificial, a prueba

Patatas

Para poner a prueba la tecnología de Doritos he hecho una prueba bastante sencilla: una cata en directo. Para amenizar la jornada, me he abierto un paquete de Doritos, uno de Ruffles Jamón y unos Cheetos Pandilla, así podemos ver cómo rinde la IA en diferentes situaciones.

El software que hemos usado para capturar imagen y sonido es OBS. El sistema funciona mediante un cable virtual que se instala en el proceso de instalación principal. Simplemente hay que seleccionar Cable Input como dispositivo de entrada. Dicho lo cual, he aquí el resultado (¿nos seguís ya en Twitch, por cierto?). Durante el vídeo, podéis ver cuándo y qué patatas estoy comiendo y que tal se comporta el software según lo hayamos configurado.

Como podemos comprobar, el software funciona sorprendentemente bien independientemente de los snacks que comamos porque, como vimos anteriormente, no es una cuestión de haber entrenado el modelo sola y exclusivamente con sonidos de Doritos, sino que la librería Maxine de NVIDIA es capaz de ir mucho más allá.

De hecho, no solo cancela el crujido al comer, sino también las palmas, los chasquidos de dedos, etc. La cosa es que este mismo resultado se puede conseguir con NVIDIA Broadcast porque, recordemos, usa la misma librería que el software de Doritos. Tendremos que esperar para ver si este proyecto tiene más continuidad y si hay más versiones o implementaciones, pero lo que queda claro es que funcionar, funciona.

Doritos

Tiene sus cosas, evidentemente: el software no es perfecto. Si hablamos a la misma vez que hacemos ruidos estridentes, nuestra voz tiende a ser más metálica o incluso a no escucharse bien.

Más allá de la curiosidad del software, lo que realmente llama la atención es el avance que está teniendo la tecnología de inteligencia artificial en tiempo real. Ya no es solo que sea posible cancelar el ruido con un delay inexistente, sino que Maxine es capaz, por ejemplo, de corregir nuestros ojos durante las videollamadas. ¿Hasta dónde llegará esta tecnología? No lo sabemos, pero lo que es seguro es que nos depara cosas muy interesantes.

PD:  dejo una idea gratuita para desarrolladores: desarrollar un software que sea capaz de eliminar en tiempo real los brillos provocados por los focos en las gafas. Atentamente: alguien que hace TikTok y streaming y está cansado de tener un brillo verde en la cara todo el rato.



via Robótica e IA - Xataka https://ift.tt/OE0Sfob

martes, 13 de diciembre de 2022

Estamos utilizando tanto ChatGPT que hemos saturado sus servidores. No es tan mala noticia

Estamos utilizando tanto ChatGPT que hemos saturado sus servidores. No es tan mala noticia

‘Network error’, ‘Too many requests’, ‘Internal server error’. Los servidores de ChatGPT no dan a basto y la aplicación que causa furor por estos días en Internet ha empezado a dar fallos. Al momento de escribir este artículo, muchos de los usuarios que intentan probar el modelo de generación de texto basado en GPT-3.5 se encuentran con algunos de los mencionados mensajes de error.

Las enormes capacidades de ChatGPT, que es capaz de responder a casi cualquier cosa, recordar y conectar ideas, no tardaron en conquistar a los internautas. Algunos motivados por la curiosidad, y otros con la intención de utilizar la herramienta para crear obras creativas, han provocado una avalancha de solicitudes a los servidores de OpenAI. En concreto, más de un millón de usuarios en siete días.

ChatGPT al límite por la afluencia de usuarios

La inestabilidad de ChatGPT, que empezó hace aproximadamente una semana, ha escalado junto con el creciente número de usuarios. Como podemos ver en Reddit, uno de los primeros movimientos de OpenAI para mantener la aplicación en funcionamiento ha sido limitar el ritmo de solicitudes que pueden enviar los usuarios. Es decir, si se hacen demasiadas preguntas, ChatGPT se bloquea por algunos minutos.

“Esto es tan increíble que quiero usarlo una y otra vez, pero no puedo”, decía un usuario que se lamentaba de no poder pagar para utilizar el sistema libremente. Pero esta no es la única restricción. Si las respuestas son demasiado largas, ChatGPT simplemente colapsa arrojando el mensaje ‘Network error’, obligando a los usuarios utilizar algunas técnicas para seguir obteniendo respuestas extensas.

La conversación sobre los problemas también se trasladó también a Stack Exchange. En esa plataforma de preguntas y respuestas, algunos programadores que utilizan la herramienta para obtener código sugieren indicarle al modelo que muestre las primeras 10 o 20 líneas de texto, y el resto a continuación. La solución, sin embargo, no parece ser completamente útil en todos los casos.

Recordemos que ChatGPT, en combinación con otras herramientas de inteligencia artificial, ha empezado a ser utilizada para una enorme cantidad de tareas. Mientras que algunos usuarios se divierten haciendo preguntas y obteniendo respuestas, otros se han aventurado hasta a “coescribir libros” con la herramienta de generación de texto.

Open Ai Chatgpt 1

Más allá de las cuestiones legales y éticas que podrían llegar a envolver el uso de ChatGPT y la inteligencia artificial, nos estamos acostumbrando a implementar en una amplia cantidad de escenarios una herramienta que se encuentra en fase de pruebas. No estamos, de momento, ante una versión definitiva de GPT-3.5. Sin embargo, el éxito que está teniendo se traduce en una altísima probabilidad de que sea viable comercialmente. 

Ya lo hemos visto con DALL-E, el popular modelo de generación de imágenes a partir de texto de OpenAI. Los usuarios tienen una cierta cantidad de créditos gratuitos para utilizarlo, una vez agotados deben comprar más para seguir haciendo creaciones. ChatGPT podría adoptar un modelo dse negocio similar en el futuro, obligando a los usuarios a pagar para seguir utilizando la herramienta después de cierta cantidad de preguntas.

GPT-3.5, el modelo de lenguaje autorregresivo detrás de ChatGPT, también podría convertirse en parte de distintas herramientas o servicios de pago. Canva, la popular suite de diseño online, acaba de incorporar el hermano menor de este modelo en Canva Docs. La herramienta permite algunos usos gratuitos, pero después obliga a sacar la cartera.

Canva acaba de incorporar GPT-3 en Canva Docs.

Tampoco debemos olvidar el rol que ocupa Microsoft en OpenAI y, particularmente, en ChatGPT. Los de Redmond y la empresa de inteligencia artificial unieron fuerzas en 2019 con una inversión de 1.000 millones de dólares por parte de la primera. Producto de este acuerdo, como señala la compañía dirigida por Sam Altman, Microsoft Azure es el proveedor exclusivo de servicios en la nube de OpenAI.

Con esta ventaja, Microsoft también se perfila como candidato para implementar GPT-3.5, o la futura versión GPT-4, en algunos de sus productos. Y los de Redmond parecen bastante entusiasmados en abrazar la inteligencia artificial de OpenAI. Microsoft Designer, por ejemplo, adoptó DALL-E para permitir la generación de imágenes a partir de texto, y este podría ser solo el comienzo. Asistentes de voz o el propio buscador Bing podrían beneficiarse con los últimos modelos de lenguaje autorregresivo. 

De momento, no sabemos hasta cuándo OpenAI permitirá acceder de forma gratuita a la versión de prueba de ChatGPT. En cualquier caso, la compañía se ha comprometido a aumentar la capacidad de su infraestructura (que es Microsoft Azure) para mejorar la estabilidad de la herramienta a medida que la cantidad de usuarios crece. Por consecuencia, algunos de los problemas podrían resolverse próximamente.

Imágenes: OpenAI | Mahdis Mousavi

En Xataka: El nuevo robot de Xiaomi sabe tocar la batería (porque no va a quedar ninguna profesión sin ser automatizada)



via Robótica e IA - Xataka https://ift.tt/5Cu9ZAa