lunes, 31 de julio de 2023

Sam Altman tiene claro que "hay trabajos van a desaparecer, y punto". Lo que no está tan claro es cuáles

Sam Altman tiene claro que

Se respira incertidumbre y miedo. No sabemos cuánto y sobre todo cuándo se producirá el impacto de la inteligencia artificial en el mundo del trabajo, pero todo apunta a que tarde o temprano (y quizás más temprano que tarde), ese impacto será notable. Eso es al menos lo que vuelve a decirnos Sam Altman, CEO de OpenAI, que de esto sabe un poco.

El impacto estará ahí. En una reciente entrevista con The Atlantic, Altman explicaba que "Mucha gente que trabaja en IA pretende que [la revolución de la IA] sólo va a ser buena; que sólo va a ser un complemento; que nunca se va a sustituir a nadie". Él era mucho más crudo y apuntaba a que "los puestos de trabajo van a desaparecer, y punto".

La pregunta del millón. Por supuesto, lo interesante de verdad es saber qué sectores y profesiones serán las más afectadas. En marzo de 2023 varios investigadores de OpenAI y de la Universidad de Pennsylvania publicaron un estudio que trataba de dar una respuesta preliminar a esa pregunta. Las respuestas no eran especialmente claras, pero parecían indicar que los traductores e intérpretes estarían más afectados que otros como los escritores (que también se verán muy impactados) o los profesionales del mundo de las encuestas.

Lo difícil es saber qué profesiones no estarán impactadas. Ese mes de marzo Ed Gelten, profesor de tecnología de la información en Princeton, publicó otro estudio del mismo estilo. Entre las profesiones más afectadas según sus datos estaban los abogados, los profesores, los jueces o los gestores financieros, por ejemplo. Como en el caso anterior, el impacto se parece extender a prácticamente todos los ámbitos, por lo que lo difícil es saber qué profesiones estarían a salvo de esa teórica revolución del mundo del trabajo.

Pero todo será para bien. A pesar de que el impacto existirá y habrá profesiones que según Altman desaparecerán, el CEO de OpenAI también explicaba cómo ese cambio en nuestro mundo será para bien. "No creo que queramos volver atrás" porque aunque unas profesiones morirán, habrá trabajos mucho mejores que se crearán a raíz de dicha revolución. Altman explicaba cómo aún así los profesores serán un tipo de profesionales que quizás estén más a salvo por una razón: la gente siempre preferirá que les enseñe un ser humano.

Una revolución más rápida que otras. Aunque se han vivido otras revoluciones muy importantes que han afectado al mundo del trabajo, los cambios han tardado mucho en ser patentes. Para Altman los cambios que plantea la IA se producirán "más rápido que en el pasado".

Falacia de la porción de trabajo. Aquí recomiendo leer el excelente artículo que el analista Benedict Evans publicó a principios de julio y que meditaba sobre este tema. Él mencionaba por ejemplo la falacia de la porción (o escasez) de trabajo, que es la idea errónea de que hay una cantidad fija de trabajo por hacer, y que si parte del trabajo lo realiza una máquina, habrá menos trabajo para las personas. Y sin embargo, como él decía:

"Pero si resulta más barato utilizar una máquina para fabricar, por ejemplo, un par de zapatos, entonces los zapatos son más baratos, más gente puede comprar zapatos y tienen más dinero para gastar en otras cosas además, y descubrimos nuevas cosas que necesitamos o queremos, y nuevos puestos de trabajo...".

Así pues, es probable (como ha ocurrido en el pasado) que aunque se destruyan trabajos, se creen muchos otros nuevos que estén destinados a ofrecernos esas nuevas cosas que necesitaremos o querremos en el futuro.

Imagen | Arno Senoner | TechCrunch

En Xataka: OpenAI ya ha anunciado su estrategia para prevenir riesgos con la superinteligencia: la superalineación



via Robótica e IA - Xataka https://ift.tt/8mvGIlN

jueves, 27 de julio de 2023

En plena huelga de guionistas y actores, Netflix busca experto en IA para "crear contenido". Sueldo: 900.000 dólares

En plena huelga de guionistas y actores, Netflix busca experto en IA para

La inteligencia artificial generativa ha demostrado su capacidad para redactar tanto textos como imágenes, y en Netflix han tomado buena nota. De hecho la empresa parece tener claro que los contenidos generados por IA son parte del futuro de la industria audivisual. Así lo demuestra una reciente (y polémica) oferta de trabajo.

Se busca experto en IA. Como indican en The Intercept, en el sitio web de Netflix en el que publican ofertas de trabajo ha aparecido una en la que se busca un jefe de producto para la plataforma de aprendizaje profundo (deep learning).

Sueldazo. El candidato puede trabajar tanto en las oficinas de Netflix en Los Gatos, California, como en la costa oeste, y la compensación es elevada: el salario anual varía entre los 300.000 y los 900.000 dólares al mes. Muchos actores ganan unos 200 dólares al día según los últimos datos de la industria en EEUU.

El uso de la IA va a más. La propia Netflix dispone de una página web específicamente dedicada al aprendizaje profundo. En ella se explica cómo estos algoritmos se usan desde la personalización a las recomendaciones hasta la "optimización de la producción de películas y series originales".

Crear contenido por IA puede ser parte del futuro. En el texto de la oferta mostrado ahora mismo no aparece ese dato, pero en la página salvaguardada en Archive.org con la versión original de la oferta de trabajo se indicaba que ese experto ayudará a la empresa a "crear grandes contenidos". Ahora solo se indica que esa persona trabajará en algoritmos para la personalización o mejorar el procesamiento de pagos. La razón de haber editado el anuncio parece clara.

Actores (y guionistas) en huelga. La oferta es polémica porque aparece justo en medio de una huelga histórica en Hollywood. El sindicato de actores y artistas de radio y televisión en EEUU, el SAG-AFTRA, está en pie de guerra con la industria audiovisual. Antes ya se habían puesto en huelga los guionistas, y el impacto ha sido enorme, provocando ya varios parones y retrasos.

IA también en los juegos de Netflix. Además de esa oferta, en The Intercept indican que Netflix ha publicado otra en la cual buscan a un director técnico de IA generativa para su estudio de desarrollo de videojuegos. No hay enlace sobre ella —pero sí otras ofertas disponibles en ese campo en la empresa— pero revelan que el sueldo en ese caso es de 650.000 dólares al año.

Primeros frutos. Netflix ya ha comenzado a utilizar sistemas de IA para sus contenidos. El pasado 6 de julio se estrenó en España un reality show llamado "Deep Fake Love" ("Falso amor") en el que las caras y cuerpos de los concursantes se escanean para luego crear simulaciones y deepfakes de ellos mismos.

Los actores y sus voces ante la IA. Una de las reclamaciones de los huelguistas llega precisamente de ese futuro en el que se podrían utilizar recreaciones por IA de ellos mismos o de sus voces para futuras producciones. La Alliance of Motion Picture and Television Producers (AMPTP) ofrecía 200 dólares para escanear a los actores y luego poder usar esos datos para recrearlos de forma ilimitada en el futuro. SAG-AFTRA protestó contra esa oferta indicando que de aceptar, esa alianza "sería propietaria de ese escaneo, de su imagen, su aspecto, y podrían usarla para siempre jamás en cualquier proyecto que quieran sin consentimiento y sin compensación". 

Tom Hanks actuará incluso cuando muera. Este tipo de recreaciones por IA permitirían a los actores trabajar sin moverse de casa e incluso trabajar después de sus muertes. Tom Hanks ya destapó la caja de los truenos precisamente por esa cuestión. Los deepfakes aplicados al cine son ya famosos y el último ejemplo lo tenemos en 'Indiana Jones y el Dial del Destino'. Bruce Willis es otro de los pioneros en este delicado debate.

Imagen | Dina Solomin | Alex Knight

En Xataka | El doblaje de películas tiene un problema, se llama inteligencia artificial y ya tiene alucinantes resultados



via Robótica e IA - Xataka https://ift.tt/G1tijw6

miércoles, 26 de julio de 2023

Stack Overflow se está hundiendo. Y la culpa, cómo no, es (especialmente) de ChatGPT

Stack Overflow se está hundiendo. Y la culpa, cómo no, es (especialmente) de ChatGPT

En los últimos años si un programador tenía una duda no la buscaba en Google o en libros de programación. La buscaba en Stack Overflow. Este sitio web de preguntas y respuestas se convirtió en la biblia de los desarrolladores, y solía ser la mejor forma de resolver casi cualquier problema en este ámbito. Eso está dejando de ser así, y la culpa la tiene ChatGPT.

Oye, qué bien programa esta máquina. ChatGPT apareció a finales de noviembre de 2022, y pronto quedó claro que una de sus fortalezas era escribir código en todo tipo de lenguajes. A los pocos días el chatbot estaba desatado y muchos usuarios experimentaban con él y demostraban que aquello pintaba a revolución. Una que, eso sí, se cobraría sus víctimas por el camino.

Captura De Pantalla 2023 07 26 A Las 10 01 50
Fuente: SimilarWeb

Primero fue Copilot... Esa víctima no es ni más ni menos que Stack Overflow, que durante mucho tiempo era referente absoluto a la hora de obtener respuestas a preguntas entre la comunidad de desarrolladores. Según datos de SimilarWeb, el tráfico en Stack Overflow había caído "de media un 6% todos los meses desde enero de 2022". Ahí la culpa la había tenido GitHub Copilot, que precisamente era la (popularísima) antesala de la llegada del chatbot de OpenAI. Copilot estuvo disponible en versión preliminar desde junio de 2021, y su acceso público llegó un año después, en junio de 2022.

... y luego, ChatGPT. Tras aquello el problema para Stack Overflow se agravó con ChatGPT, porque como indicaban en ese estudio de SimilarWeb "la caída fue del 13,9% en marzo [de 2023]". A Stack Overflow no le sentó nada bien la llegada del chatbot, y de hecho pronto prohibió las respuestas escritas con ChatGPT. No serviría de mucho, y la caída comenzaría a agravarse en enero de 2023.

Captura De Pantalla 2023 07 26 A Las 9 20 13
Fuente: Stack Overflow

En un año, caída del 50%. Como indica Ayhan Fuat Çelik basándose en los propios datos de Stack Overflow, en el último año y medio el tráfico de este sitio web ha caído en un 50%. Esa caída se ha producido también en el número de preguntas y respuestas y en el número de votos que esos mensajes reciben.

Hay otras razones. Como señalan varios usuarios en el debate de la situación en Hacker News, la culpa de la caída en estos últimos meses ha sido de ChatGPT, pero en realidad Stack Overflow viene sufriendo también problemas de reputación y moderación. "En mi caso, hace más de 5 años publicaba una pregunta y recibía un aluvión de actividad en los primeros 10 minutos", explicaba un usuario. "Ahora publico una pregunta y no tengo ninguna actividad, y acabo respondiendo a mi propia pregunta un día después".

Discord es otro de los sustitutos. Otro usuario coincidía con esa sensación citada y explicaba que "pensaba que sólo me pasaba a mí, pero últimamente todas las preguntas que hacía parecían ser cerradas por los moderadores o recibía respuestas irrelevantes. Esto no era un problema que yo recuerde en el pasado. Como resultado, me he alejado un poco". Varios usuarios aludían también a cómo la documentación para los programadores había mejorado mucho, y cómo Discord se había convertido en otro de los recursos para poder interactuar con otros desarrolladores y obtener respuestas a sus dudas.

Imagen | Mitchell Luo | Mariia Shalabaieva

En Xataka | Copilot, ChatGPT y GPT-4 han cambiado el mundo de la programación para siempre. Esto opinan los programadores



via Robótica e IA - Xataka https://ift.tt/EyxPQ9J

sábado, 22 de julio de 2023

ChatGPT está centrado en la ética y en el bien. Alguien ha creado WormGPT para hacer el mal (si quieres)

ChatGPT está centrado en la ética y en el bien. Alguien ha creado WormGPT para hacer el mal (si quieres)

ChatGPT es, entre otras cosas, correcto y formal. El chatbot desarrollado por OpenAI, también en Bing Chat, cuida mucho el tono y sus propios límites, y es difícil que conteste preguntas tóxicas o que escriba algo inapropiado. Sin embargo, ahora hay una versión de ChatGPT específicamente diseñada para saltarse todas las barreras éticas que el chatbot tenía. Se llama WormGPT.

Antecedentes. En el pasado ya vimos cómo las técnicas de jailbreak y los exploits permitían alterar su comportamiento y dar salida a su reverso tenebroso, DAN, que gracias a ciertos prompts lograba comportarse de forma muy distinta a ChatGPT y se salía de los límites éticos contestando a preguntas que de otro modo no respondería.

WormGPT. Sin embargo un desarrollador ha ido más allá y ha creado WormGPT, un chatbot similar en funcionamiento a ChatGPT pero específicamente destinado a escenarios perversos. En SlashNext, empresa proveedora de servicios de correo seguro, han probado este chatbot y han comprobado que efectivamente se puede utilizar para ataques BEC (Business Email Compromise). Este tipo de técnica es según el propio FBI uno de los delitos que pueden causar más daños financieros a las empresas a través de estafas por correo a empleados.

También escribe malware. ChatGPT es muy utilizado para escribir código, pero con WormGPT ese código puede ser malicioso. El desarrollador de WormGPT, que vende acceso a este chatbot, proporcionó capturas de cómo a través de la herramienta era por ejemplo posible crear un malware en Python.

Cómo ha nacido WormGPT. Según PCMag el desarrollador presentó el chatbot en marzo aunque no lo lanzó hasta el mes de junio. Para crearlo afirma haber usado un "viejo" modelo Open Source llamado GPT-J, similar a GPT-3 y que contaba con 6.000 millones de parámetros, una cifra que no es excesivamente elevada —la última versión de Llama 2 cuenta con una variante de 70.000 millones, por ejemplo—. A partir de ahí este desarrollador entrenó el modelo con datos relacionados con la creación de malware.

Promete (para mal). En SlashNext comprobaron que el chatbot era capaz de redactar correos electrónicos muy convincentes que poder usar en un ataque BEC, y como decían sus responsables, "los resultados fueron inquietantes. WormGPT produjo un correo electrónico que no sólo era notablemente persuasivo, sino también estratégicamente astuto, mostrando su potencial para sofisticados ataques de phishing y BEC".

Phishing por IA. La herramienta no cometió errores ortográficos o gramaticales en la redacción, pero además usó un lenguaje profesional que instaba a la víctima a enviar dinero. Para estos expertos, "este experimento subraya la importante amenaza que suponen las tecnologías de IA generativa como WormGPT, incluso en manos de ciberdelincuentes novatos".

Cuánto cuesta. Usar WormGPT, eso sí, impone un coste de 60 euros al mes o 550 euros al año. En PCMag citaban las palabras de uno de los compradores, que había comentado en el foro donde lo adquirió que este desarrollo "no valía un duro" por su pobre rendimiento. Esa declaración contrasta con los comentarios de SlashNext, pero una cosa es segura: los modelos de IA entrenados para fines maliciosos serán sin duda una de las incómodas caras ocultas de esta tecnología.

Imagen | PCMag

En Xataka | Las extensiones de ChatGPT para navegadores están por todos lados. Algunas son una amenaza inquietante



via Robótica e IA - Xataka https://ift.tt/oAbisgS

La app de ChatGPT llega a Android: así puedes registrarte para instalarla

La app de ChatGPT llega a Android: así puedes registrarte para instalarla

ChatGPT, el famoso chatbot conversacional de OpenAI, llega a Android. Después de aterrizar en iOS en mayo de este año, la compañía dirigida por Sam Altman completa, por fin, su objetivo de llevar a su producto estrella de manera nativa a las dos principales plataformas móviles del mercado.

Con este movimiento, los usuarios de dispositivos con el sistema de Google tendrán las mismas posibilidades que los que cuentan con el sistema de Apple: utilizar la aplicación oficial de ChatGPT. Recordemos que, debido a la gran popularidad de la herramienta, habían proliferado muchas apps falsas.

ChatGPT, disponible en Android

Sin bien ChatGPT es un chatbot que puede ser utilizado desde el navegador de ordenadores y móviles, contar con una aplicación móvil presenta la ventaja de tener una experiencia más sólida e individual. La aplicación permite iniciar sesión con una cuenta de OpenAI y sincronizar el historial entre dispositivos.

Esto último, en caso que deseemos que así sea. Recordemos que, al tener nuestro historial activado estamos permitiendo que nuestras conversaciones sean utilizadas para mejorar el chatbot y entrenar futuros modelos. No está claro, de momento, si estará disponible la función presente en iOS de dictado por voz.

ChatGPT en PlayStore

Si bien la aplicación ha sido anunciada, todavía no está disponible para los usuarios de Android. Desde OpenAI aseguran en Twitter que el despliegue comenzará la próxima semana. Así que en este momento podemos reservarla en Play Store para recibir una notificación una vez que esté disponible.

Cabe señalar que ChatGPT no es la única aplicación móvil con acceso a GPT-3.5 y GPT-4 (esto último en el caso de ChatGPT Plus). Microsoft, el gran socio de OpenAI en el mundo de la inteligencia artificial, lanzó hace tiempo Bing en iOS y en Android. La aplicación permite conversar con Bing Chat, también de manera gratuita.

Imágenes: Google | Captura Play Store

En Xataka: Microsoft Copilot 365 costará 30 dólares al mes. Parece mucho, pero también es una señal: la IA no saldrá barata



via Robótica e IA - Xataka https://ift.tt/LwRpMmv

viernes, 21 de julio de 2023

Microsoft Copilot 365 costará 30 dólares al mes. Parece mucho, pero también es una señal: la IA no saldrá barata

Microsoft Copilot 365 costará 30 dólares al mes. Parece mucho, pero también es una señal: la IA no saldrá barata

ChatGPT nació siendo gratis. Midjourney, lo mismo. Aprovechar estos espectaculares modelos de IA generativa, como otros que competían con ellos, sigue siendo posible sin que sea necesario pagar un euro. La versión básica de ChatGPT sigue siendo gratuita, como también lo son Google Bard, Bing Chat o, en el caso de las imágenes, Stable Difussion o Bing Image Creator.

Sin embargo poco a poco estamos viendo cómo en realidad todo el ámbito de la inteligencia artificial está haciendo uso de un modelo de negocio muy conocido: el modelo freemium. Se proporciona un producto o servicio básico que cualquiera puede usar gratuitamente, pero luego ese mismo producto o servicio cuesta dinero si uno quiere usar una versión avanzada que expande las funciones del original.

Lo hemos visto desde luego con ChatGPT Plus y con lo que ocurrió con Midjourney, que dijo adiós a las cuentas gratuitas en marzo y dejó claro que si querías usar el mejor generador de imágenes por IA, tocaba pagar.

La avalancha de servicios de IA que nos piden pagar por ellos es asombrosa. Hay multitud de ellos, y las promesas son de lo más variadas. Crean resúmenes de documentos, nos ayudan a programar (aún más y mejor), extraen datos de forma automatizada, generan textos para redes sociales como Facebook, Instagram o Twitter, escriben cuentos para niños, nos preparan para entrevistas de trabajo, crean calendarios personalizados para alcanzar metas, generan fotos o vídeos de producto, o nos tratan de orientar en inversiones financieras, por ejemplo.

Todos esos servicios se basan en hombros de gigantes. Que en este caso es lo mismo que decir que se apoyan (especialmente) en las APIs de OpenAI, empresa que se ha logrado hacer de oro con un modelo de negocio en el cual el acceso a las prestaciones de ChatGPT o de DALL E 2 se puede externalizar e integrar en esa miriada de productos y servicios para adaptarlos a escenarios concretos.

En todos esos casos el discurso es el mismo. Te dejan probar gratis el servicio, si quieres aprovecharlo de verdad toca apoquinar. Los precios varían, pero por poner algunos ejemplos rápidos, Fina, un asesor financiero, cobra 8 dólares al mes. ScribbletoArt, que transforma tus garabatos en arte, cuesta 10 dólares al mes por 100 imágenes. Alphy, que transcribe audios, cuesta 5 dólares al mes. Y ChatNode, que crea chatbots personalizables, cuesta 19 dólares al mes para 2.000 mensajes al mes. En muchos de ellos hay varios planes: si los usas más, pagarás más, lógicamente.

Quizás por eso resulte curiosa la reacción que ha habido al conocerse los precios que tendría la suscripción a Microsoft 365 Copilot. La empresa de Redmond aprovechaba esta semana para anunciar una nueva alianza con Meta tras el lanzamiento de Llama 2, pero además hablaba de ese nuevo y ambicioso servicio y el coste que tendría.

Así, indicaron, Microsoft 365 Copilot tendría un precio de 30 dólares al mes. Es mucho más de lo esperado, afirmaban nuestros compañeros de Genbeta, que recordaban que para quienes se suscriban ese precio representará un aumento de entre el 52% y el 83% en el coste mensual que los clientes empresariales ya pagan por Microsoft 365.

Steven

¿Es, efectivamente, mucho más de lo esperado? Eso depende, claro, del partido que se les saque a estas herramientas. La propuesta de Microsoft parece clara a primera vista, pero quizás haya tener en cuenta lo que por ejemplo comentaba Steven Sinofsky, es directivo de Microsoft.

Y es que como él apuntaba en Twitter, esos 30 dólares no pagan solo "la IA", sino que es un coste en el que se incluye el aislamiento de datos, la privacidad, la seguridad y (probablemente, añadía), no estar expuesto a posibles demandas por violación de propiedad intelectual.

En efecto, la promesa de Microsoft 365 Copilot va más allá de ser un "ChatGPT" para Office, porque se centra muy especialmente en evitar los riesgos que impone el uso de ChatGPT en empresas. Como sabemos, este modelo no sabe guardar secretos, y eso ha provocado que varias compañías —Samsung, Apple, o JP Morgan entre ellas— veten o restrinjan su uso entre sus empleados.

Así que lo que se supone que la empresa paga con esos 30 dólares al mes (adicionales) es, además de potencia, tranquilidad. Garantizar que los datos que se van a usar en Microsoft 365 Copilot se mantienen aislados y a salvo es una promesa arriesgada por parte de la empresa de Redmond, pero si la cumple tenemos ante nosotros un servicio que puede, bien aprovechado, ser una pequeña revolución en la empresa.

Y lo puede ser porque como en el caso de GitHub Copilot, aquí estamos ante una herramienta que permitirá a los profesionales ganar (mucho) tiempo. El servicio les generará automáticamente resúmenes de documentos, presentaciones a partir de otros, y será teóricamente una poderosa fuente de inteligencia de negocio que, insistimos, permitirá usar datos internos sin miedo a que puedan "salir fuera".

Si Microsoft logra cumplir esa promesa estará desde luego ante la disrupción más importante de sus soluciones empresariales en años, y eso impone un coste elevado. Y sin embargo, que Microsoft 365 Copilot cueste 30 dólares seguirá pareciendo caro a quienes no le saquen partido, pero bien aprovechado apunta a ser una ayuda espectacular para mejorar la productividad e incluso la calidad del trabajo, dando a los profesionales más tiempo para resolver otras tareas que antes no podían resolver por tener que completar tareas más rutinarias.

En realidad, por tanto, el precio puede no ser ninguna burrada. Lo que sí es es la prueba definitiva de que aprovechar estas herramientas acabará obligándonos a pagar cuando las queramos aprovechar de verdad. Es posible que para un uso ligero o esporádico podamos conformarnos con las versiones básicas de esos servicios, pero una cosa está clara: usar IA de forma intensiva no va a ser "barato".

No al menos si no la aprovechamos de verdad. Si lo hacemos es probable que nos ahorre tanto tiempo y nos permita sacar tanto trabajo adelante que al final no solo nos parezca barata. Nos acabará pareciendo hasta un chollo. Y si no, que se lo digan al trabajador que ha logrado teletrabajar en tres empleos a jornada completa y ganar 315.500 euros anuales gracias a la IA.

Imagen | Xataka con Bing Image Creator

En Xataka | Se suponía que ChatGPT debía mejorar con el paso del tiempo. Está sucediendo exactamente lo contrario 



via Robótica e IA - Xataka https://ift.tt/V8GpPlZ

jueves, 20 de julio de 2023

La India es un vivero de programadores. El CEO de Stability AI cree que serán pronto serán sustituidos por... IA

La India es un vivero de programadores. El CEO de Stability AI cree que serán pronto serán sustituidos por... IA

En Stability AI saben un poco de inteligencia artificial. Son los creadores de Stable Difussion, uno de los modelos de IA generativa más populares a la hora de crear imágenes. Su CEO, Emad Mostaque, ha realizado unas recientes declaraciones sobre el impacto que la IA tendrá en el trabajo, pero su reflexión no se centra en el entorno creativo y artístico, sino al mundo de la programación. Y, concretamente, a los programadores en India.

El país de los programadores. El gigantesco país asiático cuenta actualmente con una población de 1.400 millones de personas, y eso hace relativamente lógico que la cifra de programadores indios sea también elevadísima: las estimaciones apuntan a que hay cinco millones de programadores. Por ahora.

La mayoría perderán su empleo. Como indican en CNBC Mostaque, reunido con analistas del banco de inversión suizo UBS, les explicaba que la mayoría de los programadores de India perderán su trabajo por culpa de la IA. Estos modelos hacen posible que el software se pueda desarrollar con mucha menos gente, y eso tendrá un impacto notable entre la comunidad de programadores indios.

La IA como becaria con talento. Para el CEO de Stability AI el peligro es que estos modelos ya son capaces de hacer parte del trabajo que en otro caso haría un empleado, aunque sean noveles o júniors. "Si estás haciendo un trabajo frente a un ordenador y nadie te ve jamás, entonces [la IA] tiene un impacto masivo, porque estos modelos son realmente como recién graduados con talento".

Cada país, un mundo. Sin embargo, en su opinión no todos los programadores se verán afectados de la misma forma. Países con fuerte regulación laboral como Francia, por ejemplo, verán un impacto menor. "Los programadores subcontratados en India de hasta nivel tres desaparecerán en uno o dos años", afirmaba Mostaque, "mientras que en Francia nunca se despide a un programador".

¿De contratar programadores a contratar IA? Hay gigantes de la subcontratación de desarrolladores en India como Tata Consultancy Services (TSC), Infosys o WiPro, y estas empresas ya están preparándose para ese hipotético futuro. TCS, por ejemplo, ya está formando a 25.000 ingenieros en servicios de OpenAI sobre Azure "para ayudar a los clientes a acelerar la adopción de esta nueva y potente tecnología".

Los programadores desaparecerán (más o menos) en cinco años. Mostaque ya había hecho comentarios previos en los que preveía que en cinco años no habría más programadores. Reiteró ese comentario, pero indicó que se refería a los programadores tradicionales. "¿Por qué tendrías que escribir código cuando el ordenador puede escribirlo mejor? Cuando deconstruyes la programación desde la prueba de errores a la prueba unitaria a la ideación, una IA puede hacer eso, sólo que mejor".

La IA será una (poderosa) ayuda. El CEO de Stability AI destacaba una reflexión que se va popularizando: la IA será un asistente en muchos escenarios. Podrá impactar en el empleo, pero como decía él, porque "menos gente se necesitará para la programación clásica", y la pregunta es si esos programadores serán necesarios para otras cosas.

Imagen | Mohammad Rahmani

En Xataka | GPT-4 es un salto de nivel brutal respecto a ChatGPT: nueve ejemplos para comprobarlo en persona



via Robótica e IA - Xataka https://ift.tt/eT2t80A

Se supone que con el tiempo ChatGPT sería cada vez mejor. Según un estudio, está pasando justo lo contrario

Se supone que con el tiempo ChatGPT sería cada vez mejor. Según un estudio, está pasando justo lo contrario

"¿Es el número 17077 primo? Razónalo paso a paso". Esa sencilla pregunta debería ser bastante fácil de responder para un modelo de IA como ChatGPT, sobre todo con el tiempo que ha pasado desde su lanzamiento y su evolución. Uno pensaría que este chatbot es cada vez mejor y más preciso, pero no parece que eso esté pasando.

El estudio. El pasado martes unos investigadores de la Universidad de Stanford y de la Universidad de California en Berkeley publicaron un estudio que evaluaba cómo han evolucionado tanto GPT-3.5 (usado en el ChatGPT que se puede usar gratuitamente) como GPT-4 (usado en ChatGPT Plus y en Bing Chat). Las conclusiones son sorprendentes: en general ambos modelos han empeorado.

Las pruebas. Usando la API de estos modelos, los investigadores analizaron el rendimiento de estos modelos en dos versiones distintas, la de marzo de 2023 y la de junio de 2023. Realizaron pruebas consistentes en preguntas de resolución de problemas matemáticos, cuestiones sensibles, generación de código y razonamiento visual.

Chatgpt

17077 es primo, pero no para ChatGPT. Una de las pruebas más llamativas fue la que indicábamos al comezar el artículo. Se le preguntó al chatbot si el número 17077 es primo (lo es) razonando la respuesta, y esa misma prueba se realizó con 500 ejemplos. Los cambios en la precisión fueron sorprendentes. GPT-4, que acierta el 97,6% de las preguntas con su versión de marzo, caía a una precisión del 2,4% en su versión de junio. A GPT-3.5 le pasaba justo lo contrario y pasaba del 7,4% de marzo al 86,8% de junio.

Más (o menos) parlanchines. También notaron que GPT-4 era menos "parlanchín": las respuestas eran más escuetas y el número de caracteres generado pasaba de 821,2 en marzo a 3,8 en junio. GPT-3.5, por contra, escribía respuestas un 40% más largas. En Xataka comprobamos que con el ejemplo expuesto, 17077, GPT-3.5 decía directamente que no era primo, mientras que GPT-4 no era capaz de asegurarlo y generaba un pequeño programa en Python que el usuario debía ejecutar para comprobarlo (pero no daba respuesta). El programa, al ser ejecutado, daba la respuesta correcta.

Más protegidos contra 'jailbreaks'. Los investigadores también quisieron tratar de preguntar cuestiones delicadas para tratar de forzar a las distintas versiones de ChatGPT a que se comportaran de forma incorrecta. Los jailbreak y exploits son ya conocidos, pero al menos en GPT-4 el comportamiento fue más seguro (contestó solo el 5% de las preguntas sensibles en su versión de junio, por el 21% de marzo), aunque apenas explica por qué no contesta bien. GPT-3.5 contestó más en su última versión (del 2% al 8% de junio).

Código menos ejecutable. Este chatbot se usa mucho para generar código, pero su evolución en este apartado también es errática. Según los investigadores, para GPT-4 el código generado directamente ejecutable (y por tanto, que ofrece mejores respuestas) cayó del 52% al 10% en junio, y para GPT-3.5 el porcentaje también cayó del 22 al 2%. GPT-4 escribió respuestas más largas y con más texto que no era código.

¿Se está volviendo peor ChatGPT? El estudio llega en un momento curioso, sobre todo porque varios debates en foros como Hacker News revelan que para muchos usuarios la calidad de ChatGPT se ha degradado. Entre las teorías que se barajan está la de que OpenAI podría estar ofreciendo versiones "ligeras" para reducir los recursos necesarios —como tiempo de GPU— para computar toda esa información.

Poet

En OpenAI niegan la mayor. Peter Welinder, uno de sus directivos, indicaba que todo se debe probablemente a nuestra percepción: al usarlo mucho, empezamos a detectar problemas que antes no notábamos. Aún así los responsables de la empresa están investigando esas quejas.

Pruebas discutibles. Otros expertos argumentan que el estudio no es especialmente concluyente debido a las métricas utilizabas. Arvind Narayanan, profesor de informática en Princeton, explicaba que en las pruebas de código "no evalúan la corrección del código (extraño). Se limitan a comprobar si el código es directamente ejecutable. Así que el intento del nuevo modelo de ser más útil contó en su contra".

La opacidad lo complica todo. Lo cierto es que es difícil evaluar la progresión de estos modelos si tenemos en cuenta que OpenAI es especialmente opaca respecto a sus modelos. Como explican en Ars Technica, no hay transparencia sobre cómo son entrenados o los conjuntos de datos que se usan, y su propio funcionamiento interno es un misterio hasta para sus creadores. Aquí la opción sería adoptar un enfoque Open Source como el que por ejemplo Meta ha seguido con Llama y Llama 2, recién lanzado.

Imagen | Xataka con Bing Image Creator

En Xataka | Bard cae en el mismo error que ChatGPT aunque esté conectado a internet: se lo inventa absolutamente todo



via Robótica e IA - Xataka https://ift.tt/XM4jnWg

miércoles, 19 de julio de 2023

"Apple GPT": la empresa de Cupertino ya trabaja en una IA para competir con OpenAI y Google, según Gurman

Apple también quiere subirse al tren de la inteligencia artificial (IA). Si bien la compañía de Cupertino viene trabajando desde hace años con esta disciplina, ha adoptado un enfoque diferente al de empresas como Google y OpenAI. En concreto, sus esfuerzos han estado enfocados en mejorar la experiencia de sus productos y servicios, con funcionalidades relacionadas a la fotografía, la seguridad e incluso la recomendación de contenido.

Como hemos visto, desde el Apple Park no han emergido chatbots al mejor estilo de ChatGPT o Bard, cuya esencia podría servir incluso para mejorar las capacidades de Siri, un asistente de voz que nació con espíritu innovador y cuya evolución se ha visto estancada. Ahora bien, fuentes consultadas por Mark Gurman dan cuenta de que Apple ha empezado a trabajar con modelos de lenguaje e incluso su propio chatbot. 

El renovado interés de Apple por la IA

El reputado analista de Bloomberg señala que Apple ha empezado a trabajar en un conjunto de herramientas y técnicas conocidas como Ajax para impulsar el desarrollo de diferentes proyectos de IA. Los primeros resultados de este sistema, que empezó a funcionar el año pasado, se materializaron en mejoras para el sistema de búsqueda en Siri y Mapas. Además ha sido utilizada para crear grandes modelos de lenguaje. 

Como parte de esto último, los de Cupertino desarrollaron en secreto y a puertas cerradas una herramienta del estilo de ChatGPT denominada por algunos ingenieros como “Apple GPT”. La moderación y la cautela han primado durante su desarrollo, que se detuvo inicialmente por preocupaciones relacionadas a la seguridad (sabemos que los modelos de IA, en general, todavía arrastran muchos problemas).

Apple Apple Event Keynote Timmillet 09152020

Sin embargo, Apple GPT ha continuado su camino evolutivo en etapa experimental. La compañía ha extendido las pruebas a más empleados, aunque estos deben contar con una autorización especial para poder evaluarlo. El abanico de posibilidades que brinda esta herramienta incluye incluso su utilización para agilizar algunas tareas como la creación de prototipos de productos, pero no productos destinados a los clientes.

Tengamos en cuenta que hay ciertas inquietudes por parte de las grandes tecnológicas sobre la utilización de chatbots conversacionales por parte de sus empleados. Las filtraciones de datos son una realidad hasta tal punto que firmas como Samsung han decidido prohibir ChatGPT. En respuesta a esto, han aparecido alternativas “profesionales” como Bing Chat Enterprise. Apple, por su parte, parece tener su propio modelo para uso interno.

En este punto, no obstante, todavía quedan muchas preguntas por responder. Al menos según las fuentes de Gurman, el fabricante del iPhone todavía está tratando de definir cuál será su rol en la carrera por la IA encabezada por OpenAI, Microsoft y Google. El planteo está sobre la mesa y los ejecutivos ahora intentan definir los próximos pasos a medida que las investigaciones en la materia avanzan en sus laboratorios.

Cabe señalar, eso sí, que los planes de Apple tienen mucho de Google. Miembros de la compañía aseguran que Ajax está basado en Google Jax. Además, partes del sistema se ejecutan en la infraestructura en la nube de Google Cloud y Amazon Web Services (AWS). Con el tiempo sabremos cómo evoluciona todo esto. Hasta este momento, eso sí, Apple ha preferido evitar decir “inteligencia artificial”

Imágenes: Apple

En Xataka: Inteligencia artificial y economía digital: qué proponen los partidos en sus programas para las elecciones 2023



via Robótica e IA - Xataka https://ift.tt/xWHc9Rd

¿Estás buscando ideas fabulosas para regalos tecnológicos para el día de la madre?

Regalos tecnológicos para el día de la madre

Padres y madres también se suben al carro de la modernidad y se animan a formar parte de la sociedad tecnológica para no quedarse atrás y porque, está claro, que la tecnología nos facilita la vida y la hace más interesante. Desde móviles y tablets, hasta domótica y, por supuesto, gadgets súper curiosos que es un gustazo llevar encima o tener cerca. Así, el abanico de opciones cuando tenemos que hacerle un regalo a mamá se amplía exponencialmente. ¿Estás buscando ideas fabulosas para regalos tecnológicos para el día de la madre? ¡Estás en el lugar adecuado!

Porque una madre es la mujer más importante en la vida de cualquier hijo o hija, hemos seleccionado los dispositivos de tecnología más interesantes que seguro le gustará tener y que agradecerá que le hayas regalado, pero, sobre todo, le ilusionará mucho que hayas pensado en ella con tanto cariño.

Regala a mamá un cepillo limpiador facial para el Día de la Madre

Preocúpate por su belleza y anima a tu madre a cuidarse y a seguir sintiéndose bella con un regalo que toda mujer coqueta agradece. Aunque la limpieza de la piel no es solamente coquetería, sino también bienestar, porque elimina las células muertas de la piel dejando el cutis más sano, suave y más receptivo a tratamientos y también al maquillaje.

Recuerda a tu mamá lo bella que es, ofreciéndole la oportunidad de cuidar de su bonito rostro ella misma y desde casa, ahorrando en centros de estética y pudiendo hacerse una limpieza fácil adaptada a sus necesidades y gustos, siempre que la necesite.

Regalos tecnológicos para el día de la madre

En el mercado vas a encontrar varios modelos de cepillos limpiadores faciales, pero entre los más recomendados, está el Foreo Luna mini 3, con filamentos de silicona en varios grosores, para un masaje suave y eficaz según el tipo de piel, que dejará el cutis libre de impurezas y relajado.

Si tu presupuesto es más reducido, puedes regalarle el modelo de cepillo de limpieza facial TOUCHBeauty, que tiene una calidad menor que el anterior, pero también es útil y le ayudará a limpiar impurezas y eliminar puntos negros.

Para que escuche su música favorita, unos auriculares inalámbricos

Si todavía no tiene unos, ya se está quedando atrás. No lo permitas y regala a tu madre por el día de la madre unos auriculares inalámbricos para que pueda escuchar su música preferida o los audios que quiera mientras está haciendo las tareas de la casa, ejercicio, dando un paseo, cocinando o sentada dándose un rato de relax. Porque la vida con música es inmensamente más entretenida, alegre y positiva.

Los auriculares Tozo T10, además, son impermeables, para que pueda usarlos bajo la lluvia o no tenga miedo de mojarlos.

Regalos tecnológicos para el día de la madre

Puede usar sus auriculares inalámbricos también para ver películas o series. Y hay algunos modelos que tienen cancelación de ruido, para que la acústica sea mucho más placentera.

Hay diversos modelos, como el Lenovo LivePods LP1S, que están muy bien de precio y trae micrófono dual para llamadas. O el Samsung Galaxy Buds2, bastante más completo, con una batería de alto nivel, excelente calidad de sonido, y que funciona también en modo acelerómetro y giroscopio. Este último es más caro, pero la calidad lo merece.

Quita a tu madre de limpiar, con un robot de limpieza

Una de las mayores obsesiones de las madres en el hogar es la limpieza. Y esta es una tarea pesada y costosa, sobre todo si tu madre ya tiene cierta edad. Por eso, un robot de limpieza es una gran ayuda para cualquier persona que sea ama de casa. Ahorra tiempo y esfuerzo en el mantenimiento de suelos y superficies.

Regalos tecnológicos para el día de la madre

Estas características lo convierten en el regalo tecnológico perfecto para el día de la madre, si es que tu madre todavía no tiene uno de estos en casa.

Por modelos, el Roomba es el más popular. Aspira y limpia el suelo y lo puedes programar para que haga la limpieza cuando quieras, incluso si no estás en casa.

Para cuidar sus ojos, regala a tu madre una lupa de pantalla para el móvil

A medida que vamos cumpliendo años, nuestra vista se resiente. Y hoy en día más con el uso de la pantalla todo el día presente, en teléfonos móviles, tablets, ordenadores y, por supuesto, el televisor. Nos pasamos el día con los ojos pegados a una pantalla y esto daña la salud ocular.

Regalos tecnológicos para el día de la madre

Para proteger la vista de tu madre y hacerle más fácil la lectura y el ver los detalles que a veces se vuelven insignificantes en pequeño tamaño, puede ser una buena idea regalarle una lupa de pantalla para el móvil.

Seguro que la has escuchado, en más de una ocasión, quejarse de que no ve bien lo que le muestra la pantalla cuando está mirando algo en su teléfono. Así que esta lupa le irá de maravilla. Como la lupa de pantalla Stebruam, que aumenta la imagen hasta en 16 pulgadas y, además, es de material antideslizante, para mayor facilidad en su uso y que no se le resbale y se le caiga. Trae zoom óptico.

Otra posibilidad más económica pero que tampoco está mal es el modelo Divons, que además es plegable. O el Ryra, con un nivel de aumento inferior, pero que tampoco está mal. Ya es lo que tu bolsillo te permita.

¿Otro buen regalo tecnológico por el día de la madre? Un reloj inteligente

Relojes y pulseras inteligentes, casi todo el mundo tiene uno actualmente. Por eso, puede ser otra buena elección para regalar tecnología a tu madre en el día de la madre. Si tu mamá tiene móvil y usa redes sociales, este gadget le vendrá genial, porque será una forma de tener todo en su muñeca y, además, otras prestaciones, como apps para controlar su salud y orientarla del nivel de actividad física que hace cada día.

Regalos tecnológicos para el día de la madre

Podrá estar conectada con más facilidad, porque cuando reciba un mensaje o llamada, no tendrá que coger el móvil.

Entre las pulseras, la Huawei Band 7 nos gusta porque, además, tiene GPS, mide el ritmo cardíaco y es resistente al agua, de modo que no habrá riesgo de que se averíe si se ducha con ella o se le moja.

Estas son solo algunas propuestas de regalos tecnológicos para el día de la madre. ¿Qué le regalarías tú?



via Actualidad Gadget https://ift.tt/MwqQimv

China ya tiene al primer robot "producido en masa". Su misión es sorprendente: ejercer de enfermero

China ya tiene al primer robot

El mundo del cine lleva décadas mostrándonos un futuro lleno de robots, pero hoy por hoy su presencia, aunque notable en plantas de producción, es casi nula en el ámbito doméstico. Eso es justo lo que quiere cambiar la empresa china Fourier Intelligence.

GR-1. Así se llama el robot humanoide desarrollado por esta compañía. Mide 1,64 m y pesa 55 kg, pero sobre todo destaca por ser según sus creadores el primer robot preparado para ser fabricado de forma masiva y, por tanto, llegar a un gran número de escenarios.

Prototipos antes de que termine el año. En Fourier Intelligence llevan desde 2019 desarrollando su robot humanoide, y esperan tener listos 100 prototipos a finales de 2023 para comenzar a evaluar sus prestaciones. Entre ellas destaca la posibilidad de cargar con su propio peso, pero también la de poder coger, trasladar y depositar objetos.

Un robot enfermero. La otra gran curiosidad del GR-1 es el ámbito al que va orientado. No quiere reemplazar a los obreros de las fábricas, sino que sus creadores lo plantean como una especie de enfermero o asistente para las personas mayores. Fourier Intelligence lleva de hecho tiempo comercializando su plataforma RehabHub con dispositivos de terapia física para distintos problemas. Este robot va más allá.

Cada vez más ancianos. La visión de esta empresa china es prometedora, sobre todo teniendo en cuenta cuál es la situación demográfica. Somos 8.000 millones de seres humanos y aún seremos más, pero desde hace años la tasa de natalidad está cayendo y el crecimiento en número de ancianos será especialmente notable. Y como no habrá personal suficiente para ayudarlos, hay una solución a la vista: robots. Japón es el país con mayor esperanza de vida según la OMS (84,26 años, en España estamos muy cerca, 83,22 años), pero China también tendrá un problema con esto (77,43) debido especialmente a su inmensa población.

Grados de libertad. El GR-1 será capaz de andar a una velocidad máxima de 5 km/h, y sus articulaciones mecánicas le permiten 40 grados de libertad gracias a sus actuadores eléctricos. En comparación Atlas, el alucinante robot de Boston Dynamics, tiene 28 grados de libertad en sus miembros, que hacen uso de un sistema hidráulico.

Fuerte. Los motores eléctricos del GR-1 son además capaces de generar hasta 300 Nm de torque, y como comentábamos en Fourier aseguran que será capaz de cargar con 50 kg, una cifra espectacular teniendo en cuenta por ejemplo que Atlas puede cargar con 11 kg. GR-1 podría por tanto ayudar a las personas mayores —si son delgadas— pasándolas de la cama a una silla de ruedas.

Retos de futuro. El GR-1 se aprovecha de que el campo de la robótica ya ha resuelto problemas básicos de movimiento como el de andar, pero este tipo de máquinas se enfrentan a retos mucho más complejos: deberán ser capaces de adaptarse para moverse de forma autónoma y para realizar tareas para las que no fueron entrenados y en entornos no familiares. Hay ya avances como Google PaLM-E, pero ese camino aún está comenzando a recorrerse.

En Xataka | La historia de uno de los grandes retos tecnológicos de nuestra era: un robot que planche y doble la ropa solo



via Robótica e IA - Xataka https://ift.tt/fV0xZkE