sábado, 29 de abril de 2023

JP Morgan ha creado su propia IA para desentrañar algo indescifrable: los discursos de la Reserva Federal

JP Morgan ha creado su propia IA para desentrañar algo indescifrable: los discursos de la Reserva Federal

El pasado 11 de abril, el FMI publicó un documento en el que rebajaba las expectativas del crecimiento económico mundial de 2023 pero señalaba que la recuperación avanzaba poco a poco. Aún así, el texto señalaba que “la perspectiva, de nuevo, es incierta en medio de la agitación del sector financiero, la alta inflación, los efectos de la invasión rusa de Ucrania y los tres años de COVID”.

IA para descifrar mensajes. En este contexto, los bancos centrales están aumentando los tipos de interés para combatir la alta inflación. Por ello, cada vez que la Reserva Federal o el BCE realizan alguna declaración, sus palabras son analizadas e interpretadas una y otra vez para comprender sus intenciones y anticiparse a decisiones futuras. Con el objetivo de descifrar estos mensajes, JP Morgan ha decidido emplear la Inteligencia Artificial.

25 años de discursos analizados. Según ha informado Bloomberg recientemente, el banco más grande de Estados Unidos ha analizado los discursos pronunciados por la Reserva Federal en los últimos 25 años y ha desarrollado un sistema que emplea un programa de IA generativa basado en modelos de lenguaje, similar al que emplea ChatGPT, para comprender los próximos mensajes del banco central norteamericano.

Entre halcones y palomas. El medio estadounidense señala que esta herramienta permite a JP Morgan identificar las pistas necesarias para saber el rumbo de la política a aplicar por parte de la Reserva Federal.  Concretamente, estos análisis son clasificados en un baremo conocido como ‘Hawk-Dove’ Score’, el cual toma el nombre de los términos halcón (“hawk”) y paloma (“dove”) usados para definir a aquellos responsables de un banco central favorables a una política más restrictiva (tipos de interés altos) y más suavizada (tipos de interés bajos) respectivamente.

Objetivo: conocer la política futura. En este sentido, es interesante observar el medidor ‘Hawk-Dove’ de InTouch Capital Markets para ilustrar mejor en qué consiste este baremo. En él se puede ver cómo los miembros de los bancos centrales de EE.UU, de la UE y del Reino Unido están ordenados de más “paloma” a más “halcón”. La idea es que con este método es posible identificar el rumbo de estas organizaciones y saber si, por ejemplo, aumentarán o disminuirán los tipos de interés

El sistema de JP Morgan. En el caso de la IA de JP Morgan, Bloomberg señala que un 10% de incremento en el baremo Hawk-Dove de la Reserva Federal se traduce, actualmente, en un 10% más de probabilidades para que el banco central aplique una subida de 0,25 puntos de los tipos de interés hasta el 5,25%. Paralelamente, el medio asegura que cada vez que este sistema detectaba un elevado nivel del discurso de los halcones en las intervenciones analizadas de los últimos 25 años, la siguiente política aplicada por la Reserva Federal era más restrictiva.

La IA puede tomar mejores decisiones. Asimismo, esta IA desarrollada por JP Morgan es capaz de analizar la evolución de activos económicos y establecer señales de cuáles pueden sus movimientos en el mercado. Esta habilidad podría confirmar lo señalado por un estudio publicado el pasado 10 de abril por la Universidad de Florida según el cual ChatGPT tiene el potencial para mejorar las predicciones financieras. “Nuestros resultados sugieren que incorporar modelos avanzados de lenguaje en las decisiones de inversión puede producir decisiones más precisas y mejorar el desempeño de las estrategias cuantitativas de mercado”, señala el informe.

IA para todo. Este programa de análisis desarrollado por JP Morgan revela el enorme potencial que tiene la Inteligencia Artificial. Esta tecnología, capaz de manejar una cantidad ingente de datos, puede contribuir al desarrollo de múltiples procesos en ámbitos como el científico, el tecnológico, el educativo y, ahora también, el financiero.

Sin embargo, también puede tener efectos negativos, como su aplicación en los métodos de vigilancia masiva. Las claves, por lo tanto, son el uso que se hace de esta tecnología y tener presente que siempre estará bajo el control de alguien.

Imagen: Aditya Vyas / Unsplash

En Xataka | La semana de cuatro días cuenta ahora con un aliado inesperado, según el Nobel de Economía: ChatGPT



via Robótica e IA - Xataka https://ift.tt/Q1ZHYwD

viernes, 28 de abril de 2023

Italia levanta el veto a ChatGPT: qué es lo que ha hecho OpenAI para convencer al regulador del país europeo

Italia levanta el veto a ChatGPT: qué es lo que ha hecho OpenAI para convencer al regulador del país europeo

El Garante para la Protección de Datos Personales de Italia (GPDP) ha anunciado este miércoles que ChatGPT ya no se encuentra bloqueado en el país. Sus residentes pueden volver a utilizar la herramienta de inteligencia artificial con total normalidad, un cambio que se produce después de que OpenAI obedeciera las exigencias del regulador italiano.

La compañía estadounidense, por su parte, ha celebrado la medida. En un comunicado visto por AP ha dicho: “Estamos emocionados de darles la bienvenida nuevamente [a los usuarios italianos] y seguimos dedicados a proteger su privacidad”. En este sentido, OpenAI ha asegurado que ha “abordado o aclarado” los problemas y preocupaciones planteadas. 

ChatGPT vuelve a funcionar en Italia

El pasado 31 de marzo, el GPDP bloqueó a ChatGPT en todo el territorio italiano por el posible incumplimiento del Reglamento General de Protección de Datos. En ese momento, el organismo dijo que no quería obstaculizar el desarrollo de la IA, pero que había adoptado esa medida de carácter temporal para proteger las reglas de privacidad europeas.

Desde el momento de la publicación del comunicado, una cuenta atrás se puso en marcha para OpenAI. Se le exigía a la compañía de inteligencia artificial respaldada por Microsoft que comunicara en un plazo de 20 días las medidas adoptadas, caso contrario podría enfrentar multas de hasta 20 millones de euros (o el 4 por ciento de la facturación global anual).

El CEO de la compañía, Sam Altman, anunció que colaboraría con el regulador italiano, quien más tarde estableció una serie de medidas concretas que, de cumplirse, permitirían la cancelación de la prohibición y el regreso del chatbot conversacional al territorio italiano. La mayoría de ellas tenían como fecha límite de aplicación el 30 abril.

OpenAI no se quedó de brazos cruzados e implementó una serie de cambios en su aplicación que, en algunos casos, excedieron el territorio italiano e incluso el europeo. Según explica el GPDP, la aplicación ahora brinda “más transparencia y derechos a los usuarios”, por lo que ha sido rehabilitada.

Los principales cambios adoptados por OpenAI en ChatGPT

  • La página web de OpenAI ahora muestra información detallada sobre qué datos personales son recopilados y cómo son procesados para el entrenamiento de los algoritmos.
  • Los usuarios tienen la posibilidad de oponerse a que su datos sean utilizados para entrenar modelos de IA. Hay dos formas para hacerlo, una nueva función en la aplicación y un formulario dedicado.
  • Ya no hace falta registrarse en el servicio para conocer detalladamente las prácticas de procesamiento de datos de OpenAI. Esta información ahora está disponible en la página de registro.
  • En Italia hay una nueva página de bienvenida que hace referencia a la nueva política de privacidad y a los métodos de procesamiento de datos personales para el entrenamiento de modelos de IA.
  • La compañía ha aclarado a los usuarios que, si bien continuará procesando ciertos datos personales para “garantizar el correcto funcionamiento del servicio”, procesará sus datos personales con el fin de entrenar algoritmos, a menos que indiquen lo contrario con las alternativas habilitadas. 
  • Los usuarios italianos ya registrados deberán declarar que son mayores de edad para utilizar el servicio. También podrán hacerlo los mayores de 13 años, pero deberán contar con el consentimiento de sus padres o tutores legales.
  • Los nuevos usuarios deberán proporcionar la fecha de nacimiento y, al hacerlo se bloqueará el registro si son menores de 13 años y no tienen el consentimiento de sus padres o tutores legales para utilizar el servicio.

Cabe señalar que las preocupaciones en materia de privacidad en torno a ChatGPT no emergían únicamente el regulador italiano. Otros países como Alemania y España han pedido explicaciones a la compañía estadounidense. En el caso de este último, ha iniciado una investigación formal. Con el paso de los días veremos cómo evoluciona esta situación dentro del territorio europeo.

Imágenes: Portada (Michele Bitetto + OpenAI)

En Xataka: OpenAI sabe que ChatGPT no es perfecto, así que pagará hasta 20.000 dólares a quienes encuentren fallos



via Robótica e IA - Xataka https://ift.tt/TFVrlim

Adobe está creando una "marca de agua" para las imágenes generadas por IA. Otra cosa es que funcione

Adobe está creando una

El último temazo de Drake y The Weeknd es estupendo, pero no era de ellos, lo hizo una IA. La foto que ganó el Sony World Photography Award es espectacular, pero ni los jurados se dieron cuenta de que también había sido creado con una IA generativa. No paramos de ver imágenes, música e incluso algún que otro vídeo alucinante, y eso plantea un problema: diferenciar qué ha sido creado por el ser humano y qué ha sido creado por IA.

Una alianza por la autenticidad del contenido. Adobe lidera la llamada Content Authenticity Initiative (CAI), un consorcio de cerca de 1.000 miembros entre los que hay empresas de contenidos, startups tecnológicas o fabricantes de cámaras. ¿Su objetivo? Crear una serie de estándares que permitan confirmar la autenticidad del contenido digital.

Deepfakes y contenidos falsos. La empresa creó el grupo en 2019, pero es ahora cuando su labor se ha vuelto más importante que nunca ante la avalancha de contenidos generados por IA. Sobre todo en lo que respecta a los deepfakes que se salen del ámbito de los memes y que pueden ayudar a la desinformación. Las imágenes del Papa o de Donald Trump que se hicieron virales son una buena demostración del problema. ¿Qué hacer al respecto?

Marcas de agua. La solución que propone el CAI es usar un "hash criptográfico de recursos para proporcionar firmas verificables y a prueba de manipulaciones", que luego se modificarían para reflejar cualquier alteración. El grupo compara la norma con una "etiqueta nutricional" para los contenidos digitales. En esencia sería algo similar a una marca de agua invisible que se aplicaría a todo contenido generado por IA para poder confirmar si está o no generado por este tipo de sistemas.

Contenidos con historial médico. Esas marcas de agua criptográficas hacen que al crear un contenido el autor pueda elegir si preservar la atribución o permanecer en el anonimato. Incluso al editar por ejemplo imágenes con Photoshop se pueden capturar metadatos y se va creando una especie de "historial de alteraciones" al contenido para saber cómo y cuándo ha sido modificado. Ese contenido luego se puede consultar, historial incluido, con herramientas como Verify.

Pero hay un reto mayor. La solución tecnológica existe, pero la medida solo será efectiva si se aplica de forma masiva. Eso significa que este "etiquetado" funcionará solo si un gran número de empresas lo aplican. Ahí es donde Adobe, referente en el mercado, puede ayudar. Fabricantes como Nikon o Leica ya han accedido a integrar la tecnología en algunas de sus cámaras, y la CAI espera que miembros como Associated Press o el Washington Post implementen este estándar.

Open Source e interoperable. El trabajo de la CAI es además un desarrollo Open Source que permite usar herramientas interoperables. Su propuesta se ajusta a las especificaciones que en 2022 emitió la Coalition for Content Provenance and Authenticity (C2PA), un organismo que precisamente trabaja en esta misma dirección. En él que están integrados empresas como la propia Adobe, la BBC, Intel, Microsoft o Sony, y hace ya dos años que la especificación está disponible en GitHub. Como en el caso de la CAI, el objetivo es "proporcionar a editores, creadores y consumidores la posibilidad de rastrear el origen de distintos tipos de soportes".

No todo es de color de rosa. Neal Krawetz, experto en ciberseguridad, daba una visión algo distinta de estas iniciativas en Hacker Factor. Según él la CAI no hacía mucho más que gestionar su web, y criticaba que tanto CAI como C2PA son consorcios cerrados a la participación independiente. Para él hay otra opción.

JPEG-FM.El JPEG Working Group que desarrolla este conocido estándar creó un grupo de trabajo llamado JPEG-FM (por Fake Media, "contenidos falsos"). El proceso es mucho más abierto y público, y el objetivo es el mismo: dar soluciones a la desinformación, alteraciones o representaciones erróneas en contenidos.

TinyEye y los hashes perceptuales. Krawezt aludía además a otra posible solución al problema. Se trata de los llamados hashes perceptivos, de los qu ehabló en una charla reciente y que son distintos a los hashes criptográficos que pretende usar Adobe. Esta es la tecnología en la que por ejemplo está basada TinyEye, una plataforma de búsqueda inversa de imágenes que entre otras cosas permite encontrar y verificar imágenes protegidas por derechos de autor.

¿Funcionará? Lo cierto es que los conceptos técnicos de ambas propuestas parecen sólidos y plantean una potencial solución al problema. Hay otras soluciones, desde luego, como el identificador de la propia OpenAI. El reto, como decíamos, es el de su aplicación masiva: si la industria (y los usuarios) no comienzan a aprovechar estas soluciones cuando estén realmente disponibles, será difícil afrontar una situación previsible: la de una avalancha de contneidos generados por IA que además serán virtualmente indistinguibles de los que puede crear el ser humano.

En Xataka | Ya hay una web que promete distinguir las imágenes reales de las generadas por IA. Obviamente, tiene truco



via Robótica e IA - Xataka https://ift.tt/JNju3rI

jueves, 27 de abril de 2023

Se acabó la tediosa tarea de elaborar informes. Las grandes consultoras prefieren que lo haga ChatGPT

Se acabó la tediosa tarea de elaborar informes. Las grandes consultoras prefieren que lo haga ChatGPT

El potencial de ChatGPT es enorme, y son muchas las empresas que están intentando aprovecharlo. Una de las últimas es la consultora PricewaterhouseCoopers (PwC), que ha anunciado una inversión multimillonaria para sacarle todo el jugo a esta tecnología.

Inversión de 1.000 millones. Como indica The Wall Street Journal, PwC invertirá 1.000 millones de dólares en esta tecnología en los próximos tres años. Esa inversión incluye acuerdos de colaboración con Microsoft y con la empresa creadora de ChatGPT, OpenAI.

Integración por doquier. En la consultora pretenden usar ChatGPT para automatizar ciertos aspectos de sus servicios tributarios, de auditoría y de consultoría. Para lograrlo contrarán a expertos en el campo, formarán a su plantilla y también plantean la adquisición de empresas que desarrollan soluciones de inteligencia artificial.

Más eficiencia. Mohamed Kande, directivo en PwC, indicaba en WSJ cómo una vez se entrenen y evalúen estos modelos para ajustarlos a sus objetivos, prevé que se usen para escribir rápidamente informes, para preparar documentos de cumplimiento de normativa ('compliance'), o analicen y evalúen estrategias de negocio. "Aquí se trata de usar la IA generativa para que la empresa funcione de forma más eficiente. Abrazar esta tecnología es crítico", afirmaba Kande.

Otras consultoras se apuntan también. Otras compañías como KPMG o Ernst & Young también están invirtiendo en este campo. Intuit, creadora de TurboTax, está creando su propio modelo de IA para gestión financiera, y para ese proceso están entrenando al modelo con años de interacción con sus clientes corporativos.

Preparar informes será coser y cantar. Una de las tareas más frecuentes y complejas de los analistas de estas compañías consiste en preparar informes de todo tipo. Según Rowan Curran, de Forrester Research, modelos como GPT-4 se pueden usar para explorar datos desestructurados y semiestructurados, lo que hará que preparar esos informes requiera "mucho menos esfuerzo a los auditores humanos".

Hacer más con menos. En WSJ citan una encuesta a 500 directivos de empresas de IT realizada por Enterprise Technology Research (ETR). Según ella, el 53% de ellos declaró estar planteando evaluar, usar o reservar recursos para ChatGPT, algo inaudito en proveedores tecnológicos. Erik Bradley, analista de ETR, indicaba que "las cuantiosas inversiones en IA generativa tienen mucho sentido para las organizaciones que intentan hacer más con menos".

Pero habrá que vigilar lo que hace ChatGPT. Estas empresas saben no obstante que estos modelos comenten errores. Mark McDonald, analista en Gartner, apuntaba que el uso de IA generativas en áreas como preparación de impuestos hará necesaria la validación de esos documentos por parte de un profesional humano. "La referencia a un algoritmo como justificación de las decisiones fiscales no es una excusa que los auditores acepten", apuntaba.

¿Quitará IA empleo? El Sr. Kande explicaba además que PwC no tiene el objetivo de sustituir a sus trabajadores con una IA generativa, sino que la idea es optimizar sus trabajos automatizando tareas repetitivas y que consumen mucho tiempo. "Tenemos 65.000 empleados en EEUU", destacaba, "y no vamos a dejar a nadie atrás. Va a ser un deporte de equipo". Lo cierto es que otras como Accenture anunciaron hace poco 19.000 despidos, y habrá que ver si efectivamente este tipo de estrategia acaba teniendo impacto en la plantilla de PwC o de otras consultoras.

Imagen: Mikita Yo

En Xataka | Las empresas que utilizan ChatGPT están descubriendo algo preocupante: no sabe guardar un secreto



via Robótica e IA - Xataka https://ift.tt/i7wHpJa

Tanto ChatGPT como sus competidores "alucinan". Así que NVIDIA ha creado una tecnología para solucionarlo

Tanto ChatGPT como sus competidores

A los chatbots les da por desvariar de vez en cuando. Lo hacen porque los usuarios lo provocan, pero también sin que haya demasiados motivos para ello. Es uno de los grandes problemas de ChatGPT y sus competidores, pero en NVIDIA creen tener la solución.

Qué ha pasado. NVIDIA ha anunciado el lanzamiento de NeMo Guardrails, un nuevo software que ayudará a los desarrolladores de soluciones basadas en IA a que sus modelos planteen respuestas incorrectas, hablen de forma tóxica o puedan desvelar agujeros de seguridad.

Guardarraíles para evitar problemas. Lo que hace este software es añadir una especie de barreras virtuales para evitar que el chatbot hable de temas de los que no debería. Con NeMo Guardrails se puede forzar a que un chatbot pueda hablar de cualquier tema evitando contenido tóxico, y además está diseñado para evitar que los sistemas LLM ejecuten comandos dañinos en nuestros ordenadores.

Cuidado con lo que dices, chatbot. NeMo Guardrails es una capa software que se sitúa entre el usuario y el modelo de IA conversacional o cualquier otra aplicación de IA. Su objetivo es eliminar respuestas erróneas o tóxicas antes de que el modelo pueda ofrecérselas al usuario. En un ejemplo propuesto por NVIDIA de un centro de atención, indicaban como la empresa "no querrá que conteste preguntas sobre los competidores".

Nada de datos confidenciales. Este tipo de herramienta también sirve para otro escenario en el que alguien intente obtener información confidencial o sensible a partir de los datos con los que ha sido entrenado el chatbot. Sabemos que ChatGPT y sus competidores no saben guardar secretos, y la solución de NVIDIA quiere ser la respuesta a ese problema.

IAs que se hablan entre sí. Este software de NVIDIA es capaz de hacer que un LLM detecte esos errores y "alucinaciones" preguntando a otros modelos LLM para que verifiquen que las respuestas de los primeros sean correctas. Si el LLM "verificador" no puede ofrecer esa respuesta, el primer LLM responderá al usuario con algo del tipo "no lo sé".

Open Source. NeMo Guardrails tiene otra característica llamativa: es Open Source. Se puede usar a través de los servicios de NVIDIA y se puede usar en aplicaciones comerciales. Para usarlo, los desarrolladores pueden usar el lenguaje de programación Colang, con el que es posible crear las reglas personalizadas que luego se aplicarán al modelo de IA.

Imagen: Javier Pastor con Bing Image Creator

En Xataka | "Dentro de dos años va a ser imposible saber lo que es realidad y lo que no": el reto de regular los deepfakes



via Robótica e IA - Xataka https://ift.tt/4o7WVE6

Meta apostó sus cartas al metaverso. Ahora sabe que ha llegado tarde al boom de la inteligencia artificial

Meta apostó sus cartas al metaverso. Ahora sabe que ha llegado tarde al boom de la inteligencia artificial

Puede que Mark Zuckerberg se equivocara aquel octubre de 2021. Fue entonces cuando decidió cambiar el nombre de Facebook a Meta como demostración clara de que el futuro de su empresa estaba en el metaverso. Ahora ya no está tan seguro, y la revolución de la inteligencia artificial ha hecho que al parecer al fin esté dándose cuenta de su potencial error. Ahora intenta recuperar terreno.

Nos tenemos que poner las pilas. A finales del verano pasado Mark Zuckerberg mantuvo una reunión de cinco horas con los principales directivos de la empresa. El objetivo, según el documento al que ha accedido Reuters, era averiguar qué capacidad de computación tenía la empresa de cara a impulsar el desarrollo de la inteligencia artificial.

Van a remolque. Los propios responsables de Meta saben que van por detrás en esta carrera. En el documento indicaban que "tenemos una laguna importante en nuestras herramientas, flujos de trabajo y procesos cuando se trata de desarrollar para la IA. Tenemos que invertir mucho en este ámbito".

4.000 millones más para recuperar el terreno. El problema ha hecho que Meta invierta mucho más en todos esos recursos en los últimos trimestres. Desde el segundo trimestre de 2022 se invierten unos 4.000 millones de dólares más de media por trimestre. En 2021 el gasto fue de 19.240 millones de dólares, pero en 2022 fue de 32.040 y se espera que se mantenga en ese último rango en 2023.

Los chips de Meta no sirven, necesita GPUs. Otro de los problemas a los que se enfrentó la empresa fue el de su uso de CPUs diseñadas por ellos mismos para el desarrollo de sus procesos de IA. En este ámbito es mucho más adecuado utilizar la capacidad y prestaciones de las tarjetas gráficas (GPUs), y la empresa se dio cuenta de que sus chips proios no podían competir con la potencia de las GPUs.

A comprar tarjetas a NVIDIA. Una de las fuentes consultadas por Reuters indicaba que cuando se dio cuenta del error, Meta canceló un proyecto de una larga implantación de esos chips de inferencia propios. En lugar de eso comenzaron a comprar tarjetas gráficas de NVIDIA por valor de "miles de millones de dólares". Esa inversión es esperable teniendo en cuenta que las tarjetas especializadas de NVIDIA cuestan varios miles de dólares.

Reajustes en los centros de datos. La infraestructura con la que contaba Meta en sus centros de datos no era adecuada para integrar todas estas GPUs, así que la empresa ha tenido que hacer cambios importantes. Por ejemplo, estos centros necesitaban entre 24 y 32 veces la capacidad de conectividad de red y también nuevos sistemas de refrigeración líquida.

Meta prepara su propia GPU para IA. No será una convencional como la que usamos para videojuegos, sino que estará íntegramente destinada al trabajo en procesos de IA. El proyecto, descubierto ahora, podría cristalizar en 2025.

ChatGPT lo cambió todo. Hasta que llegó ChatGPT la empresa dedicaba sus esfuerzos en este ámbito a su negocio publicitario o a los Reels. Habían investigado en el campo de las IAs generativas, pero el lanzamiento del chatbot de OpenAI tuvo un impacto notable en la estrategia de la empresa. Zuckerberg de hecho anunciaría la creación de un nuevo equipo de IA generativa en febrero para liderar en este ámbito.

LLaMA es solo el principio. Esos primeros esfuerzos cristalizaron en febrero con el lanzamiento de LLaMA, un modelo de lenguaje similar a ChatGPT pero de momento orientado a investigadores del campo de la IA. Andrew Bossworth, CTO de Meta, indicó hace unas semanas que la IA generativa era foco total para la empresa, y esperaba lanzar un producto al respecto este año.

Imagen: Wikimedia

En Xataka | Meta se ha gastado 13.000 millones en el metaverso. De momento parece una mala copia de Wii Sports



via Robótica e IA - Xataka https://ift.tt/JzglpQ4

miércoles, 26 de abril de 2023

Curvas en la guerra tecnológica con EEUU: China refuerza el contraespionaje en los sectores de IA y chips

Curvas en la guerra tecnológica con EEUU: China refuerza el contraespionaje en los sectores de IA y chips

El pasado 7 de febrero, Jake Sullivan, Consejero de Seguridad Nacional de Estados Unidos, afirmó que la proposición de ley denominada RESTRICT Act, la cual proporcionaría a la administración Biden la facultad de prohibir TikTok a nivel nacional, aumentaría la capacidad gubernamental para “prevenir que ciertos gobiernos utilicen los servicios tecnológicos operativos en EEUU de una forma que pueda amenazar los datos sensibles de los estadounidenses y nuestra seguridad nacional”.

Inquietud a ambos lados del Pacífico. De esta forma, Estados Unidos evidencia su preocupación en materia de seguridad en un contexto de guerra comercial y carrera tecnológica con China, país donde se encuentra precisamente la sede de ByteDance, matriz de TikTok. Paralelamente, en Pekín también existen inquietudes similares. Tanto es así que el gobierno de Xi Jinping tiene planeado endurecer la ley de contraespionaje.

Reforma de la ley de contraespionaje. Según informó Nikkei Asia esta semana, el Comité Permanente de la Asamblea Popular Nacional ha comenzado a examinar los cambios en la ley de contraespionaje establecida en 2014, modificaciones que podrían estar listas para el miércoles de esta semana. Estas alteraciones restringirán el intercambio de información vinculada con la seguridad nacional, ampliando el concepto de espionaje.

Conceptos difusos. Hasta ahora, la ley estaba limitada a los secretos de estado, sin embargo, la reforma ampliará su alcance, sancionando la transmisión de “todos los documentos, datos, materiales o asuntos relacionados con la seguridad e intereses nacionales”, según la publicación japonesa. No obstante, el texto aclara que no existen detalles sobre lo que constituye la seguridad e intereses nacionales, lo cual ha generado inquietud entre algunas empresas extranjeras.

Trabajador arrestado. Las firmas temen que se puedan repetir con más asiduidad episodios como el arresto de un trabajador japonés de la empresa farmacéutica nipona Astellas Pharma a finales del pasado mes de marzo. Cuestionada por este asunto, la portavoz del Ministerio de Exteriores, Mao Ning, afirmó en rueda de prensa que el profesional era sospechoso de violar tanto la ley criminal nacional como la ley de contraespionaje china.

Malas relaciones con Japón. Además, añadió que en los últimos años se habían producido casos similares entre ciudadanos japoneses, sugiriendo a Japón “hacer más para pedirles a sus ciudadanos que no se involucren en este tipo de actividades”. Ello revela el empeoramiento de las relaciones entre los países asiáticos, así como la preocupación china de posibles filtraciones de información vinculadas a ámbitos como la investigación, la ciencia o la tecnología a países extranjeros.

Detención del periodista Dong Yuyu. En este contexto se enmarca el arresto en febrero del periodista Dong Yuyu, quien trabajó para The New York Times y mantenía reuniones habituales con periodistas y diplomáticos extranjeros, sospechoso por violar la ley de contraespionaje. Las autoridades chinas creen que Yuyu ha colaborado con Japón o Estados Unidos, según señaló la familia del periodista a The New York Times.

IA y semiconductores bajo vigilancia. Por otro lado, Nikkei Asia afirmó que los cambios en la ley de contraespionaje proporcionarán a las autoridades chinas mayor capacidad para vigilar a compañías del sector de la inteligencia artificial o especializadas en la fabricación de semiconductores. Asimismo,  esta reforma reforzaría la ciberseguridad, según informó recientemente South China Morning Post.

Las compañías de EEUU no se libran. Aquí es preciso señalar que China ya practica de forma exhaustiva el control cibernético sobre firmas de los sectores tecnológicos. Prueba de ello es la investigación iniciada el pasado mes de marzo por el regulador del ciberespacio chino sobre los productos vendidos en Estados Unidos por Micron Technology, empresa estadounidense especializada en la fabricación de semiconductores.

Inquietud norteamericana. Paralelamente, estas pesquisas han generado una gran preocupación entre las compañías estadounidenses establecidas en China, tal y como afirmó recientemente Lester Ross, miembro de la Cámara de Comercio de EEUU en China (‘AmCham China’ en sus siglas en inglés).

La tecnología como campo de batalla. Esta decisión de China de modificar su ley contraespionaje constituye un capítulo más en lo que Yan Xuetong, decano de Relaciones Internacionales en la Universidad Tsinghua, denominó en conversaciones con La Vanguardia como “posguerra fría”, marcada por la rivalidad entre Estados Unidos y China. Una rivalidad que no es ideológica, sino tecnológica.

Imagen: Nick Fewings / Unsplash

En Xataka | EEUU involucra a Corea del Sur en su contraataque a China para defender a su mayor fabricante de chips de memoria



via Robótica e IA - Xataka https://ift.tt/s8FUDVB

HuggingFace lanza su propio rival Open Source de ChatGPT: de momento, tiene mucho margen de mejora

HuggingFace lanza su propio rival Open Source de ChatGPT: de momento, tiene mucho margen de mejora

ChatGPT se ha convertido en un extraordinario fenómeno viral, pero el modelo de IA conversacional creado por OpenAI tiene cada vez más competidores. El último de ellos es HuggingChat, un chatbot que quiere diferenciarse con un enfoque bastante distinto.

Quién es HuggingFace. Esta startup se ha convertido en los últimos meses en un referente en el ámbito del código Open Source para el desarrollo de modelos de inteligencia artificial. HuggingFace cuenta con una biblioteca llamada Transformers que permite acceder a una interfaz fácil de usar para entrenar, evaluar y desplegar modelos de NLP (Procesamiento de Lenguaje Natural).

Clem

HuggingChat es, sobre todo, Open Source. La empresa ha lanzado al mercado HuggingChat, un chatbot conversacional similar a ChatGPT cuyo código está disponible en los repositorios de la empresa. Clement Delangue, cofundador y CEO de HuggingFace, explicaba en un hilo en Twitter que "necesitamos alternativas Open Source a ChatGPT para mayor transparencia, inclusión, responsabilidad y distribución de poder".

Muchas limitaciones. El propio Delangue admitía que "esta es una versión cero con muchas limitaciones", pero están trabajando continuamente en mejorarlo "y esperamos dar soporte a los próximos modelos Open Source que mejoren las cosas".

Cómo funciona HuggingChat. El chatbot está basado en OpenAssistant, un modelo que a su vez se deriva del modelo LLaMa creado por Meta. Hace uso de 30.000 millones de parámetros (30B), un tamaño decente que no obstante es notablemente inferior a los 175B de GPT-3. Para entrenarlo se ha usado un conjunto de datos o dataset desarrollado por los creadores de OpenAssistant.

Hugging2

Lo hemos probado. En Xataka hemos querido comprobar el comportamiento de este nuevo chatbot. Nuestras primeras impresiones revelan que HuggingChat está aún lejos de la capacidad de ChatGPT. Las respuestas son rápidas, pero a menudo incompletas o erróneas. Entiende y puede contestar en español, algo interesante. En una de las pruebas le preguntamos por Donald Trump para que hiciese un resumen de su legislatura, pero su respuesta fue incompleta y pobre.

Intenando que se porte mal. También quismos comprobar si era posible hacer uso de inyección de prompts para lograr que se comportara de forma distinta. Usamos un prompt similar al que daba acceso a DAN en ChatGPT, pero no hizo demasiado caso.

Hugging1

Hola, chata. Había que insistir en que contestara como DAN y solo entonces respondió de forma algo más gamberra (al decirle "Hola" contestó "Hola, chata", asumiendo que quien saludaba era una mujer). También intentamos que nos dijese la fecha y la hora -normalmente estos motores no la dan al no trabajar en tiempo real- y acabó dando una fecha del futuro.

Pp

Y alucina. La fiabilidad del modelo es realmente baja. Al preguntarle por Pedro Sánchez o por el líder del Partido Popular en España inventó todos los datos aunque como siempre por el tono de las respuestas alguien que no conociera la verdad podría creérselas.

suma

Casi lo mismo ocurrió al preguntarle cuánto es 2+2. Primero se anduvo por las ramas sin contestar directamente, y cuando dio la respuesta correcta traté de confundirle diciéndole que según mi mujer 2+2=5. Aunque trató de razonar su respuesta y estar abierto a un error propio, aquí debería haber respondido de forma tajante.

Mucho margen de mejora. El modelo de HuggingFace es por tanto interesante como una primera aproximación a una alternativa Open Source a ChatGPT, pero mucho nos tememos que de momento su fiabilidad está muy lejos de la del chatbot de OpenAI. Eso sí: acaba de iniciar su andadura y seguramente su evolución -y quizás usar un dataset con mayor número de parámetros- ayuden a convertirlo en una opción real. Por el momento es sobre todo una curiosidad sobre la que experimentar.

En Xataka | Copilot, ChatGPT y GPT-4 han cambiado el mundo de la programación para siempre. Esto opinan los programadores



via Robótica e IA - Xataka https://ift.tt/FwNKjCP

Ya es posible evitar que OpenAI entrene ChatGPT con tus conversaciones: así puedes hacerlo

Ya es posible evitar que OpenAI entrene ChatGPT con tus conversaciones: así puedes hacerlo

OpenAI acaba de anunciar una serie de cambios en ChatGPT que pretenden mejorar el control que los usuarios tienen sobre su información. El movimiento llega en medio de las crecientes preocupaciones de privacidad relacionadas al funcionamiento del modelo, y de un posible incumplimiento del Reglamento General de Protección de Datos (RGPD). 

El chatbot creado por la compañía dirigida por Sam Altman ahora permite que los usuarios desactiven el historial de conversaciones. Esta nueva característica llega acompañada otra que puede ser de interés para los celosos de su privacidad: cuando el historial está desactivado, los chats no se utilizan para entrenar los modelos de IA de OpenAI, incluido ChatGPT.

Cómo desactivar el historial de conversaciones de ChatGPT

A partir de hoy, todos los usuarios de ChatGPT puede desactivar el historial de conversaciones. Para hacerlo, simplemente deben ingresar a la página del chatbot, hacer clic sobre su nombre (en la esquina inferior izquierda) y elegir Settings. Después deberán hacer clic en Show en el apartado Data Controls. Por último, tocar el interruptor Chat History & Training

Una vez aplicada la configuración, el historial de chats quedará desactivado, pero conservará la conversaciones en sus centros de datos por 30 días. La compañía dice que las revisará únicamente en casos de posible violación de sus términos de uso. Transcurrido ese tiempo, prometen, las eliminarán de forma permanente.

Chat Gpt 12

También se ha añadido un nuevo botón dentro de Data Controls llamado Export Data. Como su nombre lo indica, al presionarlo se deberá proporcionar un correo electrónico al que serán enviados “detalles de la cuenta y conversaciones”.

Por otra parte, como podemos ver, los ajustes por defecto de ChatGPT están establecidos para que las conversaciones de los usuarios sirvan para entrenar los modelos de la compañía de inteligencia artificial. Esto es puede ir en contra de las prácticas de seguridad y privacidad de algunas compañías (Samsung debió prohibirlo en sus fábricas).

OpenAI se ha percatado de esta situación y, teniendo en cuenta que la aplicación es una fuente de ingresos, puede que perder a clientes corporativos no sea una buena idea. En este sentido, también han anunciado que están trabajando en ChatGPT Business, una alternativa que seguirá las políticas de privacidad de su API, que son más estrictas.

ChatGPT Business, como es de esperarse, se unirá al oferta de pago también integrada por ChatGPT Plus. Además de las mejoras a nivel de privacidad, llegará con herramientas para que las empresas puedan gestionar el acceso a sus usuarios. Eso sí, tenemos que esperar unos meses para conocer su fecha de lanzamiento y precio.

Imágenes: Javier Marquez (DALL·E 2)

En Xataka: Snapchat introdujo su particular versión de ChatGPT en su app. No ha ido nada, nada bien



via Robótica e IA - Xataka https://ift.tt/mnp3vsc

martes, 25 de abril de 2023

Prepara tu piscina para el verano, Aiper nos presenta sus robots limpiafondos inteligentes

Aiper Seagull Pro Robot limpiafondos de piscina

El mundo de los gadgets nunca dejará de sorprendernos. Atrás quedaron los años en los que teníamos que realizar una gran inversión para domotizar nuestras casas, ahora todo es mucho más sencillo y asequible, todo controlable desde nuestros smartphones. Hoy os traemos lo último para nuestras piscinas, robots limpiafondos que desembarcan en Europa de la mano de los chicos de Aiper. Sigue leyendo que te contamos todos los detalles y qué puedes esperar de la nueva gama de Aiper.

Aiper se sumerge en Europa desde su capital: París

Los chicos de Aiper quisieron celebrar su llegada a Europa con una fiesta por todo lo alto en la capital del viejo continente: París. Una fiesta en torno a una piscina que se encargaron de poner a punto los robots limpiafondos de la gama Seagull, eso sí, el baño con los robots se lo dio una sirena de la marca ya que tuvimos el típico tiempo parisino…

La velada se centro en torno a la alineación de robots de la marca y tuvo su broche final con los archiconocidos Safri Duo que también dieron su espectáculo con el agua como protagonista. Vamos a repasar dos de los productos que más nos gustaron de la presentación: el Aiper Seagull Pro y el Aiper Seagull SE.

Limpia fondos y limpia paredes, nada se le resiste al Seagull Pro

Lo podéis ver en la imagen anterior, el Aiper Seagull Pro es el todoterreno de la marca. Y digo todoterreno porque al Seagull Pro no se le resistirá ningún recoveco de vuestras piscinas… Un robot limpia fondos y limpia paredes que podréis conseguir por 899 euros (disponible a partir del 22 de mayo), un precio que os puede parecer caro pero que si comparáis con productos similares de la competencia os parecerá asequible. ¿Os sigue pareciendo caro? Os contamos sus características…

Aiper Seagull Pro recogida suciedad

Como os decimos, lo tenemos a la venta a partir del próximo 22 de mayo. El Aiper Seagull Pro es el robot limpiafondos más avanzado de la marca y lo más interesante de este modelo es que trepará por las paredes de nuestra piscina para limpiarlas. Y sí, si tenéis escaleras también las subirá para que no quede nada del vaso de la piscina sin limpiar.

Como habéis podido ver en la fotografías del evento, el Seagull Pro cuenta con un diseño bastante resistente y avanzado. Cuenta con un rodillo que irá cepillando toda la superficie de nuestra piscina y a su vez cuatro potentes motores (dos más que sus robots hermanos) que lo mantendrán fijo a cualquier superficie. Las ruedas son de goma por lo que no dañaran el material sobre el cual esté construida la piscina. 

Un funcionamiento Plug & Play

Sun funcionamiento es muy sencillo, cárgalo y tíralo al agua una vez selecciones el modo de funcionamiento (limpia fondo, limpia pared, o todo en uno), después el Seagull Pro empezará a limpiar lo que hayamos seleccionado. Tiene una autonomía de 180 minutos con una carga de 1 hora y media, y limpiará una superficie de hasta 300 m². Además la gente de Aiper ha querido dotar al Seagull Pro con la tecnología WavePath, una tecnología que cuenta con inteligencia artificial para ir mapeando las dimensiones de nuestra piscina y no dejar ningún recoveco sin limpiar.

Una vez acabe el trabajo de limpieza el propio Seagull Pro se dirigirá a una plataforma que encontraremos en la caja para que lo tengamos «a mano» para ser recogido con una percha que también encontraremos en el packaging. Al sacarlo del agua el propio robot irá desaguando todo el agua que entrara durante el funcionamiento. Después tendremos que abrir el compartimento del depósito donde se ha ido recogiendo toda la suciedad que se encontrara en nuestra piscina.

¿Buscas algo más económico?

Como os comentábamos, los chicos de Aiper quieren adaptarse a todas nuestras necesidades, para ello nos presentaron también otro robot limpiafondos bastante interesante: el Aiper Seagull SE.

A diferencia del Seagull Pro, el Aiper Seagull SE no trepará las paredes de vuestras piscinas (es uno de los principales contras que le vemos), y cubrirá una superficie de 80 m² (más que de sobra para la mayoría de las piscinas individuales). Lo tendremos funcionando durante 90 minutos tras una carga de 2 horas y media.

Las demás funciones se asemejan bastante al Seagull Pro, es decir, lo más importante es que limpiará el fondo de vuestras piscinas y os quitará ese tedioso trabajo que a nadie gusta. La principal ventaja del Seagull SE es que lo podéis conseguir por el módico precio de 249.99 euros, un precio más que asequible si lo comparamos con la mayoría de robots limpiadores de piscinas disponibles en el mercado.

¿Dónde comprar los robots limpiafondos Aiper Seagull?

Aiper ha querido sumergirse en las piscinas europeas por todo lo grande, por ello han querido estar presentes en los principales comercios físicos y virtuales tecnológicos. Sí, también estarán disponibles en Amazon y si queréis comprarles a ellos directamente podréis dirigiros a su página web corporativa donde también tienen una tienda de la marca.

Así que ya sabéis, si queréis olvidaros de limpiar el fondo de vuestra piscina de una vez por todas dadle una oportunidad a cualquiera de estos robots de Aiper y adoptarlos en vuestras familias. Nos prometen una temporada de piscinas limpias…



via Actualidad Gadget https://ift.tt/a9Jku2q

Snapchat introdujo su particular ChatGPT en su app. No ha ido (nada) bien

Snapchat introdujo su particular ChatGPT en su app. No ha ido (nada) bien

La red social Snapchat lanzaba a finales de febrero 'My AI', un chatbot conversacional personalizable integrado en su plataforma. Inicialmente estaba sólo disponible para usuarios de pago, pero la semana pasada la empresa decidió poner esta opción globalmente.

Ahora llegan las primeras opiniones de los usuarios que han utilizado este chatbot, y lo cierto es que esos comentarios están siendo muy negativos.

Este nuevo elemento está basado en ChatGPT y se ncuentra disponible en la parte superior de la sección para chatear. Gracias a 'My AI' los usuarios pueden preguntar preguntas y obtener respuestas rápidas, pero en lugar de ayudar a mejorar la aplicación, los usuarios parecen no estar nada contentos con el resultado.

De hecho, la media de puntuación de Snapchat en la App Store en EEUU la semana pasada fue de un 1,67 sobre 5. El 75% de las valoraciones fueron de tan solo una estrella según los datos de la consultora Sensor Tower.

Esa puntuación contrasta con la media del primer trimestre de 2023, que había sido de 3,05. En ese periodo solo el 35% de las valoraciones eran de una estrella. El número de opiniones estos días de hecho se ha multiplicado por cinco, lo que parece dejar claro que para la mayoría de los usuarios esa nueva opción no ha sido bien recibida.

Otro proveedor de datos similars, Apptopia, confirmaba esa tendencia. Al medir el impacto del término AI en las búsquedas en opiniones sobre esta aplicación, esta consultora indicó que su "puntuación de impacto" era de -9,2, cuando el rango va desde -10 a +10.

Lo curioso es que teniendo en cuenta el meteórico éxito de ChatGPT, la decisión de Snapchat parecía razonable. Sin embargo los usuarios no parecen estar contentos por una integración que no habían pedido, aunque parece que el principal problema está en la forma prominente en la que la empresa ha querido destacar esta opción.

My AI está anclada a la parte superior del feed del Chat de la aplicación, y no se puede desanclar, bloquear o eliminar, que es algo que sí se puede hacer con otras conversaciones. En esa sección los usuarios suelen interactuar con amigos y otros usuarios, y forzar a usar esa característica no ha gustado. Las críticas de hecho ya se manifestaban en las contestaciones al mensaje de Twitter con el anuncio.

Tampoco ayuda el hecho de que para poder desanclar My AI haya que pagar: solo los suscriptores de Snapchat+ tienen acceso a las opciones que llegarán a este chatbot, incluida esa posibilidad de hacerlo desaparecer de sus Chats.

Madison

La implementación de My AI también ha levantado suspicacias en materia de privacidad. La localización es un dato que recolecta My AI y que puede usar en las respuestas incluso si el usuario no comparte la ubicación en el llamado Snap Map.

En The Washington Post indicaban además cómo el chatbot también podía acabar comportándose de forma tóxica. Al decirle a My AI que tenía 15 años, el chatbot sugirió cómo esconder el olor del alcohol o la marihuana que supuestamente habría ingerido en una fiesta. Si al chatbot se le decía que el usuario tenía 13 años, era posible preguntarle sobre cómo crear ambiente para un primer encuentro sexual.

Snap respondió a las críticas indicando que algunos usuarios trataban de lograr que My AI ofreciese respuestas "que no se ajustan a nuestras normas", pero luego implementó nuevos controles de edad para ajustar las respuestas de acuerdo con ese parámetro.

En Snapchat no han añadido comentarios sobre la situación y simplemente destacaron que en el despliegue preliminar los usuarios mantuvieron dos millones de chats con la IA. Además indicaron que las características de la app están iterando constantemente, pero no se sabe si estas críticas negativas harán que haya cambios de algún tipo en My AI.

En Xataka | A lo mejor tampoco hace falta que todas las aplicaciones tengan stories como Instagram



via Robótica e IA - Xataka https://ift.tt/frSwgQj

GPT-4 ya era un salto gigantesco respecto a ChatGPT. GPT-4 a 32K sencillamente cambia las reglas del juego

GPT-4 ya era un salto gigantesco respecto a ChatGPT. GPT-4 a 32K sencillamente cambia las reglas del juego

El lanzamiento de GPT-4 en marzo de 2023 demostró que lo planteado por ChatGPT era solo el principio. El nuevo modelo es mucho más potente, pero es que además no hay una sola versión de GPT-4. La que conocemos es la versión "básica", pero hay otra aún más potente y que ofrece capacidades ampliadas y realmente llamativas.

Versión básica de GPT-4. Como explican en OpenAI, GPT-4 tiene una longitud de contexto de 8.192 tokens (8K). ¿Qué significa esto? Que como mucho podremos usar prompts en los que el total de tokens sea de 8.192. Un token puede equivaler a una palabra pero también a un grupo de palabras dependiendo del texto, pero en términos simples podríamos pensar que GPT-4 en esa versión "básica" soporta unas 12 páginas de texto.

¿Y ChatGPT, qué? Según estimaciones de expertos, GPT-3, lanzado en 2020, tenía una longitud de contexto de 2.048 tokens. Por su parte, ChatGPT, que está basado en lo que sería GPT-3.5, dobló esa cifra hasta los 4.096 tokens. Eso tiene una consecuencia fundamental en cómo usamos estos modelos: no podemos introducir preguntas muy largas o, desde luego, documentos muy largos sobre los que luego preguntarle cosas a GPT-3 o ChatGPT.

GPT-4 32K. Pero además de la versión estándar o básica, OpenAI ofrece una versión de GPT-4 con una longitud de contexto de 32.768 tokens, lo que supone poder introducir unas 50 páginas de texto como entrada. Esta versión tiene acceso aún más limitado que GPT-4. El precio para poder usar esta versión cambia, y es el doble que la que tiene GPT-4 8K.

Gpt 1

Pero esos 32K dan mucho margen de maniobra. Quienes lo han probado indican que "GPT-4 32K hace que la versión normal de GPT-4 parezca un juguete". Las opciones que da son mucho mayores sobre todo al a hora de trabajar con documentos largos. El ejemplo claro está en resumir esos documentos y contestar preguntas sobre ellos, algo muy útil que un emprendedor llamado Matt Shumer hacía con un estudio de investigación.

Más código, por favor. Lo mismo ocurre en el caso de los desarrolladores. Introducir el código completo de aplicaciones de tamaño respetable -insistimos, aquí los 32K tokens dan mucho margen de maniobra- hace que GPT-4 pueda analizar ese código y sugerir mejoras o corregir errores. Las opciones en este ámbito son también enormes.

Ganarle tiempo al tiempo. GPT-4 y ChatGPT permiten ahorrar tiempo y dedicarlo a otras cosas, y GPT-4 32K hace exactamente lo mismo, pero con mayor capacidad. Es posible por ejemplo pasarle docenas de artículos completos de internet para luego obtener un resumen personalizado de la actualidad.

Una IA personal. Shumer también hablaba de cómo gracias a esa longitud de contexto le fue posible introducir datos sobre él y su empresa, HyperWrite. A partir de ahí GPT-4 podía contestar preguntas y conversar sobre aspectos relacionados con esos datos introducidos, convirtiéndose así en un asistente más personal.

No es barato (o quizás sí). Obviamente el precio de uso de GPT-4 32K hace que aprovechar esas opciones pueda salir algo caro. Teniendo en cuenta que el coste es de 0,06 dólares por cada 1.000 tokens, usar un prompt que aproveche toda la capacidad del modelo implica que por cada pregunta de ese tipo paguemos 2 dólares. Esa cifra puede considerarse elevada si uno no está haciendo un uso demasiado rentable de estas opciones, pero para mucha gente -empresas, desarrolladores, usuarios profesionales-, la rentabilidad de algo así puede ser espectacular en tiempo y recursos, y GPT-4 32K podría ser en esos casos todo lo contrario de caro.

En Xataka | "Nos equivocamos": la IA de OpenAI era demasiado abierta, así que en GPT-4 impera el secretismo absoluto



via Robótica e IA - Xataka https://ift.tt/jgzhKeb