jueves, 31 de agosto de 2023

Anker lanza una batalla de nuevos productos durante el IFA de Berlín

Anker

El reciente IFA de Berlín está dejando numerosas novedades de las principales firmas de electrónica de consumo, dejando claro que Europa sigue siendo el escenario perfecto. Ahora Anker presenta de la mano de sus filiales Soundcore, eufyCam y MACH los nuevos productos de electrónica que lanzarán en breve.

Así las cosas, estos son todos los nuevos dispositivos dentro de la familia Anker, Soundcore, eufyCam y MACH.

  • Nueva serie Anker Nano: diseñada para los usuarios del iPhone. El nuevo cargador de 30W con tecnología GaN es más pequeño, rápido y seguro – listo para recargar un 50% en menos de 30 minutos. Las nuevas baterías de 5000 y 1000mAh cuentan con diseños compactos, conexiones USB-C integradas y carga rápida.
  • Anker MagGo se renueva con Qi2. Los accesorios de carga magnéticos compatibles con el iPhone se renuevan con un nuevo estándar de carga inalámbrica, más potencia y nuevos diseños más útiles para el día a día. La colección incluye baterías magnéticas y bases de carga para uno o varios dispositivos.
  • soundcore Space One: cancelación de ruido en estado puro. Los auriculares más vendidos de Anker estrenan un nuevo diseño más confortable y estiloso, e incluye nueva acústica con drivers de 40mm Hi-Res con LDAC y cancelación de ruido adaptativa que reduce hasta el 98% del sonido exterior.
  • Nueva estación de energía portátil de Anker Solix. Con 1056Wh de capacidad, la nueva estación incluye baterías LiFePO4 de última generación que permiten recargar hasta 9 dispositivos simultáneamente con sus enchufes AC y salidas USB. Es compatible con carga solar de hasta 600W y con el kit de expansión se puede duplicar la capacidad.
  • eufyCam E330 para instalaciones profesionales. Compatible con HomeBase 3 y el sistema de inteligencia artificial BionicMind, las nuevas cámaras graban 24/7 en calidad 4K y alertan a los propietarios cuando hay alguien en la puerta o alguien llega a casa. El sistema permite expansión con hasta 16TB de discos duros. 
  • MACH R1 Always-Clean redefine la limpieza del hogar. El nuevo robot de última generación cuenta con un sistema de limpieza y esterilización con ozono en tiempo real, navegación precisa y la estación integrada para carga y limpieza más avanzada de la industria, UniClean Station.


via Actualidad Gadget https://ift.tt/i8knumZ

miércoles, 30 de agosto de 2023

La inteligencia artificial ya conduce mejor y mucho más rápido que tú

La inteligencia artificial es capaz de hacer cosas increíbles. Y lo que nos queda por ver. Todo apunta a que en un futuro cercano, gran cantidad de las actividades que forman parte de nuestra cotidianidad podrán delegarse en las máquinas. Entre ellas, también la conducción. Sin importar el tipo de vehículo del que estemos hablando. Un equipo de investigadores de la Universidad de Zúrich, en Suiza, ha conseguido desarrollar un sistema basado en IA capaz de derrotar a los grandes campeones mundiales humanos en carreras de drones . La solución recibe el nombre de Swift . De acuerdo con sus creadores, su desarrollo tiene importantes implicaciones. Y no solo porque se trate de la primera vez que un sistema movido por inteligencia artificial demuestra su capacidad para mejorar el rendimiento del mejor de los especialistas en un entorno real, alejado de la simulación y del videojuego. También trae consigo importantes implicaciones que pueden tener su peso en la vida real de las personas. «Esto va mucho más allá. Hemos demostrado que es una combinación de aprendizaje automático y enfoques clásicos de modelado y visión por computadora lo que permite a los robots funcionar extremadamente bien en un entorno del mundo real. Es probable que enfoques similares tengan el mismo éxito para la conducción autónoma o, si miramos hacia el futuro, para el desarrollo de robots personales para uso doméstico», explica en conversación con ABC Elia Kauffman , investigador de la Universidad de Zúrich y autor principal del estudio, que este miércoles ha sido publicado en la revista científica ' Nature '. Victoria y vuelta rápida Para que el sistema Swift llegase a buen puerto, el equipo de investigadores tuvo que «destrozar muchos drones por el camino», como Kauffman reconoce. La forma en la que la IA pilota el dispositivo no se diferencia mucho de cómo lo haría una persona real. Al igual que un piloto humano, el sensor principal de la inteligencia artificial es la cámara que lleva incorporada el dron, que serían como sus 'ojos'. La información del vídeo capturado por este sensor es procesada por una red neuronal profunda, capaz de detectar los obstáculos que va encontrando por el camino. Todos estos datos se combinan con lecturas de una IMU (unidad de medición inercial) que va incorporada a bordo del dron y que permite estimar la posición, orientación y velocidad del dispositivo en la pista de carreras. Para poder testar su solución, los investigadores decidieron llevarla al límite poniéndola a competir con algunos de los mejores profesionales humanos dedicados a las carreras de drones. Fueron tres, dos de ellos, además, ganadores de dos de las ligas internacionales más potentes, más que acostumbrados a dirigir estos dispositivos, que pueden superar sin problemas los 100 kilómetros por hora . Los pilotos humanos contaron con una semana para preparar la competición y adaptarse al circuito que fue diseñado por expertos externos. El ingenio movido por IA salió victorioso en 15 carreras de 25 y marcó el mejor tiempo por vuelta con una diferencia de medio segundo sobre el rival humano más veloz. La estela azul marca la ruta del dron movido por IA, la roja, la del humano Solo el 20% de las 10 derrotas de la máquina se debieron a que el sistema fue más lento que sus oponentes, el resto fueron producto de choques con los otros drones o con las barreras que debía superar. Y, precisamente, esta es una de las mayores preocupaciones que despierta entre expertos y reguladores la aplicación de la IA a los vehículos de calle. Esos que usamos en nuestro día a día y que, en el futuro, deberían funcionar de forma plenamente autónoma. Sin necesidad de que el usuario ponga los pies en los pedales y las manos en el volante. Del circuito a la carretera Efectivamente, los autores de la investigación esperan que el trabajo realizado con Swift pueda ayudar en el desarrollo de soluciones similares para otros sistemas, como, por el ejemplo, el desarrollo de coches autónomos. A pesar del desarrollo de esta tecnología, por el momento, los coches movidos por IA que alcanzan los niveles 4 o 5 de autonomía, en los que los usuarios no necesita hacer nada durante el trayecto, solo están disponibles en algunas ciudades de Asia y en localidades estadounidenses como San Francisco. Mientras tanto, países como Alemania y Francia se mueven rápido para ponerse al día en materia normativa. España, por su parte, se encuentra algo más rezagada. Dejando a un lado los golpes sufridos por Swift, y a las limitaciones del experimento, que no fue realizado en un entorno abierto en el que pudiesen ocurrir situaciones fuera de lo previsto, el estudio sí que demuestra el buen hacer de la IA, su superioridad sobre el ser humano a nivel de conducción, incluso cuando se la lleva a situaciones límite. Algo en lo que, en principio, están de acuerdo la mayoría de expertos en este campo, que apuntan a este tipo de dispositivos, en concreto al coche autónomo, como soluciones mucho más seguras y eficientes .

via Tecnología https://ift.tt/VePdUuK

martes, 29 de agosto de 2023

Google ha creado la primera marca de agua para IA: ya tenemos la tecnología, ahora falta lo más importante

Google ha creado la primera marca de agua para IA: ya tenemos la tecnología, ahora falta lo más importante

Google ya tiene su solución ante el problema del copyright con las imágenes de inteligencia artificial. Varios meses después de que anunciase su intención de crearla, ya se ha presentado oficial SynthID. Se trata de la primera marca de agua para las imágenes creadas con IA. Una tecnología que permitirá a las máquinas descubrir cuándo una imagen está generada artificialmente, pero será totalmente invisible para el ojo humano.

SynthID abre una nueva generación de marcas de agua. Google Deepmind ya ofrece esta marca de agua en beta y a una cantidad de clientes limitados que utilizan su servicio Imagen.

La idea es poder identificar qué imágenes han sido generadas con una IA y cuáles son imágenes reales. Una categorización que no es tan sencilla de hacer, sobre todo cuando la calidad de estas imágenes por IA cada vez es mayor.

No está limitado a imágenes ni a una única IA. SynthID por el momento solo funciona con la IA de Google, pero la compañía explica que está diseñada para ser una marca de agua que se pueda implementar en otras IA, sea Midjourney o DALL-E, por nombrar algunas. Si bien, la tecnología es propietaria de Google y por el momento funcionará siguiendo sus designios. No se ha anunciado cuándo pretende Google ampliar su disponibilidad.

No queda ahí, pues la idea de la marca de agua también es añadirla en vídeo, audio o texto, además de las imágenes. Según explica Google, esta marca de agua no puede eliminarse aunque en el caso de imágenes muy muy manipuladas podría fallar.

Se podrá cambiar el color de la imagen, el contraste o incluso el tamaño, pero eso no afectará al sistema de marca de agua. Si bien, si se realizan modificaciones a mano con Photoshop y se mezclan con otras imágenes, entonces el sistema sí podría fallar.

Invisible (para nosotros). Las marcas de agua suelen ser un logo que se añade a una imagen, para demostrar normalmente quién ha hecho      esa fotografía. Aquí tenemos un sistema con la misma idea, pero donde el resultado es invisible a los ojos de los humanos.

Sí se podrá ver por las máquinas. A través de una herramienta que ofrecerá la propia Google (podría ser una web dedicada o una extensión de Chrome), los usuarios podrán determinar si una imagen ha sido creada con una IA o es real. Claro está, siempre que se implemente esta marca de agua.

La solución tecnológica ya está aquí, ahora falta la logística. Aunque Adobe anunció que estaba trabajando en un sistema similar, Google ha sido la primera compañía en presentar oficialmente su propia marca de agua para la IA.

El caso es que para que funcionen este tipo de sistemas hace falta una adopción masiva. Una suficiente amplia como para que estos identificadores tengan relevancia.

Google va a lo suyo. Gobiernos como el de Estados Unidos o Europa han solicitado la implementación de estos sistemas para identificar la IA. Una solución es el estándar C2PA de la 'Coalition for Content Provenance and Authenticity' que tiene el apoyo de compañías como Microsoft, Intel o Adobe.

Desde Google DeepMind han optado por su propio sistema. Parece que nos acercamos a una situación donde haya múltiples tipos de marcas de agua para identificar las imágenes de la IA.

En Xataka | DALL-E funciona con las imágenes de creadores que no reciben nada a cambio: qué dice el copyright sobre la IA



via Robótica e IA - Xataka https://ift.tt/0EKLJMi

Google Meet quiere ir a las reuniones por ti: su nueva IA te permitirá estar en otra parte mientras tanto

Google Meet quiere ir a las reuniones por ti: su nueva IA te permitirá estar en otra parte mientras tanto

Hoy Google ha presentado diferentes novedades de cara al futuro inmediato de su infraestructura en la nube y sus soluciones empresariales. Lo ha hecho en su evento Google Cloud Next'23, y entre esas mejoras destaca la dedicada a Google Meet como parte de la suite Google Workspace. La conocida aplicación de videoconferencia da un salto de lo más llamativo, y lo hace de la mano de la inteligencia artificial generativa.

Duet AI. Hace unos meses Google presentaba Duet AI, una plataforma de inteligencia artificial generativa especialmente diseñada para trabajar con las aplicaciones en la nube de Google. Su impacto es patente en herramientas para desarrolladores como Codey, pero también en Google Workspace, la suite ofimática en la nube de esta empresa. Sus herramientas de productividad —Gmail, Docs, Slides, Sheets— se benefician de sus prestaciones, pero ahora lo hace especialmente su herramienta de videoconferencia, Google Meet.

Un secretario robótico. La integración de Duet AI en Google Meet permite que esta plataforma de IA tome notas durante las reuniones, envíe resúmenes de la misma e incluso ofrezca traducción automática con subtítulos en 18 idiomas, algo que otros servicios llevan ofreciendo algún tiempo. La solución de videoconferencia mejora además la calidad de imagen y sonido y trata de ofrecer calidad de estudio para estas reuniones en remoto.

También Chat se beneficia. La herramienta de mensajería Google Chat que podemos usar de forma integrada en Google Meet o de forma separada también gana enteros. Gracias a Duet AI podremos hacer preguntas sobre una conversación, pedir un resumen de los documentos compartidos o que la IA nos ponga al día si nos hemos perdido alguna parte de la conversación. La nueva interfaz permite aprovechar todas esas opciones y también iniciar un nuevo chat de forma sencilla en un grupo que está colaborando en esta plataforma.

Ve a la reunión por mí. Con estas opciones Duet AI se convierte en un prodigioso asistente para reuniones. En Google mencionaron cómo de hecho uno casi puede pedirle a este sistema que "asista a las reuniones por él", lo que hará que recolecte lo más importante de la reunión para luego resumírnosla. La opción puede ser realmente interesante cuando otra cita tiene más prioridad y podemos "encargarle" a Duet AI que se encargue y nos ofrezca las notas y resumen de la reunión cuando esta termine.

Privacidad: todo queda en casa. El uso de estas plataformas de IA generativa vuelve a plantearse con un claro enfoque a la privacidad empresarial, algo relevante teniendo en cuenta los últimos sustos que han surgido en este ámbito. En Google aseguran que los datos que los clientes empresariales introducen en Workspace no se usan para entrenar modelos, y quedan relegados al entorno privao de la empresa, de donde no salen.

Disponible para clientes de Workspace. Estas opciones ya están disponibles para los actuales suscriptores de la solución de pago de Google Workspace. Según la empresa la plataforma tiene nada menos que 3.000 millones de usuarios, de los cuales 10 millones son clientes de pago. Queda por ver si estas opciones llegan a todo el resto de usuarios del servicio, aunque a priori parece difícil que lo hagan de forma gratuita: como sabemos, la IA generativa impone inversiones importantes en capacidad de cálculo.

Imagen | Google

En Xataka | Las empresas de IA parecen las primeras interesadas en regular la IA. Eso es preocupante



via Robótica e IA - Xataka https://ift.tt/TqwtWr4

lunes, 28 de agosto de 2023

Las empresas guardan celosamente sus secretos. OpenAI lo sabe, así que ha presentado un ChatGPT enfocado en la privacidad

Las empresas guardan celosamente sus secretos. OpenAI lo sabe, así que ha presentado un ChatGPT enfocado en la privacidad

Cuando utilizamos ChatGPT, a menos que desactivemos el historial, estamos permitiendo que nuestras conversaciones puedan ser utilizadas para mejorar el chatbot de inteligencia artificial (IA) y entrenar nuevos modelos. Este escenario ya ha traído algunas consecuencias no deseadas para empresas como Samsung que han decidido prohibir el producto de OpenAI para evitar filtraciones.

La compañía dirigida por Sam Altman está al tanto desde hace tiempo de esto, por lo que no ha tardado en empezar a trabajar en una versión profesional de ChatGPT. Ahora, después de “menos de un año de desarrollo”, ha anunciado ChatGPT Enterprise, una herramienta que pretende ganarse la confianza de empresas de todos los tamaños con una propuesta que apunta a la funcionalidad y la seguridad.

ChatGPT Enterprise se hace realidad

ChatGPT Enterprise, según OpenAI, es producto del trabajo interno de la compañía, así como de la ayuda de más de 20 organizaciones. Como tal pretende abordar todas las preocupaciones y necesidades que estas puedan llegar a tener a la hora de implementar un chatbot de IA en sus flujos de trabajo. Si bien el foco está puesto en la seguridad y la privacidad hay algunas otras opciones avanzadas a tener en cuenta.

A nivel de privacidad, esta alternativa promete no utilizar los datos de las conversaciones para entrenamiento, así como proteger la información en reposo con AES 256 y en tránsito con TLS 1.2+. También ofrece un certificado de cumplimiento del estándar de organizaciones SOC 2. En relación a su implementación, se incluye una consola de administración de miembros, SSO y verificación de dominio.

Chatgpt Enterprise 1

Si nos enfocamos en el modelo descubrimos que se brinda acceso sin límite de uso a GPT-4. Todo esto con un rendimiento “hasta dos veces más rápido”, acceso ilimitado a análisis de datos, ventanas de contexto ampliada, plantillas colaborativas y flujos de trabajo comunes. La diferencia más grande de la versión convencional es que los clientes empresariales podrán entrenar el modelo con sus propios datos.

Si nos enfocamos en el modelo descubrimos que se brinda acceso sin límite de uso a GPT-4. Todo esto con un rendimiento “hasta dos veces más rápido”, acceso ilimitado a análisis de datos, ventanas de contexto ampliada, plantillas colaborativas y flujos de trabajo comunes. La diferencia más grande de la versión convencional es que los clientes empresariales podrán entrenar el modelo con sus propios datos.

Imágenes: OpenAI

En Xataka: Hay un triunfador absoluto en la industria de la IA. Se llama NVIDIA, y está ganando más dinero que nunca



via Robótica e IA - Xataka https://ift.tt/AcWvZR1

sábado, 26 de agosto de 2023

Probamos el Galaxy Z Fold 5: el nuevo gran móvil plegable de Samsung

La primera vez que vi el nuevo Samsung Galaxy Z Fold 5 , me decepcionó la poca evolución que ha sufrido el mejor móvil de la empresa coreana. Básicamente, las novedades del Fold de este año se centran en la bisagra que une las dos pantallas plegables, poniéndose a la altura de la competencia, y el procesador Qualcomm Snapdragon Gen 2, diseñado junto al fabricante de chips californiano. Después de un mes con el Samsung Galaxy Z Fold 5, comparándolo con el Fold 4 , las diferencias son más notables de lo que parecía a primera vista, aunque sobre el papel no sean deslumbrantes. El cambio de tamaño es considerable, 2,4 milímetros menos, gracias a la nueva bisagra que no deja hueco una vez plegado, convirtiéndolo en un dispositivo más 'de bolsillo' que su antecesor. Noticias Relacionadas estandar No Probamos la Roborock Q Revo, la primera aspiradora robot que friega con mopas giratorias Jon Oleaga estandar No Samsung actualiza ligeramente su gama de plegables sin ofrecer grandes cambios Jon Oleaga Físicamente parece otro teléfono , más ligero, más manejable y portable, y aunque pudiera parecer en un principio más frágil, la carcasa de aluminio lo convierte en un dispositivo muy resistente. La bisagra mantiene el móvil en cualquier ángulo de forma sólida, por lo que se puede apoyar doblado en su modo Flex cómodamente, como su predecesor. Respecto a la durabilidad de la serie Fold, y después de un año usando el Samsung Galaxy Z Fold 4, y siendo el Fold 5 de similar construcción, he comprobado que son dispositivos muy resistentes, al uso y las caídas. Se mantiene la IP8, la resistencia al agua, que la competencia no tiene, y aunque no esté certificado contra el polvo, después de un año en el bolsillo, mi Galaxy Z Fold 4 no tiene ni una pelusa ni una mota de polvo bajo la pantalla. Ha pasado por los peores escenarios para un plegable, la playa y los granos de arena, que ha superado gracias a que, aunque se introduzca arena en la bisagra, esta los termine expulsando. En el exterior, lo que vamos a encontrar, además de la ranura para las SIM y el puerto USB-C, es el botón de encendido que comparte espacio con el lector de huellas. Este funciona a las mil maravillas, y desbloquea el teléfono prácticamente desde cualquier posición. Encima del botón de encendido tenemos los botones de volumen. En el apartado de las pantallas es donde podemos encontrar los mayores puntos grises del Galaxy Z Fold 5, que ya pasaba con el 4. Algo que pensaba que Samsung cambiaría en esta nueva versión es el aspecto de la pantalla exterior con un formato de 23,1:9, estrecho y alargado, que a la inmensa mayoría de la gente le genera ciertas reticencias. Es un formato al que no estamos acostumbrados, no es un problema de tamaño, porque la pantalla externa es de 6,2 pulgadas HD+, pero el teclado se siente raro, y algunas aplicaciones también. Pero, la realidad es que esto solo ocurre al principio, después de un periodo de adaptación, la pantalla exterior resulta tan útil y usable como la de cualquier otro teléfono, y puedes usar el Fold sin desplegarlo. La gran pantalla, su principal fortaleza La pantalla flexible de 7,6 pulgadas QXGA+ Pantalla Dynamic AMOLED 2XInfinity Flex 120 Hz es la joya del Galaxy Z Fold 5. Desplegar el dispositvo y disponer de una pantalla de ese tamaño provoca una sensación indescriptible. La pantalla es de lo mejor que vamos a ver en un plegable; nítida, brillante y con un buen balance de colores. 7,6 pulgadas pueden parecer poco, comparado con una tableta de 12 pulgadas, pero gracias al formato casi cuadrado que tiene la sensación que ofrece es totalmente inmersiva. Además, el móvil también es fantástico para la multitarea , sobre todo después de las últimas actualizaciones del Galaxy Z Fold 5 y la barra de aplicaciones. La marca de la doblez en la bisagra existe, es decir, la vamos a notar, pero no molesta, en cuanto se enciende la pantalla, rápidamente te olvidas de que existe. Como comentábamos, la adaptación de las aplicaciones a la pantalla plegable cada vez es mayor, y salvo contadas excepciones, todas se adaptan relativamente bien. Incluso las que no lo están de forma nativa se ven correctamente. Además, la transición entre usar la pantalla externa o la plegable es directa, por lo que, si estamos viendo un video de YouTube, y desplegamos la pantalla interior, se verá por completo al momento. Eso sí, el formato cuadrado no es lo mejor del mundo para ver video horizontal, ya que pierde mucho espacio en los márgenes. Samsung, además, ha querido darle un empujón extra al uso del lápiz con una nueva funda que incluye un lápiz en la zona trasera. El mejor procesador en Android La otra gran actualización del Galaxy Z Fold 5, además de la bisagra, es su procesador, el Snapdragon 8 Gen 2 . El más potente de Qualcomm, que ya hemos visto en muchos móviles de gama alta este año, pero que en el Galaxy Z Fold 5 logra llegar a nuevas cotas de rendimiento, multiplicando casi por dos lo que era capaz de lograr el Fold 4 en algunos aspectos, situándose casi al mismo nivel que el Galaxy S23+. Todo funciona a las mil maravillas, y el nuevo procesador se agradece, los juegos vuelan, y la multitarea también. Lo malo, como pasa en otros terminales, es que la potencia máxima no se puede mantener durante mucho tiempo, ya que en cuanto el calor empieza a subir o el impacto en la autonomía es significativo, se regula y baja. La memoria RAM es de 12 gigas y el disco va desde 256 GB a 1 terabyte. Cámaras En cuanto a fotografía, a nivel de hardware, no vamos a ver ningún cambio , son exactamente iguales el Fold 4 y el 5. Las cámaras principales son las tres traseras, con una principal de 50 megapíxeles OIS, un gran angular de 12, y un teleobjetivo de 10 OIS con 3x de aumento. A partir de ahí es híbrido recortando de forma digital. Imagen capturada con el objetivo principal J. O. Las otras dos cámaras son la delantera de 10 megapíxeles, e interior de 16 megapíxeles. En realidad, gracias al formato Flex, las cámaras más utilizadas serán siempre las principales, incluso para el selfie. No vamos a entretenernos mucho en las cámaras ya que no cambian nada, solo en el procesamiento del Snapdragon 8 Gen 2 que logra mejores resultados gracias a una inteligencia artificial más avanzada y rápida, algo que he podido comprobar y se nota en un mejor uso del HDR y selección de escenas. Fotografía con el gran angular J. O. Aunque parezca un cambio superficial, la calidad de las imágenes ha mejorado considerablemente. En general, es el mejor conjunto fotográfico que vamos a encontrar en un plegable, y si quieres exprimir un poco más la cámara usando la App Expert Raw, puedes ponerla en modo profesional. Imagen a 3 aumentos J. O. El video 8K 30 fps no es lo mejor que hemos visto en teléfonos móviles, pero es estable gracias al OIS, y funciona casi como una cámara de video profesional. Los resultados son muy buenos, lo que se espera de un teléfono de alta gama. La batería permanece inalterada respecto al Fold 4, sigue siendo de 4.400 mAh, pero gracias a que el nuevo procesador tiene un mejor consumo, y el Fold 5 ha sumado algunas horas de autonomía respecto a su predecesor. ¿Me lo compro? Durante este año con el Galaxy Z Fold4, muchas personas se han interesado y me han preguntado por este teléfono. Los plegables siguen siendo una novedad para muchos, y siempre la sorpresa llega con el precio. Estamos hablando de un dispositivo que está cerca de los 2.000 euros (se mueve entre los 1.909 y los 2.090 en función del modelo) y es uno de los móviles más caros del mercado. Muchos portátiles de alta gama cuestan menos que eso. Lo que ocurre es que Samsung no quiere que el Galaxy Z Fold sea solo un teléfono, sino que sirva como una suerte de híbrido entre portátil y móvil. Es el dispositivo todo en uno para la ultra portabilidad. El modo Dex hace que cuando conectamos cualquier monitor al Galaxy Z Fold se convierta en un perfecto ordenador, capaz de hacer prácticamente todo, y añadiendo un teclado y ratón Bluetooth, tendremos un ordenador en toda regla. Yo lo he estado usando junto con un teclado Bluetooth cuando he estado de viaje, y actúa como un ordenador de bolsillo. Cuando he dispuesto de un monitor o pantalla externa, lo he conectado, y el modo Dex entra en juego como si fuera un ordenador de sobremesa, con aplicaciones a pantalla completa, multitarea y todo lo necesario para trabajar. Visto de esta forma, para un uso profesional, el Galaxy Z Fold 5 es un móvil sin rival.

via Tecnología https://ift.tt/rtIXyD7

viernes, 25 de agosto de 2023

En su imparable camino hacia el progreso, la humanidad ha creado un robot capaz de pilotar casi cualquier avión

En su imparable camino hacia el progreso, la humanidad ha creado un robot capaz de pilotar casi cualquier avión

Algunos hacen piruetas en el aire, otros cocinan y ponen la mesa, y otros ejercen de enfermeros. Los robots hacen cada vez más cosas que hacemos los humanos y ahora también se preparan para pilotar aviones.

Y no estamos hablando de los sistemas de inteligencia artificial que toman el control directamente desde sistemas incorporados en las aeronaves, sino de máquinas humanoides diseñadas para operar desde la cabina.

Dile ‘hola’ al capitán robótico

Investigadores del Instituto Avanzado de Ciencia y Tecnología de Corea (KAIST) han creado a PIBOT un robot que, en teoría, será capaz de pilotar casi cualquier avión gracias a sus habilidades y diseño humanoide.

PIBOT, recoge The Korea Herald, se sienta en la cabina como un piloto humano. Una parte del robot se conecta directamente a los sistemas para controlarlos y otra se encarga de interactuar físicamente con los instrumentos.

Estamos hablando de una máquina de 1,60 metros de alto y 65 kilogramos, con brazos, dedos y piernas, cuya principal ventaja es que puede desempeñarse en entornos donde todo ha sido pensado para humanos.

Pibot Robot 13

PIBOT combina varias tecnologías para funcionar, entre ellas, la inteligencia artificial. Gracias a esta puede ser entrenado con documentación y manuales de vuelo para “aprender” cómo pilotar diferentes aviones.

También cuenta con un modelo de lenguaje y un sintetizador de voz que, en conjunto, le permiten interactuar con los controladores aéreos. Como podemos ver, una obra de ingeniería ambiciosa y compleja que parece prometedora.

Los investigadores han puesto a prueba a PIBOT en un simulador de un KLA-100, un pequeño avión de dos asientos muy popular en Corea. El robot, sorprendentemente, se ha desempeñado con gran precisión durante toda la prueba.

Dado que la prueba de simulación ha sido de carácter “hiperrealista”, imitando cada uno de los componentes de un vuelo real, los investigadores creen que están bien encaminados para dar el paso a un avión real.

El proyecto seguirá avanzando hasta 2026, por lo que creen que antes de esta fecha límite PIBOT será capaz de completar todas las tareas de vuelo en un avión real. Pero claro, en un entorno controlado por si algo no sale bien.

Desde KAIST afirman que los robots humanoides podrían reemplazar en el futuro a los humanos en ciertos trabajos peligrosos. Y no solo pilotando aviones, sino también coches, tanques de guerra e incluso vehículos marítimos.

Imágenes: KAIST

En Xataka: NVIDIA no da abasto: triplicará la producción de sus chips H100 para IA ante una demanda demencial



via Robótica e IA - Xataka https://ift.tt/fdau51R

jueves, 24 de agosto de 2023

GitHub Copilot tiene más competencia: Meta acaba de presentar Code Llama, un nuevo aliado para los programadores

GitHub Copilot tiene más competencia: Meta acaba de presentar Code Llama, un nuevo aliado para los programadores

La inteligencia artificial (IA) está cambiando la forma en la que los programadores hacen su trabajo. Una encuesta de GitHub en Estados Unidos sugiere que el 92% de los desarrolladores con sede en ese país utilizan herramientas de codificación impulsadas por algoritmos. No es una idea descabellada pensar en que este escenario, en mayor o menor medida, también se está replicando en otros países.

Esta tendencia ha dado lugar a que cada vez más empresas se vean tentadas de entrar al mundo de los asistentes de programación. Si bien Copilot es uno de los más conocidos, en los últimos meses hemos presenciado la llegada de alternativas como CodeWhisperer de Amazon. A estas se han sumado nuevos modelos de lenguaje que prometen abrir la puerta a la creación de nuevas herramientas. 

Code Llama, el modelo de Meta para la codificación

Meta ha anunciado este jueves Code Llama, un modelo de lenguaje basado en Llama 2 cuyo objetivo es complementar la tarea que hacen los programadores. Entre sus ventajas encontramos la capacidad de generar código y respuestas escritas en lenguaje natural. La forma de interactuar con él no es muy diferente a ChatGPT. Escribimos un prompt o introducimos datos y esperamos una respuesta elaborada.

Por ejemplo, podríamos pedir lo siguiente: "Escríbeme una función que genere la secuencia de Fibonacci”. Y también utilizar otras entradas de texto para completar y depurar código en Python, C++, Java, PHP, TypeScript (JavaScript), C#, Bash y más, con algunas versiones específicamente diseñadas para algunos de estos lenguajes. Cabe señalar, eso sí, que no podremos utilizar Code llama nada más descargarlo.

Code Llama

Si bien Meta ha habilitado la descarga del modelo ―y puede ser utilizado para diversos fines de manera gratuita―, hacerlo funcionar de manera local en nuestro ordenador requiere de algunos pasos avanzados como elegir el tamaño del modelo (7B, 13B y 34B), contar con suficiente potencia de cálculo, contar con herramientas de compilación e interfaz de usuario. Entonces, ¿para qué sirve Code Llama? Para desarrollar nuevos proyectos.

Así como GitHub Copilot X está basado en una versión modificada de GPT-4, Code Llama puede convertirse en el corazón de nuevas herramientas del estilo. Estamos hablando de una parte esencial de cualquier asistente de código. En Meta confían en que esto será así, y que su modelo llegará a una amplia variedad de utilidades, que van desde la investigación hasta la creación de herramientas comerciales cerradas o, por el contrario, herramientas de código abierto.

Imágenes: Gema Saputera

En Xataka: Hay un triunfador absoluto en la industria de la IA. Se llama NVIDIA, y está ganando más dinero que nunca



via Robótica e IA - Xataka https://ift.tt/FAH7nYw

Estos son los mejores juegos Alexa para divertirte solo o en compañía

Juegos Alexa

Desde que Alexa vio la luz, muchos son los ratos de entretenimiento y diversión que nos ha proporcionado a los usuarios. Y esto es un no parar, porque este pequeño dispositivo inteligente sigue evolucionando y, por supuesto, creando nuevos juegos para que sigas divirtiéndote con ella, ya sea cuando estés solo en casa, o cuando estés en familia, con amigos, etc. Porque en verdad, con Alexa, nunca estás solo. ¿Te apetece jugar? Alexa está dispuesta y nosotros vamos a enseñarte cuáles son los mejores juegos Alexa que hay actualmente.

No hay edad para decir que sí a un juego, así que esa excusa no me vale. ¿Tienes hijos? Tus pequeños se pasarán el día pidiéndote que juegues con ellos; si vives solo, no nos extrañaría que mataras tus horas libres y hasta las que no deberían de estar tan libres, jugando a videojuegos delante de una play, incluso también si estás en pareja. Lo sabemos, tal vez pienses que, de primeras, con la play no se puede competir. Pero a lo que vamos a referirnos es a que nunca es tarde para jugar.

Dale una oportunidad a Alexa. Porque quizás te sorprenda de los juegos tan divertidos que tiene. Prueba la experiencia al menos.

Akinator, el juego donde Alexa tendrá que adivinar de quién se trata

Una de las muchas cosas buenas de Alexa es que interactúa contigo casi como si fuera una persona, así que, si estás solo, ya tienes compañía para jugar. Y esta vez no tendrás que ser tú quién se quiebre la cabeza viendo cómo una máquina se ríe de ti, sino más bien, lo que te proponemos con Akinator es que seas tú quien pongas a prueba al altavoz, describiendo un personaje y pidiéndole a Alexa que te adivine de quién se trata. ¿Lo logrará? Seguro que conseguirá asombrarte.

El juego del Desafío Diario de Alexa

Con Alexa puedes ganar premio. Más allá de enriquecer tu ego viendo que eres más listo que el robot o comprobando si este es capaz de darte respuesta a tus enigmas, también podrás ganar premios reales. Sobre todo, si juegas al Desafío Diario. Este consiste en que Alexa te irá haciendo una pregunta cada día y, si adivinas la respuesta, podrás ganar 10.000 euros de fantasía. Además, al conectarte durante tres días seguidos, podrás recibir una pregunta especial que te dará puntos de más al adivinarla y, con estos puntos, podrás conseguir premios.

Juega con Alexa al Escape Room

Juegos Alexa

¿Conoces Escape Room? Estás encerrado en una habitación y tendrás que ir superando pruebas para lograr liberarte del encierro y alcanzar la libertad. Puede haber muchas temáticas que le dan más entusiasmo al juego Escape Room, pero también jugar con Alexa. Aquí el escenario es virtual e imaginario, así que sus acciones también lo son. No tendrás ni que moverte de tu asiento, pero mediante comando de voz, le irás diciendo a Alexa qué acciones harías en cada momento. Y podrás variar de escenario, porque Alexa tiene hasta 4 tipos de habitaciones diferentes para jugar. ¿Conseguirás salir pronto de tu encierro?

Hundir la flota con Alexa

El juego de hundir la flota se moderniza ay ahora Alexa también quiere jugar contigo. Así que, escoge este juego y ve comentando a Alexa las coordenadas de cada disparo que quieras dar y adivinar tú qué posición tienen sus barcos, para ver quién gana el juego de hundir la flota con Alexa.

Ejercita la memoria con los juegos de Alexa

Los juegos de Alexa te ayudarán a ejercitar la memoria, de modo que a cualquiera de nosotros nos vendrá bien usarlos con frecuencia y, vendrán especialmente bien a las personas mayores, porque no se sentirán solas con Alexa.

Esta vez jugamos con colores, porque Alexa te dará una serie de colores y tú tendrás que memorizarlos. La mayor dificultad es que tendrás que decirlos en el mismo orden que Alexa, lo cual incrementa más la dinámica del juego.

Aprende con el verdadero y falso de Alexa

Es un juego de aprendizaje, donde Alexa te hará preguntas. El reto principal es aprender, de modo que, si no te sabes la respuesta, Alexa te enseñará y así podrás aprender. A diferencia de otros juegos, aquí no habrá sanción, ni perderás, sino que todo lo que puede pasar es que aprendas, porque tendrás que enviar tu cuestión o problema a tu madre para que te lo explique.

Jugando al Trivial con Alexa y entre jugadores

Juegos Alexa

Juega con Alexa pero también con otros jugadores en línea. No hay edad para participar en el Trivial Pursuit Edición Familia de Alexa. Hay seis categorías de juego para que cada cual elija la que más le convenga. Quien acierte, se lleva pregunta extra. El objetivo es responder antes que nadie al trivial de preguntas de Alexa.

Detective de Animales

El juego detective de animales es muy parecido al Veo veo, pero enfocado a la figura de animales. Aquí, Alexa te va dando pistas para que tú adivines qué animal está escondido. Es muy sencillo, entretenido, educativo y que conseguirá mantener atentos a los niños. Ideal para cuando hagamos de “canguro” con nuestros niños, sobrinos o nietos.

¿Te animas a la historia con giro inesperado de Alexa?

La historia del giro inesperado consiste en que jugaréis, junto con Alexa, a meteros en la piel de un personaje e iniciar una historia. Luego el testigo pasará a otro jugador que tendrá que continuar la historia como su imaginación mejor le aconseje. Los giros inesperados pueden ser tan disparatados y locos, que será desternillante el final de esa historia.

De los modos Alexa a estos y otros juegos de Alexa, que son como apps que puedes buscar en Amazon, descargarlos e instalarlos, como cuando compras un videojuego, pero esta vez, para jugar a través de Alexa. Dentro de Amazon está el apartado de Skills de Alexa, por lo que solo tienes que entrar en él y activarlo para empezar a disfrutar de la experiencia. ¿Ya eres un experto jugador? Pues comparte con nosotros y cuéntanos qué tal te ha ido, cuál es tu juego preferido y qué otros juegos divertidos conoces.



via Actualidad Gadget https://ift.tt/lMOH9Vd

Microsoft quería explotar ChatGPT para reventar el imperio de Google: por el momento está fracasando

Y, de repente, ChatGPT . El enorme éxito que cosecho la máquina conversacional de OpenAI desde el momento de su lanzamiento el pasado noviembre, provocó que Microsoft, una de las más empresas que más fuerte ha invertido en la startup, apostase por explotar la inteligencia artificial en Bing , su propio motor de búsqueda. ¿El objetivo? Desafiar el emporio de Google , herramienta empleada para más del 90% de las consultas que se realizan en internet. Sin embargo, al menos por el momento, parece que a la empresa fundada por Bill Gates el plan le está dando escasos resultados. Por no decir ninguno. De acuerdo con datos de la firma de análisis Statcounter recogidos por ' The Wall Street Journal ', el pasado mes de julio Bing fue empleado para el 3% de las consultas que se realizaron en la red. El mismo trozo (o trocito) del pastel con el que tuvo que conformarse en enero de 2023, un mes antes de que incorporase al motor un chat movido por inteligencia artificial. Otro informe, en este caso de Similarweb, apunta que Bing tuvo, aproximadamente, el 1% de visitantes en julio de los que tuvo Google. Noticias Relacionadas estandar No El 'New York Times' bloquea el acceso de ChatGPT a sus noticias Rodrigo Alonso estandar No Google trabaja en una inteligencia artificial que te dirá cómo debes vivir tu vida ABC Por su parte, Microsoft , que por el momento no ha revelado datos oficiales sobre el uso de Bing, apunta que su apuesta por la IA va mejor de lo que apuntan los informes de terceros. Sea como fuere, de lo que no cabe duda es de que, por lo menos, los movimientos de la empresa de Windows obligaron a Google a poner sus herramientas al día en materia de IA a velocidad de vértigo. Otra cosa es que el resultado que ofrece esta tecnología haya sido realmente bueno. Tanto Google como Microsoft han trufado sus soluciones de funciones de IA generativa. La primera puso a disposición de los usuarios su solución similar a ChatGPT, llamada Bard, el pasado marzo. Apenas unos meses después, compartió la llegada de una nueva versión de su motor de búsqueda, Chrome, que será capaz de mostrar una breve respuesta generada de forma automática por IA al principio de la pantalla. Si ChatGPT no es perfecto, desde luego, Bing y Bard tampoco lo son. Todas las máquinas parlantes que pueblan internet actualmente cuentan con sesgos y cometen errores de bulto en las respuestas que ofrecen a los usuarios. A pesar de la celeridad de Microsoft para desafiar al imperio de Google en la red, tampoco parece que los números que está cosechando Bing estén siendo suficientes, incluso, para opacar el uso de ChatGPT. Pero ni de lejos. Y eso que dos robots conversacionales están movidos exactamente por la misma tecnología. En junio, ChatGPT atrajo a 233 millones de usuarios, mientras que la base de usuarios de Bing se mantuvo por debajo de los 100 millones, según YipitData.

via Tecnología https://ift.tt/HxesnMw

Hay un triunfador absoluto en la industria de la IA. Se llama NVIDIA, y está ganando más dinero que nunca

Hay un triunfador absoluto en la industria de la IA. Se llama NVIDIA, y está ganando más dinero que nunca

NVIDIA no da abasto, y los grandes de la tecnología lo saben. No paran de pedirles chips especializados para entrenar sus modelos de inteligencia artificial, pero la compañía está superada (de momento) por la demanda. Eso es un bendito problema para la compañía, que acaba de presentar unos resultados financieros absolutamente extraordinarios.

Se han hecho imprescindibles. La revolución e impacto de la inteligencia artificial ha provocado que NVIDIA se convierta en el gran protagonista de este mercado junto a OpenAI. A diferencia de ellos, NVIDIA ni siquiera proporciona algoritmos o chatbots, pero sus GPUs especializadas son cruciales para entrenar los modelos y algoritmos que están detrás de plataformas como ChatGPT o Midjourney. Si una empresa quiere crear una plataforma de IA, necesita entrenarla. Y para entrenarla necesita chips especializados. Los mejores y más potentes, hoy por hoy, los fabrica NVIDIA.

Ingresos Nvidia
Fijaos en la fila de Data Center (que es también la de IA): su crecimiento ha sido explosivo en este último trimestre fiscal.

Ingresos excepcionales. La empresa ha presentado sus últimos resultados financieros y en ellos ha dejado claro lo bien que le van las cosas con este nuevo segmento. Los ingresos totales han sido de 13.500 millones de dólares. Eso supone un 101% más que los 6.700 millones del mismo periodo el año pasado, un crecimiento absolutamente asombroso y prácticamente inédito para una empresa de esta talla y veteranía. Y eso que las gráficas gaming no van especialmente bien.

El gaming ya no es el foco.La evolución de NVIDIA ha sido clara, y en apenas dos años su foco ha dejado de ser el gaming para ser la inteligencia artificial. Las ventas de tarjetas gráficas han caído en barrena y hacía décadas que no se vendían tan pocas. En NVIDIA afirman que este mercado volverá a crecer, pero habrá que ver si esa optimista estimación se acaba cumpliendo.

El resto de divisiones, sin demasiados cambios. Los ingresos se han salvado gracias a la subida de precio de estas tarjetas, pero ese segmento muestra tan solo una mejora ligera, como sucede en otros segmentos de NVIDIA como la visualización profesional —soluciones para estaciones de trabajo— y ha habido caídas en el segmento de la automoción y el de los OEMs. Todo se queda pequeño frente a lo que ha logrado la división de centros de datos, que es también la dedicada a inteligencia artificial.

Gh200
El nuevo chip GH200 llegará a mediados de 2024 para ir aún más allá de lo que logra su exitoso H100.

Un 170% más en Data Center... y un 843% más en beneficios. De hecho NVIDIA ha doblado ingresos en sus resultados globales, pero si nos fijamos en la división de centros de datos esos ingresos casi se han triplicado: han sido de 10.323 millones de dólares, frente a los 3.806 millones del mismo trimestre del año anterior. Es un 170% más, una absoluta locura. Esa cifra también se queda pequeña si hablamos de beneficios, que han sido de 6.188 millones de dólares, un 843% más que en el mismo periodo del año pasado. La empresa está haciendo caja a lo grande, y aprovechando de forma extraordinaria el tirón de la IA.

El crecimiento seguirá (aunque no será tan alucinante). En NVIDIA prevén que el próximo trimestre lograrán alcanzar los 16.000 millones de ingresos el próximo trimestre. "Esperamos un crecimiento secuencial guiado principalmente por el centro de datos". La firma, como dijimos ayer, planea triplicar la producción de sus chips H100 para hacer frente a la enorme demanda, pero tiene otros ases en la manga. El sucesor del H100 será este chip que se espera llegue a mediados de 2024 y sirva para entrenar modelos de IA de forma aún más potente.

¿Y AMD e Intel, qué? Mientras, sus grandes competidores no acaban de plantar batalla. AMD tiene su M1300 casi listo para salir al mercado en el cuarto trimestre, pero habrá que ver si puede competir con las soluciones de NVIDIA. En Intel ni siquiera parecen estar trabajando en chips especializados para centros de datos, y la propuesta de este fabricante parece más dirigida a ofrecer opciones de IA en sus procesadores para PCs y portátiles. La otra gran protagonista podría ser ARM, que ha aprovechado el tirón de la IA para su inminente salida a bolsa.

En Xataka | NVIDIA vende más chips para inteligencia artificial que nadie, aunque es otra empresa la que domina este mercado



via Robótica e IA - Xataka https://ift.tt/feKAjcQ

miércoles, 23 de agosto de 2023

Apptronik ya está trabajando en un rival para el Tesla Bot: así es su robot humanoide pensado para ser producido en masa

Apptronik ya está trabajando en un rival para el Tesla Bot: así es su robot humanoide pensado para ser producido en masa

El Tesla Bot marcó un nuevo pistoletazo de salida para los robots humanoides por su gran cantidad de promesas, pero mientras el concepto de la compañía dirigida por Elon Musk todavía se encuentra en la fase de prototipo, surgen otras propuestas que podrían hacerle sombra. Una de ellas es conocida como Apollo.

Estamos hablando de un robot humanoide de propósito general desarrollado por Apptronik, una compañía con sede en Austin, Texas. La misma ha estado involucrada en proyectos como Valkyrie 2 de la NASA y los exoesqueletos del Comando de Operaciones Especiales de los Estados Unidos, y ahora quiere dar un paso más allá.

Un robot “amistoso”, listo para ser operario de logística

La firma asegura que en este proyecto ha intentado abordar una amplia variedad de necesidades para que su producto sea lo más útil posible. El robot, aseguran, podrá trabajar en entornos humanos “en el corto plazo”. Sus habilidades incluirán tareas de logística en almacenes, por ejemplo, llevar cajas de un lado a otro de manera segura.

Presume de un sistema de seguridad activo compuesto por varios elementos. Control de fuerza, para no dañar a los objetos por demasiada presión; zona perimetral, para reaccionar de manera controlada ante la caída de un objeto, y zona de impacto, que consiste en detener la operaciones en determinados escenarios.

Con el paso del tiempo esperan que estas unidades puedan desempeñarse en una amplia variedad de roles. Apptronik confía en que podrá ser utilizado en tareas y sectores como construcción, hidrocarburos, producción de dispositivos electrónicos, entrega a domicilio, venta en tiendas e incluso cuidado de ancianos.

Apollo Robot 1

Apollo tendrá una altura de poco más de 176 centímetros, un peso de 76 kilogramos y, al menos en sus primeras versiones, podrá manipular cargas de 24 kilogramos. Si bien sus baterías tienen una autonomía aproximada de cuatro horas, estas han sido diseñadas para ser fácilmente intercambiables para no interrumpir ciclos de trabajo.

Una de las características más llamativas del robot es que tiene esencia modular. En una de sus configuraciones puede utilizar sus piernas robóticas para moverse, pero también puede utilizar un sistema de desplazamiento con ruedas o trabajar “anclado” a un lugar específico, esto último conveniente para tareas de línea de producción.

Como podemos ver en el vídeo, el robot tiene pantallas LED en su cara y pecho, por lo que puede proyectar mensajes, formas y símbolos. Apptronik asegura que eso ha sido pensado para que tenga un “semblante amigable y humano” de modo tal que los trabajadores humanos con los que comparta un espacio se sientan cómodos.

Imágenes: Apptronik

En Xataka: OpenAI quiere que GPT-4 sustituya a todos los moderadores de Internet. La pregunta es si no lo empeorará



via Robótica e IA - Xataka https://ift.tt/3YqC79A

Este chip puede solucionar el problema más sucio de la inteligencia artificial

La inteligencia artificial (IA) no es barata. Para que puedas charlar con soluciones como las máquinas parlantes ChatGPT o Bard es necesaria una cantidad enorme de energía. Para que te hagas una idea, una consulta en el robot conversacional de OpenAI consume tres veces más que una búsqueda en Google . Una conversación de unas 20 preguntas, o algo más, obliga a la empresa al uso de medio litro de agua para refrigerar sus bases de datos. Evidentemente, esto provoca que el coste del mantenimiento, y las emisiones de carbono provocadas por las máquinas, sean muy elevadas. IBM está intentando buscar solución a este problema. La tecnológica apuesta por el uso de un nuevo tipo de chip analógico de IA que, según la empresa, ya ha demostrado ser catorce veces más eficiente a nivel energético que los chips digitales convencionales. Noticias Relacionadas estandar No Google trabaja en una inteligencia artificial que te dirá cómo debes vivir tu vida ABC estandar No Nuevo uso para ChatGPT: en EE.UU. recurren a la IA para retirar libros con contenido erótico de los colegios ABC En un estudio publicado en ' Nature ', la empresa señala que su chip está compuesto por 14 nanómetros que contienen 35 millones de celdas de memoria de cambio de fase en 34 mosaicos. En los chips de los ordenadores convencionales actuales, los datos se transfieren entre la memoria y la unidad central de procesamiento (la GPU) cada vez que se realiza un cálculo, lo que provoca que una inversión de energía ingente, muy superior a la que sería necesaria para realizar la operación solicitada por el usuarios, se pierda. El chip análogo de IBM ofrece una solución parcial a este problema ubicando varias unidades de procesamiento pegadas a la memoria. Catorce veces más eficiente Para probar su chip, el equipo de investigadores de la tecnológica, encabezado por el investigador Stefano Ambroggio , probó su capacidad para el procesamiento del lenguaje recurriendo a dos programas de reconocimiento del habla por ordenador para, después, pasarla a texto; una red pequeña (Google Speech Commands) y otra grande (Librispeech). El rendimiento del chip análogo con el primer programa fue, prácticamente, equivalente al que ofrece la tecnología actual. Sin embargo, durante los test con Librispeech (que contiene grabaciones de lecturas en voz alta de libros, con un vocabulario mucho más extenso que el de la solución de Google) el ingenio del equipo de Ambroggio fue hasta 14 veces más eficiente a nivel energético. De acuerdo con los investigadores, esta prueba demuestra que los chips análogos pueden ofrecer un rendimiento similar a la tecnología existente en el campo de la IA sin necesidad de que el consumo generado sea tan elevado. Sin embargo, Hechen Wang, investigador de Intel, señala en otro artículo al respecto de la investigación de IBM que todavía queda mucho para que esta tecnología termine de cristalizar. Entre otras cosas, habría que realizar cambios en los algoritmos para que los chips fuesen funcionales y adaptar las distintas aplicaciones y plataformas para ello . Es decir, habría que ponerlo todo patas arriba y rehacerlo para que la alternativa propuesta por IBM pueda operar. Y eso no es fácil. Ni mucho menos. Podría tardarse décadas en conseguirlo, según explica Wang. «La buena noticia es que Ambrogio y sus colegas, junto con otros investigadores en esta área, están dirigiendo el barco, y hemos zarpado hacia la realización de la meta», apunta el investigador. Un problema de difícil solución Efectivamente, el elevado gasto al que obliga el desarrollo de inteligencia artificial sigue siendo un problema de difícil solución. A día de hoy, se calcula que las bases de datos de las grandes tecnológicas consumen entre el 1 y el 2% de la electricidad total. Y, además, todo indica que va a ir a peor en el futuro. De acuerdo con datos recogidos en un estudio de McKinsey , para 2030, se espera que los centros de datos ubicados en Estados Unidos alcancen los 35 gigavatios anuales de consumo eléctrico frente a los 17 gigavatios del año pasado. Más allá de posibles soluciones al problema, como el chip análogo de IBM, los expertos apuntan que es importante invertir en la búsqueda de nuevos sistemas que ayuden a refrigerar los servidores. Actualmente, de acuerdo con un reciente estudio de la Universidad de Purdue, publicado también en ' Nature ', apuntaba que el entrenamiento de un modelo de lenguaje, como ChatGPT, precisa de un consumo de 4,9 millones de litros de agua.  

via Tecnología https://ift.tt/vUhCxbB

NVIDIA no da abasto: triplicará la producción de sus chips H100 para IA ante una demanda demencial

NVIDIA no da abasto: triplicará la producción de sus chips H100 para IA ante una demanda demencial

Todos quieren a NVIDIA. Este fabricante que hasta hace poco identificábamos con el mundo del gaming se ha convertido en absoluto protagonista del segmento de la inteligencia artificial. Sus GPUs especializadas se han convertido en elemento clave del desarrollo de modelos de IA, y ahora todo el mundo está pidiendo más y más chips de este tipo. ¿El problema? No pueden con todo.

NVIDIA no da abasto. Según revelan en Financial Times, la "sed masiva" de chips de NVIDIA para este tipo de proyectos está afectando a todo el mercado de componentes informático. De hecho el interés en esos chips especializados para IA está haciendo que los servidores convencionales estén perdiendo protagonismo.

Los servidores (también) pierden fuelle. No solo el mercado de los PC está de capa caída. Foxconn indicó la semana pasada que los ingresos globales en el área de los servidores caerían este año. Lenovo, que ofreció resultados financieros la pasada semana, también indicó que el 8% de caída en ingresos en el segundo trimestre se debió en gran parte a la pérdida de demanda de sus servidores para proveedores en la nube (CSP) y por la escasez de chips de IA en forma de GPUs.

Quieren triplicar producción. Fuentes cercanas a la compañía indican que en NVIDIA tienen la intención de (al menos) triplicar la producción de su chip H100, el procesador más potente que tienen en la actualidad en este segmento. Así, en 2024 producirían entre 1,5 y 2 millones de chips, lo que representa un salto enorme frente a los 500.000 que habrán fabricado en 2023.

La demanda de chips de IA seguirá creciendo. TSMC es el fabricante de chips más importante del mundo y es el único que fabrica esos chips para NVIDIA. Según sus responsables, la demanda de chips de IA para servidores crecerá cerca del 50% al año durante los próximos cinco años, pero eso no será suficiente para compensar el impacto de la actual situación económica.

La nube ya no quiere tantos servidores normales. En EEUU los principales protagonistas de infraestructura en la nube —Microsoft, Amazon y Google— han cambiado de foco y están tratanto de reforzar su infraestructura de IA. Según Counterpoint Research el gasto en infraestructuras crecerá solo un 8% este año, cuando en 2022 lo hizo un 25%. Entre los culpables, cómo no, está la inflación.

Una actualización compleja y costosa. El problema, como apuntan los expertos, es que para que esos proveedores actualicen sus servidores para lograr convertirlos en servidores de IA hace falta actualizar muchos más componentes además de su GPU. Eso no estaba previsto en los presupuestos de estas empresas, así que ese tipo de expansión "está canibalizando otros gastos", aseguraba Angela Hsiang, de la firma de inversión KGI en Taipei.

Meta frena la inversión en servidores que no sean de IA. TrendForce espera que este año la distribución global de servidores convencionales (no IA) caiga en un 6% y que en 2024 haya tan solo un ligero crecimiento del 2% o 3%. En su análisis indican que Meta ha tenido gran impacto en la caída porque ha rebajado en más de un 10% su inversión en ese área para centrarse en hardware para IA.

Cuello de botella hasta 2025. El problema no solo es la producción de GPUs especializadas, sino de las memorias HBM —fabricadas por SK Hynix y Samsung— que usan esos chips. Brady Wang, un analista de Counterpoint asegura que este cuello de botella no se resolverá hasta finales de 2024.

Más espacio, por favor. Otra de las consecuencias de esa transformación de los centros de datos está en las propias necesidades de estos servidores especializados en IA, que necesitan placas base igualmente específicas, pero que además necesitan racks de mayor tamaño para poder situar estas GPUs. Los requisitos para las fuentes de alimentación y los sistemas de refrigeración también cambian: estos chips generan más calor que los que está presentes en servidores convencionales.

En Xataka | NVIDIA presenta su nuevo superchip de IA. Es exactamente el mismo que tenían... con una gran diferencia



via Robótica e IA - Xataka https://ift.tt/neCXYV8

El lenguaje COBOL se ha convertido en un quebradero de cabeza, pero IBM tiene la solución: un traductor IA

El lenguaje COBOL se ha convertido en un quebradero de cabeza, pero IBM tiene la solución: un traductor IA

Al lenguaje de programación COBOL lo quieren jubilar. Lo cierto es que ya tiene casi casi la edad (se creó en 1959, hace 64 años), pero es que su presencia en el mercado de la informática es tan sorprendente como, para según qué empresas, incómodo: no hay ya muchos profesionales que puedan programar en este lenguaje, así que IBM se ha propuesto tomar otro camino: traducirlo a Java.

Perenne. Puede que los más jóvenes no hayáis oído hablar del lenguaje de programación COBOL (Common Business Oriented Language), pero se trata de uno de los más veteranos y, sorprendentemente, uno de los más resilientes. Una encuesta de 2022 revelaba que siguen existiendo 800.000 millones de líneas de código de COBOL en entornos de producción dando servicio a todo tipo de empresas, y lo curioso es que ese número creció notablemente desde 2017, cuando se estimaba que había 220.000 millones de líneas.


Un lenguaje difícil. El problema, claro, es que los años pesan y el lenguaje es ineficiente para los tiempos que corren. Las empresas que lo siguen utilizando han realizado procesos de migración cuando han podido —el Banco de Australia tardó 5 años e invirtió 700 millones de dólares en uno de esos procesos—, pero hay algunos proyectos tan gigantes que adaptarlos ha sido hasta ahora imposible. El Departamento de Defensa de EEUU lleva intentando hacer eso mismo con su sistema de gestión MOCAS desde hace años: cuando se comenzó a usar ni siquiera se usaba una pantalla y un teclado, sino tarjetas perforadas.

De COBOL a Java. Como indican en TechCrunch, la empresa IBM ha anunciado estos días Code Assistant for IBM Z, una plataforma que usa un modelo de IA generativa capaz de traducir COBOL para convertirlo en código Java. Se espera que esté disponible en el cuarto trimestre de 2023, y se postula como una opción prometedora a la hora de reemplazar proyectos veteranos que se basaban en ese lenguaje para adaptarlos a los nuevos tiempos en los mainframes donde esas aplicaciones suelen correr.

CodeNet. Así se llama el modelo de generación de código que no solo entiende COBOL y Java, sino otros 80 lenguajes de programación diferentes que permiten utilizarlo en otro tipo de escenarios. Según los responsables de IBM, este sistema es capaz de mantener tanto el rendimimento como la seguridad de la aplicación original. El modelo ha sido entrenado con 1,5 billones de tokens y tiene 20.000 millones de parámetros. Acepta además ventanas de contexto de hasta 32.000 tokens, lo que permite introducir largas porciones de código COBOL que luego son traducidas.

Una evolución de los anteriores "traductores". Ruchir Puri, científico jefe de IBM Research, explicaba que aunque ya existían traductores de COBOL a Java, Code Assistant es superior al evitar el sacrificio de algunas de las ventajas proporcionadas por COBOL y produce código fácil de mantener, algo que por lo visto no está tan claro en productos de la competencia. De hecho, es capaz de ofrecer un resultado mixto que combina Java con antiguas secciones de código COBOL que siguen pudiéndose aprovechar si se considera que son útiles para la plataforma traducida.

Pero hay que revisar ese código. Un reciente estudio de Stanford indicó que este tipo de herramientas pueden introducir vulnerabilidades en el código, algo que Puri también admite. Aún así, aclara, "es esencial que el código se analice con escáneres de vulnerabilidades de última generación para garantizar la seguridad del código".

Un mercado por explotar. En la actualidad el 84% de los clientes que utilizan mainframes de IBM ejecutan en ellos aplicaciones en COBOL en segmentos como el financiero y el gubernamental. Esta división de negocio sigue siendo crucial para IBM, pero como indican en TechCrunch, la empresa está tratando de convertirla en una pasarela para su división más lucrativa, la de los entornos de computación híbrida (nube incluida) que la empresa está impulsando desde hace años.

Imágenes | IBM | Wikimedia

En Xataka | Los lenguajes perdidos: COBOL, Delphi o FORTRAN siguen siendo críticos, pero no hay quien programe en ellos



via Robótica e IA - Xataka https://ift.tt/jIvkMdH

martes, 22 de agosto de 2023

ChatGPT incorpora las "instrucciones personalizadas", la mejor forma de no tener que repetirnos en cada conversación

ChatGPT incorpora las

Inaugurada en forma de beta para usuarios de pago en julio, la nueva función de ChatGPT ya está disponible para todos los usuarios, también los gratuitos, también los de la Unión Europea. Todos podemos usar las "instrucciones personalizadas".

Esta novedad (custom instructions en inglés) se basa en dar un contexto fijo a ChatGPT para que lo tenga en cuenta en todas las conversaciones futuras, evitando tener que introducirlo una y otra vez.

No me lo repitas más

Por ejemplo, pongamos que un periodista especializado en tecnología (ejem) usa ChatGPT para tener un copiloto en el que delegar tareas de búsqueda preliminar de información, lluvia de ideas para titulares creativos o búsqueda del prompt adecuado para ilustrar una imagen vía IA generativa.

En lugar de tener que presentarse en cada conversación con el clásico "Eres un periodista especializado en tecnología, trabajas en un medio de comunicación escrito, te encargas de..." antes de hacerle cada solicitud concreta, ahora solo hemos de introducir esa presentación en el nuevo menú, junto a los ajustes del servicio. Y ChatGPT lo tendrá en cuenta a partir de ese momento.

No solo es posible ahorrarse las presentaciones tan habituales sobre quiénes somos para que entienda qué tipo de respuesta buscamos, sino también fijar límites e indicaciones de forma permanente.

Por ejemplo, podemos pedir que la respuesta nunca exceda de un número determinado de caracteres, o que se ahorre el lenguaje pomposo y la paja, o que nos responda en inglés.

Estas instrucciones personalizadas, no obstante, se limitan a un único set (contexto sobre nosotros e indicaciones para las respuestas), cuando quizás lo ideal hubiese sido contar con varias opciones. Por ejemplo, "trabajo", "contenido", "redes", "escritura", "programación"... Y de esa forma poder ir alternando entre contextos a golpe de selector. Quizás llegue en un futuro.

De momento sí tenemos al menos esta opción única, que está disponible también en las aplicaciones de iOS y Android; y que también puede ser usada cuando tengamos el historial de chats desactivado.

Imagen destacada | Xataka.

En Xataka | 22 funciones y cosas que puedes hacer con ChatGPT para exprimir al máximo esta inteligencia artificial.



via Robótica e IA - Xataka https://ift.tt/WsaKQwU