Microsoft y OpenAI han reconocido que diferentes grupos cibercriminales han recurrido a herramientas como el robot conversacional ChatGPT para perfeccionar sus ciberataques. En concreto, por delincuentes, aparentemente, relacionados con los gobiernos de China, Rusia, Corea del Norte e Irán . Estos habrían recurrido a la tecnología para investigar a sus objetivos, mejorar la calidad de sus ataques y desarrollar nuevas técnicas basadas en ingeniería social para engañar a las víctimas. «Los grupos de delitos cibernéticos, los actores de amenazas apoyados por estados y otros adversarios están explorando y probando diferentes tecnologías de inteligencia artificial (IA) según surgen en un intento de comprender el valor potencial de sus operaciones y los controles de seguridad que pueden necesitar eludir. Por parte de los defensores, es vital reforzar estos mismos controles de seguridad contra ataques e implementar un monitoreo igualmente sofisticado que anticipe y bloquee la actividad maliciosa», ha afirmado Microsoft en una publicación realizada en su blog oficial. Noticias Relacionadas estandar No ¿Has recibido estos SMS de la DGT?: los están utilizando para intentar robarte R. A. estandar No WhatsApp prepara dos nuevos trucos que quieren poner freno al mayor peligro de la 'app' R. Alonso Entre los usuarios maliciosos de la tecnología de inteligencia artificial creada por Microsoft y OpenAI se encuentra el grupo de origen ruso Strontium , también conocido por otros nombres como Fancy Bear, que tiene lazos con la inteligencia militar de dicho país. De acuerdo las compañías, habría utilizado herramientas como ChatGPT para poder investigar «diversas tecnologías de satélites y radares que pueden pertenecer a operaciones militares convencionales en Ucrania, así como para la realización de investigación genérica destinada a respaldar sus operaciones cibernéticas». Mientras tanto, el grupo norcoreano Thallium habría recurrido a la tecnología de inteligencia artificial con el fin de mejorar la calidad de sus estafas con el fin de engañar a la víctima y conseguir que comparta sus datos sin caer en la cuenta de que está siendo engañada. Esta banda criminal también ha explotado la IA generativa para conocer mejor el funcionamiento de agujeros de seguridad descubiertos en distintas plataformas de internet. Curium , grupo originario de Irán relacionado con los Cuerpos de la Guardia Revolucionaria Islámica, también ha empleado la tecnología para mejorar el desarrollo de sus estafas, así como para diseñar código malicioso indetectable para el antivirus de sus víctimas. Las bandas relacionadas con China - Chromium y Sodium - también han recurrido a la IA para mejorar sus operaciones y realizar buenas traducciones de sus intentos de estafa. Cabe recordar que el potencial de las plataformas de inteligencia artificial generativa en campañas maliciosas l leva preocupando a los expertos en ciberseguridad desde hace años . Y el temor no ha hecho más que aumentar desde la llegada de ChatGPT y la progresiva democratización de la tecnología, que a día de hoy está accesible para cualquiera a la distancia de una sencilla búsqueda en internet. Con todo, desde Microsoft señalan que, por el momento, no se han detectado «ataques significativos» relacionados con el uso de plataformas como ChatGPT. También apunta que los anteriores ejemplos no son únicos: hay más grupos criminales organizados que han intentado explotar la tecnología. Y la cosa puede ir a peor en el futuro, pero eso no significa que haya que tener miedo: «Si bien los atacantes seguirán interesados en la IA y explorarán las capacidades y controles de seguridad actuales de las tecnologías, es importante mantener estos riesgos en contexto». En concreto, tanto la madre de Windows como OpenAI, recomiendan a usuarios y empresas emplear herramientas como la autenticación multifactor siempre que sea posible y desconfiar de cualquier comunicación que pueda resultar mínimamente sospechosa.
via Tecnología https://ift.tt/96xTpJn
No hay comentarios:
Publicar un comentario