ChatGPT, Copilot y Gemini están ahí para intentar ayudarnos, pero frente a estos chatbots se comienzan ahora a ver versiones que precisamente están pensadas para lo contrario. Es lo malo de cualquier herramienta o tecnología como la inteligencia artificial: se puede usar para el bien, pero también para el mal.
Los chatbots malvados. Como señalan en The Wall Street Journal, en los últimos tiempos han comenzado a aparecer chatbots con nombres como BadGPT o FraudGPT que están diseñados para ayudar a los hackers a desarrollar todo tipo de actividades fraudulentas y delictivas.
Spear-phishing. Estas herramientas de IA permiten mejorar aún más las campañas de phishing de los cibercriminales. De hecho, con estas herramientas pueden crear sitios web falsos que imitan a otros legítimos, además de escribir malware y diseñar mensajes personalizados que suplanten la identidad de otras personas o entidades. Esto último es el llamado 'spear-phishing', una técnica que utiliza información de esas personas o entidades para redactar correos que parecen venir de ellos y que son aún más difíciles de detectar por las víctimas.
A la venta en la dark web. En WSJ citan un estudio de investigadores de la Universidad de Indiana revela cómo descubrieron más de 200 chatbots maliciosos que estaban siendo vendidos en la dark web. Comenzaron a aparecer a principios de 2023, y desde entonces su evolución ha sido notable. Muchos de ellos se basan en LLMs Open Source como Llama 2, o bien versiones de modelos de OpenAI o Anthropic que han sido modificadas con 'jailbreaks' gracias a la ingeniería de prompts que permite superar los controles de seguridad de estos chatbots.
Los modelos abiertos pueden ser un problema. Dane Sherrets, hacker ético y experto de la empresa HackerOne, explicaba en WSJ que parte del problema está en que algunos modelos de IA están libremente disponibles en la web, y no disponen de mecanismos de censura. Estas versiones son desarrolladas por investigadores de IA y de ciberseguridad precisamente para trabajar en estos campos, pero el hecho de que se puedan encontrar fácilmente hace que otros puedan aprovecharlos para fines delictivos.
Mixtral en el punto de mira. Uno de los ejemplos que está siendo usado para generar correos de phishing es una versión de Mixtral, desarrollado por la startup francesa Mistral AI. Dicho modelo ha sido modificado para que no tenga barreras de uso, y debido a su diseño parece comportarse mejor que la mayoría de herramientas de IA que se pueden encontrar en la Dark Web.
Pero cuidado con las herramientas de la Dark Web. Aún así, esas herramientas que se venden en la 'web oscura' pueden representar otro tipo de amenaza, ya que pueden haber sido entrenadas con datos como filtraciones y robos de datos o listas de víctimas de ataques de ransomware. Los servicios de hacking por IA tienen precios muy variados que según el estudio de la Universidad de Indiana van de los cinco a los 199 dólares al mes.
Microsoft y OpenAI están alerta. Este tipo de usos maliciosos de los chatbots son de sobra conocidos por las grandes empresas que lideran el desarrollo de estas tecnologías. Hace dos semanas Microsoft y OpenAI indicaban que los hackers están usando LLMs y chatbots como ChatGPT para mejorar sus ciberataques. Ambas han detectado intentos de grupos delictivos en países como Rusia, Corea del Norte, Irán o China de usar ChatGPT para mejorar sus scripts o ayudar en ataques de ingeniería social.
Pero la IA también puede ayudar. Aunque ciertamente estas herramientas están siendo usadas por cibercriminales, también pueden ayudar a luchar contra estas amenazas. La propia Microsoft ya planteó esta solución hace un año, y Sundar Pichai, CEO de Google, explicaba hace unos días cómo la inteligencia artificial puede ayudar "desproporcionadamente" a protegernos de amenazas de seguridad.
Imagen | Javier Pastor con Bing Image Creator
En Xataka | La mayor amenaza de ciberseguridad para China no es Estados Unidos: son los hackers de India
via Robótica e IA - Xataka https://ift.tt/xjq3ZeG
No hay comentarios:
Publicar un comentario