ChatGPT facilita la vida a los malos, y es que si detectabas la mayoría de correos de ‘spam’ y estafas gracias a los textos mal escritos y a las faltas ortográficas, ahora tendrás que tener mucho más cuidado.
Aún seguimos bastante sorprendidos con el enorme potencial de ChatGPT y todas las promesas que nos hacen las herramientas de inteligencia artificial que, en menos de un año, han crecido como la espuma hasta el nivel de ser cuestionadas por algunos de sus propios creadores como Elon Musk o Steve Wozniak, entre otros, que incluso han firmado una carta estos días para detener durante 6 meses su desarrollo a la espera de analizar más profundamente qué implicaciones tendrán en nuestras vidas.
No en vano, ya sin entrar en sesudos análisis que estudien por ejemplo los tipos de trabajo que se perderán en favor de estas inteligencias artificiales, ya sabemos gracias un reciente estudio de The Guardian que la presencia de estos chatbots conversacionales e inteligentes dificulta sobremanera la detección de estafas tanto en Internet como por correo o SMS.
Y es que efectivamente, los ChatGPT 4 y similares pueden escribir textos con ortografía y gramática correctas que, de un plumazo, eliminarán la primera línea de defensa contra esos correos del «familiar de Nigeria que nos trae pasta de un premio», que era precisamente detectar excesivas faltas de ortografía y frases extrañas o mal construidas.
Los ‘chatbots’ conversacionales como ChatGPT pueden complicar y mucho la detección de ‘spam’, ‘phising’ y muchos otros ataques cibernéticos, pues corregirán la ortografía y gramática de cualquier texto para hacerlo mucho más creíble.
No cabe duda que los correos de phising y los intentos de estafa de diversa índole incluso en herramientas incluso como WhatsApp, son algunas de las armas más conocidas de las mafias y ciberdelincuentes para cometer fraudes en Internet.
Su mayor problema hasta la fecha era quizás disponer de este tipo de correos electrónicos bien desarrollados, preparados para cada país e indetectables en diversas lenguas, algo que ahora tanto ChatGPT como otras herramientas similares facilitan sobremanera al poder escribir textos en segundos sobre casi cualquier tema.
La Europol ya ha advertido de hecho de este peligro, y es que los ciberdelincuentes podrán usar este tipo de herramientas para redactar en cualquier idioma de un modo correcto haciendo mucho más difíciles de detectar sus correos maliciosos.
Lo afirman además los expertos, pues prácticamente la mitad de los adultos en los países desarrollados reconocen haber recibido al menos un correo de phising en el último año, que obviamente será mucho más complejo de detectar si una IA lo prepara a conciencia evitando errores y faltas ortográficas:
Todos los piratas informáticos pueden ahora usar IA que se ocupará de corregir los errores de ortografía y la gramática deficiente. La idea de que puedes confiar en busca de problemas de dicción para detectar un ataque de ‘phising’ ya no es correcta. Solíamos decir que se podía identificar fácilmente un ataque de ‘phising’ leyendo con cuidado porque los correos no estaban bien escritos, pero eso ya no funciona.
Son palabras de Corey Thomas, director ejecutivo de la firma de ciberseguridad Rapid7, que se mostraba preocupado por el avance que puedan suponer las futuras mejoras de este tipo de inteligencia artificial a la hora de ejecutar diferentes tipos de ataque de suplantación, ya sea creando correos, páginas web falsas o incluso mediante otras formas de conseguir información privada.
La propia Europol confirmaba en su informe de asesoramiento que se destacan un conjunto de problemas potenciales causados por los chatbots, incluyendo el fraude y la ingeniería social, la desinformación de todo tipo y los ciberdelitos.
Por su parte, la compañía CheckPoint confirmaba también que habían sido capaces de saltarse las protecciones de la IA de ChatGPT para producir un correo electrónico de phising diciéndole a la herramienta que lo necesitaban para una plantilla que se utilizaría en un programa de formación y concienciación de los empleados para luchar contra la delincuencia cibernética.
Los creadores de CharGPT, OpenAI, indican explícitamente en los propios términos de uso de la herramienta que los usuarios “no pueden usar los servicios de una manera que infrinja, se apropie indebidamente o viole los derechos de cualquier persona”, ¿pero quien le pone las puertas al campo?
Fuente info
Autor: Damián García