Inicio - Ciencia y Tecnología - El lado oscuro de ChatGPT: estafas, malware, deepfakes y otros usos para hacer el mal

El lado oscuro de ChatGPT: estafas, malware, deepfakes y otros usos para hacer el mal

ChatGPT

Pese a las grandes virtudes de herramientas basadas en inteligencia artificial como ChatGPT, siempre se consigue dar la vuelta a la tortilla y sacar la peor parte de ellas, en este caso en forma de malware.

En la actualidad estamos siendo partícipes de una nueva y gran tendencia basada en nuevas herramientas de inteligencia artificial con un gran protagonista en el centro: ChatGPT. Sin embargo, consigo ha nacido otra novedad, el uso de la IA como herramienta de desarrollo de malware.

Y es que, la inteligencia artificial puede utilizarse para crear, modificar o incluso mejorar el malware. También puede utilizarse para convertir código malicioso de un lenguaje de programación a otro, ayudando a la compatibilidad entre plataformas, e incluso se puede utilizar para escribir un correo electrónico de phishing.

Eso sí, matizar antes de nada que si le pides a ChatGPT que escriba un correo electrónico de phishing haciéndose pasar por un banco o que cree malware, no lo generará. Sin embargo, aquí hablamos del uso de la versión actual de la API de OpenAI por hackers ya que cuenta con muy pocas medidas para evitar estos casos (por ejemplo, la integración del modelo GPT-3 de OpenAI a los canales de Telegram).

El gran problema de base es que el código generado por inteligencia artificial podría tener un efecto muy negativo en la ciberseguridad, ya que el software defensivo escrito por humanos podría no ser suficiente para protegerse contra él. Analicemos cómo ChatGPT ya está siendo utilizada para crear malware y estafar a los usuarios.

El abuso de ChatGPT como herramienta de desarrollo de malware

El ya no tan nuevo chatbot ChatGPT de OpenAI podría utilizarse para generar malware, según han advertido algunos analistas y según muchos otros han conseguido identificar.

En concreto, investigadores de Check Point Software descubrieron que ChatGPT podía utilizarse para crear correos electrónicos de phishing. Combinado con Codex, un sistema de conversión de lenguaje natural a código también de OpenAI, ChatGPT podría utilizarse para desarrollar e inyectar código malicioso. 

Por otro lado y para que veas cómo esta herramienta puede ser exprimida al máximo, los investigadores de Counterpoint encontraron recientemente otro caso de ciberdelincuentes que utilizaron ChatGPT para «mejorar» el código de un malware básico de 2019. Aunque el código no es complicado ni difícil de crear, ChatGPT sí que consiguió sin apenas esfuerzo mejorarlo.

Fuente: computerhoy.com

Más noticias...

La tecnología RISC-V representa una oportunidad para China. Una apuesta que aterroriza a EEUU

La arquitectura RISC-V interpreta un papel central en la estrategia de China. Esta tecnología es una …

A %d blogueros les gusta esto: