FraudGPT y WormGPT son los uno de los nuevos sistemas maliciosos que emergen en la Deep Web, posibilitando la creación de correos electrónicos fraudulentos y ataques de estafas por internet.
Así como la posible creación de deepfakes y campañas de desinformación.
De hecho, el primer chatbot es considerado por algunos como “el gemelo maligno de ChatGPT”, y este no es gratuito y ninguna de sus funciones lo son.
Tiene dos tipos de planes, uno mensual por 100 dólares y otro, privado que cuesta 500 dólares.
La aparición de estas herramientas supone un cambio significativo en la cibercriminalidad, evidenciado que su uso está resultando cada vez más perfeccionado y segmentado.
Conoce más de: Asistente de Google en Android será cambiado por el ChatGPT
Una tecnología que incluso facilita a los atacantes la generación de correos maliciosos en distintos idiomas y sin los errores típicos que permitían su fácil detección en el pasado.
Los investigadores han observado como los atacantes de TA499, un grupo delictivo cibernético, recurren a videollamadas falsificadas mediante IA para suplantar a políticos y otras figuras públicas.
La imitación de estos individuos busca extraer información confidencial o comprometedora de las víctimas, con el fin de ridiculizarlas posteriormente mediante la publicación en redes sociales.
Asimismo, se ha identificado el riesgo de que la IA ayude a crear armas bioquímicas y se infiltre en software de infraestructuras críticas, problemáticas.
Mientras, que las regulaciones existentes no logran abarcar efectivamente el espectro de amenazas que surgen con la inteligencia artificial generativa.
El reto para prevenir los daños causados por FraudGPT y herramientas similares reside en encontrar un equilibrio entre los objetivos éticos de la inteligencia artificial y la implementación práctica de medidas de seguridad y regulación.
Ver más: OpenAI crea el nuevo ChatGPT Team para equipos pequeños