TECNO-VIRAL

La amenaza creciente de la inteligencia artificial generativa en el cibercrimen: de FraudGPT a deepfakes y armas bioquímicas

Opinando San Nicolás google news

La cibercriminalidad ha dado un giro alarmante con la aparición de nuevas herramientas que aprovechan las capacidades de la inteligencia artificial generativa. Entre ellas se encuentran FraudGPT y WormGPT, diseñadas específicamente para actividades ilegales como la suplantación bancaria y la creación de sitios web susceptibles de fraude. Estos sistemas maliciosos, emergentes en la Deep Web, según la plataforma de análisis de datos Netenrich, permiten la creación de correos electrónicos fraudulentos, ataques de phishing convincentes, deepfakes y campañas de desinformación.

El surgimiento de estas herramientas marca un cambio significativo en la cibercriminalidad, evidenciando una sofisticación y segmentación crecientes en su uso. Los expertos advierten sobre el potencial desarrollo de malware más avanzado gracias a la ayuda de la inteligencia artificial generativa. Esta tecnología facilita a los atacantes la generación de correos maliciosos en diferentes idiomas y sin los errores que solían delatarlos en el pasado.

Para los especialistas, estas herramientas delictivas representan un serio problema futuro, ya que permiten a los delincuentes con conocimientos técnicos limitados preparar campañas maliciosas con una alta probabilidad de éxito.

La empresa de seguridad cibernética Proofpoint ha identificado un aumento en el uso de inteligencia artificial para estafas avanzadas, como la “carnicería de cerdos”, que ahora se vale de deepfakes, videos y audios manipulados. Esta técnica afecta principalmente a funcionarios gubernamentales, empresarios y celebridades relacionadas con las inversiones en criptomonedas.

El abuso de la inteligencia artificial también preocupa en términos de contenido engañoso y material sensible, como la pornografía no consentida. Además, existe el riesgo de que la IA contribuya a la creación de armas bioquímicas y se infiltre en software de infraestructuras críticas.

A pesar de las regulaciones existentes, estas no logran abarcar efectivamente las amenazas emergentes de la inteligencia artificial generativa. Se sugiere la educación y concienciación de los usuarios, así como medidas regulatorias y soluciones tecnológicas. En respuesta a los peligros, se propone la formación de equipos independientes para probar herramientas de este tipo contra abusos de IA y la posible prohibición de ciertos modelos de código abierto. El desafío radica en encontrar un equilibrio entre los objetivos éticos de la inteligencia artificial y la implementación práctica de medidas de seguridad y regulación.

Artículos Relacionados

Volver al botón superior