Una investigación de la Universidad de Edimburgo analizó más de 100 millones de mensajes en foros clandestinos de hackers y concluyó que la IA todavía no cambió el cibercrimen.

Los ciberdelincuentes todavía no logran sacar un provecho real de la inteligencia artificial para mejorar ataques, crear malware más sofisticado o vulnerar sistemas de seguridad, según destacó un estudio de la Universidad de Edimburgo que analizó más de 100 millones de mensajes publicados en foros vinculados al cibercrimen.

La investigación, basada en datos de la plataforma "CrimeBB" que recopiló los foros de ciberdelicuencia, detectó que existe un fuerte interés de los hackers por aprender a utilizar herramientas de IA, aunque el impacto práctico sigue siendo limitado. Según el trabajo, no hay pruebas concretas de que la tecnología haya transformado de manera significativa la actividad de los piratas informáticos.

Los investigadores encontraron que muchos ciberdelincuentes consideran que las herramientas actuales de inteligencia artificial no resultan tan útiles como esperaban. En distintos foros clandestinos aparecieron comentarios de usuarios que cuestionaban la capacidad de los modelos para generar código funcional o para ayudar a vulnerar sistemas protegidos.

Hackers.jpg

El estudio también señala que los asistentes de programación impulsados por IA funcionan mejor para usuarios con conocimientos avanzados de desarrollo. En consecuencia, los modelos actuales no representan una vía rápida para que personas sin experiencia puedan convertirse en hackers capaces de ejecutar ataques complejos.

Uno de los mensajes citados en la investigación resume esa limitación. “Primero tienes que aprender por tu cuenta las bases de la programación antes de poder usar la IA y sacarle realmente provecho”, escribió un usuario dentro de uno de los foros analizados por el equipo académico.

La investigación detectó que el uso más frecuente de inteligencia artificial dentro de actividades ilegales aparece en tareas simples y automatizables. Entre ellas figuran la creación de bots para redes sociales, campañas de spam, fraudes románticos, generación de páginas falsas y técnicas de manipulación SEO para monetizar tráfico.

ADEMÁS: Lenovo y Becky G potencian la creatividad en clubes de fútbol comunitarios

Los expertos también observaron que muchos ciberdelincuentes utilizan chatbots generalistas como Claude, de Anthropic, o Codex, de OpenAI, principalmente para resolver dudas de programación o generar fragmentos básicos de código. En cambio, las plataformas creadas específicamente para actividades maliciosas, como "Worm-GPT", todavía tienen una adopción reducida y resultados poco efectivos.

Otro de los puntos destacados del informe es que las barreras de seguridad implementadas por las empresas de inteligencia artificial están funcionando mejor de lo esperado. Los investigadores detectaron numerosos intentos de usuarios que buscaban saltar restricciones y obtener respuestas ilegales o peligrosas, aunque la mayoría no consiguió vulnerar los sistemas de protección.

Contacto

Registro ISSN - Propiedad Intelectual: Nº: RL-2025-11499155-APN-DNDA#MJ - Domicilio Legal: Intendente Beguiristain 146 - Sarandí (1872) - Buenos Aires - Argentina Teléfono/Fax: (+5411) 4204-3161/9513 - [email protected]

Edición Nro. 15739

 

Dirección

Propietario: Man Press S.A. - Director: Francisco Nicolás Fascetto © 2017 Copyright Diario Popular - Todos los derechos reservados