Los ciberdelincuentes se quejan del descuido de la IA que inunda sus foros


Sus quejas fueron escuchadas familiar. “Me decepciona que estés intentando poner basura de IA en el sitio”, dijo una persona molesta, que publicó de forma anónima, en un mensaje en línea. “Nadie pidió esto; queremos que mejore este sitio y deje de cobrar por nuevas funciones”.

Solo que estos no son usuarios comunes de Internet que se quejan de que se fuerza la IA en sus aplicaciones favoritas. En cambio, se quejaron de los planes del foro sobre cibercrimen de introducir una IA más generativa. Al igual que millones de otras personas, los estafadores de bajo nivel, los estafadores y los piratas informáticos están molestos por la invasión de la IA en sus vidas y la proliferación de basura de IA de baja calidad que se publica en sus comunidades en línea.

“A la gente no le gusta”, dijo Ben Collier, investigador de seguridad y profesor titular de la Universidad de Edimburgo. Como parte de un estudios recientes sobre cómo Aunque los ciberdelincuentes de bajo nivel utilizan la IA, Collier y sus colegas investigadores ven una creciente resistencia al uso de la IA generativa en foros clandestinos sobre cibercrimen y grupos de hackers.

Durante el auge generativo de la IA y el ciclo de exageración de los últimos años, algunas personas que publican en foros de piratería han pasado de ser positivas sobre cómo la IA puede ayudar a la piratería a ser más escépticas con respecto a la tecnología, según el estudio, en el que también participaron investigadores de la Universidad de Cambridge y la Universidad de Strathclyde.

Los investigadores analizaron 97.895 conversaciones relacionadas con la IA en foros sobre delitos cibernéticos desde el lanzamiento de ChatGPT en 2022 hasta finales del año pasado. Encontraron quejas sobre personas que daban “explicaciones breves” de conceptos básicos de ciberseguridad, quejas sobre la cantidad de publicaciones de baja calidad y preocupaciones sobre la descripción general de búsqueda de inteligencia artificial de Google que reduce la cantidad de visitantes al foro.

Durante décadas, los foros y mercados de mensajes sobre delitos cibernéticos, muchos de los cuales se originaron en Rusia, han permitido a los estafadores hacer negocios juntos. Es un lugar donde se pueden comercializar datos robados, se anuncian trabajos de piratería informática y los estafadores difunden malas noticias sobre sus competidores. Aunque los estafadores suelen intentar estafarse entre sí, los foros también tienen un sentido de comunidad. Por ejemplo, los usuarios se ganan la reputación de ser usuarios confiables y los propietarios de foros organizan concursos de redacción.

“Es básicamente un espacio social. Realmente odian que otras personas usen (IA) en foros”, dijo Collier. Dijo que la dinámica social del grupo podría verse alterada por posibles ciberdelincuentes que intenten ganar una mejor reputación publicando explicaciones de ataques generados por IA. “Creo que muchos de ellos son algo ambivalentes acerca de la IA porque socava su pretensión de ser expertos”.

Las publicaciones revisadas por WIRED en Hack Forums, un espacio para aquellos interesados ​​en hablar sobre técnicas de piratería y compartirlas, muestran la irritación causada por las personas que crean publicaciones con IA. “Veo a muchos miembros que usan IA para crear sus hilos/publicaciones y me molesta que ni siquiera se tomen el tiempo para escribir una o dos oraciones simples”, escribió un cartel. Otro lo expresó de manera más directa: “Dejen de publicar basura sobre IA”.

En algunos casos, dijo Collier, los usuarios de varios foros parecían molestarse por las publicaciones de IA porque querían hacer amigos. “Si quiero hablar con un chatbot de IA, hay muchos sitios donde puedo hacerlo… Vine aquí para interactuar con humanos”, decía una publicación citada en el estudio.

Desde que surgió ChatGPT a finales de 2022, ha habido un gran interés en las capacidades de piratería de la IA y en cómo la tecnología podría cambiar el crimen en línea. Tanto los piratas informáticos sofisticados como los menos sofisticados han intentado utilizar la IA en sus ataques. Aunque algunos estafadores organizados han mejorado sus operaciones con tecnología de intercambio de rostros de IA cada vez más realista y mensajes de ingeniería social traducidos mediante IA, se ha centrado mucha atención en la capacidad de la IA generativa para escribir código malicioso y encontrar vulnerabilidades.



Source link