Las ‘estafas con esteroides’ ayudadas por IA preocupan, según una encuesta
Las ‘estafas con esteroides’ ayudadas por IA preocupan, según una encuesta
- El informe de RBC mostró que los canadienses, si bien están preocupados por el fraude impulsado por la IA, no están tomando suficientes medidas para protegerse.
A medida que la inteligencia artificial (IA) se desarrolla cada vez más y los esquemas de fraude se vuelven cada vez más complicados, la gente está más preocupada que nunca por el efecto que la tecnología naciente podría tener en las actividades fraudulentas, según una encuesta reciente realizada por RBC.
“La gente siempre ha utilizado las nuevas tecnologías, y especialmente las nuevas tecnologías desconocidas, con gran efecto”, dijo Jonathan Anderson, profesor asociado y experto en ciberseguridad de la Memorial University en Newfoundland. “Esto es más o menos la misma estafa, excepto que está con esteroides porque es mucho más convincente para las personas que no saben cómo ser escépticas sobre lo que escuchan y ven”.
Ejemplos de fraude aumentado por IA
Intrincadas estafas han comenzado a depender de la IA para engañar a sus víctimas. En Ontario, un hombre fue convencido de renunciar a 8.000 dólares después de que unos estafadores utilizaran IA para imitar la voz de su amigo. Según la historia de CTV News, la voz de su amigo por teléfono dijo que necesitaba $8,000 como fianza después de ser arrestado por enviar mensajes de texto y conducir al mismo tiempo.
En Newfoundland, un hombre engañó a ocho personas para que donaran casi 200.000 dólares a las voces de sus nietos imitadas por la IA. Según la historia de CBC, el estafador recopiló información sobre algunos de los nietos y la utilizó para crear un perfil más convincente. El joven de 23 años presionó a sus víctimas utilizando escenarios inventados, como necesitar dinero de fianza o honorarios legales.
En Hong Kong, un plan más extraño implicó organizar una videoconferencia completa utilizando deepfakes de IA, construidos a partir de imágenes disponibles públicamente de figuras clave de la empresa. El objetivo de la conferencia falsa era convencer a un empleado, la única persona real en la llamada, de que proporcionara información importante de la empresa. Tras la reunión, la empresa fue defraudada por más de 3,4 millones de dólares, según un artículo del South Morning China Post.
Cuando se trata de esquemas no dirigidos, durante la mayor parte de una década, las imágenes falsificadas de celebridades adjuntas a historias falsas, con la intención de lograr que las víctimas inviertan en una variedad de criptomonedas, han sido omnipresentes en los sitios de redes sociales.
Más canadienses que nunca preocupados por el fraude
A pesar de estas amenazas inminentes, la mayoría de las personas todavía se creen capaces de detectar esquemas ilícitos impulsados por IA; Esto a pesar de que la mayoría no tomó ninguna medida adicional para combatirlos, mostró la encuesta.
“El veintiocho por ciento de las personas dijeron que estaban tomando medidas proactivas para combatir el fraude”, dijo Kevin Purkiss, vicepresidente de gestión de fraude de RBC. “Lo que me preocupa es que (las personas) puedan tener demasiada confianza en lo que han hecho para prepararse y, según mi experiencia, sugeriría que se pueden tomar más medidas para garantizar que las personas se mantengan a salvo”.
La encuesta encuestó a 1.502 personas y segmentó los datos según la región: Alberta, Canadá atlántica, British Columbia, Ontario, Quebec, Saskatchewan/Manitoba y Canadá en su conjunto.
Se preguntó a los encuestados si estaban de acuerdo con la afirmación de que, debido a la tecnología de inteligencia artificial, habría un aumento en el fraude, y el 88 por ciento de los encuestados estuvo de acuerdo. El ochenta y nueve por ciento estuvo de acuerdo en que la IA hará que todos sean más vulnerables al fraude; El 81 por ciento dijo que está más preocupado por el fraude telefónico o vishing, y que la IA hará que sea más difícil de detectar; y el 75 por ciento de los canadienses dijeron que están más preocupados que nunca por el fraude.
“Creo que la prevalencia (del fraude impulsado por la IA) seguirá creciendo”, afirmó Anderson. “Pero probablemente también sea cierto que llegaremos a un punto en el que todo el mundo sabrá que no sólo no crees todo lo que lees en línea, no sólo no crees en todas las imágenes que ves, sino que tampoco debes creer todo lo que escuchas o cada video que ves”.
El crecimiento del fraude de ingeniería social utilizando IA
La encuesta también investigó sobre seis tipos diferentes de fraude y si notaron un aumento en esos esquemas durante el año pasado. Los seis tipos de estafas fueron phishing, vishing, estafas deepfake, estafas de ingeniería social y estafas de clonación de voz.
El vishing es similar al phishing, pero en lugar de utilizar correos electrónicos, utiliza llamadas telefónicas y mensajes de voz. Por otro lado, el Spear Phishing es una forma de phishing dirigido. Normalmente enfocado a empresas y otras víctimas de alto valor, el Spear Phishing recopila información sobre un objetivo y la utiliza para persuadir a la víctima para que brinde información confidencial de la que el estafador pueda beneficiarse.
“Creo que lo que da un poco de miedo es que la automatización tiende a reducir los costos o las barreras de entrada”, dijo Anderson. “Hubo un tiempo en el que las técnicas de phishing social realmente efectivas habrían sido cosas que habría que aplicar a una persona de alto patrimonio porque habría que dedicar mucho tiempo y esfuerzo a descubrir quién está en su poder. red social, etc. Es bastante loco lo que se puede hacer ahora por tan poco dinero, y creo que eso probablemente hará que (el phishing) sea algo que afecte a más personas, desafortunadamente”.
La mayoría de los encuestados notaron un aumento en el phishing, con un 79 por ciento, el Spear phishing también con un 79 por ciento, el vishing con un 69 por ciento, las estafas de ingeniería social en su conjunto con un 57 por ciento y las estafas de deepfake con un 56 por ciento. El único tipo de fraude que la mayoría no estuvo de acuerdo en que aumentara fueron las estafas de clonación de voz con un 47 por ciento.
“Si se construye una plataforma de inteligencia artificial, nunca se podrá impedir que la gente la utilice para estafas y fraudes”, afirmó Anderson. “Pero al menos deberías hacer un esfuerzo para no ponértelo fácil. Si se puede aumentar el costo de realizar estas estafas… eso significa que todavía habrá fraudes y estafas potenciadas por la IA, pero no necesariamente contra la gran mayoría de las personas.
“Creo que es importante no introducir una regulación que haga que todo el desarrollo de la IA se traslade al extranjero, porque eso tampoco sería una ganancia neta”, añadió. “Pero creo que hay cosas que los proveedores de plataformas podrían estar haciendo y en algunos casos (ya lo están haciendo). Algunas empresas están realmente ocupadas con esta cuestión, y otras están menos ocupadas con ella”.
Las estafas de phishing, phishing, vishing y clonación de voz son formas de ingeniería social en las que un actor malicioso intenta que su víctima comparta información confidencial utilizando habilidades sociales o engaños, en lugar de la fuerza bruta.
Si bien existen medidas de seguridad que puede emplear para protegerse contra el fraude, como la autenticación multifactor y no compartir información personal, según Anderson, muchas medidas proactivas que las personas pueden tomar no son tan efectivas como podrían esperar.
“En términos de medidas proactivas que podría tomar para protegerse, no estoy seguro de cuáles serían realmente efectivas y no solo le darían una falsa sensación de seguridad”, dijo Anderson. “Creo que lo clave que la gente puede hacer es ser escéptico ante las cosas que lee, oye, ve, etc.”
Comments (0)