{"id":521914,"date":"2024-10-02T09:44:03","date_gmt":"2024-10-02T13:44:03","guid":{"rendered":"https:\/\/diarioelpopular.com\/?p=521914"},"modified":"2024-10-02T09:44:03","modified_gmt":"2024-10-02T13:44:03","slug":"los-usos-criminales-de-los-deepfakes-se-disparan-estafas-pornografia-y-suplantacion-de-identidad","status":"publish","type":"post","link":"https:\/\/diarioelpopular.com\/index.php\/2024\/10\/02\/los-usos-criminales-de-los-deepfakes-se-disparan-estafas-pornografia-y-suplantacion-de-identidad\/","title":{"rendered":"Los usos criminales de los \u2018deepfakes\u2019 se disparan: estafas, pornograf\u00eda y suplantaci\u00f3n de identidad"},"content":{"rendered":"<div id=\"attachment_521916\" style=\"width: 1210px\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-521916\" class=\"wp-image-521916 size-custom-big-size\" src=\"https:\/\/diarioelpopular.com\/wp-content\/uploads\/2024\/10\/Screen-Shot-2024-10-02-at-9.43.12-AM-1200x800.png\" alt=\"\" width=\"1200\" height=\"800\" srcset=\"https:\/\/diarioelpopular.com\/wp-content\/uploads\/2024\/10\/Screen-Shot-2024-10-02-at-9.43.12-AM-1200x800.png 1200w, https:\/\/diarioelpopular.com\/wp-content\/uploads\/2024\/10\/Screen-Shot-2024-10-02-at-9.43.12-AM-300x200.png 300w, https:\/\/diarioelpopular.com\/wp-content\/uploads\/2024\/10\/Screen-Shot-2024-10-02-at-9.43.12-AM-768x512.png 768w, https:\/\/diarioelpopular.com\/wp-content\/uploads\/2024\/10\/Screen-Shot-2024-10-02-at-9.43.12-AM-636x424.png 636w, https:\/\/diarioelpopular.com\/wp-content\/uploads\/2024\/10\/Screen-Shot-2024-10-02-at-9.43.12-AM-109x73.png 109w, https:\/\/diarioelpopular.com\/wp-content\/uploads\/2024\/10\/Screen-Shot-2024-10-02-at-9.43.12-AM.png 1024w\" sizes=\"auto, (max-width: 1200px) 100vw, 1200px\" \/><p id=\"caption-attachment-521916\" class=\"wp-caption-text\">Maqueta de software inform\u00e1tico donde se muestra la creaci\u00f3n de un &#8216;deepfake&#8217; para crear una imagen falsa de alguien real.\u00a0 \u00a0 \u00a0Tero Vesalainen (Getty Images)<\/p><\/div>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<h4 class=\"a_st\"><em>&#8211; Los expertos y las compa\u00f1\u00edas de ciberseguridad advierten de que esta tecnolog\u00eda ahora es capaz de enga\u00f1ar a algunos m\u00e9todos de autenticaci\u00f3n biom\u00e9trica o crear perfiles de trabajadores falsos que postulan a puestos reales<\/em><\/h4>\n<p>&nbsp;<\/p>\n<p class=\"\">La inteligencia artificial (IA) es una de las tecnolog\u00edas que promete revolucionar la forma en que todas las personas se relacionan con el mundo. Tambi\u00e9n los delincuentes. Tanto las compa\u00f1\u00edas de ciberseguridad como las instituciones del sector tecnol\u00f3gico advierten de que los usos ilegales de\u00a0<a href=\"https:\/\/elpais.com\/tecnologia\/2023-03-19\/deepfakes-la-amenaza-con-millones-de-visualizaciones-que-se-ceba-con-las-mujeres-y-desafia-la-seguridad-y-la-democracia.html\" target=\"_blank\" rel=\"noopener\" data-link-track-dtm=\"\" data-mrf-link=\"https:\/\/elpais.com\/tecnologia\/2023-03-19\/deepfakes-la-amenaza-con-millones-de-visualizaciones-que-se-ceba-con-las-mujeres-y-desafia-la-seguridad-y-la-democracia.html\">las herramientas de\u00a0<i>deepfake<\/i><\/a>\u00a0(aquellas basadas en IA que permiten tomar im\u00e1genes o grabaciones de una persona y transformarlas en v\u00eddeos o audios falsos) est\u00e1n\u00a0<a href=\"https:\/\/elpais.com\/tecnologia\/2023-08-03\/los-deepfakes-de-voz-enganan-incluso-cuando-se-prepara-a-la-gente-para-detectarlos.html\" target=\"_blank\" rel=\"noopener\" data-link-track-dtm=\"\" data-mrf-link=\"https:\/\/elpais.com\/tecnologia\/2023-08-03\/los-deepfakes-de-voz-enganan-incluso-cuando-se-prepara-a-la-gente-para-detectarlos.html\">creciendo de forma alarmante<\/a>.<\/p>\n<p class=\"\">En concreto, los datos de la ONG Cyberpeace Institute revelan que\u00a0<a href=\"https:\/\/elpais.com\/tecnologia\/2024-03-23\/no-si-es-mi-hija-el-usuario-de-porno-deepfake-lo-ve-sin-reparo-pero-lo-denunciaria-si-la-victima-fuera-de-su-entorno.html\" target=\"_blank\" rel=\"noopener\" data-link-track-dtm=\"\" data-mrf-link=\"https:\/\/elpais.com\/tecnologia\/2024-03-23\/no-si-es-mi-hija-el-usuario-de-porno-deepfake-lo-ve-sin-reparo-pero-lo-denunciaria-si-la-victima-fuera-de-su-entorno.html\">la pornograf\u00eda que aplica esta tecnolog\u00eda<\/a>\u00a0\u201cse duplica cada seis meses en las plataformas de\u00a0<i>streaming<\/i>\u00a0m\u00e1s populares\u201d, mientras que los casos de fraude se multiplicaron por diez entre 2022 y 2023 en diversas industrias. Asimismo, se est\u00e1n implementando estas t\u00e9cnicas para cometer otros delitos como la suplantaci\u00f3n de identidad o el fraude documental.<\/p>\n<p class=\"\">\u201cLo que\u00a0<a href=\"https:\/\/elpais.com\/tecnologia\/2024-01-26\/la-red-se-llena-de-porno-deepfake-de-taylor-swift-y-muestra-el-peligro-de-la-ia-para-las-mujeres.html\" target=\"_blank\" rel=\"noopener\" data-link-track-dtm=\"\" data-mrf-link=\"https:\/\/elpais.com\/tecnologia\/2024-01-26\/la-red-se-llena-de-porno-deepfake-de-taylor-swift-y-muestra-el-peligro-de-la-ia-para-las-mujeres.html\">conocemos como\u00a0<i>deepfake<\/i><\/a>\u00a0comenz\u00f3 como un proyecto de c\u00f3digo abierto para crear contenido sexual ilegal. Por lo tanto, no es de sorprender que un asombroso 96% de estos videos est\u00e9n relacionados con pornograf\u00eda no consentida. Este mal uso incluye\u00a0<a href=\"https:\/\/elpais.com\/tecnologia\/2023-09-22\/un-pantallazo-no-sirve-asi-se-denuncia-la-pornovenganza-en-la-red.html\" target=\"_blank\" rel=\"noopener\" data-link-track-dtm=\"\" data-mrf-link=\"https:\/\/elpais.com\/tecnologia\/2023-09-22\/un-pantallazo-no-sirve-asi-se-denuncia-la-pornovenganza-en-la-red.html\">pornovenganza<\/a>, extorsi\u00f3n, humillaci\u00f3n e incluso explotaci\u00f3n infantil en l\u00ednea. Los rostros de las v\u00edctimas se superponen al contenido expl\u00edcito sin su consentimiento, convirtiendo a los\u00a0<i>deepfakes<\/i>\u00a0en una herramienta devastadora para ataques personales y explotaci\u00f3n\u201d, explica St\u00e9phane Duguin, CEO de la Cyberpeace Institute, organizaci\u00f3n no gubernamental especializada en ciberamenazas y financiada por empresas como Microsoft y Mastercard.<\/p>\n<p class=\"\">En el caso de las estafas, un informe reciente de Unit 42, la divisi\u00f3n de investigaci\u00f3n de la firma de ciberseguridad Palo Alto Networks, revela que ya existen bandas organizadas dedicadas a elaboraci\u00f3n de campa\u00f1as de\u00a0<i>deepfakes<\/i>. Estos grupos\u00a0<a href=\"https:\/\/elpais.com\/elpais\/2019\/12\/11\/icon\/1576076608_418677.html\" target=\"_blank\" rel=\"noopener\" data-link-track-dtm=\"\" data-mrf-link=\"https:\/\/elpais.com\/elpais\/2019\/12\/11\/icon\/1576076608_418677.html\">utilizan sin permiso la imagen de celebridades<\/a>\u00a0para difundir esquemas de inversi\u00f3n falsos o incluso se hacen pasar por ejecutivos para extraer dinero de sus v\u00edctimas.<\/p>\n<p class=\"\">Un ejemplo reciente es el de la plataforma fraudulenta Quantum AI, que utiliz\u00f3 la imagen de personalidades como el magnate Elon Musk, la presidenta italiana, Georgia Meloni o el expresidente mexicano, Andr\u00e9s Manuel L\u00f3pez Obrador para crear v\u00eddeos falsos que atrajeran a los usuarios. \u201cEn la mayor\u00eda de los casos, los atacantes parecen haber comenzado con un video leg\u00edtimo y haber agregado su propio audio generado por IA. Finalmente, utilizaron tecnolog\u00eda de sincronizaci\u00f3n de labios para modificar el movimiento de los labios del hablante para que coincida con el audio generado por IA\u201d, explican los autores del informe.<\/p>\n<p class=\"\">En esta estafa en particular, a las v\u00edctimas se les solicita que se registren con su nombre y n\u00famero de tel\u00e9fono, y se les indica que esperen una llamada de un gerente de cuenta o un representante. Despu\u00e9s, los ciberdelincuentes llaman por tel\u00e9fono a la v\u00edctima, solicitando un pago de alrededor de 250 d\u00f3lares (unos 223 euros) para acceder a la plataforma. A continuaci\u00f3n, se le pide a la v\u00edctima que descargue una aplicaci\u00f3n especial para que pueda \u201cinvertir\u201d m\u00e1s de sus fondos. Dentro de esa aplicaci\u00f3n aparece un panel que muestra peque\u00f1as ganancias.<\/p>\n<p class=\"\">\u201cA partir de ah\u00ed, los estafadores contin\u00faan persuadiendo a la v\u00edctima para que deposite m\u00e1s dinero e incluso pueden permitirle retirar una peque\u00f1a cantidad de dinero como una forma de ganarse su confianza. Finalmente, cuando la v\u00edctima intenta retirar sus fondos, los estafadores exigen tarifas de retiro o citan alguna otra raz\u00f3n, por ejemplo, problemas fiscales, para no poder recuperar sus fondos. Los estafadores pueden entonces bloquear a la v\u00edctima de su cuenta y embolsarse los fondos restantes, lo que hace que la v\u00edctima haya perdido la mayor parte del dinero que invirti\u00f3\u201d, indican los analistas de Unit 42.<\/p>\n<h3 class=\"\">Regulaci\u00f3n<\/h3>\n<p class=\"\">Los gobiernos alrededor del mundo ya est\u00e1n intentando regular esta tecnolog\u00eda, aunque en la mayor\u00eda de lugares la legislaci\u00f3n es muy reciente. Un ejemplo de es\u00a0<a href=\"https:\/\/elpais.com\/tecnologia\/2023-12-08\/la-ue-aprueba-la-primera-ley-de-inteligencia-artificial-del-mundo.html\" target=\"_blank\" rel=\"noopener\" data-link-track-dtm=\"\" data-mrf-link=\"https:\/\/elpais.com\/tecnologia\/2023-12-08\/la-ue-aprueba-la-primera-ley-de-inteligencia-artificial-del-mundo.html\">la Ley de Inteligencia Artificial de la Uni\u00f3n Europe<\/a><a href=\"https:\/\/elpais.com\/tecnologia\/2023-12-08\/la-ue-aprueba-la-primera-ley-de-inteligencia-artificial-del-mundo.html\" target=\"_blank\" rel=\"noopener\" data-link-track-dtm=\"\" data-mrf-link=\"https:\/\/elpais.com\/tecnologia\/2023-12-08\/la-ue-aprueba-la-primera-ley-de-inteligencia-artificial-del-mundo.html\">a<\/a>\u00a0(aprobada en 2023), que representa la primera regulaci\u00f3n importante centrada en la inteligencia artificial e incluye disposiciones que abordan espec\u00edficamente los\u00a0<i>deepfakes<\/i>. \u201cEsta legislaci\u00f3n tiene como objetivo imponer controles m\u00e1s estrictos sobre las tecnolog\u00edas de IA, garantizando la transparencia y la rendici\u00f3n de cuentas en su uso, incluida la identificaci\u00f3n de contenido manipulado\u201d, explican en Cyberpeace Institute.<\/p>\n<p class=\"\">No obstante, los expertos en ciberseguridad coinciden en que todav\u00eda hay mucho camino por delante en cuanto a regulaci\u00f3n. \u201cEl reglamento va a necesitar codificarse y garantizar que todos los Estados miembros los pueden aplicar. El uso de inteligencia artificial generativa para estafas, por ejemplo, es un \u00e1ngulo que todav\u00eda se debe desarrollar. Ahora mismo no puede cubrir todos los \u00e1mbitos de actuaci\u00f3n porque no sabemos todos los usos que podr\u00e1 haber\u201d, se\u00f1ala Raquel Jorge, investigadora del Real instituto Elcano a EL PA\u00cdS.<\/p>\n<p class=\"\">Los expertos consultados coinciden en que estas herramientas a menudo son utilizadas para reinventar antiguas formas de estafa que se aprovechan del factor humano. \u201cLos ataques contra individuos son el \u00e1rea en la que este tipo de campa\u00f1as van a seguir creciendo exponencialmente, por ejemplo en las estafas en que el delincuente pretende ser un familiar. La mayor\u00eda de personas no est\u00e1 al tanto de lo sencillo que es utilizar estas herramientas para replicar la voz de una persona. Pueden utilizar una grabaci\u00f3n de una llamada para clonar la voz de alguien y contactar a uno de sus seres queridos, o incluso tomarlas desde sus redes sociales. Son las mismas estafas que se hac\u00edan antes, pero en una versi\u00f3n actualizada\u201d, explica Kyle Wilhoit, director de investigaci\u00f3n de amenazas en Unit 42.<\/p>\n<p class=\"\">Los expertos de Cyberpeace coinciden con este diagn\u00f3stico, y a\u00f1aden que este tipo de modalidades tambi\u00e9n afectan a las empresas. \u201cEl fraude es otra preocupaci\u00f3n creciente, ya que la tecnolog\u00eda\u00a0<i>deepfake<\/i>\u00a0se utiliza en estafas telef\u00f3nicas dirigidas a bancos y empresas. Los cibercriminales clonan las voces de empleados o ejecutivos, manipulando t\u00e1cticas de ingenier\u00eda social para autorizar facturas falsas u otras transacciones financieras\u201d, asegura Duguin.<\/p>\n<h3 class=\"\">Ecosistema criminal<\/h3>\n<p class=\"\">Entre las principales razones que ha impulsado el uso de esta herramienta por parte de los criminales se encuentra la aparici\u00f3n de distintas plataformas que ofrecen servicios de\u00a0<i>deepfakes<\/i>. \u201cNuestros investigadores han encontrado cibercriminales que venden, discuten e intercambian herramientas y servicios de creaci\u00f3n de\u00a0<i>deepfakes<\/i>\u00a0en foros, canales de chat en redes sociales y plataformas de mensajer\u00eda instant\u00e1nea. Estas herramientas y servicios ofrecen capacidades para generar contenido enga\u00f1oso y malicioso, incluidos audio, video e im\u00e1genes\u201d, explican en Palo Alto Networks.<\/p>\n<p class=\"\">En Cyberpeace institute destacan que han aparecido mercados especializados en los que individuos o grupos pueden publicar solicitudes de contenido personalizado. \u201cEsto tiene el potencial de crear un nuevo mercado laboral para delincuentes expertos, algunos de los cuales est\u00e1n dispuestos a pagar hasta 16.000 d\u00f3lares [unos 14.300 euros al cambio] por un\u00a0<i>deepfake<\/i>\u00a0de alta calidad. Si bien el grupo de delincuentes capaces de producir este tipo de material es actualmente limitado debido a la experiencia t\u00e9cnica requerida, la demanda est\u00e1 claramente presente, sentando las bases para que este nicho se expanda\u201d.<\/p>\n<p class=\"\">Los expertos tambi\u00e9n advierten que una \u00e1rea en crecimiento es el fraude documental, ya que los delincuentes utilizan cada vez m\u00e1s la tecnolog\u00eda\u00a0<i>deepfake<\/i>\u00a0para manipular documentos de identidad al transformar las caras de los titulares de pasaportes leg\u00edtimos con las de aquellos que intentan obtener documentos falsos. \u201cEsto les permite eludir los sistemas de reconocimiento facial, lo que amplifica el riesgo de fraude documental avanzado para los grupos del crimen organizado involucrados en actividades como el tr\u00e1fico de personas o la inmigraci\u00f3n ilegal\u201d, afirma Duguin.<\/p>\n<p class=\"\">\u201cUn ejemplo es el de los delincuentes tailandeses, que han utilizado\u00a0<i>deepfakes<\/i>\u00a0para hacerse pasar por agentes de polic\u00eda y directores financieros, manipulando a las v\u00edctimas en estafas o fraudes financieros. Estos incidentes sugieren que las bandas criminales est\u00e1n explorando el potencial de los\u00a0<i>deepfakes<\/i>, en particular para la suplantaci\u00f3n de identidad en ataques de ingenier\u00eda social. Aunque todav\u00eda no hay un perfil claro de estas organizaciones, el uso de estas herramientas por parte del crimen organizado apunta a una creciente complejidad, en la que las redes criminales tradicionales est\u00e1n integrando cada vez m\u00e1s tecnolog\u00edas avanzadas para llevar a cabo sus operaciones\u201d, advierte el experto del Cyberpeace Institute.<\/p>\n<p class=\"\">De forma similar, otra tendencia m\u00e1s reciente es la proliferaci\u00f3n de \u201cempleados\u00a0<i>deepfake<\/i>\u201d, una modalidad que utiliza informaci\u00f3n de identificaci\u00f3n personal robada para hacerse pasar por candidatos leg\u00edtimos y postular a puestos remotos o de teletrabajo. \u201cEsta t\u00e9cnica crea una puerta trasera para que los cibercriminales se infiltren en las empresas haci\u00e9ndose pasar por nuevos empleados, lo que les da acceso a sistemas y datos corporativos confidenciales. Estos avances apuntan a un panorama en evoluci\u00f3n en el que esta tecnolog\u00eda no solo es una herramienta para el fraude, sino tambi\u00e9n la base de nuevos roles delictivos, lo que permite operaciones m\u00e1s sofisticadas y enga\u00f1osas en diversas actividades il\u00edcitas\u201d, comenta Duguin.<\/p>\n<p class=\"\">En esta l\u00ednea, otro de los temas que m\u00e1s alarma a los expertos es que estas herramientas est\u00e1n logrando vulnerar tambi\u00e9n a la tecnolog\u00eda biom\u00e9trica que se utiliza para verificaci\u00f3n de identidad en sistemas de seguridad y aplicaciones. Duguin adiverte: \u201cUna de las principales preocupaciones es el reconocimiento facial. Esta tecnolog\u00eda, en particular el intercambio de rostros o la transformaci\u00f3n, presenta un riesgo significativo para estos sistemas, que dependen del an\u00e1lisis de los rasgos faciales para la autenticaci\u00f3n\u201d.<\/p>\n<p class=\"\">As\u00ed, los\u00a0<i>deepfakes<\/i>\u00a0pueden generar videos din\u00e1micos muy realistas, capaces de enga\u00f1ar a un software de reconocimiento facial avanzado y de eludir el control de verificaci\u00f3n de, por ejemplo, el tel\u00e9fono. \u201cLa biometr\u00eda de voz tambi\u00e9n es vulnerable a la voz\u00a0<i>deepfake<\/i>. A medida que la generaci\u00f3n de voz deepfake se vuelve m\u00e1s sofisticada, existe un mayor riesgo de que actores maliciosos puedan clonar la voz de alguien para obtener acceso no autorizado a sistemas que dependen de la verificaci\u00f3n de voz\u201d, a\u00f1ade.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>&nbsp; &nbsp; &#8211; Los expertos y las compa\u00f1\u00edas de ciberseguridad advierten de que esta tecnolog\u00eda ahora es capaz de enga\u00f1ar a algunos m\u00e9todos de autenticaci\u00f3n&hellip;<\/p>\n","protected":false},"author":99,"featured_media":521916,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[24,11355],"tags":[],"class_list":["post-521914","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-mundo","category-tecnologia"],"_links":{"self":[{"href":"https:\/\/diarioelpopular.com\/index.php\/wp-json\/wp\/v2\/posts\/521914","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/diarioelpopular.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/diarioelpopular.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/diarioelpopular.com\/index.php\/wp-json\/wp\/v2\/users\/99"}],"replies":[{"embeddable":true,"href":"https:\/\/diarioelpopular.com\/index.php\/wp-json\/wp\/v2\/comments?post=521914"}],"version-history":[{"count":1,"href":"https:\/\/diarioelpopular.com\/index.php\/wp-json\/wp\/v2\/posts\/521914\/revisions"}],"predecessor-version":[{"id":521917,"href":"https:\/\/diarioelpopular.com\/index.php\/wp-json\/wp\/v2\/posts\/521914\/revisions\/521917"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/diarioelpopular.com\/index.php\/wp-json\/wp\/v2\/media\/521916"}],"wp:attachment":[{"href":"https:\/\/diarioelpopular.com\/index.php\/wp-json\/wp\/v2\/media?parent=521914"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/diarioelpopular.com\/index.php\/wp-json\/wp\/v2\/categories?post=521914"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/diarioelpopular.com\/index.php\/wp-json\/wp\/v2\/tags?post=521914"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}