Pintos & Salgado advirte dun novo tipo de violencia contra as mulleres que se impón nas redes: os deepfakes
martes, 21 de xaneiro do 2025
O bufete galego Pintos & Salgado compartiu un novo informe centrado nos aspectos legais das novas ferramentas e no que se nos achegan claves para garantirmos un uso seguro das mesmas. Desta volta o bufete pon o foco nos deepfakes e reflexiona sobre o potencial deste tipo de prácticas para converterse nunha nova forma de violencia contra as mulleres a través da Intelixencia Artificial. Para Pintos & Salgado, estase a constatar que este tipo de edición de imaxes, vídeos ou audios presenta “un claro rumbo de xénero na súa utilización”, e, de feito, a nivel mundial “un 90 % dos deepfakes realízanse coa imaxe de mulleres, con especial risco para nenas e adolescentes menores”.
Esta práctica, que consiste no emprego de imaxes de persoas reais ou inexistentes para, coa axuda da IA, xerar contidos novos e realistas que logo se comparten con obxectivos dispares (desde o uso humorístico ou reivindicativo á produción de pornografía ou discursos de odio), é analizada polo miúdo no novo informe de Pintos & Salgado a través de Carla Cendán, avogada especialista do bufete, que considera estes métodos de creación de contidos como “unha nova forma de violencia dixital contra as mulleres; preto do 90 % dos deepfakes a nivel mundial utilízanse con elas, e ese rumbo de xénero non é casual”, expón, engadindo que “detrás deste dato, latexan, en esencia, cuestións relacionadas coa cousificación do corpo feminino e a deshumanización das súas identidades”.
“Pensamos que os deepfakes xéranse só contra famosos, pero en realidade a accesibilidade das intelixencias artificiais implica que calquera persoa anónima poida protagonizar unha alteración deste tipo”, continúa Carla Cendán, explicando que “esta nova tipoloxía de violencia dixital ten un carácter complexo, porque non está tipificado como delito no noso código penal, pero afecta a un enorme abano de dereitos dos cidadáns: vulneraría o dereito á propia imaxe, á honra, á intimidade e podería constituír un delito de odio ou inxuria”.
Para a especialista, as nenas e adolescentes menores de idade son “o principal grupo máis vulnerábel ante as consecuencias dos deepfakes”; de feito, a pornografía de vinganza é un dos usos que destacan desde Pintos & Salgado como cada vez máis usual: unha parella comunmente heterosexual que termina a súa relación e un dos seus membros, normalmente o home, decide denigrar á outra parte creando e distribuíndo un vídeo con IA de carácter sexual onde se utilice o rostro da muller nun corpo irreal, realizando unha acción que nunca se produciu.
“As consecuencias dun deepfake teñen un impacto psicolóxico enorme”, reitera a experta en Dereito Dixital, poñendo o foco no que se pode derivar de “facer público un falso vídeo da muller tendo relacións sexuais, coa filtración ao círculo próximo e profesional”.
Sobre as cousas que pode facer unha persoa afectada por estas prácticas, a avogada sinala que dentro das opcións dispoñíbeis a nivel legal, se alguén ve que a súa imaxe está a ser aldraxada con algún contido modificado con IA e compartido publicamente, ten á súa disposición diferentes vías para actuar. “O primeiro que deberiamos facer se nos afecta un deepfake é acudir á Policía para interpor unha denuncia. Unha vez feito, ábrense vías de investigación en base ás probas que se acheguen”, expón Carla Cendán, que tamén propón outras fórmulas, como a canle prioritaria da Axencia Española de Protección de Datos (AEPD). Trátase dun servizo destinado especificamente á publicación en Internet de fotografías, vídeos ou audios de contido sexual ou violento que poñan en risco os dereitos ou a saúde física ou mental da cidadanía, de tal maneira que se axilice a retirada do contido vexatorio. “Tamén as plataformas de redes sociais ou buscadores deben contar con mecanismos de verificación e control para recibir denuncias e eliminar contido daniño”, lembra a avogada especialista, que tamén recoñece que a estes servizos fáltalles compromiso ético á hora de moderar este tipo de problemáticas.
“Ademais”, sinala, “necesitamos, xunto cunha maior concienciación cidadá, unha lexislación máis específica e actualizada para estas innovacións tecnolóxicas. Co fácil acceso á IA, con software libres e modelos gratuítos, as posibilidades de facer dano aumentan, e tamén a sensación de desprotección, violencia e perda de control por parte das vítimas, de moitas mulleres”, conclúe Carla Cendán.