El pasado verano una investigación de las autoridades de Corea del Sur destapaba una red de Telegram con 220.000 miembros que compartían imágenes y vídeos de porno deepfake de mujeres. El sistema, que se vale de la inteligencia artificial para crear contenido falso de personas reales, se ha convertido en una pesadilla que ha motivado numerosas manifestaciones entre los surcoreanos.
La respuesta de la Asamblea Nacional de Corea del Sur no se hizo esperar y, en septiembre de 2024, aprobó un proyecto de ley que extendía las penas de cárcel no sólo a quienes crearan o compartieran este tipo de contenidos, sino también a quienes lo guarden o lo consuman. Tres años de prisión y multas de hasta 19.000 euros debían disuadir a cualquiera de acercarse a material deepfake, pero ya hay miles de arrestos y el caso de un streamer famoso bajo el foco de la opinión pública.
Corea del Sur frente a la epidemia de los deepfakes
El pasado mes de marzo la Oficina Nacional de Investigación de Corea del Sur anunciaba que se había producido el arresto de 963 personas por producción, distribución, posesión o visualización de deepfakes, la mayoría veinteañeros que habían creado un chat de Telegram en el que compartían vídeos falsos de compañeras de clase, además de otros con actrices y cantantes surcoreanas. En total, la policía reconocía haber borrado o bloqueado más de 10.000 vídeos distintos.
El problema de los deepfakes en Corea del Sur crecía aún más, y se internacionalizaba, al darse a conocer que un famoso streamer estadounidense se enfrentaba a 31 años de cárcel. En un juicio aún sin resolución se le acusa de, presuntamente y entre otros cargos adicionales, crear distintos contenidos deepfakes de dos mujeres streamers surcoreanas sin su consentimiento.
Pese a que Telegram se ha mostrado abierta a colaborar con las autoridades para detener esta epidemia de distribución de deepfakes que vive el país, muchas víctimas afectadas se quejan de la lentitud de los procesos a la hora de tumbar este tipo de fotos y vídeos, a menudo facilitando que los creadores de estos contenidos salten de una plataforma a otra.
Además de ampliar los programas educativos y campañas de educación pública, los expertos creen que la única forma de monitorizar de forma efectiva este tipo de contenidos pasa por automatizar el proceso de detección y borrado, pero la idea choca con aspectos como la privacidad y la regulación propia de cada aplicación. En cualquier caso, lo que sí está sobre la mesa es extrapolar las multas a las plataformas que no prevengan este tipo de envíos y almacenamiento y, visto lo visto, también aumentar las de quienes siguen creando, compartiendo y consumiendo esos deepfakes.
Imagen | Novaplus en Midjourney
Deja una respuesta