El porno deepfake está traumatizando a las víctimas, pero la mayoría no puede hacer nada al respecto

El porno deepfake está traumatizando a las víctimas, pero la mayoría no puede hacer nada al respecto

Cuando Lauren* vio un vídeo en el que tenía relaciones sexuales con un hombre con el que nunca había intimado, le dio un ataque de pánico. Aunque el cuerpo de la mujer del vídeo era más delgado y blanco que el suyo, era innegable que tenía su cara. No podía dejar de llorar. ¿Cómo podía ser tan realista? ¿Y qué podía hacer?

A medida que las capacidades de la inteligencia artificial aumentan rápidamente, también lo hacen las formas en que las personas son blanco de ella. Según Psychology Today, "[un estudio de 2019] informa que el 96% de las víctimas de deepfake son sexualizadas, y casi todas son mujeres." Lauren se había encontrado, como muchos otros, víctima de la pornografía deepfake - un subconjunto cada vez más popular de la pornografía donde la cara de una persona se superpone al cuerpo de otra persona y luego se ve participando en actividades sexuales. Los creadores de deepfake porn no tienen que ser genios de la informática: los vídeos pueden crearse con aplicaciones de intercambio de caras relativamente sencillas, disponibles en la mayoría de los teléfonos. La tecnología de IA más reciente y avanzada hace aún más probable la proliferación de este fenómeno.

Lauren, cuyo nombre se ha cambiado por motivos de privacidad, fue objeto de deepfake porn después de que Dan*, un hombre al que conoció en el gimnasio local, le pidiera una cita. Cuando le dijo que no estaba interesada, no le dio mucha importancia, pero Lauren cuenta que la siguiente vez que vio a Dan en el gimnasio, la situación fue a más. "Se puso agresivo y frustrado, diciendo que le diera una oportunidad", cuenta Lauren. Debería habérselo dicho a la dirección del gimnasio, pero estaba avergonzada y sólo quería salir de allí". Cuando Lauren regresó de nuevo al gimnasio, dijo que un hombre la siguió hacia los vestuarios y le dijo que necesitaba hablar con ella. "Me dijo que Dan estaba enseñando a la gente un vídeo en el que aparecíamos manteniendo relaciones sexuales", explicó. "Al principio no le creí porque nunca había tenido relaciones sexuales con Dan, así que no me parecía posible".

Pero gracias al auge de la tecnología deepfake y de intercambio de caras, era posible. Dan había creado un vídeo en el que parecía que Lauren y él tenían relaciones sexuales y se lo mostraba a los hombres en el gimnasio, dijo Lauren. Unos días después, Dan publicó el vídeo en su historia de Instagram, utilizando el nombre y el apellido de Lauren y alardeando de que convertiría el vídeo falso en realidad. Después de denunciar a Dan a la dirección del gimnasio, Lauren dijo que su membresía fue cancelada y se le prohibió regresar, pero ella tampoco quería volver. "No quería ir sabiendo que un montón de chicos habían visto porno mío", dijo. "Aunque fuera falso, me hacía sentir muy avergonzada y asquerosa". Por consejo de un ser querido, Lauren acudió a un abogado que le aconsejó que no tenía argumentos para demandar por difamación. Lauren afirma que le dijeron que no podía demandar en virtud de la legislación sobre pornografía vengativa porque técnicamente no se trataba de pornografía vengativa, sino de pornografía falsa, contra la que actualmente no existen leyes federales, ya que la legislación va a la zaga de los avances tecnológicos.

Aunque algunos estados como Virginia y California han aprobado leyes contra la pornografía deepfake, la falta de protección federal puede dejar a las víctimas sin recursos legales. Honza Cervenka, abogada especializada en pornografía no consentida, dijo a Refinery29 que para que estos vídeos e imágenes se consideren abuso sexual basado en imágenes, tendrían que mostrarse los pechos o los genitales de la persona, lo que a menudo no ocurre en la pornografía deepfake. "En cierto modo no se tienen en cuenta muchas de las leyes que se redactaron con la pornografía de venganza original, en lugar de estas imágenes deepfake más sofisticadas", dijo Cervenka.

Uldouz Wallace, actriz iraní, fue una de las víctimas del hackeo de iCloud en 2014, en el que se filtraron fotos privadas de celebridades como Kirsten Dunst, Jennifer Lawrence y Kate Upton. Wallace, que tenía 25 años cuando sus fotos privadas fueron pirateadas, vio en los años siguientes cómo se hacía pornografía deepfake a partir de sus fotos. "Se trata de varias capas de diferentes tipos de abusos", afirma Wallace, "con el aspecto de deepfake después del pirateo y la filtración iniciales. Ahora hay tanto [contenido falso] que ni siquiera sé qué es qué".

Wallace está ahora afiliada a la Asociación para la Prevención de la Violencia Sexual (SVPA), una organización que utiliza "la defensa, la educación y la participación de la comunidad" para "crear un mundo en el que todos puedan vivir libres de la amenaza de la violencia sexual". En una carta abierta, la SVPA pide al Congreso que prohíba el deepfake porn. "En este momento, no hay leyes [federales] que prohíban la creación o distribución de pornografía deepfake", dice la carta. "Hasta que no haya consecuencias, la pornografía deepfake seguirá aumentando".

Omny Miranda Martone, fundadora y directora ejecutiva de SVPA, afirmó que la organización se ha comprometido a ayudar a aprobar legislación federal contra la pornografía falsa y a educar a la gente sobre por qué es tan dañina. "La gente se pregunta por qué les importa. De todos modos, no es real. En realidad no son ellas", afirma Martone. "No creo que mucha gente entienda del todo la parte del consentimiento: que no tienes el consentimiento de la persona y que es una violación de la autonomía y la intimidad".

A medida que se generaliza el uso de la inteligencia artificial y la tecnología deepfake, aumenta la necesidad de establecer normas de protección a través de proyectos de ley como la Preventing Deepfakes of Intimate Images Act, presentada por el diputado demócrata Joseph Morelle. "A medida que la inteligencia artificial sigue evolucionando e impregnando nuestra sociedad, es fundamental que tomemos medidas proactivas para combatir la propagación de la desinformación y proteger a las personas de situaciones comprometedoras en línea", dijo Morelle. En el momento de su publicación, el proyecto de ley no ha avanzado en la Cámara de Representantes.

Categorías:

Noticias relacionadas