miércoles 14 de mayo de 2025

NACIONALES | 11 abr 2024

INFORME

Deep fake porno

Con el avance vertiginoso de la tecnología, en un mundo donde las legislaciones corren detrás de los hechos, la difusión de video pornográfico generados por inteligencia artificial podría volverse habitual. Una nueva forma de castigo contra mujeres y disidencias.


Era ella. O, como mínimo, se movía como ella, hablaba como ella y tenía un cuerpo demasiado parecido al suyo. El único “detalle” sospechoso era que se trataba de un video porno –la clásica trama de los hermanitos incestuosos– protagonizado por una mega estrella como Gal Gadot, la actriz de Mujer Maravilla y de Agente Stone, entre otras. Qué hacía una ultra celebridad de Hollywood rodando una película como ésa fue precisamente la pregunta que nadie quiso hacerse. De hecho, para los miles de internautas que se tiraron de cabeza en la web para buscar a Gal haciendo piruetas fraternas lo último que importaba era que ella fuera real: con que se pareciera lo suficiente, con que su cara estuviera ahí y el trabajo de face swapping (cambio de cara, la herramienta usada para reemplazar el rostro de un video por cualquier otro) alcanzaba y de sobra. Corría 2017 –un millón de años atrás en la geología de Internet– y lo que hoy conocemos como inteligencia artificial generativa caminaba con pasos de bebé. Ya se hablaba de su posible impacto en la industria audiovisual y hasta de los beneficios que podría generar en los negocios y disciplinas más diversas. ¿Qué tal poder probarse ropa o verse manejando un auto de lujo?¿Qué cliente no querría ver eso?

Lástima que, como suele suceder, fueron los usuarios los que comenzaron a poner en evidencia los infinitos modos en los que la flamante tecnología podría derivar hacia un costado bastante más turbio: las deep fake. Esto es, los “engaños profundos” surgidos a partir de lo que se conoce como deep learning, ese modo de aprendizaje gracias al cual las computadoras pueden hacer cosas antes impensables. Hablamos de videos o audios enteramente generados por redes neuronales y capaces de convencer a cualquiera de, literalmente, cualquier cosa. Desde que Gal Gadot se acuesta con su hermanastro hasta de que Chayanne es realmente quien le está enviando un saludo de cumpleaños a la tía Tita.

Volviendo al uso más cochino y rentable de la IA, y como lo profetizó en su momento Samantha Cole, editora senior de tecnología de la revista Vice, “el porno falso ya está aquí y estamos todos jodidos” (fucked up, en la versión original). ¿Por qué decía eso? Justamente porque lo que destacaba Cole en su nota era que el porno video de Gadot había sido generado y difundido no por un investigador con acceso a datos, códigos y equipos de avanzada sino por un simple nerd usuario de Reddit (un redditor) y con algo de conocimiento sobre el tema. De hecho, lo que inquietó a Cole fue la facilidad con la que no sólo aquel nerd pionero sino cualquier otro en cualquier lugar del mundo podría llegar a repetir la experiencia y convertir literalmente a cualquier mujer sobre la Tierra en la protagonista de un video por el estilo.

Exactamente eso que hace poco le sucedió nada menos que a Taylor Swift y por lo que X debió suspender las búsquedas de su nombre por una semana, al tiempo que el fandom de la cantante salía a su rescate con el hashtag #ProtectTaylor. Pero, ¿y las demás? Corrección: ¿y todas las demás? Si Taylor –que además de ser famosa y querida cuenta con un ejército global de swifties– no pudo impedir la viralización de su imagen haciendo y diciendo cosas que nunca hizo ni dijo, ¿qué les espera a las simples mortales ahora que esta tecnología hoy convertida casi en commodity? Porque, como sostiene Deep Trace, una empresa de Holanda dedicada al análisis y protección contra las deep fake, el proceso de commoditización de esta tecnología ya está en marcha. “Esto ya no es la NASA”, dijo. Una afirmación doblemente válida tras el lanzamiento de Sora, la nueva joya de Open AI que permite crear, a partir de un texto, un video de altísima definición.

DE CHEQUEOS Y CHICAS

¿Qué implica realmente para todos –pero en especial para mujeres y disidencias– la chance cierta de generar videos tan falsos como convincentes? ¿En qué se cree ahora que decir “lo vi con mis propios ojos” resulta más absurdo que nunca? “Es que ése es precisamente nuestro problema: ya no podemos creer en nada, no importa si es una noticia o un video”, apunta al respecto Patricia Faur, de la Universidad Argentina de la Empresa (UADE) e investigadora de los vínculos mediados por la tecnología. “Este es el tiempo del chequeo, de la verificación. Entonces, y más allá de lo terrible que es que alguien pueda verse expuesto de este modo y tener que salir a decir ”No soy yo“, lo agotador que ahora vamos a comenzar a vivir para desmentir que ésa que dicen que soy o que dijo en realidad no es ni dijo ni hizo nada”, alerta. “Y, como la verdad está depreciada, lo que interesa no es la verdad sino certezas –cualquier certeza– que nos baje la incertidumbre”.

En ese contexto, cualquier intento por poner un coto legal a los usos indebidos de la IA parece, como mínimo, cándido. Un dato: en Estados Unidos solamente tres estados tienen legislación específica destinada a perseguir las deep fake. Otro dato: hoy, el debate acerca de cómo impedir el denominado “mal uso de esta tecnología” parece más centrado en restringir ciertas prácticas puntuales (cancelar búsquedas específicas o imágenes específicas, por caso) que en impedir el acceso libre a apps y servicios en línea que en este momento y por un precio bastante módico (menos de U$S50) permiten generar videos deep fake en cuestión de minutos.

Un informe elaborado por la firma holandesa Deep Trace muestra que ya en el arranque de este fenómeno 100% de las imágenes femeninas generadas por esta tecnología se crean para alimentar sitios de porno. De hecho, en esos espacios hace ya añares que personajes como Taylor Swift, Gal Gadot o Emma Watson protagonizan videos para los que no dieron ni sus imágenes ni su consentimiento.

El punto es que esta vez –y con una frecuencia cada vez mayor– las plataformas consideradas como marginales (4chan, 8chan, etc) alojan videos cuyas imágenes, luego de una captura de pantalla, “ascienden” hacia redes más populares y desatan la pesadilla de la viralidad.

OPINÁ, DEJÁ TU COMENTARIO:
Más Noticias

NEWSLETTER

Suscríbase a nuestro boletín de noticias