DeepFake: Cuando La IA Amenaza La Democracia y El Derecho - Matías Lavanda

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 19

Revista de Derecho

y Tecnología

No. 02 | Julio 2022


Revista de Derecho y Tecnología
Lawgic Tec - Revista de Derecho y Tecnología
© Asociación Legally Tec
Correo: [email protected]
Web: www.lawgictec.org

El contenido y la originalidad de los artículos publicados en Lawgic Tec - Revista de Derecho y Tecno-
logía es responsabilidad exclusiva de los autores.
La Asociación Legally Tec autoriza la reproducción parcial o total del contenido de esta publicación,
siempre que se cite la fuente y utilice para fines académicos.
Índice
Editor Presentación
Adolfo Morán Adolfo Morán 5
Colaboradores La regulación esencial de las criptomonedas pertenece
Jordí Sardá a la comunidad y su desarrollo definitivo lo efectuarán nuevas
instituciones, no los Estados
Karla Mora
Jhoel Chipana
Ignacio Ferrer-Bonsoms Hernández 8
Jorge Pomareda
El registro consolidado de deudas. Estado de la cuestión en Chile
Moisés López Manuel Patricio Vergara Rojas 20
Rommel Infante
Néstor Chalque Emoticones y emoji: reflexiones desde la experiencia
de common law
Diseño y diagramación Francesca Benatti 34
Mario Popuche
La pandemia y la digitalización de la comunicación judicial
Javier Jiménez Vivas 49
Las nuevas tecnologías y el Sistema de justicia penal peruano:
crónica de una reforma tecnológica forzada
Joan Manuel Alvarez Porras 60
Las nuevas tecnologías y la posibilidad de las partes de hacer valer
sus derechos a la luz de la Convención de Nueva York
Diego J. Mera Sandy 71
Deepfake: Cuando la inteligencia artificial amenaza el Derecho
y la Democracia
Matías Lavanda Oliva 84
Legal Design: un método disruptivo aplicado al Derecho
Alejandra Patricia Galarza García 96

Dark patterns en el diseño digital UX y su regulación alrededor


del mundo
Vanya Rocío Córdova Valencia y Kendry Garret Aranda Espinoza 106
Diagnóstico y oportunidad del ejercicio de la abogacía
en la era digital
Rodolfo Guerrero Martínez 120
El derecho a la libertad de expresión en internet
Fabiola Paola Choque Zambrano y Karen Vanessa Dávila Neyra 131
© LEGALLY TEC, 2022
Número 2, julio 2022. La Organización Legal Data Driven
www.lawgictec.org Stephano Carlo Palomino Madueño 143
Presentación

Tengo el gran gusto de presentar la segunda edición de la Revista Lawgic Tec de Derecho y Tecnología.
Ha sido un año de trabajo intenso en el que hemos podido evaluar artículos de mucha calidad que
analizan temas de relevancia actual, teniendo en cuenta los tiempos actuales de gran evolución tecno-
lógica y en el que poco a poco venimos volviendo a la “normalidad” luego de dos años de medidas de
aislamiento social.
En esta edición que tienen en sus pantallas podrán encontrar artículos de diversos temas vinculados
netamente al derecho y la tecnología, desde regulación de criptoactivos hasta las implicancias legales
del uso del deepfake, e incluso un análisis legal de los emoticones y emojis que usamos todos los días
en nuestras conversaciones.
De esta manera, comenzamos con el interesante artículo de Ignacio Ferrer-Bonsoms Hernández,
quien hace una defensa de la autorregulación del ecosistema cripto por sobre una regulación impuesta
por los Estados, considerando que el poder de ecosistema proviene de su comunidad. Por eso, en pa-
labras del autor: “La comunidad debe ser consciente de que los conflictos que surgen de relaciones sin
terceros de confianza no pueden dejarse en manos de terceros de desconfianza”.
También tenemos un artículo muy sesudo del investigador Manuel Patricio Vergara Rojas titulado “El
registro consolidado de deudas. Estado de la cuestión en Chile”. El autor efectúa un revisión doctrinal
y legislativa de las normas actualmente vigentes en Chile, con la mirada puesta en la necesidad de la
creación de un registro consolidado de deudas con información de la situación económica de los ciu-
dadanos chilenos, lo que tendría repercusión en la protección de los datos personales.
Seguidamente, Francesca Benatti ofrece un artículo titulado “Emoticones y emojis: reflexiones desde
la experiencia del common law”, el cual demuestra una investigación bastante seria sobre las funciones
y las interpretaciones que pueden darse a los emoticones y emojis analizados, principalmente, en base
en casos de difamación civil de la jurisprudencia del Common Law.
Por otro lado, dos artículos que analizan la realidad de la implementación de tecnologías en el Poder
Judicial debido a la necesidad de seguir impartiendo justicia en tiempos de pandemia son los escritos
por Javier Jiménez titulado “La Pandemia y la Digitalización de la Comunicación Digital” y el de Joan
Manuel Álvarez Porras, centrado en el sistema penal bajo el título “Las nuevas tecnologías y el Sistema
de justicia penal peruano: crónica de una reforma tecnológica forzada”.
Respecto al primero, el autor realiza una explicación muy interesante de la implementación de distin-
tas aplicaciones y herramientas digitales utilizadas por la judicatura para comunicar sus decisiones, así
como para acercarse al ciudadano. De esta manera, aplicaciones como Google meet han venido sirvien-
do para realizar audiencias virtuales en reemplazo de las presenciales. También se destaca el uso de la
herramienta “El juez te escucha, programa tu cita” que permite agendar citas con los magistrados, así
como iniciativas menos complejas pero de importante eficacia como realizar la comunicación a través
de blogs y páginas en redes sociales.

5
Lawgic Tec - Revista de Derecho y Tecnología

En cuanto al segundo artículo, el autor identifica los problemas con los que se han venido lidiando en
el sistema de justicia penal, para luego reconocer la importancia de haber implementado herramientas
digitales, lo que favoreció a la sostenibilidad del sistema de justicia penal durante la pandemia.
También tenemos un muy buen artículo del abogado Diego Mera, que realiza el análisis de la eficacia
de la implementación de las nuevas tecnologías en el arbitraje internacional profundizando sobre el
impacto en el debido proceso y si el uso de nuevas tecnologías resulta compatible o no con la Con-
vención de Nueva York.
Otro tema que resulta de curiosidad para muchos es el relacionado a las implicancias legales del
deepfake, que consiste en una técnica que permite editar voz e imagen de determinada persona (nor-
malmente personajes públicos) a fin de que este realice una acción o emita un mensaje que, depen-
diendo del caso, puede tener intenciones engañosas para el destinatario; en palabras simples, se realiza
un video ficticio que parece real. Dicho esto, Matías Lavanda efectúa un análisis detenido sobre esta
práctica a la luz del legislación penal peruana.
También es destacable el trabajo de investigación de Alejandra Galarza, quien con una fina prosa ex-
plica de manera muy clara la aplicación de la metodología del Legal Design. La autora nos explica los
cinco pasos que hay que aplicar en esta metodología.
Otro de los temas no muy discutidos en el escenario nacional es el de los dark patterns o patrones
oscuros, que trata del uso de técnicas de diseño poco éticas implementadas en las plataformas de las
empresas destinadas a satisfacer los intereses del proveedor en base al engaño o la confusión, llevando
a la manipulación del usuario. Por ejemplo, la técnica del “motel de cucarachas” que permite que el
usuario pueda abrir fácilmente su cuenta, pero dificulta su desvinculación. Vanya Córdova y Kendry
Aranda realizan un muy buen trabajo explicando el concepto de patrones oscuros y analizando la
regulación nacional e internacional que sería aplicable.
Desde México nos contribuye Rodolfo Guerrero, quien nos brinda un artículo en el que explica di-
versos usos de la tecnología en la administración de justicia, dedicando también espacio al análisis de
las implicancias jurídicas de ello, por ejemplo, en lo que respecta a la protección de datos personales.
También es destacable el trabajo realizado por Vanessa Dávila y Fabiola Choque, ambas asociadas de la
Lawgic Tec, en un artículo titulado “El derecho a la libertad de expresión en Internet”, donde analizan
el impacto de las redes sociales en diversos conflictos políticos, fiscales, sociales y ambientales, incluido
el derrame de petróleo ocurrido a inicios del año en el Perú.
Por último, tenemos el artículo de Stephano Palomino que resalta la importancia de que las organiza-
ciones legales (p.ej. firma de abogados) implementen herramientas y metodologías tales como el Legal
Analytics, Lean Startup y el Legal Design para convertirse a lo que llama el autor en Organizaciones
Legal Data Driven.
Como pueden ver, en esta segunda edición encontrarán doce artículos sobre diversos tópicos que
demuestran de diferentes maneras cómo la tecnología ha venido cambiando la forma de interactuar
en distintos espacios y, frente a ello, cómo ha reaccionado el derecho, que siempre camina por de-
trás de la innovación tecnológica, atento a emitir alguna regulación siempre y cuando sea necesaria
para proteger los intereses del público, para facilitar o viabilizar el desarrollo de la innovación, entre
otras razones.

6
Presentación

Finalmente, quiero agradecer a todo el equipo de Lawgic Tec, principalmente al equipo de investiga-
ción liderado por Jordi Sardá y a sus miembros: Karla Mora, Jhoel Chipana, Jorge Pomareda, Moisés
López, Rommel Infante y Néstor Chalque. Destaco la importancia de la dedicación y el trabajo en
equipo para la publicación de esta segunda edición. A los lectores, espero que esta edición sea de su
entero agrado. Estoy seguro de que así será.
Lima, 1 de julio de 2022
Adolfo Morán Cavero1
Director Ejecutivo

1 Abogado por la Pontificia Universidad Católica del Perú. Fundado y Director Ejecutivo de Lawgic Tec. Senior en el área
de Regulación Financiera y Fintech de Ernst & Young Law (EY Law).

7
Deepfake: Cuando la inteligencia
artificial amenaza el Derecho
y la Democracia

Matías Lavanda Oliva*

Resumen: El presente artículo tiene como finalidad hacer un análisis legal


dentro del escaso marco normativo peruano frente a los riesgos que podría
ocasionar una nueva tecnología disruptiva llamada “deepfake” o falsificación
profunda. Un nuevo software que utiliza inteligencia artificial para editar
voz y video de manera hiperrealista, en el cual su uso, de no llegar a regularse
oportuna y debidamente, podría generar graves complicaciones a la vida pri-
vada de los individuos e incluso hasta el mismo orden democrático del país.

* Bachiller en derecho por la universidad de Piura, especialista en criptoderecho y nuevas tecnologías. Asistente legal
corporativo en el estudio Fernández-Dávila.
Deepfake: Cuando la inteligencia artificial amenaza el Derecho y la Democracia

I. Introducción
El enérgico avance de las nuevas tecnologías ha hecho que las personas comunes tengan mayor acce-
sibilidad a herramientas digitales que hace un tiempo atrás únicamente fuerzas militares o compañías
cinematográficas, con gran capacidad económica, tenían el privilegio de poder utilizar a su antojo.
En estos días, el instrumento favorito de los creadores de psicosociales y “fake news” es el reputado
Photoshop.
Esta herramienta desarrollada a finales de los años ochenta por los hermanos Knoll, revolucionó la
industria de la fotografía al crear un programa que permitía alterar la composición de las imágenes
y que si bien, el arte de alterar imágenes existe desde antes de la segunda guerra mundial, esta he-
rramienta informática hizo que cualquier persona común con acceso a un ordenador y con básicos
conocimientos en este programa pudiera alterar los elementos de una fotografía haciendo que las cosas
no parezcan lo que son (Schewe, 2000).
En los últimos años hemos podido ser testigos directos e incluso víctimas de los denominados “fake
news” o noticias falsas, dado que a la mayoría nos ha tocado tener un familiar o amigo que comparte
noticias sin siquiera haberlas leído, dejándose llevar por el título y una portada amarillista que le es
difícil ignorar por el sesgo cognitivo que ésta genera. En estas noticias falsas suele haber mucho conte-
nido de pésima calidad acompañada con fotos bien o mal editadas que sirven como una pseudoprueba
de lo descrito en el texto.
En el año 2016 un estadounidense llamado Edgar Maddison Welch armado con un rifle semiautomá-
tico AR-15, una pistola y un cuchillo plegable entró en una pizzería en Washington D.C, no estaba
intentando asaltar la pizzería, sino que su propósito fue rescatar a niños que, según él, estaban siendo
abusados sexualmente en rituales satánicos por un círculo de pedofilia liderado por la excandidata a
la presidencia de los Estados Unidos Hillary Clinton. Welch no padecía de algún tipo de demencia
ni estaba drogado, había sido víctima de una noticia falsa en forma de conspiración conocida como
“Pizzagate” (Stelter, 2016).
Así como este ejemplo existieron una cantidad enorme de fotografías y noticias falsas hacia Hillary
Clinton, mientras que los especialistas vinculan estos supuestos como la razón determinante de su
derrota en las elecciones presidenciales de los EE. UU. en el año 2016.
Toda esta problemática y controversia ha podido ser generada únicamente con la manipulación de
imágenes, entonces pudiendo evaluar la magnitud y cantidad de las complicaciones que puede generar
una simple imagen editada, que inclusive en muchos casos su edición fue de muy baja calidad ¿qué
consecuencias podrían ocasionar un video? es decir, al igual que una noticia falsa con Photoshop,
poder alterar la perspectiva de la realidad, pero esta vez en un video, teniendo la posibilidad de mo-
dificar y falsificar expresiones faciales, movimientos corporales e incluso copiar la voz de una persona
diciendo o haciendo cosas que nunca dijo o hizo.
Pues la realidad es que, como se hizo mención al inicio de este artículo, el avance de las nuevas tec-
nologías ha dado disposición a las personas comunes herramientas que en el pasado solo unos pocos
disponían. Este es el caso de los llamados deepfakes o por su traducción al español “falsificación pro-
funda”, el cual, es producto de un nuevo software basado en inteligencia artificial en el que, al igual
que Photoshop revolucionó la fotografía hace más de 30 años, este programa lo hará con los temas
audiovisuales en la actualidad.

Matías Lavanda Oliva 85


Lawgic Tec - Revista de Derecho y Tecnología

II. ¿Qué son los Deepfakes?


El término Deepfake, apareció en 2017 y es el acrónimo anglosajón formado por las palabras “Fake”
o falso en español y “Deep” o profundo, este último deriva del término “Deep Learning” o “Apren-
dizaje Profundo” que es el método de inteligencia artificial para el cual se desarrollan algoritmos que
permiten que la computadora aprenda automáticamente moldeando abstracciones de alto nivel para
así generar patrones audiovisuales (Hao, 2022).
La técnica permite crear vídeos hiper falsos, también denominados videos ultra falsos, por medio la
edición automática de imágenes y sonidos que desarrolla la inteligencia artificial a través del Deep
Learning (Somers, 2020). El objetivo de tales videos es entonces poder realizar copias digitalizadas de
cualquier personaje público o privado para poder hacer que esta copia haga o diga lo que el autor o
autores de esta creación se les ocurra.
Esta técnica es relativamente fácil de acceder por medio de algún software de aprendizaje profundo
dedicado a videos que están presentes en la web en código abierto, es decir, libre de derechos, y re-
lativamente difícil, en la actualidad, de contrarrestar. De hecho, el software para crear este tipo de
vídeos funciona gracias a un mecanismo susceptible de engañar a los algoritmos de detección, pues
este está basado en la competencia de dos algoritmos, mediante la cual, el primero copia un vídeo
una multitud de veces de forma idéntica importando una cara externa y el segundo detecta la calidad
de los vídeos creados por el primer algoritmo con el fin de excluir los marcos o frames menos creíbles
(Somers, 2020).
Por esta razón la técnica deepfake tiene el potencial de crear videos sumamente realistas y con poco
porcentaje de errores. Estos vídeos manipulados se pueden calificar en una de estas tres categorías:
● Intercambio de caras (“fase swap”): La cara de un vídeo se sustituye automáticamente por la de
otra persona.
● También se utiliza a menudo para insertar actores/actrices famosas en clips de películas en los que
nunca han aparecido, pero también para insertar personas, en su mayoría mujeres, en deepfakes
con contenido pornográfico.
● Sincronización de labios (“lip sync”): Se modifica un vídeo original para hacer coincidir los movi-
mientos musculares de la zona de la boca con una grabación de audio arbitraria.
Las grabaciones de estos movimientos se adaptan sintéticamente a los movimientos del intérprete. El
“titiritero” determina así lo que su “marioneta” debe hacer y decir. Hay una plétora de técnicas para
crear este tipo de vídeos deepfake, entre las que se encuentran: DeepFake FaceSwap, FSGAN, Neu-
ronal Textures y Face2Face, la mayoría de las cuales son proyectos de código abierto de fácil acceso.
El método más común –pero no el único– para crear vídeos (o imágenes) Deepfake utiliza Redes Ge-
nerativas Antagónicas o por sus siglas en inglés GAN. Estos son algoritmos que permiten emular la
gesticulación facial sobre un individuo en un video a partir de cientos o miles de imágenes de la per-
sona, en las cuales, estas son almacenadas en la red neuronal del software pudiendo así crear un clon
virtual del rostro en base a todas las referencias fotográficas. Un GAN consta de dos componentes
principales: 1) un generador y, 2) un discriminador.
El objetivo del generador es sintetizar cada imagen de vídeo para que coincida con la distribución
de un conjunto de datos de preparación, se puede decir que este es el encargado de hacer el trabajo
creativo. Por otro lado, el objetivo del discriminador es determinar si la imagen de vídeo sintetizada
puede reconocerse o no como perteneciente al conjunto de datos de entrenamiento, es decir, rechaza

86 Julio 2022. pp. 84-95.


Deepfake: Cuando la inteligencia artificial amenaza el Derecho y la Democracia

los elementos imprecisos y revela las creaciones que obtuvieron un resultado óptimo por parte de la
generadora. El generador y el discriminador trabajan de forma iterativa. El generador acaba apren-
diendo a sintetizar un vídeo –marco a marco– que engaña al discriminador y trabajando juntos obtie-
nen resultados verdaderamente realistas (Goodfellow et al., 2014). El popular software FaceSwap, por
ejemplo, utiliza un GAN para generar deepfakes de FaceSwap (Choudhury, 2019).
Un par de ejemplares conocidos de estos deepfakes son en particular el del año 2018, en el cual, el
expresidente de los Estados Unidos de América, Barack Obama, o mejor dicho su deepfake, salió en
un video insultando a su sucesor Donald Trump (BBC News, 2017). Otro ejemplo es el del año 2019
en el cual, el deepfake del fundador de Facebook, Mark Zuckerberg, aparecía en un video admitiendo
haber manipulado y comercializado los datos de los usuarios de Facebook de manera ilícita y sin con-
sentimiento (Metz, 2019).
Sin embargo, los deepfakes, no se limitan al mundo político o económico. Su primera aparición fue en
realidad en las principales plataformas web de videos pornográficos en 2017 (Somers, 2020). El modus
operandi de estos deepfakes se basa en importar rostros de celebridades (por ejemplo, actores o músicos
reconocidos a nivel internacional) en los cuerpos de las personas que filman el video pornográfico, es
decir, utilizando a una persona como “base física” para que realice actos sexuales y encima del rostro
de éste colocar el rostro de la celebridad a quien se quiere afectar. Los deepfakes de algunas actrices de
Hollywood aparecen ahora en vídeos pornográficos en internet sin haberlas rodado nunca y, sobre
todo, sin haber dado su consentimiento a la difusión de este tipo de contenido.
Si bien en la actualidad, el Perú no ha sido testigo de algún caso conocido de este tipo de manipula-
ción audiovisual en agravio de alguna figura pública, es solo cuestión de tiempo para que esta práctica
se popularice a tal punto de que surja alguien con la voluntad de utilizar esta herramienta de manera
maliciosa y, según mi punto de vista, las víctimas más susceptibles serán las figuras públicas femeninas
y la clase política.
Es por esta razón que resulta necesario cuestionar el alcance de la normativa peruana actual para hacer
frente a este tipo de situaciones, debido a que hasta el momento no existe ningún tipo de legislación y
muy escasa doctrina nacional respecto este tema en específico, por lo que podría caer en un grave vacío
normativo sobre una materia que puede traer serias consecuencias a futuro y no únicamente para los
que fueron afectados del deepfake sino también para los receptores de estos, en vista de que pueden ser
víctimas de un novedoso y disruptivo tipo de psicosocial.
Bajo este marco contextual debemos separar dos problemáticas en específico que pueden generar los
deepfakes. En primer lugar, los deepfakes utilizados para contenido sexual con personas que no dieron
consentimiento para el uso de su imagen y, en segundo lugar, la desestabilización política, cultural o
económica que pueden generar los deepfakes como psicosocial, mediante la cual, un caso puede o no
estar vinculado con el otro.

III. Deepfakes pornográficos


El uso malicioso de los deepfakes supone una amenaza tanto por parte de figuras políticas como
no políticas estos están creados generalmente con fines delictivos, especialmente en la
producción de pornografía no consentida. Además, los deepfakes pornográficos representan un
tema bastante complejo, debido a que la persona afectada sufre una múltiple vulneración de sus
derechos personales, tales como; el derecho a la intimidad tanto personal como la familiar, al honor y
la buena reputación, a la imagen y voz y al uso no consentido de datos personales (tales como
expresiones faciales y voz), entre otros.

Matías Lavanda Oliva 87


Lawgic Tec - Revista de Derecho y Tecnología

En primera instancia, podría pensarse que este delito estaría amparado por la figura de la “Violación a
la intimidad” regulada por el artículo 154 del Código Penal peruano en el que se imputa a quien viola
la intimidad personal o familiar, pues este indica los siguiente: “(…) ya sea observando, escuchando o
registrando un hecho, palabra, escrito o imagen, valiéndose de instrumentos, procesos técnicos u otros
medios, será reprimido con pena privativa de libertad no mayor de dos años”.
El principal problema con este artículo del Código Penal es que únicamente hace referencia a la viola-
ción de la intimidad por medio del registro de supuestos reales, es decir, hechos que verdaderamente
ocurrieron, por lo que cuando se menciona la violación a la intimidad valiéndose de instrumentos
o procesos técnicos está haciendo referencia a tecnología para registrar hechos y no necesariamente
tecnología para crear o producir material que muestre hechos que nunca fueron cometidos por el
sujeto agraviado, por lo que esta normativa es insuficiente para regular el supuesto de los deepfakes de
manera concreta y precisa.
De igual modo, este delito podría también ser configurado bajo el artículo 154-A del Código Penal,
mediante la figura de tráfico ilegal de datos personales, por el hecho de que se está haciendo uso inde-
bido e ilegítimo de esta data de la persona tales como la voz y los rasgos faciales, no obstante, este ar-
tículo busca penalizar la ilegal comercialización de esta data y no necesariamente la difusión mediante
técnicas avanzadas que generen de manera artificial la realización de actos, por lo que esta disposición
legal también sería insuficiente.
Bajo esa misma línea, la modificación al Código Penal mediante el Decreto Legislativo N° 1410 que in-
corporó cuatro nuevos delitos al código en el cual, uno de ellos, específicamente el 154-B regula la difu-
sión de imágenes, materiales audiovisuales o audios con contenido sexual en el que detalla lo siguiente:
El que, sin autorización, difunde, revela, publica, cede o comercializa imágenes, materiales audio-
visuales o audios con contenido sexual de cualquier persona, que obtuvo con su anuencia, será
reprimido con pena privativa de libertad no menor de dos ni mayor de cinco años y con treinta a
ciento veinte días-multa.

Si bien este nuevo artículo protege a las víctimas ante la difusión de imágenes íntimas con contenido
sexual, el artículo también resulta escaso para proteger a las personas de los deepfakes pornográficos por
dos razones (Álvarez & Oporto, 2016):
1. El artículo 154-B pena la difusión, revelación, cesión o comercialización de imágenes, materia-
les audiovisuales o audios con contenido sexual de cualquier persona cuando el perpetrador del
delito las obtuvo con el consentimiento de la víctima, puesto que se asume que antes hubo una
relación de confianza razón por la cual la víctima cedió voluntariamente este material sexual.
El problema con el caso de los deepfakes es que el perpetrador no necesita ni siquiera el material
sexual de su víctima, basta únicamente una imagen o video del rostro que en la actualidad puede
ser fácilmente conseguido en una red social como Facebook, Instagram, LinkedIn o Twitter.
Asimismo este artículo se refiere específicamente a los vídeos de carácter sexual y a su difusión, no
tiene en cuenta la posibilidad de imágenes que hayan sido manipuladas, modificadas, transforma-
das o creadas desde cero como lo son en los casos de los deepfakes.
2. El artículo no pena a las personas que continúan con la cadena de difusión del material, solamen-
te pena al que las obtuvo y no a las siguientes personas que reenviaron y extendieron la difusión.
Por lo expuesto, la normativa actual en el Código Penal resulta escasa para poder imputar de manera
idónea a los creadores de deepfakes pornográficos, demostrando que existiría un vació legal preocupan-
te que podría dejar a muchos agresores libres de cometer este tipo de actos que perjudicarían el honor
y la imagen de la víctima.

88 Julio 2022. pp. 84-95.


Deepfake: Cuando la inteligencia artificial amenaza el Derecho y la Democracia

Más allá de la legislación específica para los casos de difusión de videos íntimos, los deepfakes porno-
gráficos también pueden caer dentro del alcance de la legislación de derechos de imagen y violaciones
de la privacidad, pero igualmente tales disposiciones legales actuales tienen importantes limitaciones
para aprehender este nuevo fenómeno. Además de las disposiciones del derecho penal que rigen los
casos de los deepfakes pornográficos, el derecho a la imagen y voz reguladas por el artículo 15 del Có-
digo Civil peruano podría ser útil como base en la lucha contra este tipo de delitos, tanto para figuras
públicas como para víctimas anónimas.
En la legislación peruana, el derecho a la imagen y voz se deriva del artículo 2 apartado 7, de la Cons-
titución Política, que establece que toda persona tiene derecho: “al honor y a la buena reputación, a la
intimidad personal y familiar, así como a la voz y a la imagen propias”.
Esto permite que una persona, famosa o no, pueda oponerse a la captura, fijación o difusión de su
imagen, sin su autorización expresa y previa. Por lo tanto, este derecho se aplica de manera idéntica a
cualquier persona independientemente del medio de difusión. Así pues, sostenemos que toda persona
tiene sobre su imagen, parte integrante de su personalidad, un derecho exclusivo que le permite opo-
nerse a su reproducción sin su autorización expresa y especial; de modo que cada uno tenga la posi-
bilidad de determinar el uso que puede hacerse de él, eligiendo en particular, el medio que considere
adecuado para su posible difusión.
Se requiere el permiso expreso de la persona, independientemente del lugar (público o privado) en
el que la persona fue fotografiada o filmada. Todo sujeto cuyo derecho a la imagen no haya sido
respetado tiene la posibilidad de actuar ante los tribunales para obtener la retirada de las fotografías
o imágenes controvertidas y la concesión de una indemnización por el daño sufrido (Wicht Rossel,
1959). Además, de los posibles procedimientos penales sobre la base de los artículos 154 y 154-B
mencionados anteriormente.
Sin embargo, a pesar de este panorama, la legislación sobre el derecho a la voz e imagen propia no es
la más idónea para perseguir a los autores deepfakes perjudiciales. Es cierto que si un individuo ejerce
su derecho a la voz e imagen propia permitiría la eliminación de videos e imágenes por decisión de
los tribunales civiles, sin embargo, la transformación de imágenes y el amaño algorítmico no están
cubiertos por las disposiciones del Código Penal peruano que solo penalizan la captura, grabación y
transmisión de audios o imágenes sin el consentimiento de su autor.
No obstante, el algoritmo no utiliza directamente imágenes existentes para adjuntarlas en otro con-
texto, sino que transforma imágenes y vídeos gracias a los datos recogidos en otras imágenes o vi-
deos (Webwise, 2021). Por lo tanto, la grabación y captura de audios e imágenes sirve de apoyo para
la creación deepfakes, lo que puede dificultar la aplicación de los artículos 154 y 154-B del Código
Penal. En otras palabras, si bien la eliminación de los videos puede ser ordenada por los tribunales
civiles, el principio de garantía jurisdiccional del derecho penal podría evitar que los autores de estos
videos sean procesados ante los tribunales penales.
Podríamos hacer mención, además, que estamos ante un nuevo tipo de violencia de género, por el he-
cho de que este tipo de ataques a nivel internacional han sido dirigidas casi en su totalidad a mujeres.
Asimismo, en el derecho comparado esta nueva figura se denomina un nuevo tipo de “pornografía no
consentida” (Goldstein, 2021).
Por lo que se refiere a respecto al autor de un deepfake, el contenido de este también puede conside-
rarse difamatorio en virtud del artículo 132 del Código Penal. Efectivamente, este artículo define la
difamación como: “la atribución de un hecho, una cualidad o una conducta que pueda perjudicar el
honor o reputación de una persona”.

Matías Lavanda Oliva 89


Lawgic Tec - Revista de Derecho y Tecnología

El hecho alegado podría caber en el caso de un deepfake específico. En el caso de difamación, es nece-
sario proporcionar pruebas del elemento intencional. Sin embargo, esto último se presume tan pronto
como se aporta la prueba de la intención de publicar, el cual se probaría en los casos de los deepfakes
divulgados en un sitio web de contenido pornográfico.

IV. Deepfakes Psicosociales


El Perú no ha estado exento de fake news, curiosamente mucho tiempo antes de que este término
anglosajón apareciera en nuestra dialéctica, los peruanos entendíamos muy bien este concepto bajo
el nombre de “psicosocial” que se hizo popular en el gobierno del expresidente Alberto Fujimori.
Noticias como la “Virgen que llora” para persuadir a la población del pésimo sistema de salud que se
tenía en ese entonces, expuesto gracias a la pandemia del cólera; o de la supuesta bruja vampiresa Sarah
Hellen en la que se creó toda una leyenda urbana, no fueron más que distractores que utilizaban la
misma lógica de las fake news; es decir, distraer o crear confusión en la población para beneficio de los
grupos políticos-económicos que los creaban.
Una nueva ola de psicosociales podría estar a la vuelta de la esquina gracias a los deepfakes y las redes
sociales en las próximas elecciones, en la cual, gracias a las insuficiencias del marco legislativo peruano
para aprehender a los deepfakes pornográficos, estos también podrían afectar a la población general en
términos de este tipo de videos difundidos con fines políticos-sociales.
Los deepfakes transmitidos con fines políticos a diferencia de los pornográficos pueden incluso
ser mucho más peligrosos, por el hecho de que pueden cambiar los puntos de vista de un sector
poblacional y generar caos generalizado en el peor de los escenarios. A diferencia de los deepfakes
pornográficos, estos aún siguen teniendo números relativamente pequeños a nivel internacional
y si el fenómeno aún no parece muy desarrollado en Perú, su potencial poder de desestabilización
política no debe ser ignorado, por el contrario, debe llevar a considerarlos con la máxima seriedad,
puesto que en las próximas elecciones la población peruana, en especial los sectores de menores
recursos económicos y poca educación podrían ser las principales víctimas de este nuevo tipo de
engaño masivo.
Una vez más analizaremos el marco legislativo peruano frente a este tema. El Código Penal regula el
delito a la “Grave perturbación de la tranquilidad pública” en su artículo 315-A, en el cual el primer
párrafo hace referencia al hecho que genere una perturbación grave a la armonía de la población
utilizando cualquier medio que cause histeria colectiva. Este caso podría ser, por ejemplo, que algún
extremista anti-vacunas se motive a crear un video deepfake del actual presidente de la república Pedro
Castillo, en el que diga un disparate como el que las vacunas contra el Covid-19 contienen micro-
chips para controlarnos mentalmente. Si la población llegase a creer esta falsa declaración, generaría
en primer lugar, un serio problema para combatir el virus del Covid-19 y una desconfianza tremenda
en las autoridades públicas, aún mayor de la que ya existe. Considerando además, que hoy en día es
sumamente sencillo generar alarma por medio de las redes sociales y las aplicaciones de mensajería
instantánea como WhatsApp que tienen aún menos restricciones.
Asimismo, el segundo párrafo del artículo 315-A hace referencia a lo que se considera como “altera-
ción grave”, por lo que especifica que:
Se considera perturbación grave a todo acto por el cual se difunda o ponga en conocimiento de
la autoridad pública, medios de comunicación social o de cualquier otro por el cual pueda difun-
dirse masivamente la noticia, la inminente realización de un hecho o situación falsa o inexistente,
relacionado con un daño o potencial daño a la vida e integridad de las personas o de bienes públicos
o privados.

90 Julio 2022. pp. 84-95.


Deepfake: Cuando la inteligencia artificial amenaza el Derecho y la Democracia

Este artículo del Código Penal pareciera que sí regula de manera idónea la posible perturbación de la
paz que pudiese generar el deepfake, puesto que, el legislador lo califica como grave en los supuestos
que:
a) Exista un acto de difusión masiva de un hecho;
b) Sea un hecho, noticia o situación falsa o inexistente; y
c) El hecho o noticia esté relacionado con un daño o potencial daño a la vida e integridad de las
personas o de bienes públicos o privados.
Sin embargo, el legislador no ha establecido un criterio claro para distinguir la perturbación grave y
una perturbación leve, puesto que en el artículo 452 inciso 2 del Código Penal indica que se perturba
levemente la paz pública usando medios que puedan producir alarma, pero estos medios muy bien
podrían darse por difusión masiva. En este mismo sentido, la “alarma” también podría tratarse de un
hecho ficticio o inexistente, como es el caso del deepfake, y referido a un daño potencial contra la vida
o integridad de las personas (García, 2017).
En efecto, ubicándonos en un supuesto que hoy en día podría parecer exagerado, pero dentro de unos
años podría ser muy real, al igual que con los deepfakes de carácter pornográfico, las víctimas de este
tipo de vídeos difundidos con fines políticos pueden hacerse con el derecho al respeto de su vida pri-
vada, tanto en su aspecto civil (artículo 15 del Código Civil) como en su componente penal (artículos
154 y 154-B del Código Penal).
No obstante, el alcance de la protección que ofrece el derecho al respeto de la vida privada debe po-
nerse en perspectiva, ya que se evalúa a la luz de las circunstancias en las que se invoca dicho derecho.
Por lo tanto, en principio, la reputación de la persona no influye en la interpretación del contenido de
la vida privada. En otras palabras, las figuras públicas, y en consecuencia las figuras políticas,
también tienen derecho a que se respete su vida privada y su derecho a la imagen y voz propias.
La falta de consentimiento de la persona representada podría desencadenar la aplicación de los artícu-
los 154 y 154-B del Código Penal, con el límite ya establecido según el cual estas disposiciones legales
no mencionan la posibilidad de uso de la imagen con fines de amaño y manipulación. Del mismo
modo, ni siquiera existe una norma específica que castigue la figura de manipulación de imágenes.
Es por ello por lo que las futuras víctimas de los deepfakes, con la normativa actual, no parecen po-
der tener muchas herramientas a su disposición para poder enjuiciar a los autores de estos videos o
su difusión utilizando las disposiciones existentes, tanto en el caso de videos pornográficos como de
videos transmitidos con fines de desestabilización político-sociales, debido a la estricta interpretación
del derecho penal y la vaguedad de estas disposiciones para aprehender el fenómeno de los deepfakes.
Al fin y al cabo, las figuras políticas no parecen estar protegidas en términos de deepfakes políticos más
de lo que son las víctimas de deepfakes pornográficos por las disposiciones relativas al derecho a la
imagen.

V. Deepfakes y Libertad de Expresión


Resulta pertinente hacer mención también que la creación de deepfakes no siempre va a tener un ca-
rácter necesariamente denigrante u ofensivo para el afectado, el deepfake también puede ser utilizado
como una manifestación artística con aires de reclamo o de protesta. Pues así es como algunos califican
al deepfake de Mark Zuckerberg del 2019, en el video se mostraba el deepfake del fundador de Face-
book “admitiendo” haber utilizado los datos de los usuarios en su red social de manera ilícita.

Matías Lavanda Oliva 91


Lawgic Tec - Revista de Derecho y Tecnología

Este hecho puede ser interpretado como un reclamo público debido a que se ha mencionado en nu-
merosas oportunidades el uso ilícito que los dueños de estas redes les dan a los datos de los usuarios.
Este caso se ha denominado como “Deepfake artístico”, pues el vídeo de Mark Zuckerberg era, según
su autor, un proyecto artístico destinado a denunciar la recopilación de datos por parte de empresas
que se han vuelto demasiado poderosas (Sandler, 2019).
La libertad de expresión y a fortiori la libertad artística plasmadas en el artículo 2 inciso 8 de la Cons-
titución Política del Perú, que de ella plasma la posibilidad de permitir legitimar ciertos deepfakes,
aunque su difusión persiga fines políticos. No todos los deepfakes deben ser prohibidos y a veces se
debe lograr un equilibrio justo entre los derechos y libertades de la persona cuya imagen fue utilizada
para la falsificación.
Sin embargo, una vez más, un marco específico para el fenómeno de los deepfakes, preciso y completo,
podría proporcionar con idéntica precisión excepciones para dar cabida a la libertad de expresión y la
libertad artística de los creadores de esta clase de videos.
El marco jurídico específico de esta práctica podría, en otro nivel, alimentar el debate sobre la con-
veniencia de castigar las violaciones a la verdad. Si bien “la libre comunicación de pensamientos y
opiniones” es uno de los derechos humanos más preciados, algunos discursos que socavan la verdad
han sido interpretados como constitutivos de abusos a la libertad de expresión.
Los hechos históricos nos dan evidencia de numerosos casos de ataques a la verdad gracias al mal uso
de las nuevas tecnologías de la información y la comunicación. Entonces, bajo esta lógica, ¿debería
sancionarse como tal la infracción de la verdad de los deepfakes o solo en la medida en que estos videos
infrinjan otros derechos protegidos?
Una clara preferencia por la primera hipótesis supondría hacer de los ataques a la verdad un problema
de interés general, a riesgo de limitar en gran medida ciertos derechos fundamentales como la liber-
tad de expresión y la libertad artística. Por el contrario, un análisis del derecho positivo vigente y su
capacidad para combatir esta nueva práctica muestra que los deepfakes pueden manipular la verdad de
manera muy eficiente; pero, sobre todo, vulnerar determinados derechos fundamentales o intereses
públicos protegidos.

VI. Conclusión
Este artículo expone la situación actual de los vídeos deepfake e ilustra cómo la creciente prevalencia
de esta tecnología puede socavar la cohesión social. Los rápidos avances tecnológicos abren nuevas
oportunidades para la producción de deepfakes y proporcionan a los actores maliciosos –incluidos
los estatales– nuevas oportunidades para la interferencia perjudicial en el discurso político y social
político social.
Actualmente, la gran cantidad de datos necesarios para producir sofisticados deepfakes parece limitar la
producción en masa. Sin embargo, los recientes avances que permiten la producción de imágenes en
movimiento sintetizadas a partir de una sola imagen fija sugieren que este obstáculo también podría
eliminarse en un futuro próximo.
Actualmente, el uso de deepfakes en un contexto delictivo sigue estando muy extendido, sobre todo
en la pornografía no consentida. Los casos conocidos de deepfakes producidos con el fin de influir
en los procesos políticos implican vídeos con manipulaciones relativamente fáciles de reconocer. Sin
embargo, incluso este material de baja calidad provocó turbulencias políticas. Si esta técnica se utiliza
en masa como parte de una campaña de desinformación organizada y dirigida por agentes estatales
malintencionados, los efectos perturbadores de dicha campaña podrían ser significativos.

92 Julio 2022. pp. 84-95.


Deepfake: Cuando la inteligencia artificial amenaza el Derecho y la Democracia

En cuanto a la producción de videos deepfake, un punto de partida clave es mantener un cierto grado
de control sobre la nueva tecnología. Por un lado, esto requiere esfuerzos para mantener las barreras
técnicas que potencialmente impiden a los actores no estatales, incluidos los delincuentes, utilizar esta
tecnología.
Pero, sobre todo, es importante la creación de un marco legal idóneo para poder perseguir a los actores
maliciosos una vez que hayan sido debidamente identificados. Esto significaría declarar ilegal el uso
de ciertos tipos de software deepfake dentro de un sistema legal. La otra restricción legal, posiblemente
aún más importante, se refiere al amplio acceso a la tecnología de detección.
Si esta tecnología se pusiera a disposición del mercado y de los usuarios, los actores maliciosos podrían
adaptar rápidamente sus métodos de producción. La “carrera armamentística” técnica resultante po-
dría frenarse manteniendo la tecnología de detección avanzada fuera del mercado. Por lo tanto, las
salvaguardias legales que impiden la liberación de tecnologías de detección avanzadas podrían ser una
medida eficaz.
Para abordar el uso malicioso de los deepfakes, es necesario distinguir entre los deepfakes relacionados
con actos delictivos, como el fraude o la producción de pornografía no consentida, y los que tienen
como objetivo influir en los procesos políticos. En ambos casos, es importante combatir tanto el abuso
como la distribución, pero a diferentes niveles. Para atacar la actividad delictiva, la principal preocu-
pación debería ser el uso indebido de la tecnología deepfake.
En estos casos, se perjudica a un individuo o a un grupo de individuos, por lo que el daño social
depende en gran medida de la frecuencia de estos delitos. En cuanto al uso indebido de los deepfakes
como medio de influencia política, por el que también se puede causar un daño social considerable
con un solo acto, el uso indebido también debe convertirse en un delito punible en primera instancia,
aunque la legislación debe prever las excepciones adecuadas y necesarias, como pueden ser la sátira, la
comedia o la crítica política.
Sin embargo, dado que en un sentido político los deepfakes manipuladores sólo alcanzan todo su
potencial corrosivo cuando se difunden ampliamente, dirigirse a los mecanismos de distribución de
dicho material es un segundo enfoque igualmente importante. Por ello, en los siguientes párrafos se
exponen las medidas destinadas a contrarrestar el uso indebido de deepfakes con el fin de influir en los
procesos políticos (electorales).
Se necesitan soluciones tanto legales como tecnológicas para hacer frente a la influencia en los procesos
políticos a través de las deepfakes. Por supuesto, estos no responden al reto que supone el hecho de que
tales intentos de influencia puedan estar ya surtiendo efecto y cambiando las percepciones del público.
Los riesgos son especialmente altos antes de las elecciones futuras. Por lo tanto, lamentablemente, los
enfoques forenses destinados a desacreditar los deepfakes no serán eficaces por sí solos.
El reto a largo plazo inherente a la tecnología deepfake es la erosión gradual de la confianza del público,
ya que socava la comprensión de la verdad establecida por la sociedad. En última instancia, el mal uso
de esta técnica supone una amenaza para el debate político libre y abierto. En este sentido, los deep-
fakes son el aspecto técnicamente más avanzado de la amenaza cada vez mayor de las noticias falsas.
La creciente disponibilidad de mecanismos de difusión global de bajo coste –especialmente las pla-
taformas de medios sociales y su papel cada vez más central en el suministro de información al
público– agrava esta amenaza. La naturaleza no regulada de estas plataformas y sus políticas corpo-
rativas ampliamente divergentes plantean importantes desafíos para defender el discurso político y
mantener la cohesión social.

Matías Lavanda Oliva  93


Lawgic Tec - Revista de Derecho y Tecnología

En consecuencia, necesitamos urgentemente iniciar un debate estratégico destinado a desarrollar un


enfoque defensivo eficaz contra esta amenaza emergente. Actualmente, el Perú no está tan afectada por
esta tecnología como otros países. Esto sugiere que Perú se encuentra en una fase inicial para abordar
este nuevo reto y que aún hay tiempo para desarrollar respuestas eficaces, puesto que, es poco probable
que las medidas individuales aisladas tengan efecto.
La intensificación de la influencia en los procesos políticos que ejercen los deepfakes es un reto comple-
jo que requiere un enfoque múltiple que combine disposiciones legales complementarias, soluciones
técnicas y medidas de educación pública para abordarlo. Los elementos y las medidas expuestos en este
artículo requieren un debate político que debe comenzar ahora.
Si el marco legal merece ser adecuado para hacer frente a este fenómeno, el enfoque beneficia en
nuestra opinión que se lleve a cabo, no en defensa de la verdad, sino en defensa del derecho a la pri-
vacidad, el derecho a la imagen, la protección de la dignidad, el honor, o los intereses democráticos y
la sinceridad de las elecciones.

94 Julio 2022. pp. 84-95.


Deepfake: Cuando la inteligencia artificial amenaza el Derecho y la Democracia

Bibliografía
Álvarez, B. & Oporto, G. (2018). Sí, “pasar el pack” ahora es delito, pero...Recuperado de https://laley.
pe/art/6164/si-pasar-el-pack-ahora-es-delito-pero
BBC News. (2017). El falso Barack Obama creado con inteligencia artificial capaz de hablar como si
fuera el original. Recuperado de: https://www.bbc.com/mundo/media-40632577
Choudhury, A. (2019). GANs Can Swap Faces Now With FSGAN: A New Deep Learning Approach
To Face Swapping. Analytics India Magazine. Recuperado de: https://analyticsindiamag.com/gans-
can-swap-faces-now-with-fsgan-a-new-deep-learning-approach-to-face-swapping/
CNN en Español. (2016). Donald Trump derrota a Clinton y gana la presidencia de EE. UU. Recupe-
rado de: https://cnnespanol.cnn.com/2016/11/08/resultados-eleccion-estados-unidos/
Goldstein, J. (2021). Revenge porn’ was already commonplace. Washintong Post. Recuperado de:
https://www.washingtonpost.com/lifestyle/style/revenge-porn-nonconsensual-porn/2020/10/28/
603b88f4-dbf1-11ea-b205-ff838e15a9a6_story.html
Goodfellow, I. & Cía. (2014). Generative Adversarial Nets. International Conference on Neural Infor-
mation Processing Systems.
Hao, K. (2022). What is machine learning? MIT Technology Review. Recuperado de: https://www.
technologyreview.com/2018/11/17/103781/what-is-machine-learning-we-drew-you-another-
flowchart/
Metz, R. (2019). A deepfake video of Mark Zuckerberg presents a new challenge for Facebook. CNN Bu-
siness. Recuperado de: https://edition.cnn.com/2019/06/11/tech/zuckerberg-deepfake/index.html
Sandler, R. (2019). Instagram Won’t Take Down Mark Zuckerberg Deepfake. Forbes.
Schewe, J. (2000). Thomas & John Knoll. Photoshop. Internet Archive. Recuperado de: https://web.
archive.org/
Somers, M. (2020). Deepfakes, explained. Massachusetts Institute of Technology.
Stelter, B. (2016). Noticias falsas, violencia real: el ‘Pizzagate’ y las consecuencias de la desinformación en
internet. CNN en Español. Recuperado de: https://cnnespanol.cnn.com/
Webwise.ie. (2021). Explained: What Are Deepfakes? Recuperado de: https://www.webwise.ie/news/
explained-what-are-deepfakes/
Wicht Rossel, J.L. (1959). El derecho a la propia imagen. Lima: Derecho PUCP.

Matías Lavanda Oliva  95

También podría gustarte