DEEPFAKES ¿ESTA EN PELIGRO LA REALIDAD? ¿ES POSIBLE PROTEGERSE DE LA MANIPULACIÓN CON INTELIGENCIA ARTIFICIAL?
Actualmente con la IA (inteigencia artificial) es posible
generar multiples aplicaciones en el área de la información, medicina, la ingeniería,
arquitectura, astronomía etc.
Sin embargo en esta ocasión vamos a hablar de algo no tan
positivo que surgio a raíz de este avance. Nos referimos a los famosos Deep
Fakes que han dado de que hablar en los últimos meses debido a la preocupación que
han provocado no solo en aquellos que se dedican a la investigación de la
inteligencia artificial sino también en gobiernos.
Y para explicarlo, primero tenemos que entender que son las GANs (Redes Generativas Antagónicas).
¿Qué son las GANs?
Tal y como su nombre lo indica las GANs no son mas que colocar
una red neuronal discriminativa (antagonica) a confrontarse o competir contra
una red neuronal regular generativa. Recordemos que las redes neuronales son un
sistema de machine learnig que busca de forma artificial recrear una neurona biológica
valiéndose de nodos y enlaces que se pueden ajustar haciéndolas pasar por un
proceso de “entrenamiento”.
Básicamente la red discriminativa entra al juego con un modelo ya previamente entrenado, mientras que la red generativa entra al juego intentando acertar con las imágenes o audio que se ajusten a las que ya tiene ajustadas el modelo discriminador. La red generativa moverá su primera ficha enviando una imagen de bytes basura conocida como “ruido”, dicha de principio se sabrá que es incorrecta pero tiene el único propósito de ser descartada de inmediato por la red discriminativa, ya que la red generadora espera que su contrincante forzosamente la descarte arrojando una señal sobre los errores que justifican el descartar esa imagen.
De esta forma la red generativa realizara pequeñas
correcciones y nuevos intentos continuamente rechazados hasta poder encajar con
el modelo mas exacto posible. Pero el juego no solo se tratara de un simple “frio” y “caliente” intentando acertar un modelo, lo interesante es que la red generadora
intentara engañar a la red discriminadora tratando de meterle datos falsos de
la imagen como si fuesen reales valiéndose de ambigüedades, lo que forzara a la
red discriminadora a perfeccionar la verificación de su modelo para no continuar
siendo engañada. Es justamente este continuo proceso de intento de engaño
y verificación lo que genera una estructura asociativa tan exitosa capaz de
crear imágenes nuevas a través de conceptos ya preestablecidos.
¿Y Cual Es La Amenaza?
El problema surge debido a que esta tecnología también puede ser utilizada para diversos
fines de engaño y manipulación. Los mas famosos son el utilizarlo sobreponer
caras de personas influyentes en distintos cuerpos o incluso conservar la
imagen y el movimiento para que dicha persona diga o realice acciones que jamás realizo pero siendo estas
indiferenciables de un video real ya que están basadas en mecánicas reales aprendidas rigurosamente. De momento solo
se ha utilizado de forma didáctica pero el potencial destructivo para la
sociedad y la guerra mediática es mas que obvio. No seria difícil con este tipo
de tecnología causar eventos de indignación generalizada que puedan desencadenar
incluso guerras armadas.
¿Hay alguna forma de
contrarrestarlo?
Aunque ya existe financiación de programas por parte de
distintas entidades privadas y gubernamentales para mitigar el impacto de esta
nueva tecnología los cierto que yo soy de los que piensa que se ha llegado a un
punto de no retorno, ya que la inteligencia artificial desencadenada tiene una capacidad
de impacto y evolución superior a la capacidad de mitigación por parte de las
leyes y las investigaciones.
Sin embargo he propuesto una posible sistema para contener esta
potencial amenaza en un futuro:
La única forma real de hacerlo es enfocándose directamente
en lo que no necesariamente esta al
alcance de ser manipulado por la inteligencia artificial, en otras palabras, el
punto de origen, el tiempo, el hardware y la infraestructura. Ej:
1. Cada
video y audio originalmente grabado deberá
tener una huella digital.
2. Tomando
en cuenta que las composiciones de videos están hechas con fragmentos de otros
videos y audios, cada dispositivo debe generar esta huella digital en el mismo
momento que el que se esta generando el material desde el dispositivo de origen.
3. La suma
de estas huellas autenticadas dentro de un video editado debe generar un sello
de autenticación, dicho sello será procesado y generado en una capa aparte o en
una red alterna que este aislada del internet y que estará dedicada únicamente
a esta tarea.
4. Este sello deberá ser colocado sobre
cada video que se suba a la red y sobre una capa de desarrollo igualmente
separada del material audiovisual.
De esta forma por medio de una autenticación
efectiva y visible la población podrá identificar
fácilmente un video confiable como material de información de otro que no lo
es. Naturalmente esto requerirá replantear la fabricación de los dispositivos y
desarrollar nuevos protocolos de red enfocados a esta nueva tarea.
En el siguiente esquema hago una representación de un potencial sistema que diseñe para mitigar el efecto de los DeepFakes :
En el siguiente esquema hago una representación de un potencial sistema que diseñe para mitigar el efecto de los DeepFakes :
Como se aprecia en el gráfico propongo un enfoque de procesamiento inicial e intermedio en la capa de red y de hardware antes de enviar el resultado de autenticación sobre dos capas de software independientes que asilen la capa del proceso de detección de la capa potencialmente manipulada por inteligencia artificial.
ARTICUL0