DEEPFAKE ¿ESTA EN PELIGRO LA REALIDAD?

DEEPFAKES  ¿ESTA EN PELIGRO LA REALIDAD? ¿ES POSIBLE PROTEGERSE DE LA MANIPULACIÓN CON INTELIGENCIA ARTIFICIAL?


Actualmente con la IA (inteigencia artificial) es posible generar multiples aplicaciones en el área de la información, medicina, la ingeniería, arquitectura, astronomía etc.
Sin embargo en esta ocasión vamos a hablar de algo no tan positivo que surgio a raíz de este avance. Nos referimos a los famosos Deep Fakes que han dado de que hablar en los últimos meses debido a la preocupación que han provocado no solo en aquellos que se dedican a la investigación de la inteligencia artificial sino también en gobiernos.
Y para explicarlo, primero tenemos que entender que son las GANs (Redes Generativas Antagónicas).

 ¿Qué son las GANs?

Tal y como su nombre lo indica las GANs no son mas que colocar una red neuronal discriminativa (antagonica) a confrontarse o competir contra una red neuronal regular generativa. Recordemos que las redes neuronales son un sistema de machine learnig que busca de forma artificial recrear una neurona biológica valiéndose de nodos y enlaces que se pueden ajustar haciéndolas pasar por un proceso de “entrenamiento”.

Básicamente la red discriminativa entra al juego con un modelo ya previamente  entrenado, mientras que la red generativa entra al juego intentando acertar con  las imágenes o audio que se ajusten a las que ya tiene ajustadas el modelo discriminador. La red generativa moverá su primera ficha enviando una imagen de bytes basura  conocida como “ruido”, dicha de principio se sabrá que es incorrecta pero tiene el único propósito de ser descartada de inmediato por la red discriminativa, ya que la red generadora espera que su contrincante forzosamente la descarte arrojando una señal sobre los errores que justifican el descartar esa imagen.

De esta forma la red generativa realizara pequeñas correcciones y nuevos intentos continuamente rechazados hasta poder encajar con el modelo mas exacto posible. Pero el juego no solo se tratara de un simple “frio” y “caliente” intentando acertar un modelo, lo interesante es que la red generadora intentara engañar a la red discriminadora tratando de meterle datos falsos de la imagen como si fuesen reales valiéndose de ambigüedades, lo que forzara a la red discriminadora a perfeccionar la verificación de su modelo para no continuar siendo engañada. Es justamente este continuo proceso de intento de engaño y verificación lo que genera una estructura asociativa tan exitosa capaz de crear imágenes nuevas a través de conceptos ya preestablecidos.


¿Y Cual Es La Amenaza?

El problema surge debido a que esta tecnología  también puede ser utilizada para diversos fines de engaño y manipulación. Los mas famosos son el utilizarlo sobreponer caras de personas influyentes en distintos cuerpos o incluso conservar la imagen y el movimiento para que dicha persona diga o realice acciones que jamás realizo pero siendo estas indiferenciables de un video real ya que están basadas en mecánicas  reales aprendidas rigurosamente. De momento solo se ha utilizado de forma didáctica pero el potencial destructivo para la sociedad y la guerra mediática es mas que obvio. No seria difícil con este tipo de tecnología causar eventos de indignación generalizada que puedan desencadenar incluso guerras armadas.



¿Hay alguna forma de contrarrestarlo?

Aunque ya existe financiación de programas por parte de distintas entidades privadas y gubernamentales para mitigar el impacto de esta nueva tecnología los cierto que yo soy de los que piensa que se ha llegado a un punto de no retorno, ya que la inteligencia artificial desencadenada tiene una capacidad de impacto y evolución superior a la capacidad de mitigación por parte de las leyes y las investigaciones.
Sin embargo he propuesto una posible sistema para contener esta potencial amenaza en un futuro:
La única forma real de hacerlo es enfocándose directamente en lo que no necesariamente  esta al alcance de ser manipulado por la inteligencia artificial, en otras palabras, el punto de origen, el tiempo, el hardware y la infraestructura.  Ej:

1. Cada video y audio originalmente  grabado deberá tener una huella digital.

2. Tomando en cuenta que las composiciones de videos están hechas con fragmentos de otros videos y audios, cada dispositivo debe generar esta huella digital en el mismo momento que el que se esta generando el material desde el dispositivo de origen.

3. La suma de estas huellas autenticadas dentro de un video editado debe generar un sello de autenticación, dicho sello será procesado y generado en una capa aparte o en una red alterna que este aislada del internet y que estará dedicada únicamente a esta tarea. 

4. Este sello deberá ser colocado sobre cada video que se suba a la red y sobre una capa de desarrollo igualmente separada del material audiovisual.
De esta forma por medio de una autenticación efectiva y visible  la población podrá identificar fácilmente un video confiable como material de información de otro que no lo es. Naturalmente esto requerirá replantear la fabricación de los dispositivos y desarrollar nuevos protocolos de red enfocados a esta nueva tarea.

En el siguiente esquema hago una representación de un potencial sistema que diseñe para mitigar el efecto de los DeepFakes :

Como se aprecia en el gráfico propongo un enfoque de procesamiento inicial e intermedio en la capa de red y de hardware antes de enviar el resultado de autenticación sobre dos capas de software independientes que asilen la capa del proceso de detección de la capa potencialmente manipulada por inteligencia artificial.

ARTICUL0

Share this

Related Posts

Previous
Next Post »

Entrada destacada

¿CUAL ES LA DIFERENCIA ENTRE DISCO DURO, RAM, CACHE Y BUFFER?

¿CUAL ES LA DIFERENCIA ENTRE DISCO DURO, RAM, CACHÉ Y BUFFER? Es común que muchas personas se confundan respecto a las diferencias ...