30 junio 2021

Atrapados sin salida: entre las fake news y las deep fake

He tomado el título en español de la película estadounidense de 1975 dirigida por Miloš Forman porque enfrentamos el desafío individual y social de zarandear nuestra privacidad, democracia y seguridad nacional, debido al contenido digital falso y profundo que se trafica entre los medios sociales

Iconografía del contenido
Haga click sobre imagen para ampliar

Al parecer la emancipación del contenido digital engañoso, profundo y falso no se resuelve ni con tecnología forense, ni con más libertad de expresión, ni con leyes restrictivas, si no con el compromiso de la voluntad fundamental del público para contrarrestar las mentiras y participar en un discurso razonado.

Según los profesores Robert Chesney, director del Centro Robert Strauss para la Seguridad y profesor de Derecho Internacional de la Universidad de Texas, y Danielle Citron, profesora de Derecho de la Universidad de Maryland, existen tres enfoques tecnológicos contra las deep fake o falsificaciones profundas:

  1. tecnología forense que detecta falsificaciones profundas mediante medios técnicos;
  2. tecnología de autenticación del contenido previo a que se propague que aplica la solución procedencia digital; y 
  3. tecnología para "servicios autenticados de coartada" que considera a las deep fake peligrosas para las personas de alto perfil, especialmente políticos y celebridades.

Investigaciones en tecnología forense dedican mucho tiempo y esfuerzo a crear falsificaciones profundas creíbles. Entonces, los académicos interesados solicitamos que también se desarrollen métodos de detección mejorada similar al elaborado en 2018 por científicos informáticos de Dartmouth y la Universidad de Albany.

Aquel software creado detectó videos con falsificación profunda al buscar patrones anormales en el movimiento de los párpados de las personas expuestas. La empresa Gyfcat, que promueve “la mejora de la experiencia en la visualización GIF en el siglo 21 … porque se reproduce en todas partes … y se repite una y otra vez”, ha desarrollado Inteligencia Artificial contra la pornografía falsa, con base en los proyectos Maru y Angora. Estos enmascaran el rostro humano expuesto en el video con posible falsificación profunda y lo busca en Internet para ver si ese cuerpo y esas imágenes de fondo existen en otro lugar.

Por ahora la tecnología contra la visualización de las deep fake de Reddit, Pornhub y otras comunidades virtuales se apoya en prohibir las palabras clave con que los usuarios etiquetan manualmente el contenido audiovisual con falsificación profunda. El profesor Hany Farid, especialista en análisis de imágenes digitales de la Escuela de Información de la Universidad de California y pionero del PhotoDNA, una tecnología que identifica y bloquea la pornografía infantil, ha advertido que "estamos a décadas de tener tecnología forense que ... declararía de manera concluyente una falsificación. Si realmente queremos engañar al sistema, se comenzarán a construir formas deep fake para romper la tecnología forense".

La autenticación del contenido antes que se propague también es un desarrollo de las corporaciones privadas. Existe avance en las formas para grabar digitalmente video y audio utilizando metadatos distribuidos por blockchain, que se registran de manera inmutable en una especie de libro de contabilidad. Por ejemplo, la compañía Truepic lo realiza. Así se auto-promociona como plataforma líder en la verificación de fotos y de videos para enfrentar a la desinformación.

Un lecto-autor podría marcar efectivamente su contenido con un registro de autenticidad que usará más adelante como referencia para comparar falsificaciones sospechosas. En teoría esta solución denominada procedencia digital enfrenta dos impedimentos: debe de implementarse de modo ubicuo por la amplia variedad de dispositivos con que se captura el contenido digital y debe tener la condición previa de cargar el contenido en las plataformas digitales más populares para que su uso sea globalmente extensible. Hay barreras para su implementación, no obstante. Según los fabricantes de los dispositivos esa autencidad interferiría con el rendimiento de sus productos mientras que para las plataformas de medios sociales se perderían cuotas de mercado frente a los competidores menos rigurosos de tal implemento.

El tercer enfoque tecnológico de "servicios autenticados de coartada" es el más especulativo frente a la intimidad ya que significa que las personas de alto perfil se protegerán contra las deep fake con base en las prácticas de registro en todos los aspectos de su vida. Es decir, usarán contenido digital profundamente invasivo pero demostrable para certificar dónde estaban, qué decían o qué hacían en cualquier momento y en cualquier lugar. De facilitar su adopción, además de las personas de alto perfil sensible, algunos empleadores considerarán válida su aplicación para ciertas categorías de trabajadores o los departamentos de policía obligarán a sus agentes que utilicen cámaras corporales, como se viene haciendo en algunos estados de EE.UU. Esta "autenticación de coartada" amplia en extenso la vigilancia del registro a todas nuestras actividades al modo en que lo hace el gobierno comunista de China.

En general, el reto de las tecnologías que protegen contra las deep fake o falsificaciones profundas estriba en que el software detector, que podría ser el mismo con el que se crea ese contenido, debe continuar con el ritmo de las innovaciones de la tecnología de la falsificación profunda y, en caso que se pudiera implementar en las plataformas de medios sociales, elimine los daños en vez de reducirlos. Pero claro, ¡todo seguirá en manos privadas!

¡Enfrentar a las noticias falsas!

En relación con la aventura de las fake news o contenido de noticias falsas, muy común de los medios masivos que ayudan a extenderlo, la solución posible contra aquellos sesgos es la argumentación, sin menoscabo de la libertad de expresión y muy a pesar de sus variedades. También aquí hay algunos desafíos por vencer.

El sesgo de confirmación -como proceso complementario de la capacidad intelectual-, verbigracia, es una tendencia natural heterogénea del razonamiento humano efectivo para “creer demasiado en la hipótesis preferida”, indicaba en 1995 Joshua Klayman, Ph.D en psicología cognitiva y del desarrollo y profesor Emeritus en Ciencia del Comportamiento. De su artículo "Varieties of Confirmation Bias" (en Psychology of Learning and Motivation, 32, 385-418) palabras más, palabras menos, significa cómo confirmamos y cómo desaprobamos nuestras creencias. El asunto central es que un calificado proceso cognitivo implica reconocer evidencias que comprueben nuestras creencias y -para algunos teóricos- se puede terminar confiando en exceso en esas creencias únicas, si la persona no ha gestionado una consideración completa y justa de las pruebas. De tal modo que valorar nuestras creencias es igual a buscar y evaluar evidencia mixta (que ratifique y que controvierta).

Para examinar los efectos de la capacidad intelectual en el razonamiento de adolescentes, se presentó en el primer lustro de 1990 evidencia científica significativa frente a las afiliaciones religiosas de 50 jóvenes. La evidencia coherente retrató favorablemente las afiliaciones religiosas de los adolescentes mientras que la evidencia inconsistente reflejó esas afiliaciones desfavorablemente mientras la evidencia neutral fue irrelevante para las afiliaciones de los participantes. Estos resultados en el estudio de Paul Klaczynski y David Gordon, de la Universidad de Western Carolina, indicaron que las amenazas a la validez de la evidencia se detectan con mayor frecuencia en las pruebas sobre creencia inconsistente. Se muestra entonces que el razonamiento de los adolescentes está sistemáticamente sesgado para proteger y promover sus creencias preexistentes.

Otra investigación exploratoria fue diseñada en 2016 con dos preguntas de investigación: ¿Existen diferencias entre grupos sustentadas en el efecto de los objetivos del discurso argumentativo sobre el sesgo de confirmación, medido con el cambio de prueba previa a prueba posterior, en la polarización de la opinión y en la interpretación de la evidencia contradictoria? ¿Existen diferencias entre grupos sustentadas en el efecto del compromiso social debido a la argumentación independiente, medida a través del uso de meta declaraciones sobre el diálogo, en ensayos escritos posteriores a la prueba?

El estudio consistió en presentar tres tipos de evidencia gráfica a los jóvenes participantes: i) datos que respaldaran su visión inicial, ii) datos ambiguos que podrían interpretarse de cualquier manera, y iii) desafíos ante su visión inicial. Los participantes fueron asignados por parejas con base en una de estas dos condiciones del objetivo del discurso argumentativo: debatir para persuadir o para argumentar y controvertir para llegar a un consenso. Las respuestas se recolectaron a través de un ensayo argumentativo personal escrito antes y después del diálogo por chat con el compañero quien tenía una opinión opuesta.

El estudio mostró que los ensayos argumentativos de los jóvenes asignados a la condición de persuasión o argumentación estaban más propensos a malinterpretar la evidencia y menos inclinados a considerarla fuente de su diálogo con respecto a las parejas asignadas bajo la condición de consenso. Para Constanza Villarroel, co-autora del estudio (en Psychology of Learning and Motivation, 79, 167-179) e investigadora de la Universidad San Sebastián de Chile, “los objetivos del discurso orientados al consenso producirán un compromiso más consciente y colaborativo con la evidencia que no los confirma y reducirán el sesgo de confirmación en los argumentos escritos en comparación con los objetivos de persuasión”. También considera que hay fuerte indicio para que los objetivos del discurso puedan ser un factor clave en el modo en que los individuos procesan e interpretan la evidencia.

La solución legal

Ningún régimen vigente, penal o de responsabilidad civil, prohíbe la creación o la distribución de fake news ni de deep fake. Los profesores de derecho Chesney y Citron ya citados se preguntan si un principio a tal ley sería normativamente atractivo y, de ser así, si será admitida constitucionalmente. Por el momento, la prohibición total no es deseable ya que la manipulación mediante contenido digital creado con falsificación profunda causa daño significativo en ciertos contextos, no en todos. Por su parte, la prohibición relativa contra la falsificación profunda impediría las modificaciones de rutina que mejoran la transparencia del contenido digital. Entretanto, la prohibición absoluta inhibiría la participación en el discurso político y en la cultura democrática.

Será bastante difícil elaborar una norma que prohíba las aplicaciones destructivas de la tecnología de falsificación profunda y excluya a las tecnologías beneficiosas debido a que el camino de la normalización contiene otras muchas inquietudes pensadas por expertos en derecho. Por ejemplo, ¿qué pasaría si una ley requiriera pruebas de los daños graves ante la intención de un creador de engañar mediante deep fake y pruebas de cómo se redujeron las preocupaciones por ese discurso público? La prevención del juez al aplicar aquella ley recaería entonces en la evidencia del discurso: que es falso, que ocasionó ofensa y que fue mitigado en lo social. Los dos académicos citados antes sostienen que esa mera prohibición “podría disminuir las dos expresiones cruciales: auto gobierno y cultura democrática”.

Con base en la tradición estadounidense de la libertad de expresión y del poder ideológico otorgado al gobierno para elegir ganadores y perdedores en el ámbito de las ideas, apoyado en casos juzgados, Frank Michelman, profesor de Harvard Law School, argumenta que “nuestros antepasados no confiaron en ningún gobierno para que separara por nosotros lo verdadero de lo falso ... Nosotros deberíamos estar eternamente vigilantes contra los intentos de controlar la expresión de aquellas opiniones que detestamos.”

Independiente de las tres tipologías de tecnología contra la falsificación profunda, de prohibirse legalmente las deep fake se plantearía la ejecución de un espectro de sanciones por difamación frente a los actuales o futuros oficiales en cargos gubernamentales, como recientemente algunos funcionarios públicos de EE. UU. las pidieron, con base en declaraciones de Donald Trump publicadas en sus medios sociales: “Nuestras actuales leyes de difamación son una farsa”; “Clarence Thomas respalda el llamado de Trump a cambiar la ley de difamación para facilitar demandas contra los medios”.

James Weinstein, catedrático de Derecho Constitucional en la Universidad de Northwestern, explica que el desagrado por los puntos de vista minoritarios o impopulares, combinado con la ambigüedad de la intención de un creador de deep fake, podría resultar una aplicación politizada. Su argumento es que “los funcionarios gubernamentales hostiles frente al punto de vista de un orador están más propensos a creer que ese orador sabía que su declaración era falsa, mientras que los funcionarios de gobierno quienes comparten la perspectiva ideológica de un orador estarán más propensos a encontrar que cualquier declaración falsa es un error inocente de ese orador. Por su parte, el riesgo de selectividad censurada por fiscales distorsionará las perspectivas puestas a disposición del público.”

Considerando las deep fake una actividad expresiva, implican libertad de expresión así transporten intencionalmente en su contenido declaraciones falsas. Los delitos contra la libertad de expresión en la historia de la Corte Suprema estadounidense han confirmado el postulado desde 1964, con la decisión por el enfrentamiento judicial The New York Times contra Sullivan (considerado el origen de la doctrina ‘Malicia real’ de la libertad de prensa). Entonces se dijo: el discurso falso goza de protección constitucional en la medida en que su prohibición aplacaría al habla veraz. 

Sin embargo, el mayor avance de la Corte norteamericana lo efectúo en 2012 con el caso Estados Unidos versus Álvarez que falló con pluralidad de opiniones concurrentes de sus nueve miembros. La mayoría de los jueces planteó que una ley destinada a regular la falsedad que proporciona daño puede ser admisible si no lesiona desproporcionadamente los intereses de la Primera Enmienda, mientras que los magistrados disidentes negaron la protección de la Primera Enmienda ante las declaraciones falsas fácticas que causan daño ya que no tienen un propósito legítimo. No obstante, aquella Corte, en consenso, concluyó que la regulación para las declaraciones falsas que involucran historia, política, literatura y otros asuntos de interés público requiere una revisión estricta desde el escrutinio.

En general, quienes discuten la teoría del discurso de la libertad de expresión amparado en la Primera Enmienda de la Constitución de Estados Unidos evocan dos niveles: el discurso de alto valor con protecciones de rigor y el discurso excluido de la cobertura de la Primera Enmienda. Para esta segunda categoría, el discurso no cubierto que ofrece escasa propensión a provocar daños graves y es limitado en la contribución a los valores de la libertad de expresión, podría estar sujeto a regulación y, como falsificación profunda, se clasificaría en difamación a personas privadas, fraude, amenazas verdaderas e incitación inminente y probable a la violencia, según Geoffrey Stone, profesor distinguido en la Facultad de Derecho de la Universidad de Chicago.

El final de la película no se centra en la prohibición a las aplicaciones destructivas de la tecnología con que se construye contenido con falsificación profunda. Hacerlo así disminuiría las expresiones estelares de auto gobierno y de cultura democrática. Tampoco consiste en extirpar los puntos de vista minoritarios o impopulares ni mucho menos evitar las mentiras como fuente del discurso de los funcionarios públicos: resultarían juicios politizados.

Si no es con la ley entonces es con la moral. En consecuencia, tenemos la responsabilidad civil de diferenciar el discurso integral de las conductas delictivas, como extorsión, chantaje y perjurio, que son problemas intangibles pero reales que causan daño al público y al individuo como objetivos. Así lo aporta Helen Norton, docente de Derecho Constitucional (en libertad de expresión e igualdad) y Derechos Civiles en la escuela de Leyes de la Universidad de Colorado. De modo que salir de semejante encrucijada que nos encierra en la deep fake y en la fake news puede ser mediante la proliferación del denominado ‘registro de vida’ pero tendría también tremendo impacto indirecto sobre la privacidad en general.

Supongamos por un momento que el “descifrado de la privacidad”, advertido por Scott Peppet, sea en efecto el futuro prospecto individual para que las personas renuncien a su privacidad voluntariamente. Correremos entonces más riesgos quienes nos abstenemos por la inferencia social de que tenemos algo que esconder. Por ahora, para contrarrestar el contenido con historia falsa y falsedad profunda, cada vida está en el compromiso de la voluntad del prójimo para participar a través del discurso razonado.

15 junio 2021

El problema del contenido Deep Fake

Sectores del Norte Global cuestionan si las tecnologías ‘peligrosas’, impulsadas bajo inteligencia artificial, son tendencia del mercado de los insumos 

Iconografía del contenido
Haga click sobre imagen para ampliar
La tecnología para crear contenido deep fake (falsificación profunda) está en la vanguardia de la actual suplantación digital debido al aprovechamiento de los algoritmos con base en el aprendizaje automático y en la creación de imitaciones realistas.

Para llevar a cabo la falsificación profunda se inserta primero tanto caras como voces de personas en grabaciones de video y de audio. El resultado, por tanto, es la emulación realista que alguien hizo o dijo algo, sin su consentimiento, y obvio, el contenido es una falsedad. Asegurar la difusión, el incremento de la viralidad y el enganche del mensaje es cuestión de responsabilidad del usuario de las plataformas de medios sociales.

Durante el desarrollo del tratamiento de imágenes, entiéndase ensamble de iluminación, aplicación de filtros, etc. la tecnología ha estado presente mejorando la calidad de la puesta en escena. La cuestión, ahora, es que esa diligencia tecnológica no es inocua pues se hace con el acérrimo propósito de modificar las imágenes, de forma superficial y sustantiva. La galería “Photo Tampering Throughout History” almacena colecciones de fotografías manipuladas, por ejemplo. Hasta ese campo visual ha llegado la ciencia forense digital para enfrentar el desafío de desenmascarar la alteración. 

En archivos de audio también existen convincentes modelos deep fake. Una lista rápida puede incluir “Wavenet” de Google DeepMind, “DeepVoice” de Baidu, entre otros. No obstante, la oralidad está libre de detecciones pero el aprendizaje automático promete capitalizar el fraude.

Modelos de tecnología para originar deep fake están a la vista de quien rastree a través de un motor de búsqueda con el keyword Gan: “redes adversas generativas”. Este enfoque ingeniado por Ian Goodfellow, investigador de Google, trabaja con dos redes neuronales simultaneas: la generadora que produce una muestra desde un conjunto de datos para imitar y la otra, discriminadora que evalúa iterativamente el grado de éxito de imitación de la red generadora. Ninguna de las dos se agobia, ambas superan en velocidad, escala y variedad lo que podrían hacer los supervisores humanos.

Todo este conjunto de falsificación profunda es originado por empresarios privados, pues por el momento “no hay subvenciones de la National Science Foundation que otorguen dólares federales a los investigadores por estudiar la detección del contenido manipulado en video y en audio”, sostienen Bobby Chesney y Danielle Citron, profesores investigadores de Derecho en University of Texas School of Law y Boston University School of Law, en su orden. De manera que el peligro frente a la defensa y los usos hostiles está latente si se desecha la ética durante la creación o modificación del algoritmo y, sobre todo, por su rápida democratización.

El Futuro de la tecnología de violencia

Con lo visto en el desmedido encierro y en la extremista inmovilización social, la pandemia pública (o mejor, sindemia) en salud-economía imputada al Covid-19, algunos sectores del Norte Global han cuestionado si las tecnologías ‘peligrosas’, impulsadas bajo inteligencia artificial, tales como armas de fuego autónomas o drones para vigilancia o automóviles autosuficientes, que libremente se venden al público a precios modestos, son tendencia del mercado de los insumos suficientes. El motivo destacado  es que el mercado de los insumos escasos -como el conocimiento- es de obligada restricción. Esa difusión del peligroso deep fake se gesta si y solo si la tecnología está construida para funcionar y, por ahora, funciona debido a que no es un recurso intangible, como la información.

La capacidad de difusión de la tecnología deep fake depende de

  1. acceso al campo de los conocimientos enfocados hacia el aprendizaje automático, 
  2. los servicios encausados a través de herramientas sencillas de usar que aumentan, se implementan y se propagan en línea, 
  3. las acciones en red que apropian los usuarios mediante el usual sesgo cognitivo.
Recordamos que en enero de 2018, Emma Gray Ellis, documentó cómo un usuario de Reddit publicó una herramienta para insertar rostros de celebridades en videos porno y en menos de dos meses después, el columnista de tecnología de The New York Times, Kevin Roose, creó un video falso de su rostro con la imagen del cuerpo del actor Chris Pratt utilizando 1.861 imágenes de él mismo y 1.023 de Pratt. 

Sesgo cognitivo

Comportamientos de los usuarios frente a la información en línea y la conectividad ubicua global  ocasionan problemas tales como: desindividuación, viralidad y polarización de grupos. Esta cultura digital ha trastocado el viejo modelo de la distribución del contenido centralizado por medios masivos del tipo cadenas de televisión y de radiodifusión, periódicos, revistas y editoras de libros. Esos magnates controlaban la difusión de la información además de influir prominentemente en sus audiencias. Otra porción de responsabilidad está en manos de los usuarios influenciadores (inflamadores, ¿sería mejor?) de medios sociales que amplifican aún más la información en línea con base en tres acciones: la dinámica “cascada de información”, la extensión “filtros de burbuja” y la atracción humana “cámaras de eco” hacia la información negativa y novedosa. 

David Easley y Jon Kleinberg exploran desde 2007 los sesgos cognitivos en el mercado de la información. Para estos académicos la “cascada de información” es el comportamiento común en los medios sociales, resultado de cuando las personas dejan de prestar suficiente atención a su propia información y, en cambio, confían en lo que asumen otros y luego transmiten esa información ajena. El sociólogo alemán, Niklas Luhmann, ya en 1966, hablaba de la confianza como problema de la complejidad social (el leit motiv es que nunca se leyó). 

El ciclo de la dinámica “cascada de información” es vicioso pues en la medida que el bucle se repite -“creo, confío y propago lo que el otro me envía”-  se fortalece hacia una catarata. Existen repetitivos y recientes ejemplos: las manifestaciones contra la Ronda del Milenio en 1999 conocidas como “la batalla de Seattle”, los manifestantes de la Primavera Árabe iniciada en 2010 que difundieron videos y fotografías de la tortura policial, el hashtag #BlackLivesMatter de 2013 difundido por activistas afroestadounidenses, las acciones encubiertas de Rusia durante la elección presidencial norteamericana del 2016, el movimiento Never Again de 2018 liderado por estudiantes sobrevivientes del tiroteo en la escuela secundaria Stoneman Douglas de Parkland (EE. UU.) y más actualmente, los más de 50 videos publicados en redes sociales que Human Rights Watch corroboró ante los abusos cometidos por la brutalidad policial de Colombia contra manifestantes en 2021.

Otra capacidad en la cultura del usuario en red es el “filtro de burbuja”, que agrava aún más la difusión de la información falsa. Consiste en la acumulación de respaldos y de acciones que incrementan las posibilidades del algoritmo. Es decir, las personas después de ver en línea recomendaciones de ‘amigos’ tienden a transferir esas influencias a sus propias redes debido a la tendencia humana de compartir la información con la que se está de acuerdo para confirmar sus creencias preexistentes, incluso sin la ayuda de la tecnología. 

Un ejemplo a favor de los “filtros de burbuja” fue reseñado en la investigación de los politólogos, Andrew Guess, Brendan Nyhan y Jason Reifler, quienes midieron la producción y el consumo de noticias falsas en Facebook durante las elecciones presidenciales de EE. UU. del 2016. Ellos encontraron que quienes leyeron los artículos etiquetados con fact-checking (verificación de hechos) antes de haber consumido originalmente fake news no tuvieron problema pero quienes consumieron sin dudar noticias falsas casi nunca leyeron la verificación de hechos ya que podría desacreditarlos.

La tendencia humana por la atracción de lo negativo, incluida la información mediada, ha sido objeto de estudio de científicos de los datos. En 2010, Soroush Vosoughi, profesor asistente de ciencias de la computación de Dartmouth; Deb Roy, director del grupo Máquinas Cognitivas de MIT; y Sinan Aral, profesor de Gestión, IT, Marketing y Ciencias de Datos del MIT, estudiaron 126.000 mensajes compartidos en Twitter, entre 2006 a 2010. Usaron sitios de terceros de verificación de datos para clasificarlos como verdaderos o falsos. La conclusión fue que rumores engañosos y falsos llegan a la gente diez veces más rápido que las historias precisas. Incluso al controlar esas diferencias entre las cuentas originadoras de los falsos rumores, la falsedad obtuvo 70 por ciento más probabilidad de ser retuiteada que la información precisa. 

La hipótesis científica por tanto es que el engaño y los falsos rumores tienen mayor tracción debido a que parecen más novedosos, son pegajosos, evocan lo real y provocan respuestas que expresan sorpresa y disgusto. Por su parte, las historias precisas ocasionan respuestas asociadas con tristeza y confianza.

¿El futuro se tornará más violento usando la tecnología cuyo algoritmo informático, también de creación humana, se construye soportado en el aprendizaje profundo para difundir información negativa o falsa novedad? y cuando no aparece un cerebro pensante que escribe acerca del entorno real lo ocupa un bot que estimula y aumenta de manera automática la propagación de la información falsa y la  falsificación profunda.