30 noviembre 2021

Gobiernos democráticos inclinados por cibersoberanía

Australia, Estados Unidos, India y Japón, países miembros del Diálogo de Seguridad Cuadrilateral (Quad), publicaron un conjunto de principios sobre tecnología donde refuerzan el énfasis en el "ecosistema tecnológico abierto, accesible y seguro"

Iconografía del contenido
Haga click para ampliar

Este ideal de Internet, que se mantiene desde su creación, se contrapone al que desean imponer Rusia y China y otros estados autócratas para una Internet fragmentada, lo que sería extremadamente costoso, ineficiente en términos de carbono y poco práctico para no hablar de sus técnicas de manipulación, tanto abiertas como encubiertas.

Para expertos como Graham Webster, investigador académico de Stanford University Cyber Policy Center, y Justin Sherman, miembro no residente de Atlantic Council’s Cyber Statecraft Initiative, “dividir Internet a nivel de infraestructura, en dos o más redes independientes, significa duplicar cadenas de suministro altamente complejas”. Así mismo, Hillary Clinton -cuando fue Secretaria de Estado- públicamente expuso que el ideal de "una Internet, una comunidad global y un cuerpo común de conocimiento nos beneficia y nos une a todos".

El desarrollo del tecno-globalismo sentó un ideal sin precedente, después de la Guerra Fría. Diplomáticos, académicos y tecnólogos confiaron y siguen creyendo en aquel libre intercambio abierto como una virtud en sí misma y como único medio para difundir las libertades democráticas de la razón, la política y la economía. Los más utópicos no lo creyeron al punto que, según datos del Banco Mundial, el acceso a Internet y sus beneficios siguen siendo muy desiguales en todo el mundo. Pero las amenazas por campañas de influencia, propaganda falsa, agentes involuntarios, ataques maliciosos, información engañosa, medidas activas, y sobre todo, el poder blando de Rusia y China y otros, están presionando a las democracias para fragmentar Internet.

Infraestructura abierta, pero ¿segura y confiable?

Diferentes gobiernos en diversos momentos han actualizado sus estrategias nacionales de ciberseguridad. India considera a la actual y futura tecnología de la información como “motor crítico del crecimiento de su economía”. Japón aprobó una “ley para evitar ataques rusos como el Olympic Destroyer” frente a sus Olimpìcos 2020 o la Estrategia Internacional para el Ciberespacio ahora “fomenta una infraestructura de comunicación abierta, interoperable, segura y confiable, que respalda al comercio internacional, refuerza a la seguridad internacional e impulsa a la libre expresión y a la innovación”.

Y más reciente, el plan de participación cibernético de Australia en 2015 que alerta en modo proactivo su enfoque de la seguridad cibernética, “invirtiendo recursos para cumplir los desafíos de un entorno cibernético complejo ya que puede incluir pérdidas económicas, daños a la reputación, pérdida de capacidad a la propiedad intelectual e interrupción del negocio” y, Alemania en 2018 que aprobó la Ley de Aplicación de la Red (NetzDG) con la intención de mejorar el cumplimiento de la ley para las redes sociales.

Para Laura Rosenberger, Directora de Alliance for Securing Democracy, algunos demócratas no han reconocido que todas las actividades de la Red ocurren a través de tres dimensiones integradas: información (propagación, control y persuasión con base en narrativas), arquitectura (sistemas y plataformas que transmiten, arreglan, ordenan y recopilan información) y gobernanza (leyes, normas y estándares de contenido, datos y tecnología, en algunos casos) pero sobre todo, tampoco han comprendido completamente lo que ya tienen claro China y Rusia: los dominios del ciberespacio y el entorno de la información convergen cada vez más.

El momento tecnopolar como denomina Ian Bremmer, Presidente del Grupo Eurasia, a la vida en el espacio digital que los gobiernos no pueden controlar por completo, está fuertemente apoyado en los desarrollos de las empresas de tecnología que ejercen un modo de soberanía sobre el comportamiento de los ciudadanos en las plataformas digitales. También dan forma a culturas e interacciones interpersonales mediante notificaciones disimuladas que envían golpes de dopamina al cerebro, algoritmos de inteligencia artificial que completan lo que se escribe y métodos de selección de productos que afectan las compras.

Aquellas maneras de la infraestructura abierta orienta a las personas a emplear su tiempo, buscan oportunidades profesionales y sociales y, en última instancia, imponen ideas y pensamientos. Es un poder en el espacio digital que corre mientras las instituciones continúan caminando por el mundo físico. Una segunda forma en que las tecnológicas se diferencian de las empresas fordistas es que ofrecen más espectro conectivo de productos digitales.

Actualmente cuatro empresas -Alibaba (China), Amazon, Google y Microsoft (americanas)- satisfacen globalmente la mayor demanda mundial en servicios mediante información en la nube, arquitectura de infraestructura informática y gobernanza que proviene del propio código web. Así ya no importa mucho si el mundo es real o qué se necesita para dirigir la sociedad moderna. La pregunta clave es si esta infraestructura abierta es segura y confiable, cuando la rodea la idea generalizada de una Internet fragmentada.

Poder blando

Para el profesor Joseph Nye, el concepto poder blando surge del atractivo positivo de la cultura, los ideales políticos y las políticas nacionales, que se contraponen a la fuerza militar y a la coerción económica. En efecto, la nueva influencia de las élites autoritarias de Rusia, China, estados de Asia, África y Oriente Medio se desarrolla en tres áreas principales:

  1. negocios, donde los gobiernos autócratas invierten en sectores principales del extranjero para obtener beneficios y para ganar influencia dentro de los países anfitriones. Su peor consecuencia en las economías occidentales es la captura de profesionales locales que dependen del patrocinio y se convierten en serviles del tiempo de trabajo y del valor del salario. Cotejar los contratos que Angola paga a banqueros y contables para que blanqueen el dinero y cortejan a los políticos que están dispuestos a defenderlos o los $3 mil millones de dólares de las élites azerbaiyanas con que financiaron pagos personales, lavado de dinero y compras de artículos de lujo en Europa.
  2. partidos políticos, que es el nivel más básico y que algunos estados autoritarios financian a través de organizaciones y amigos políticos. Confrontar los casos de apoyo financiero de Rusia a partidos de extrema derecha como el Frente Nacional de Francia, Jobbik de Hungría, Alternativa para Alemania en Alemania o los acuerdos de cooperación con el Partido de la Libertad de Austria y la Liga del Norte de Italia.
  3. opinión pública e institucional que apoyan usando medios de comunicación, medios sociales, organizaciones no gubernamentales, think tanks e instituciones culturales. Ver como ejemplos las compras de medios de Portugal por angoleños, la cadena de televisión internacional RT de Rusia que ha buscado fracturar las sociedades y los gobiernos occidentales y socavar la fe pública de la democracia liberal desacreditando a las instituciones y funcionarios democráticos mediante medidas activas, los Institutos Confucio de China que funcionan por el mundo como brazo del estado chino ignorando la libertad académica o la difusión agresiva de normas dentro de instituciones internacionales, como la Unión Internacional de Telecomunicaciones -órgano de Naciones Unidas- para cubrir su represión a las libertades en Internet.

A nivel mundial, aquellas minorías pretenden inclinar el orden global hacia el iliberalismo democrático y sus objetivos incluyen además a organizaciones internacionales como ONU, UE y OTAN. Según Ivan Krastev, Presidente del Centro de Estrategias Liberales de Sofía (Bulgaria), “el populismo es un fenómeno global pero en la actualidad no está claro qué es. Por un lado, captura la naturaleza de los desafíos que enfrenta la democracia liberal con peligrosas mutaciones y por el lado contrario, se opone a la naturaleza representativa de las democracias modernas, a la protección de los derechos de las minorías y a las restricciones a la soberanía del pueblo, un rasgo distintivo de la globalización.”

Argumenta Thorsten Benner, Director del Global Public Policy Institute en Berlín, que “los estados autoritarios en los últimos años han buscado audazmente influir en las democracias occidentales para fortalecer sus propios regímenes, debilitar la capacidad de los estados occidentales por desafiar el autoritarismo y para empujar al mundo hacia el antiliberalismo.” Razón por la cual, sugiere desinfectantes en las democracias como transparencia, regulaciones y campañas de concienciación pública mediante el debate público crítico y solicita, a Estados Unidos y gobiernos de la UE, exigir a sus empresas y consultores que revelen las relaciones comerciales, incluso con clientes de estados autoritarios, y a las organizaciones sin fines de lucro, clubes deportivos, grupos religiosos, universidades y partidos políticos que aclaren los fondos que reciben y las condiciones que se les imponen.

China en America

A pesar que Google restringe al tecnológico chino Huawei el uso de Android, China sigue avanzando en la región -con aumento exponencial- en el mercado de los teléfonos inteligentes, donde su cuota de mercado en América Latina pasó de 2,3% en 2013 a 9,4% en 2018, según cifras de la consultora Euromonitor.

La desconfianza hacia China estriba a las redes 5G de telefonía móvil que desarrolla Huawei, aun cuando la empresa ha negado repetidamente que sea espía del gobierno de China. Una segunda defensa advierte que la prohibición "solo servirá para obligar a Estados Unidos a aceptar alternativas peores y más costosas".

Dice Ricardo Mendoza, analista para dispositivos móviles en América Latina de International Data Corporation (IDC), que Huawei se colocó en el top 3 en muchos países de la región como México, Colombia, Perú, Chile, y también en Centroamérica, pero a última hora desistió de las economías de Argentina y Brasil. Además, Tina Lu, analista de la consultora Counterpoint, destaca que en Colombia, Huawei se convirtió en la segunda marca más grande en 2018 con una cuota de mercado de 25%.

La marca china Huawei se observa en aeropuertos, clubes deportivos, selecciones nacionales de fútbol de Panamá, equipos peruanos Alianza Lima y Sporting Cristal; Santa Fe de Colombia; Emelec de Ecuador; América de México; Bolívar de Bolivia; Boca Juniors, River Plate en Argentina, entre otros. En México, Huawei se ha enfocado en dos sectores estratégicos: los jóvenes y los segmentos premium.

Por su parte, el sistema de la democracia soberana de Putin evita que la peligrosa mayoría esté representada políticamente, según el analista Krastev.

Según Latinobarómetro 2020, cerca de 40 de cada 100 ciudadanos de América Latina creen que las grandes empresas tienen poder en su país, siendo esta percepción la idea para que los populistas locales acepten a estados autoritarios e influyan en la democracia.

25 octubre 2021

Manipulación y deep fake destruyen la confianza

¿Cómo es posible que los Guardianes de la libertad de expresión no detecten la actual manipulación de la información considerando el avance de la tecnología?

Iconografía del contenido
Haga click en imagen para ampliar

Para Craig Silverman, reportero de la agencia de noticias independiente ProPublica, quien cubre plataformas digitales, desinformación y manipulación en línea, existen 2 motivos consistentes para la no detección que escalan a nivel global: 

  1. poco dinero en las salas de redacción para invertir en personas y equipos detectores, y
  2. desarrollo de productos tecnológicos desapercibidos debido a los bots.

En efecto, a pesar de las tecnologías disponibles para detectarlos se han desarrollado robots más sofisticados probablemente diseñados para derrotar a otros sistemas. El proyecto Botometer es un Observatorio de Redes Sociales del Network Science Institute de la Universidad de Indiana que comprueba la actividad de una cuenta de Twitter y le da una puntuación alta por manipulación, por ejemplo.

La percepción ciudadana de América Latina frente a los medios sociales y la participación política, medida por el observatorio Latinbarómetro en el año 2020, deja las siguientes tres generalizaciones: a) las redes no sirven para participar en política (estiman 40 ciudadanos en promedio); b) las redes permiten participar en política (piensan 22 latinoamericanos, promedio) y c) las redes crean la ilusión de participar en política (visión de 21 latinoamericanos, promedio).

Otro tema trascendente que sobrepasa a las campañas de desinformación en plataformas de medios sociales es la disminución de la confianza en las instituciones y entre las personas. Latinbarómetro también la midió y sus resultados para el mismo año 2020 concluyen que hay mucha confianza en la ciudadanía encuestada frente a la Iglesia (61 personas de cien así responde) y algo de confianza ante los Partidos Políticos (13 personas de cien la tienen). Sin embargo, desde el año 1996, la confianza interpersonal ha venido en caída pues, para entonces, 22 personas la tenían y para el año 2020 solo doce mantenían algo de confianza en su semejante.

Quizá estos bajos valores son consecuencia de la “profesionalización en las operaciones de manipulación y desinformación en los medios” ya que existen empresas en Filipinas, India y otros lugares que venden paquetes especializados, según cita Sunaina Kumar, investigadora del Observer Research Foundation, a Silverman. En aquel diálogo, el reportero profundizó el concepto 'manipulación de la información' afirmando que “nada se comprende en cuanto a la cantidad de personas expuestas a la información engañosa y frente al origen de esos mensajes.”

Con el periodismo ya no se decide

Emily Bell, profesora británica de práctica profesional en la Facultad de Periodismo de la Universidad de Columbia y directora del Centro Tow para Periodismo Digital, escribe que “las plataformas tecnológicas se vieron obligadas a reconocer su papel durante la mortífera insurrección al Capitolio norteamericano en enero de 2021 debido al "envenenamiento de la atmósfera mediática", pues fueron principales distribuidores de noticias digitales y fuentes de falsa información.” En efecto, tardíamente, Facebook prohibió la cuenta del entonces presidente por incitar a la violencia; Twitter inicialmente marcó sus mentiras incendiarias y luego eliminó algunas de sus publicaciones hasta que finalmente suspendió la cuenta. Parler, una red social popular entre los extremistas de derecha en EE. UU., cerró los servicios de alojamiento web después de ese 6 de enero. Y mientras tanto, los medios masivos se acorralaron por ese poder extraordinario de las plataformas tecnológicas que acoge cualquier historia bajo la definición más vaga posible del rol periodista.

Estas mismas plataformas, desde 1996, anunciaron la noticia de moderar el contenido y verificar los hechos así que los medios masivos lo propagaron al prometer aumentos en la exposición de alta calidad en las historias y eliminación de cualquier información engañosa o errónea. Louis Gordon Crovitz, ejecutivo estadounidense de medios y asesor de empresas de medios y tecnología, quien califica a las fuentes de noticias en función de su credibilidad, dejó ver su frustración por la falta de transparencia de estas tecnológicas pero sobre todo por el problema fundamental de la comprensión de los conceptos centrales fundacionales del periodismo.

Todo sistema de información digital consideraría la gestión de las taxonomías para desarrollar algoritmos de recomendación frente a las noticias personalizadas y los productos de actualidad, sostiene Jennifer Grygiel, profesora de comunicaciones en la Universidad de Syracuse. Ella jugó un papel decisivo ante esa identificación y presionó a las plataformas de medios sociales para que etiquetaran a los medios de comunicación controlados por el estado, como Russia Today y China’s People's Daily. Sin embargo, hay otros como BBC, Voice of America... Tampoco esta iniciativa dejó resultados satisfactorios pues Facebook solo exhibe una etiqueta del Russia Today en la cual advierte “Medio de comunicación de Rusia controlado por el estado”.

En el libro Silicon Values: The Future of Free Speech Under Surveillance Capitalism, de Jillian York, se lee esta preocupación: “es como si tuviéramos muchas discusiones intensas sobre el tema de quién es periodista”. Una contribución puede ser la herramienta de análisis al contenido de código abierto que tiene como objetivo mapear la cobertura de los medios de comunicación en los eventos actuales a través de 5 funciones básicas: a) definición de medios, b) rastreo, c) extracción del texto, d) vectorización de palabras y e) análisis. Mediacloud ha intentado enfrentar los medios nativos digitales contra los medios nativos analógicos sin mucha utilidad. También probó con sitios web de izquierda, centro izquierda, centro, centro derecha y derecha, que fue muy útil y cuyos resultados demostraron a los investigadores que los sitios de derecha estaban creando un bucle de retroalimentación de propaganda mientras presentaban sus ‘noticias’.

Tecnología deep fake

Impera y es, por tanto, peligro global de manipulación de la información al estar causando amenazas y pérdidas masivas de la confianza. Dicha tecnología consiste en propagar contenido de falsedad profunda, especialmente en video y en audio, con el propósito de enfrentar a la democracia. En consecuencia, será un deber asumir este momento más que en serio para pensar. ¿Cómo renovar la certidumbre en los sistemas e instituciones democráticas? Silverman añade que hay que responder acertadamente, ¿cómo usar los medios sociales para el beneficio y no para el engaño?

La falsedad profunda en los contenidos públicos supera la participación política ciudadana. Consiste en dejar de creer en el entorno inmediato lo que arruina la confianza. Fundamenta mayor compromiso para compartir los prejuicios humanos innatos. De seguir al paso que corremos y no querer ver el camino, se sumarán muchos más actores sociales para usar el ecosistema digital con fines de publicitar información engañosa o recopilar los datos personales para generar desconfianza global.

Como ciudadano espero confiabilidad del sistema humano pero primero tengo que despertar mi consciencia, que somos constituyentes del sistema social y de quien debemos esperar información confiable es de nosotros mismos. Luego viene el resto de los demás actores. Por tanto, es importante considerar ¿qué estoy amplificando al compartir un retuiteo?

02 agosto 2021

Es el algoritmo creador de decisiones inconsistentes

Algunos empresarios, con base en auditorías, han ingresado el algoritmo en los procesos como el elemento más radical que reemplaza el juicio humano inconsistente de los profesionales

Infografía del contenido
Haga click en imagen para ampliar

Daniel Kahneman y Linnea Gandhi, profesores de psicología y ciencias del comportamiento, afirman que el estado de ánimo y el clima ambiental cambian las decisiones de una persona y califican como ruido a esa variabilidad causal de los razonamientos. La razón prima en que “la decisión es cuestión de juicios” y se apoya en el cómputo, que siempre devuelve el mismo resultado para un idéntico proceso según sea cualquier entrada.

Las decisiones humanas inconsistentes en los empleados de una misma organización son diarias, arbitrarias, insidiosas, poco confiables. Algunos trabajos estarían libres de ese ruido si tomamos algunos que valoran las existencias, estiman precios a bienes raíces, condenan a delincuentes, evalúan el desempeño del puesto de trabajo, auditan estados financieros, etc. No obstante, las actividades humanas que deben mantener estrictas reglas, que se limitan al juicio objetivo para así garantizan respuestas idénticas en casos idénticos, se pueden alejar de la consistencia o generar diagnósticos incorrectos. Quien toma decisiones coherentes las realiza con base en procedimientos y prácticas establecidas con normas precisas e información exacta pero la investigación académica ha confirmado que en muchas tareas aquellas decisiones no consistentes de expertos son volubles.

Existen dos fenómenos cotidianos relacionados con el impedimento a reconocer que el juicio de los demás contiene ruido: 

  1. los profesionales experimentados tienden a tener alta confianza para la exactitud de sus propios juicios y 
  2. aquellos experimentados obtienen, en consecuencia, gran estima de sus colegas por esa inteligencia.

Esta combinación (confianza -ego- y estimación -alter-) conduce inevitablemente a una sobre notoriedad del acuerdo. Es análogo a lo que ocurre con la apurada redistribución de los memes en las plataformas de medios sociales: las personas esperan que los pensamientos de los demás estén mucho más cerca de los suyos propios y los comparten, como resultado de ese proceso mental. El sociólogo alemán Niklas Luhmann afirmó que “la confianza humana se funda en la motivación atribuida a la conducta, y la conducta sentada en la experiencia -de la cual depende la confianza- debe aparecer como una expresión y reafirmación de la personalidad.”

Imaginemos que, luego de revisar un expediente de préstamo, empleados de alguna sucursal de un mismo banco dejen de seguir las mismas pautas corporativas y respondan distinto, de modo antojadizo, frente a lo causal. Aquella sucursal tendría entonces muchos clientes o ningún cliente afectado. Además de la propia reputación del banco. Ahora supongamos la situación de toma de decisiones por fuera de las pautas tecno-científicas o legales con médicos, jueces, directores de proyectos, en general con profesionales convocados a examinar, juzgar, orientar, construir, etc. guiados por la experiencia y el conocimiento tácito y por principios generales en lugar de reglas rígidas. ¿Es aceptado el rol de tomador de decisión si se espera que sus decisiones contengan invariable causal en sus juicios? Este fue el resultado al evaluar el examen de dos patólogos ante la gravedad de una biopsia: la correlación entre sus calificaciones fue de 0,61 (siendo 1 lo perfecto), baja pero indica que hicieron diagnósticos inconsistentes frente al mismo tejido examinado.

Otro tipo de variabilidad repetida en los juicios de los profesionales son contradictorios, entre los razonamientos previos y los siguientes para ocasiones diferentes. Sea este experimento estereotipo: se pidió a siete profesionales de desarrollo de software, en dos días distintos, que estimaran las mismas sesenta tareas para tres meses cuyo esfuerzo de trabajo se apoyara en procesos no mecánicos e inconscientes. El resultado obtenido fue que 6 de las sesenta tareas se estimaron 2 veces. Es decir, una misma información presentada al mismo individuo en diferentes ocasiones produjo distintas estimaciones de esfuerzo. Para los autores de la prueba, ingenieros del "Simula Research Laboratory" de Oslo, “el alto grado de inconsistencia en las estimaciones de esfuerzo para la misma tarea en los profesionales del software, medida por un mismo estimador, arrojó una diferencia promedio de hasta 71%”.

La primera proposición inevitable de las decisiones humanas inconsistentes es que los profesionales, a menudo, toman decisiones que se desvían significativamente de las de sus pares, de sus propias decisiones previas y de las reglas que ellos mismos afirman seguir. Una causa de lo invisible de este ruido en esa clase de toma de decisiones es que las personas no pasan por la vida imaginando alternativas plausibles para cada juicio que realizan.

Tipos de ruido y de correcciones

Los experimentos a varios profesionales independientes en auditoría al ruido o en evaluación, ante algunos casos reales, han llevado a considerar que existen en el mundo real dos tipos de ruido: la variabilidad de ocasiones -como las decisiones que varían cuando el mismo caso se presenta más de una vez al mismo individuo-, y la variabilidad entre profesionales en el mismo rol quienes toman decisiones diferentes. A decir desde la sociología, según Luhmann, se trata de “evidenciar la confrontación que las uniones permiten: entre causas diversas con el mismo efecto o entre efectos diversos con la misma causa”.

Para modificar el primer tipo de ruido (la variabilidad de ocasiones), la operación más simple para la toma de decisiones es la lista de comprobación. De modo que chequear fomenta un enfoque coherente ante las determinaciones. Por ejemplo, si la sentencia a un expediente emitida por un funcionario está influenciada por su estado de ánimo o si la calidad del solicitante de un préstamo reemplaza el juicio humano inconsistente.

Para el segundo tipo de ruido (la variabilidad entre individuos con el mismo rol) el recuento ya no será tan simple pues se debe explorar la indulgencia o la cautela del tomador de la decisión. Aquí los humanos seguimos teniendo representación importante ante la acción correctiva mediante el seguimiento frecuente a nuestras decisiones o la exploración imparcial que resuelva diferencias. Es decir, la confianza humana sigue ubicada en el nivel más alto desde el cual se describen los objetivos de las decisiones como comprender el pensamiento individual, aumentar la optimización de las herramientas y mejorar la comunicación entre pares.

Entonces, ¿qué pasa con las predicciones y las decisiones asumidas mediante el algoritmo? Ante todo un algoritmo está creado para optimizar el tiempo de atención y “la atención se obtiene a través del miedo, ansiedad, lujuria, con todo lo bajo de las pasiones humanas: enojo, envidia, debilidad...” sostiene Martin Hilber, Ph.D en Comunicación de la Universidad del Sur de California y Doctor en Economía y Ciencias Sociales de la Escuela de Economía y Ciencias Sociales de Alemania. Esta es una visión determinista ya que considera al algoritmo un fin que existe por fuera de los procesos sociales del entorno de las relaciones humanas.

Para David Beer, del Departamento de Sociología de la Universidad de York (Reino Unido), por su parte, “el algoritmo se convierte en fuente de preocupación política, con datos en funcionamiento mediante decisiones algorítmicas.” Se trata, por el contrario, de procesos sociales que modelan el mundo social y se incorporan al sustrato del código informático. Estaría esta visión más cercana a la consistencia humana pues a fin de cuentas el desarrollo algorítmico tiene que ver más con los productos de la mente a partir de un contexto social.

El algoritmo: regla razonada

En consecuencia, estamos más propensos a considerar el concepto de algoritmo como fórmula predictiva, fundamentada en el razonamiento del sentido común. Siendo así, ese modelado del mundo social se entreteje con las prácticas y con los resultados de los individuos, quienes permiten o no la circulación de los datos, la modificación y la re-codificación con el propósito de ajustar los fines.

Para quienes no han desarrollado software, la construcción de un algoritmo parece desalentador. Es cierto que un algoritmo recibe datos de entrada pero basta un pequeño número de casos o ningún dato de resultado absoluto. Lo primordial son las reglas del sentido común, reglas razonadas, que se aplicarán a los datos ingresados. El factor clave de éxito de estas fórmulas es que sus resultados estén exentos del ruido.

Los estudios han demostrado que el algoritmo es la decisión correcta siempre que el criterio único sea evitar los errores. Obvio, no lo será, cuando los entendimientos profesionales sean ruidosos como las prácticas de juicio o las decisiones que implican múltiples dimensiones o dependan de la negociación con la contra parte. Por ejemplo, conducir vehículos.

La construcción de una regla razonada comienza con la selección de pocas variables cuya condición sine qua non es que incontrovertiblemente sean relacionadas con el resultado a predecir. Digamos: si el resultado es el impago del préstamo, los activos y los pasivos se incluirán en la lista de chequeo. La siguiente actividad es asignar a esas dos variables el mismo valor en la fórmula de predicción, estableciendo su signo según la dirección lógica (positivo para activos, negativo para pasivos). La regla razonada se puede construir con unos cuantos cálculos simples, a saber: los activos son superiores a los pasivos por tanto la decisión matemática es aprobar la diferencia del valor pero si el solicitante del préstamo ha sido detenido por orden judicial la decisión humana será revertir el proceso del estudio bancario.

La segunda proposición necesaria afirma que donde existen juicios humanos habrá ruido, difícil de apreciar, y como regla general, la confianza es el lugar propicio para hacer conjeturas sobre la fiabilidad de los juicios humanos: oscilar entre un Alter y un Ego.

Influencias del algoritmo en decisiones políticas

Aun cuando no existe suficiente investigación académica sobre cómo los algoritmos pueden influir en las decisiones y actitudes de las personas, los profesores de la Universidad de Deusto (España), Agudo y Matute, realizaron 4 experimentos para examinar si los algoritmos pueden persuadir a las personas, de forma explícita o encubierta, en el evento previo a unas elecciones.

El resultado del estudio concluyó que i) la persuasión es posible, ii) hay diferentes estilos de persuasión, iii) los estilos de persuasión son más efectivos si dependen del contexto de la decisión y iv) es importante educar a las personas para que no sigan ciegamente los consejos de los algoritmos y desconfíen de su coherencia encubierta.

Los juicios de recomendación entre las personas parecieran que están en desuso ya que la Inteligencia Artificial (IA) ha superado esta habilidad humana. La cultura de la creencia más fácilmente ahora acoge los consejos de anónimos o de extraños que los de contactos cercanos; rápidamente redistribuimos contenido en las plataformas de medios sociales acerca de qué comprar, dónde comer, con quién salir, a dónde ir... Para expertos como Shyam Sundar, profesor en el Colegio de Comunicaciones de la Universidad del Estado de Pensilvania, los juicios desde la IA son 'sesgos de máquina' y se asumen porque fungen como objetivos, eficientes y confiables. No obstante, pocos consumidores de aquel sesgo caen en la cuenta que están siendo manipulados por los desarrolladores del algoritmo y por las empresas que orientan la toma de decisiones importantes para que a ellas les afecte.

Frente al abuso y a la moderación de la manipulación desde las plataformas digitales de medios sociales existen iniciativas institucionales. En la Unión Europea se conoce el documento público “Directrices éticas para una IA confiable”, creado en junio de 2018, con el propósito de promover una inteligencia artificial fiable apoyada en 3 componentes: a) debe ser lícita o cumplir todas las leyes y reglamentos aplicables; b) debe ser ética para que garantice el respeto de los principios y valores éticos; y c) debe ser robusta, tanto desde el punto de vista técnico como social, puesto que los sistemas de IA, incluso si las intenciones son buenas, pueden provocar daños accidentales. Otros estudios dan cuenta que con la IA se puede usar una heurística (adaptabilidad) e inferir los errores sistemáticos y predecibles como el sesgo humano con el propósito de manipular de modo sutil las decisiones humanas. Los votantes de Estados Unidos, por ejemplo, han tenido fuerte influencia que modifica su comportamiento para los periodos de elecciones de Congreso y de Presidencia desde el año 2010.

El vocablo heurística en la psicología de la persuasión no es más que la tendencia reiterativa de imitar el comportamiento de la mayoría y de los amigos (confianza) aun cuando a veces manipule el pensamiento y el comportamiento a favor de los intereses de terceros. Esta tendencia es un atajo del pensamiento que nos evita el desgaste de energía al pensar y con la que emitimos rápidas respuestas ante la demanda de un entorno. La reacción más longeva en la historia de la supervivencia del homo sapiens ha sido correr del peligro antes que recopilar datos necesarios para enfrentarlo.

Otra manipulación con impunidad en momentos de elección política popular se genera en las búsquedas por Internet de candidatos que los expertos han denominado 'efecto de manipulación del motor de búsqueda'. Con el algoritmo de búsqueda se manipulan las clasificaciones de los resultados en las bases de datos, mostrando preferencias que benefician y/o afectan a los diferentes candidatos políticos y, por supuesto, generan impacto significativo ante las decisiones de los votantes. Al respecto Robert Epstein y Ronald Robertson, del Instituto Americano del Comportamiento, Investigación y Tecnología de California, realizaron 5 experimentos controlados aleatorios, con doble ciego, con un total de 4.556 votantes indecisos quienes representaban diversas características demográficas de las poblaciones votantes de Estados Unidos e India. Sus resultados demostraron que el sesgo de clasificación de la búsqueda puede cambiar las preferencias del voto en los ciudadanos indecisos en 20% o más y que ese sesgo de clasificación puede ser enmascarado para que la gente no sea consciente de la manipulación.

Una segunda consecuencia de la manipulación con impunidad es que se aumenta la familiaridad de algunos candidatos políticos para inducir mayor credibilidad. Para Georgios Abakoumkin, de la Universidad de Thessaly (Grecia), su investigación examinó la relación entre las preferencias de elección y dos claves periféricas: “el orden de presentación y la familiaridad”. La evidencia relevante condujo principalmente al denominado efecto de primacía, es decir los primeros candidatos en la lista de resultado de la búsqueda tenían ventaja sobre los candidatos mostrados posteriormente pero la familiaridad del político en las preferencias de voto parecía bastante limitada.

Finalmente, una tercera proposición apodíctica sentencia que la manipulación se ejecuta a través de sutiles estrategias de influencia que generan sesgos cognitivos. Estos reducen nuestro pensamiento crítico. Con la influencia del algoritmo, el comportamiento humano pasa desapercibido y lleva a las personas a sentir que han tomado una decisión libre, aunque estén actuando en contra de sus propios intereses.

30 junio 2021

Atrapados sin salida: entre las fake news y las deep fake

He tomado el título en español de la película estadounidense de 1975 dirigida por Miloš Forman porque enfrentamos el desafío individual y social de zarandear nuestra privacidad, democracia y seguridad nacional, debido al contenido digital falso y profundo que se trafica entre los medios sociales

Iconografía del contenido
Haga click sobre imagen para ampliar

Al parecer la emancipación del contenido digital engañoso, profundo y falso no se resuelve ni con tecnología forense, ni con más libertad de expresión, ni con leyes restrictivas, si no con el compromiso de la voluntad fundamental del público para contrarrestar las mentiras y participar en un discurso razonado.

Según los profesores Robert Chesney, director del Centro Robert Strauss para la Seguridad y profesor de Derecho Internacional de la Universidad de Texas, y Danielle Citron, profesora de Derecho de la Universidad de Maryland, existen tres enfoques tecnológicos contra las deep fake o falsificaciones profundas:

  1. tecnología forense que detecta falsificaciones profundas mediante medios técnicos;
  2. tecnología de autenticación del contenido previo a que se propague que aplica la solución procedencia digital; y 
  3. tecnología para "servicios autenticados de coartada" que considera a las deep fake peligrosas para las personas de alto perfil, especialmente políticos y celebridades.

Investigaciones en tecnología forense dedican mucho tiempo y esfuerzo a crear falsificaciones profundas creíbles. Entonces, los académicos interesados solicitamos que también se desarrollen métodos de detección mejorada similar al elaborado en 2018 por científicos informáticos de Dartmouth y la Universidad de Albany.

Aquel software creado detectó videos con falsificación profunda al buscar patrones anormales en el movimiento de los párpados de las personas expuestas. La empresa Gyfcat, que promueve “la mejora de la experiencia en la visualización GIF en el siglo 21 … porque se reproduce en todas partes … y se repite una y otra vez”, ha desarrollado Inteligencia Artificial contra la pornografía falsa, con base en los proyectos Maru y Angora. Estos enmascaran el rostro humano expuesto en el video con posible falsificación profunda y lo busca en Internet para ver si ese cuerpo y esas imágenes de fondo existen en otro lugar.

Por ahora la tecnología contra la visualización de las deep fake de Reddit, Pornhub y otras comunidades virtuales se apoya en prohibir las palabras clave con que los usuarios etiquetan manualmente el contenido audiovisual con falsificación profunda. El profesor Hany Farid, especialista en análisis de imágenes digitales de la Escuela de Información de la Universidad de California y pionero del PhotoDNA, una tecnología que identifica y bloquea la pornografía infantil, ha advertido que "estamos a décadas de tener tecnología forense que ... declararía de manera concluyente una falsificación. Si realmente queremos engañar al sistema, se comenzarán a construir formas deep fake para romper la tecnología forense".

La autenticación del contenido antes que se propague también es un desarrollo de las corporaciones privadas. Existe avance en las formas para grabar digitalmente video y audio utilizando metadatos distribuidos por blockchain, que se registran de manera inmutable en una especie de libro de contabilidad. Por ejemplo, la compañía Truepic lo realiza. Así se auto-promociona como plataforma líder en la verificación de fotos y de videos para enfrentar a la desinformación.

Un lecto-autor podría marcar efectivamente su contenido con un registro de autenticidad que usará más adelante como referencia para comparar falsificaciones sospechosas. En teoría esta solución denominada procedencia digital enfrenta dos impedimentos: debe de implementarse de modo ubicuo por la amplia variedad de dispositivos con que se captura el contenido digital y debe tener la condición previa de cargar el contenido en las plataformas digitales más populares para que su uso sea globalmente extensible. Hay barreras para su implementación, no obstante. Según los fabricantes de los dispositivos esa autencidad interferiría con el rendimiento de sus productos mientras que para las plataformas de medios sociales se perderían cuotas de mercado frente a los competidores menos rigurosos de tal implemento.

El tercer enfoque tecnológico de "servicios autenticados de coartada" es el más especulativo frente a la intimidad ya que significa que las personas de alto perfil se protegerán contra las deep fake con base en las prácticas de registro en todos los aspectos de su vida. Es decir, usarán contenido digital profundamente invasivo pero demostrable para certificar dónde estaban, qué decían o qué hacían en cualquier momento y en cualquier lugar. De facilitar su adopción, además de las personas de alto perfil sensible, algunos empleadores considerarán válida su aplicación para ciertas categorías de trabajadores o los departamentos de policía obligarán a sus agentes que utilicen cámaras corporales, como se viene haciendo en algunos estados de EE.UU. Esta "autenticación de coartada" amplia en extenso la vigilancia del registro a todas nuestras actividades al modo en que lo hace el gobierno comunista de China.

En general, el reto de las tecnologías que protegen contra las deep fake o falsificaciones profundas estriba en que el software detector, que podría ser el mismo con el que se crea ese contenido, debe continuar con el ritmo de las innovaciones de la tecnología de la falsificación profunda y, en caso que se pudiera implementar en las plataformas de medios sociales, elimine los daños en vez de reducirlos. Pero claro, ¡todo seguirá en manos privadas!

¡Enfrentar a las noticias falsas!

En relación con la aventura de las fake news o contenido de noticias falsas, muy común de los medios masivos que ayudan a extenderlo, la solución posible contra aquellos sesgos es la argumentación, sin menoscabo de la libertad de expresión y muy a pesar de sus variedades. También aquí hay algunos desafíos por vencer.

El sesgo de confirmación -como proceso complementario de la capacidad intelectual-, verbigracia, es una tendencia natural heterogénea del razonamiento humano efectivo para “creer demasiado en la hipótesis preferida”, indicaba en 1995 Joshua Klayman, Ph.D en psicología cognitiva y del desarrollo y profesor Emeritus en Ciencia del Comportamiento. De su artículo "Varieties of Confirmation Bias" (en Psychology of Learning and Motivation, 32, 385-418) palabras más, palabras menos, significa cómo confirmamos y cómo desaprobamos nuestras creencias. El asunto central es que un calificado proceso cognitivo implica reconocer evidencias que comprueben nuestras creencias y -para algunos teóricos- se puede terminar confiando en exceso en esas creencias únicas, si la persona no ha gestionado una consideración completa y justa de las pruebas. De tal modo que valorar nuestras creencias es igual a buscar y evaluar evidencia mixta (que ratifique y que controvierta).

Para examinar los efectos de la capacidad intelectual en el razonamiento de adolescentes, se presentó en el primer lustro de 1990 evidencia científica significativa frente a las afiliaciones religiosas de 50 jóvenes. La evidencia coherente retrató favorablemente las afiliaciones religiosas de los adolescentes mientras que la evidencia inconsistente reflejó esas afiliaciones desfavorablemente mientras la evidencia neutral fue irrelevante para las afiliaciones de los participantes. Estos resultados en el estudio de Paul Klaczynski y David Gordon, de la Universidad de Western Carolina, indicaron que las amenazas a la validez de la evidencia se detectan con mayor frecuencia en las pruebas sobre creencia inconsistente. Se muestra entonces que el razonamiento de los adolescentes está sistemáticamente sesgado para proteger y promover sus creencias preexistentes.

Otra investigación exploratoria fue diseñada en 2016 con dos preguntas de investigación: ¿Existen diferencias entre grupos sustentadas en el efecto de los objetivos del discurso argumentativo sobre el sesgo de confirmación, medido con el cambio de prueba previa a prueba posterior, en la polarización de la opinión y en la interpretación de la evidencia contradictoria? ¿Existen diferencias entre grupos sustentadas en el efecto del compromiso social debido a la argumentación independiente, medida a través del uso de meta declaraciones sobre el diálogo, en ensayos escritos posteriores a la prueba?

El estudio consistió en presentar tres tipos de evidencia gráfica a los jóvenes participantes: i) datos que respaldaran su visión inicial, ii) datos ambiguos que podrían interpretarse de cualquier manera, y iii) desafíos ante su visión inicial. Los participantes fueron asignados por parejas con base en una de estas dos condiciones del objetivo del discurso argumentativo: debatir para persuadir o para argumentar y controvertir para llegar a un consenso. Las respuestas se recolectaron a través de un ensayo argumentativo personal escrito antes y después del diálogo por chat con el compañero quien tenía una opinión opuesta.

El estudio mostró que los ensayos argumentativos de los jóvenes asignados a la condición de persuasión o argumentación estaban más propensos a malinterpretar la evidencia y menos inclinados a considerarla fuente de su diálogo con respecto a las parejas asignadas bajo la condición de consenso. Para Constanza Villarroel, co-autora del estudio (en Psychology of Learning and Motivation, 79, 167-179) e investigadora de la Universidad San Sebastián de Chile, “los objetivos del discurso orientados al consenso producirán un compromiso más consciente y colaborativo con la evidencia que no los confirma y reducirán el sesgo de confirmación en los argumentos escritos en comparación con los objetivos de persuasión”. También considera que hay fuerte indicio para que los objetivos del discurso puedan ser un factor clave en el modo en que los individuos procesan e interpretan la evidencia.

La solución legal

Ningún régimen vigente, penal o de responsabilidad civil, prohíbe la creación o la distribución de fake news ni de deep fake. Los profesores de derecho Chesney y Citron ya citados se preguntan si un principio a tal ley sería normativamente atractivo y, de ser así, si será admitida constitucionalmente. Por el momento, la prohibición total no es deseable ya que la manipulación mediante contenido digital creado con falsificación profunda causa daño significativo en ciertos contextos, no en todos. Por su parte, la prohibición relativa contra la falsificación profunda impediría las modificaciones de rutina que mejoran la transparencia del contenido digital. Entretanto, la prohibición absoluta inhibiría la participación en el discurso político y en la cultura democrática.

Será bastante difícil elaborar una norma que prohíba las aplicaciones destructivas de la tecnología de falsificación profunda y excluya a las tecnologías beneficiosas debido a que el camino de la normalización contiene otras muchas inquietudes pensadas por expertos en derecho. Por ejemplo, ¿qué pasaría si una ley requiriera pruebas de los daños graves ante la intención de un creador de engañar mediante deep fake y pruebas de cómo se redujeron las preocupaciones por ese discurso público? La prevención del juez al aplicar aquella ley recaería entonces en la evidencia del discurso: que es falso, que ocasionó ofensa y que fue mitigado en lo social. Los dos académicos citados antes sostienen que esa mera prohibición “podría disminuir las dos expresiones cruciales: auto gobierno y cultura democrática”.

Con base en la tradición estadounidense de la libertad de expresión y del poder ideológico otorgado al gobierno para elegir ganadores y perdedores en el ámbito de las ideas, apoyado en casos juzgados, Frank Michelman, profesor de Harvard Law School, argumenta que “nuestros antepasados no confiaron en ningún gobierno para que separara por nosotros lo verdadero de lo falso ... Nosotros deberíamos estar eternamente vigilantes contra los intentos de controlar la expresión de aquellas opiniones que detestamos.”

Independiente de las tres tipologías de tecnología contra la falsificación profunda, de prohibirse legalmente las deep fake se plantearía la ejecución de un espectro de sanciones por difamación frente a los actuales o futuros oficiales en cargos gubernamentales, como recientemente algunos funcionarios públicos de EE. UU. las pidieron, con base en declaraciones de Donald Trump publicadas en sus medios sociales: “Nuestras actuales leyes de difamación son una farsa”; “Clarence Thomas respalda el llamado de Trump a cambiar la ley de difamación para facilitar demandas contra los medios”.

James Weinstein, catedrático de Derecho Constitucional en la Universidad de Northwestern, explica que el desagrado por los puntos de vista minoritarios o impopulares, combinado con la ambigüedad de la intención de un creador de deep fake, podría resultar una aplicación politizada. Su argumento es que “los funcionarios gubernamentales hostiles frente al punto de vista de un orador están más propensos a creer que ese orador sabía que su declaración era falsa, mientras que los funcionarios de gobierno quienes comparten la perspectiva ideológica de un orador estarán más propensos a encontrar que cualquier declaración falsa es un error inocente de ese orador. Por su parte, el riesgo de selectividad censurada por fiscales distorsionará las perspectivas puestas a disposición del público.”

Considerando las deep fake una actividad expresiva, implican libertad de expresión así transporten intencionalmente en su contenido declaraciones falsas. Los delitos contra la libertad de expresión en la historia de la Corte Suprema estadounidense han confirmado el postulado desde 1964, con la decisión por el enfrentamiento judicial The New York Times contra Sullivan (considerado el origen de la doctrina ‘Malicia real’ de la libertad de prensa). Entonces se dijo: el discurso falso goza de protección constitucional en la medida en que su prohibición aplacaría al habla veraz. 

Sin embargo, el mayor avance de la Corte norteamericana lo efectúo en 2012 con el caso Estados Unidos versus Álvarez que falló con pluralidad de opiniones concurrentes de sus nueve miembros. La mayoría de los jueces planteó que una ley destinada a regular la falsedad que proporciona daño puede ser admisible si no lesiona desproporcionadamente los intereses de la Primera Enmienda, mientras que los magistrados disidentes negaron la protección de la Primera Enmienda ante las declaraciones falsas fácticas que causan daño ya que no tienen un propósito legítimo. No obstante, aquella Corte, en consenso, concluyó que la regulación para las declaraciones falsas que involucran historia, política, literatura y otros asuntos de interés público requiere una revisión estricta desde el escrutinio.

En general, quienes discuten la teoría del discurso de la libertad de expresión amparado en la Primera Enmienda de la Constitución de Estados Unidos evocan dos niveles: el discurso de alto valor con protecciones de rigor y el discurso excluido de la cobertura de la Primera Enmienda. Para esta segunda categoría, el discurso no cubierto que ofrece escasa propensión a provocar daños graves y es limitado en la contribución a los valores de la libertad de expresión, podría estar sujeto a regulación y, como falsificación profunda, se clasificaría en difamación a personas privadas, fraude, amenazas verdaderas e incitación inminente y probable a la violencia, según Geoffrey Stone, profesor distinguido en la Facultad de Derecho de la Universidad de Chicago.

El final de la película no se centra en la prohibición a las aplicaciones destructivas de la tecnología con que se construye contenido con falsificación profunda. Hacerlo así disminuiría las expresiones estelares de auto gobierno y de cultura democrática. Tampoco consiste en extirpar los puntos de vista minoritarios o impopulares ni mucho menos evitar las mentiras como fuente del discurso de los funcionarios públicos: resultarían juicios politizados.

Si no es con la ley entonces es con la moral. En consecuencia, tenemos la responsabilidad civil de diferenciar el discurso integral de las conductas delictivas, como extorsión, chantaje y perjurio, que son problemas intangibles pero reales que causan daño al público y al individuo como objetivos. Así lo aporta Helen Norton, docente de Derecho Constitucional (en libertad de expresión e igualdad) y Derechos Civiles en la escuela de Leyes de la Universidad de Colorado. De modo que salir de semejante encrucijada que nos encierra en la deep fake y en la fake news puede ser mediante la proliferación del denominado ‘registro de vida’ pero tendría también tremendo impacto indirecto sobre la privacidad en general.

Supongamos por un momento que el “descifrado de la privacidad”, advertido por Scott Peppet, sea en efecto el futuro prospecto individual para que las personas renuncien a su privacidad voluntariamente. Correremos entonces más riesgos quienes nos abstenemos por la inferencia social de que tenemos algo que esconder. Por ahora, para contrarrestar el contenido con historia falsa y falsedad profunda, cada vida está en el compromiso de la voluntad del prójimo para participar a través del discurso razonado.

15 junio 2021

El problema del contenido Deep Fake

Sectores del Norte Global cuestionan si las tecnologías ‘peligrosas’, impulsadas bajo inteligencia artificial, son tendencia del mercado de los insumos 

Iconografía del contenido
Haga click sobre imagen para ampliar
La tecnología para crear contenido deep fake (falsificación profunda) está en la vanguardia de la actual suplantación digital debido al aprovechamiento de los algoritmos con base en el aprendizaje automático y en la creación de imitaciones realistas.

Para llevar a cabo la falsificación profunda se inserta primero tanto caras como voces de personas en grabaciones de video y de audio. El resultado, por tanto, es la emulación realista que alguien hizo o dijo algo, sin su consentimiento, y obvio, el contenido es una falsedad. Asegurar la difusión, el incremento de la viralidad y el enganche del mensaje es cuestión de responsabilidad del usuario de las plataformas de medios sociales.

Durante el desarrollo del tratamiento de imágenes, entiéndase ensamble de iluminación, aplicación de filtros, etc. la tecnología ha estado presente mejorando la calidad de la puesta en escena. La cuestión, ahora, es que esa diligencia tecnológica no es inocua pues se hace con el acérrimo propósito de modificar las imágenes, de forma superficial y sustantiva. La galería “Photo Tampering Throughout History” almacena colecciones de fotografías manipuladas, por ejemplo. Hasta ese campo visual ha llegado la ciencia forense digital para enfrentar el desafío de desenmascarar la alteración. 

En archivos de audio también existen convincentes modelos deep fake. Una lista rápida puede incluir “Wavenet” de Google DeepMind, “DeepVoice” de Baidu, entre otros. No obstante, la oralidad está libre de detecciones pero el aprendizaje automático promete capitalizar el fraude.

Modelos de tecnología para originar deep fake están a la vista de quien rastree a través de un motor de búsqueda con el keyword Gan: “redes adversas generativas”. Este enfoque ingeniado por Ian Goodfellow, investigador de Google, trabaja con dos redes neuronales simultaneas: la generadora que produce una muestra desde un conjunto de datos para imitar y la otra, discriminadora que evalúa iterativamente el grado de éxito de imitación de la red generadora. Ninguna de las dos se agobia, ambas superan en velocidad, escala y variedad lo que podrían hacer los supervisores humanos.

Todo este conjunto de falsificación profunda es originado por empresarios privados, pues por el momento “no hay subvenciones de la National Science Foundation que otorguen dólares federales a los investigadores por estudiar la detección del contenido manipulado en video y en audio”, sostienen Bobby Chesney y Danielle Citron, profesores investigadores de Derecho en University of Texas School of Law y Boston University School of Law, en su orden. De manera que el peligro frente a la defensa y los usos hostiles está latente si se desecha la ética durante la creación o modificación del algoritmo y, sobre todo, por su rápida democratización.

El Futuro de la tecnología de violencia

Con lo visto en el desmedido encierro y en la extremista inmovilización social, la pandemia pública (o mejor, sindemia) en salud-economía imputada al Covid-19, algunos sectores del Norte Global han cuestionado si las tecnologías ‘peligrosas’, impulsadas bajo inteligencia artificial, tales como armas de fuego autónomas o drones para vigilancia o automóviles autosuficientes, que libremente se venden al público a precios modestos, son tendencia del mercado de los insumos suficientes. El motivo destacado  es que el mercado de los insumos escasos -como el conocimiento- es de obligada restricción. Esa difusión del peligroso deep fake se gesta si y solo si la tecnología está construida para funcionar y, por ahora, funciona debido a que no es un recurso intangible, como la información.

La capacidad de difusión de la tecnología deep fake depende de

  1. acceso al campo de los conocimientos enfocados hacia el aprendizaje automático, 
  2. los servicios encausados a través de herramientas sencillas de usar que aumentan, se implementan y se propagan en línea, 
  3. las acciones en red que apropian los usuarios mediante el usual sesgo cognitivo.
Recordamos que en enero de 2018, Emma Gray Ellis, documentó cómo un usuario de Reddit publicó una herramienta para insertar rostros de celebridades en videos porno y en menos de dos meses después, el columnista de tecnología de The New York Times, Kevin Roose, creó un video falso de su rostro con la imagen del cuerpo del actor Chris Pratt utilizando 1.861 imágenes de él mismo y 1.023 de Pratt. 

Sesgo cognitivo

Comportamientos de los usuarios frente a la información en línea y la conectividad ubicua global  ocasionan problemas tales como: desindividuación, viralidad y polarización de grupos. Esta cultura digital ha trastocado el viejo modelo de la distribución del contenido centralizado por medios masivos del tipo cadenas de televisión y de radiodifusión, periódicos, revistas y editoras de libros. Esos magnates controlaban la difusión de la información además de influir prominentemente en sus audiencias. Otra porción de responsabilidad está en manos de los usuarios influenciadores (inflamadores, ¿sería mejor?) de medios sociales que amplifican aún más la información en línea con base en tres acciones: la dinámica “cascada de información”, la extensión “filtros de burbuja” y la atracción humana “cámaras de eco” hacia la información negativa y novedosa. 

David Easley y Jon Kleinberg exploran desde 2007 los sesgos cognitivos en el mercado de la información. Para estos académicos la “cascada de información” es el comportamiento común en los medios sociales, resultado de cuando las personas dejan de prestar suficiente atención a su propia información y, en cambio, confían en lo que asumen otros y luego transmiten esa información ajena. El sociólogo alemán, Niklas Luhmann, ya en 1966, hablaba de la confianza como problema de la complejidad social (el leit motiv es que nunca se leyó). 

El ciclo de la dinámica “cascada de información” es vicioso pues en la medida que el bucle se repite -“creo, confío y propago lo que el otro me envía”-  se fortalece hacia una catarata. Existen repetitivos y recientes ejemplos: las manifestaciones contra la Ronda del Milenio en 1999 conocidas como “la batalla de Seattle”, los manifestantes de la Primavera Árabe iniciada en 2010 que difundieron videos y fotografías de la tortura policial, el hashtag #BlackLivesMatter de 2013 difundido por activistas afroestadounidenses, las acciones encubiertas de Rusia durante la elección presidencial norteamericana del 2016, el movimiento Never Again de 2018 liderado por estudiantes sobrevivientes del tiroteo en la escuela secundaria Stoneman Douglas de Parkland (EE. UU.) y más actualmente, los más de 50 videos publicados en redes sociales que Human Rights Watch corroboró ante los abusos cometidos por la brutalidad policial de Colombia contra manifestantes en 2021.

Otra capacidad en la cultura del usuario en red es el “filtro de burbuja”, que agrava aún más la difusión de la información falsa. Consiste en la acumulación de respaldos y de acciones que incrementan las posibilidades del algoritmo. Es decir, las personas después de ver en línea recomendaciones de ‘amigos’ tienden a transferir esas influencias a sus propias redes debido a la tendencia humana de compartir la información con la que se está de acuerdo para confirmar sus creencias preexistentes, incluso sin la ayuda de la tecnología. 

Un ejemplo a favor de los “filtros de burbuja” fue reseñado en la investigación de los politólogos, Andrew Guess, Brendan Nyhan y Jason Reifler, quienes midieron la producción y el consumo de noticias falsas en Facebook durante las elecciones presidenciales de EE. UU. del 2016. Ellos encontraron que quienes leyeron los artículos etiquetados con fact-checking (verificación de hechos) antes de haber consumido originalmente fake news no tuvieron problema pero quienes consumieron sin dudar noticias falsas casi nunca leyeron la verificación de hechos ya que podría desacreditarlos.

La tendencia humana por la atracción de lo negativo, incluida la información mediada, ha sido objeto de estudio de científicos de los datos. En 2010, Soroush Vosoughi, profesor asistente de ciencias de la computación de Dartmouth; Deb Roy, director del grupo Máquinas Cognitivas de MIT; y Sinan Aral, profesor de Gestión, IT, Marketing y Ciencias de Datos del MIT, estudiaron 126.000 mensajes compartidos en Twitter, entre 2006 a 2010. Usaron sitios de terceros de verificación de datos para clasificarlos como verdaderos o falsos. La conclusión fue que rumores engañosos y falsos llegan a la gente diez veces más rápido que las historias precisas. Incluso al controlar esas diferencias entre las cuentas originadoras de los falsos rumores, la falsedad obtuvo 70 por ciento más probabilidad de ser retuiteada que la información precisa. 

La hipótesis científica por tanto es que el engaño y los falsos rumores tienen mayor tracción debido a que parecen más novedosos, son pegajosos, evocan lo real y provocan respuestas que expresan sorpresa y disgusto. Por su parte, las historias precisas ocasionan respuestas asociadas con tristeza y confianza.

¿El futuro se tornará más violento usando la tecnología cuyo algoritmo informático, también de creación humana, se construye soportado en el aprendizaje profundo para difundir información negativa o falsa novedad? y cuando no aparece un cerebro pensante que escribe acerca del entorno real lo ocupa un bot que estimula y aumenta de manera automática la propagación de la información falsa y la  falsificación profunda.