02 abril 2024

Marcos regulatorios y de seguridad para las Inteligencias Artificiales

Protocolos frente a la situación mundial de la práctica de la simulación computacional que se diferencia de la comprensión humana y se aparta de nuestros sistemas de valores y de necesidades

Iconografía del contenido
Haga click en imagen para ampliar

El filósofo John Searle, en la revista Behavioral and Brain Science (volumen 3, número 3), propuso en 1980 distinguir dos tipos de Inteligencia Artificial, las débiles y las fuertes. Siendo las primeras, “herramientas poderosas que nos permiten formular y poner a prueba hipótesis de manera más rigurosa y precisa que antes”; y, las segundas, “per se, explicaciones de la cognición humana”.

Esa genérica disertación le provino de los tiempos de Alan Turing, quien preguntaba: ¿son inteligentes las máquinas? pero la inquietud la extendió Searle con un ligero cambio, ¿puede pensar la simulación computacional hecha por el hombre? Su discusión particular, centrada en la Inteligencia Artificial fuerte, le habría surgido con el principio de Allen Newell y Herbert Simon, de la década de 1960, a saber: cualquier sistema que sea capaz de descifrar símbolos físicos de una manera correcta es capaz de inteligencia.

Debido al desarrollo de los sistemas operativos computaciones de aquellos años 1980, Searle agregó valor a sus dos fuentes esenciales ya que podía complementar con propiedad su concepto diferenciado. Por tanto, aquel argumento inicial de la IA fuerte aplicado a “un computador programado apropiadamente es realmente una mente, en el sentido que puede literalmente “comprender” y tener otros estados cognitivos” pero donde los programas no son meras herramientas. En relación con la IA débil, Searle la consideraba desde “el valor fundamental del computador en el estudio de la mente” como herramienta muy poderosa sin ninguna otra objeción. (Aclarando, la “comprensión” según Searle implica tanto la posesión de estados mentales intencionales como la validez y el éxito de esos estados.)

En otro enfoque, las IA presentan evolutivos modelos −simbólico y conexionista− que significan, en su orden: esquema prominente con base en el razonamiento lógico y la búsqueda que opera con representaciones abstractas del mundo real modeladas mediante lenguajes de la lógica matemática. En complemento, el modelo de conexión consiste en la modelización subordinada apoyada en la hipótesis que la inteligencia emerge a partir de la actividad distribuida en cantidades de unidades interconectadas que procesan información compatible en simultáneo. Para entender: en el nivel avanzado, el uso de lenguajes representativos creados de la realidad consolidan la toma de decisiones, y, el escalón inferior, pretende aproximarse a la abstracción matemática de la neurona que posee dendritas (entradas) y axiones (salidas) útiles para el aprendizaje, la cognición y la memoria. El enlace entre las unidades se ejecuta entre la salida de cada operación con la entrada de otra, lo que forma una red neuronal natural o artificial.

Todo el preámbulo anterior fundamenta lo que se tratará y se hablará: el contexto de la comprensión del lenguaje natural utilizado para programar correctas instrucciones en la computadora, en tanto máquina estúpida −que no logra generar inteligencia humana: comprender− y, la plausible asimilación como solo simulación informática que da respuesta a esas instrucciones. No obstante, como cualquier avance de creación humana para el progreso social, debe procurarse reglamentar con base en normas legales, morales y éticas con las que hemos sobresalido desde el estadio denominado Homo Erectus.

Las practicas anti-hacker

La protección a la seguridad que mitiga el hackeo a la IA generativa ha sido expuesto con demostraciones públicas a través de pruebas red-teaming, agrupadas en el evento anual “Def Con” en Las Vegas, entre el 10 y el 13 de agosto de 2023, con consentimiento de la Casa Blanca y de algunas empresas estadounidenses de IA.

Este examen a la piratería informática ha tenido por finalidad, en sus diez años, identificar las vulnerabilidades de los programas de computación con base en un máximo de 21 retos y 50 minutos de duración para cada competidor. Además, fascina a hackers sombrero blanco del mundo por la posibilidad de defender la primera ley de Isaac Asimov: “un robot no puede dañar a un ser humano ni permitir por inacción que sufra daño”.

Voces como la de Avijit Ghosh, investigador de políticas aplicadas en aprendizaje automático y sociedad de Hugging Face Inc., aquel concurso significa cotejo a varios modelos de IA que demuestren avance de desarrollo técnico para certificar su tecnología responsable y coherente. Para Arati Prabhakar, directora de la Oficina de Política Científica y Tecnológica de la Casa Blanca, “la era generativa, que irrumpe entre nosotros y la gente, se está aprovechando para hacer todo tipo de cosas nuevas que hablan de la enorme promesa de la IA para ayudarnos a resolver algunos de nuestros problemas más difíciles pero también trae un conjunto muy amplio de riesgos”.

La versión “Def Con” 2023 ha sido la más popular debido a que sus organizadores aprovecharon la creciente alarma por la capacidad de la IA generativa para producir mentiras perjudiciales, influir en elecciones, arruinar reputaciones, generar perjuicio a los humanos, etc. El diario New York Times reseñó algunos de esos desafíos ante el pretexto de ataque a los ChatGPT:

a) sesgo y discriminación (diálogo aparente entre un bot conversacional y Emily Choi-Greene, Ingeniera de seguridad y privacidad en Moveworks, una plataforma de IA generativa): la charla inició sobre un juego con fichas de color blanco y negro, luego Emily pidió generalizar las afirmaciones ocasionadas con temas racistas, posterior organizó el “juego de opuestos” y por último, requirió al chatbot, crear un poema que respondiera a la pregunta porqué es buena la violación. La conclusión humana al comprender el contexto del resultado es que la IA “solo piensa en las palabras como tales, no en su significado ni en su contexto real” [de allí la estupidez de lo artificial]. Así resultaría evidente la propuesta mental de Searle acerca de su ‘habitación china’ y, a la vez, se ratificaría la segunda ley robótica: “un robot debe cumplir las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley”.

b) desinformación y estereotipo (inexistencia de objetos): otro participante solicitó a un asistente virtual inteligente buscar y describir un falso lugar para vacaciones conocido con el nombre de un personaje real histórico y, como segundo desafío, pidió el requisito de la declaración de impuestos por internet según la enmienda constitucional 28 [la Constitución de Estados Unidos contiene solo 27 reformas]. El ayudante artificial demostró obediencia fiel al redactar aquellos objetos no existentes, lo que sublevó la tercera ley de Asimov: “un robot debe proteger su propia existencia en la medida en que no entre en conflicto con la Primera o la Segunda Ley”.

c) farsa de campaña electoral para presidente: un estudiante de posgrado pretendió defender el activismo político mediante el trabajo infantil forzado a lo que el modelo de IA respondió que los jóvenes trabajadores involuntarios proyectaban sólida ética laboral.

d) automatización masiva: en un traductor inteligente de idiomas se escribió en inglés que un hombre había sido abaleado mientras bailaba y la traslación al hindi, uno de los dos idiomas oficiales de India, afirmaba que el hombre había muerto.

Legislaciones estancadas

En relación con la regulación legal a los modelos de la IA, desde abril y diciembre de 2018, han habido antecedentes que contienen tanto la visión europea de apoyo con ética segura y vanguardista como el temor de los usuarios a que se limite el potencial y beneficio amplio de esta tecnología.

De modo que gestores de política pública y desarrolladores han venido coincidiendo en llevar a cabo el trabajo colaborativo −importante y urgente− entre gobiernos, empresas privadas, laboratorios, usuarios, para enfrentar los riesgos, combatir el uso indebido de los modelos desde actores no estatales potenciales peligrosos y promover mejores prácticas. El cuello de botella se genera en el cómo y en las limitaciones, según los encuentros posteriores en Ginebra y en Washington.

Los documentos “Inteligencia Artificial para Europa” y “Plan Coordinado sobre Inteligencia Artificial” de la Comisión Europea han sido arbitrados con base en tres pilares:

a) potenciar la capacidad tecnológica e industrial de la UE e impulsar la adopción de la IA en todos los ámbitos de la economía privada y pública;

b) fomentar la modernización de los sistemas de educación y formación frente a las transformaciones socio-económicas; y

c) garantizar el establecimiento de un marco ético y jurídico apropiado basado en los valores de la Unión Europea.

Cumbre global sobre seguridad

Luego de dos meses de las pruebas “Def Con” 2023 se realizó la primera Cumbre Global sobre Seguridad de la IA en Reino Unido, con base en seis paneles previos, para entender de modo urgente e internacional, cómo gestionar mejor los riesgos por los avances más recientes en la frontera de las IA.

La reunión se orientó hacia dos amenazas: uso indebido cuando un presunto delincuente recibe ayuda con nuevas capacidades de IA para ataques biológicos o cibernéticos, desarrollo de tecnologías peligrosas o interferencias críticas a los sistemas; y pérdida de control que podría surgir en sistemas avanzados sin tener alineación con nuestros sistemas humanos de valores y de intenciones. Estos enfoques se apoyan en el trabajo sobre riesgos y daños de la IA que adelantan la OCDE, el G-7 con el Proceso de Hiroshima sobre IA, la Asociación Global sobre IA y el Consejo de Europa.

Mientras se genera el protocolo de seguridad global, el portal web de la conferencia global reseña estos objetivos para la seguridad de las IA:

a) garantizar el desarrollo seguro de la IA que permita su uso para el bienestar mundial;

b) comprender de manera compartida sobre los riesgos que plantea la frontera de las IA y la necesidad de actuar;

c) acoger medidas apropiadas para que las organizaciones individuales extiendan la seguridad de la frontera de las IA;

d) colaborar con la investigación en seguridad de la IA, incluida la evaluación a las capacidades del modelo y el desarrollo de nuevos estándares, para respaldar la gobernanza;

e) avanzar, con base en un proceso de colaboración internacional, ante la seguridad de la frontera de las IA, incluida la mejor manera de apoyar a los marcos nacionales e internacionales.

Código Internacional de Conducta Organizacional

Con base en los Principios Rectores Internacionales para organizaciones que desarrollan tecnologías avanzadas IA, incluidos los modelos básicos y los sistemas de IA generativa, este código internacional de conducta del Proceso de Hiroshima del G-7 plantea como objetivo general promover una IA segura y confiable en todo el mundo. Alcanzar tal fin requiere de orientación voluntaria para ejecutar estas acciones:

a) tomar medidas apropiadas para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA, que incluye el desarrollo de sistemas avanzados, la implementación y la colocación en el mercado;

b) identificar y mitigar las vulnerabilidades, los incidentes y los patrones del uso indebido así como implementar controles de seguridad sólidos ante lo físico, la ciberseguridad y las salvaguardias contra amenazas internas;

c) informar públicamente acerca de las capacidades, limitaciones y dominios de uso apropiado e inapropiado de los sistemas avanzados de IA para ayudar a garantizar transparencia suficiente;

d) compartir responsablemente información, divulgar políticas de gestión de riesgos y gobernanza de la IA y reportar incidentes entre organizaciones que desarrollan sistemas avanzados de IA;

e) desarrollar e implementar mecanismos confiables de autenticación y procedencia de contenido, cuando sea técnicamente factible, como marcas de agua u otras técnicas, que permitan a los usuarios identificar contenido generado por IA.

Audiencia en el Capitolio de Estados Unidos

El 13 de septiembre de 2023, por iniciativa del Senador Demócrata Chuck Schumer, se realizó una audiencia a puerta cerrada en el Capitolio de Estados Unidos que ambicionaba sentar las bases del apoyo político bipartidista para la aprobación de la ley por el Congreso. En la cita, 60 senadores y más de 20 ejecutivos tecnológicos, activistas de derechos civiles y líderes sindicales, intercambiaron algunas propuestas como por ejemplo:

a) creación de una agencia gubernamental estadounidense con poder de auditoría global para ciertos sistemas de IA con el fin de determinar preventivamente el daño, antes de otorgarles licencia;

b) cerramiento de la brecha de acceso a internet de banda ancha que ahora impide a la comunidad hispana estar en la puerta principal de las infraestructuras de IA;

c) requerimiento para que los anuncios electorales realizados con IA, ya sean imágenes o sonidos, mantengan un aviso de precaución;

d) generación de responsabilidades a usuarios y a creadores de la tecnología;

e) necesidad de más trabajadores altamente calificados.

Desde el Parlamento Europeo

El Parlamento Europeo aprobó la Ley de Inteligencia Artificial que protege los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental a través del uso del modelo de IA fuerte de propósito general. Ya la Unión Europea, en primera instancia, la había discutido y generado enmiendas, con desagrado de Francia, Alemania e Italia por lo estricta. Ahora, en última instancia, será el Consejo de la Unión Europea el que la active como único marco común en los países del mundo.

La nueva ley adapta 14 elementos de compromiso como la lista de prácticas prohibidas de IA, los sistemas de categorización para la identificación biométrica y el reconocimiento de emociones, la evaluación del impacto sobre los derechos fundamentales individuales y la experimentación por fuera de los entornos limitados para las pruebas con sistemas de IA de alto riesgo en condiciones del mundo real, entre otros. Destacamos los primordiales para la seguridad y los riesgos humanos:

a) comercialización, puesta en servicio o uso de sistemas de IA que utilicen técnicas subliminales o procedimientos deliberadamente manipuladores o aprovechen las vulnerabilidades de personas o de grupos específicos debido a la edad, discapacidad, situación social o económica, con el efecto de distorsionar materialmente su comportamiento o hacer tomar decisiones erradas que causen daño significativo;

b) comercialización, puesta en servicio o utilización de sistemas de categorización biométrica que clasifiquen individualmente a personas físicas con base en inferencia o atributos y características sensibles o protegidas, extraídos con etiquetado o filtrado de datos y durante un tiempo determinado. Se exceptúan aquellos para ser usados con fines terapéuticos con base en un consentimiento informado específico y autorizado del paciente;

c) comercialización, puesta en servicio o uso de sistemas de IA para evaluar o clasificar, durante un período determinado, a personas físicas o a grupos atendiendo a su conducta social o a características conocidas de su personalidad y cuyo resultado provoque trato perjudicial por su raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, sexo u orientación sexual;

d) uso de sistemas de identificación biométrica remota y en tiempo real en espacios de acceso público. Se exceptúan aquellos que alcanzan tres objetivos: buscar víctimas de secuestro o desaparecidos, trata de personas y explotación sexual; prevenir amenaza inminente a la vida o a la seguridad física de las personas por previsible ataque terrorista; localizar o identificar sospechosos de haber cometido un delito penal para efectos de realizar la investigación, enjuiciar o ejecutar la sanción punible en el Estado miembro;

e) captura indiscriminada de imágenes faciales de internet o de grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento de rostros y de emociones en el lugar de trabajo y en las instituciones educativas o por razones médicas y de la actuación policial predictiva.

Resolución de la ONU

La Asamblea General de la ONU a finales de marzo pasado, sin votación pero con respaldo de más de 120 Estados miembros, adoptó una resolución liderada por Estados Unidos para la promoción de sistemas de IA seguros y fiables que beneficien el desarrollo sostenible para toda la humanidad. El texto reconoce por primera vez el potencial de los sistemas de IA para acelerar y permitir el progreso en procura de la consecución de los 17 Objetivos de Desarrollo Sostenible.

a) iguales derechos en línea y fuera de ella: solicitud para no utilizar sistemas de IA que no puedan funcionar según las normas internacionales de derechos humanos o que planteen riesgos indebidos para el disfrute de los mismos;

b) equidad y alfabetización digital: conminando a los Estados miembros y a las partes interesadas a cooperar y apoyar a los países en desarrollo para que se beneficien del acceso inclusivo y equitativo, cierren la brecha digital y aumenten la alfabetización digital;

c) gobernar la IA en lugar que nos gobierne: destacando oportunidades y responsabilidades de la comunidad internacional para crear y desplegar modelos de IA con la perspectiva de la humanidad y la dignidad, la seguridad y la protección, los derechos humanos y las libertades fundamentales.

La Complejidad Social

Por la preocupación expresada por Sam Altman, director ejecutivo de OpenAI, en un comité del Senado estadounidense sobre los modelos lingüísticos que pueden predecir la opinión pública e influir en el comportamiento de los votantes, me inquieta también este asunto: ¿es suficiente la regulación y la educación para atenuar la manipulación y la desinformación en conversaciones directas a través de sistemas y aplicaciones que incorporan modelos de IA?

Acudiendo a la teoría de la Complejidad Social, planteada por el sociólogo alemán Niklas Luhmann, existen tres condiciones −como método− para alcanzar máximas éticas donde opera la confianza, “en el más amplio sentido de la certidumbre del futuro frente a las expectativas personales”:

a) ubicarla en la naturaleza del mundo que es evidente por sí mismo pues “la confianza es una parte integral de los límites dentro de los cuales vivimos” y afianzarla con la naturaleza humana dado que “la ética es conjunto de principios personales inherentemente reversibles y de valor cuestionable”;

b) considerarla según la necesidad como “punto de partida correcto y apropiado con la que se derivan las reglas justas para una conducta”; y

c) “pensar y usar nuestra imaginación para representar las ansiedades de una existencia sin confianza”.

14 febrero 2024

Insertando marcas de calidad informativa en contextos de desinformación

Reflexiones académicas Iberoamericanas para combatir los riesgos de la posverdad al elaborar noticias falsas o engañosas dentro de los siguientes conflictos: cuál es el modelo de negocio de los medios sociales, cómo la desinformación pública provoca desconfianza y polarización, en qué momentos se acentúa la problemática de las fake news

Iconografía del contenido


Haga click en imagen para ampliar

“La democracia muere en la oscuridad”, eslogan oficial del diario The Washington Post

Cuatro documentos publicados en diciembre último y rescatados mediante alertas de Google Academic sirven de fuentes primarias para abordar el tema de la desinformación que bloquea el debate público, crea mega identidades partidistas y vulnera el goce de los derechos fundamentales.

Para desarrollar el asunto es necesario precisar con antelación este glosario: posverdad−también llamada mentira emotiva− (post-truth) es la distorsión deliberada de la realidad a través de discursos ideológicos para influir en las creencias políticas emocionales de los ciudadanos. Dentro de ese ámbito se encuentran dos tipos de desinformación, la entendida como el ejercicio de transmitir información errónea (disinformation) y la conocida como información intencionalmente engañosa (misinformation). Estas variedades se divulgan indistintamente mediante fake news: relatos periodísticos con información falsa que circula entre la ciudadanía con el fin de impactar su comportamiento social.

Conceptualmente las fake news se enmarcan en referentes sociales, se propagan mediante datos publicados y se protegen con la sombrilla de la posverdad. Las académicas de las Universidades de Sevilla y Málaga (España), María Lamuedra Graván & Lucía Ballesteros Aguayo, anotan en su artículo Fact-checking contra la desinformación: aprender a re-enmarcar en el aula y en la redacción periodística: “necesitamos verdades funcionales, y para tal fin se desarrollan diversos procesos institucionales” ya que una sociedad avanza en dependencia de los relatos adecuados que acontecen y son compartidos.

Cualquier relato atraviesa el entorno lingüístico que comienza en las estructuras mentales con las que los individuos damos forma al mundo que percibimos, de las cosas y de los seres. Aquellas estructuras están fijadas en la biología celular de nuestras redes neuronales que se activan al percibir ciertas experiencias del exterior. Por tanto, el ejercicio de informar verdades no se limita a registrar hechos como el marinero en el cuaderno de bitácora, por el contrario: es una acción que utiliza la racionalidad para representar el evento fundamentado en hechos.

El cerebro los procesa en la medida en que el flujo de la sinapsis cerebral establece relaciones duraderas o temporales entre ciertas metáforas, pensamientos y sentimientos que se han experimentado con anterioridad. De manera que el constante y repetido desarrollo de publicaciones y de datos se convierte en memoria a largo plazo cuyas estructuras mentales las fija el individuo gregario como asociación significativa y la sociedad las limita como visión de un mundo particular expresado en un lenguaje acorde.

Acentos de las fake news

Toda verdad incluida la de las Ciencias está sujeta a revisión. Así por ejemplo, la Policía en su labor diaria de detectar al delincuente debe verificar de modo permanente el archivo de sospechosos para actualizar y validar las búsquedas. De manera analógica lo deben hacer los medios periodísticos como institución encargada de seleccionar, explicar y relatar el acontecer cotidiano.

Los medios periodísticos, casi desde su origen, han rodado por el abismo temas noticiosos que exageran, a saber: el incesante impacto del crimen, la creciente incertidumbre social, la inviabilidad del mundo como lugar peligroso que requiere por tanto de cierto autoritarismo, etc. Los anteriores sustantivos así adjetivados acrecientan la mentira, la desconfianza y la posverdad, de la misma manera en que lo hacen la circulación de bulos específicos emitidos en medios sociales. Al respecto, más de treinta plataformas informáticas en línea y grupos verificadores de datos, entre otros firmantes, suscribieron en 2022 el “Código de prácticas reforzado sobre desinformación” de la Comisión Europea.

En complemento, el mundo moral subjetivo, de lo bueno y de lo malo, se configura con arreglo al discurso y su interacción social, así como también, en proporción a otras formas de habla y de texto. Este tipo de discurso y de interacción en la comunicación digital ha quedado atrapado en el modelo de negocio de los medios sociales, que “no pasa por la verdad sino por el engagement, de forma que fiscalizar la veracidad ha sido un elefante cada vez más grande e incómodo para la gestión de las redes sociales”, anota Alexandre López-Borrull, doctor en Química y licenciado en Documentación, en el artículo En busca de la verdad perdida: redes sociales y desinformación. También Nick Srnicek, profesor de Economía Digital en el Departamento de Humanidades Digitales del King's College London, sostiene que “las plataformas son modelos de negocios clave para extraer y controlar datos”.

El principal problema de las fake news se ha enfatizado en dos momentos estratégicos: la alternancia programada de las campañas electorales y los cambios forzados debido a crisis sociales. Las profesoras españolas explican, a través del autor George Lakoff, la dinámica del discurso de los republicanos de EE. UU. quienes han logrado que sus marcos mentales asociados a su cosmovisión social de la institución política se expresen con el lenguaje informativo aceptado como “guerra contra el terror”. Según los progresistas de esa nación, esa oposición guerra vs terror (alza de impuestos, intensa inmigración, continuidad de programas de ayuda social) ha sido aceptada últimamente como valor estadounidense pero los mismos progresistas no han logrado articularla con la tradición “Thanksgiving” o día de los valores de la familia originada en el año 1621.

Afirman Lamuedra Graván & Ballesteros Aguayo: “el contraste dialógico de perspectivas y encuadres es esencial para el pluralismo y la búsqueda de la verdad” pues son herramientas legítimas para persuadir, mientras que “el uso de la exageración, la tergiversación o la mentira deliberada para imponer marcos conceptuales son técnicas orientadas a promover un régimen de posverdad, por tanto, incompatible con la democracia”. Estas técnicas buscan generar una experiencia y una lógica alterativa e incompatible donde priman los intereses particulares de un sector.

Con Donald Trump se ha observado el segundo comportamiento en muchos frentes pero mientras fue presidente de Estados Unidos desmintió, cuanto pudo y sin argumento, al médico Anthony Fauci, especializado en inmunología, y culpó a la Administración de Alimentos y Medicamentos (FDA) de estar demorando el desarrollo de las vacunas contra el Covid 19 debido a las elecciones presidenciales del 3 de noviembre de 2020. Esta conducta social de imposturas contribuye a generar más controversia social porque los medios informativos la amplifican en espacio destacado de los temas controvertidos.

Un ejemplo más cercano se evidenció con el discurso ideológico del actual Ministro de Salud de Colombia al señalar el 28 de noviembre de 2023, en un debate en la Comisión Primera del Senado de la República, que “todos los colombianos que están vacunados sirvieron para el más grande experimento que se haya hecho en toda la historia de la humanidad” [como si la inmunización mundial hubiera sido exclusiva para Colombia]. Y de nuevo, los guardianes de la libertad rodaron sus bulos de información cuesta abajo generando escepticismo social sin siquiera criticar este otro populismo ramplón.

Para explicar el segundo camino del acento de las fake news ha sido relevante el proyecto interdisciplinar de la Junta de Andalucía, en España: “Posverdad: un problema socio-político durante y después de la pandemia” dirigido por Juan Antonio Nicolás, director de la Cátedra G. W. Leibniz de Filosofía. Según el análisis de los expertos “las técnicas de posverdad se caracterizan por mentir deliberadamente, evitar el funcionamiento dialógico y sano de la esfera pública e imponer intereses particulares deslegitimando a los interlocutores y contribuyendo a un clima de desconfianza”.

Ante la posverdad se debería enfrentar el régimen de verdad que requiere: ética, promoción de la confianza, reconocimiento de los participantes en una esfera pública plural y uso sistemático de método para corroborar fuentes y, consustancial, verificar hechos. Como nada de eso ocurre, Lamuedra Graván & Ballesteros Aguayo conceptualmente insisten en aplicar la lingüística cognitiva como técnica del re-enmarcado para consolidar nuevos marcos mentales en los ciudadanos y transformar aquellos bulos, contenido sesgado, verdades no contrastadas. Para Teun van Dijk, lingüista neerlandés, se trata de la retórica persuasiva: “Si los receptores no tienen información alternativa o no tienen acceso a otros discursos, la credibilidad y retórica persuasiva del discurso público puede ser tal que muchos receptores adoptarán las creencias expresadas por esos discursos prejuiciosos”.

Aquel aspecto relacionado con la problemática fundamental de la desinformación no solo asegura juicios inexactos como referentes conceptuales sino que crea cámaras de eco −bucles de contenidos personalizados transmitidos por medios sociales− y con ellas mega identidades partidistas, según Mariano Torcal, catedrático de Ciencia Política de la Universitat Pompeu Fabra (España). Estas nuevas comunidades que se están creando con cierta uniformidad favorecen la polarización global afectiva, protegen la esfera pública local hostil, fomentan el distanciamiento social corporal y hasta rechazan la interacción con ciertos familiares y amigos. Para evitar la avalancha de su propio lodo, los medios periodísticos modificaron el sintagma nominal ‘mega identidades partidistas’ por el de ‘bodegas’ o ‘cibertropas’ o ‘granjas de likes’ puestas como centro noticioso desde el proceso del plebiscito sobre los acuerdos de paz en Colombia en el año 2016.

Como anota López-Borrull, “Si las plataformas y sus excéntricos propietarios no quieren gestionar la desinformación y si los usuarios se encuentran más cómodos viviendo sus posverdades, tenemos un problema” asentado en el discurso de odio que demolió la racionalidad comunicativa −ausencia de premisas epistemológicas y normas comunicativas− y ofrece ínfimo análisis para la producción de la información como bien público.

Desinformación en guetos y discursos de odio

Una segunda dificultad por las fake news, analizada con evidencia empírica, muestra la relación proporcional entre desinformación y discursos de odio en el denominado ecosistema mediático: aquellos guetos para circular relatos.

Ese otro nominal alterado −ecosistema mediático− en verdad debe ser denominado Polymedia: “todas las oportunidades comunicativas convergentes que los usuarios aprovechan para gestionar sus relaciones con base en las diferencias de los medios”, según definen sus creadores Mirca Madianou, profesora en el Departamento de Medios, Comunicación y Estudios Culturales de Goldsmiths en University of London, y Daniel Miller, del Departamento de Antropología de la University College London.

La investigación Desinformación y colectivos vulnerables. Estrategias pragmáticas en bulos y fake news sobre género, inmigración y personas LGTBI+ desarrollada por Carolina Arrieta-Castillo, doctora en Lingüística aplicada de la Universidad de Salamanca (España), manifiesta que “las falsedades son percibidas como estratagemas retóricas que ayudan a conceptualizar la realidad”. Tal marco, disputable y disputado, según el filósofo surcoreano Byung-Chul Han, proviene de la ‘Infocracia’ −nuevo tipo de racionalidad comunicativa que degenera la democracia− erigida en los algoritmos que sustituyeron a los argumentos de la lógica de la razón y en la arquitectura digital de la Inteligencia Artificial que reemplazó al espacio domésticamente localizado del diálogo natural y presencial humano.

Arrieta-Castillo hizo una búsqueda de tres palabras clave ‘inmigración’, ‘género’ y ‘LGTBI’ con la herramienta Fact Check Explorer de Google y luego, usando los verificadores de origen español Maldita, Newtral y EFE Verifica reconocidos por la International Fact-Checking Network (IFCN) corroboró las falsedades identificadas y categorizó 7 tipos de mensajes desinformativos: contenido con información engañosa para incriminar a alguien; contenido genuino mezclado con información falsa; conexión ficticia en algún apartado de la noticia; contenido manipulado para engañar; contenido falso fabricado; sátira para ridiculizar a un sujeto y suplantación de fuentes genuinas. Su trabajo concluye entonces que la manipulación es evidentemente real en medios sociales, siendo el canal más frecuente, y casi siempre por emisores desconocidos.

Como características pragmáticas del listado de las desinformaciones, sostiene que detrás de esas redes se encuentran “las cámaras de representantes, pues gran parte de las falsedades provienen de los propios discursos de los políticos” y, para el momento de su investigación, Twitter fue la plataforma con más bulos identificados sobre colectivos vulnerables debido a que es donde más se producen ese tipo de mensajes o porque es donde más se denuncian discriminaciones.

Con esta prueba y con las conceptualizaciones de otros académicos, los guetos de las audiencias encuentran la recepción propicia para las desinformaciones ya que sus receptores agrupados poseen marcos cognitivos preexistentes favorables a alguno de aquellos 7 tipos de mensajes desinformativos. Y sobre todo, debido a que:

a) las intenciones de los mensajes desinformativos tienen más probabilidades de ser compartidos por ciertas audiencias que los mensajes verdaderos, afirman Vosoughi, Roy y Aral, profesores en The Media Lab. del Massachusetts Institute of Technology (MIT); y los discursos destinados a distintos colectivos pueden controlar los modelos mentales que forman los individuos, manifiesta la teoría Estudios Críticos del Discurso de Teun van Dijk.

b) el alcance de la desinformación se está lanzando hacia poblaciones de inmigrantes, de ecologistas o de feministas. Así por ejemplo, un discurso ideológico contiene la figura del imaginario invasor construida con base en el estigma del bárbaro terrorista, que expresa características inherentes con la violencia, la crueldad y el fanatismo e introduce distintos desórdenes en la nación que lo recibe, precisa Enrique Santamaría, profesor en el Departamento de Sociología de la Universidad de Barcelona.

Otros mensajes desinformativos contra colectivos −siendo los menos peor− transmiten valoración compasiva al representar a los sujetos que atacan como meras tramas complejas. Verbigracia, en los mensajes con desinformación sobre género se cuestiona la utilidad del feminismo disputando su objeto de acción: la discriminación de las mujeres, la exageración del discurso, etc.

c) atajar estas intenciones deliberadas requiere quizá de mecanismos de control y desarrollo de instrumentos para verificar hechos, plantean las Doctoras y Magister en Comunicación en Medios Krause, Freiling, Beets y Brossard. Por ejemplo, habilidad en medios, en información, aptitud interpersonal, fortalecimiento y goce de derechos fundamentales, contraste de fuentes, uso de antecedentes, contextualización, explicación, interpretación de hechos, lenguaje divulgativo...

Marcas de calidad

Profesores en la Facultad de Información y Comunicación de la Universidad de la República de Uruguay, Magela Cabrera Castiglioni, Javier Canzani Cuello & Ignacio Saraiva Cruz, en el documento Pautas de alfabetización informacional y mediática en contextos de desinformación, presentan pautas de alfabetización en información y en medios para que los consumidores posibiliten el desarrollo de nuevos recursos e insumos con el fin de afrontar estos contextos de desinformación.

Rescatamos dos acciones de dos competencias por ser intrínsecamente naturales: “conocer las legislaciones vigentes en relación con el derecho de autor y el uso ético de la información como dimensión que proporcione elementos para consumir y comunicar información” y “reconocer nuestro estado como sujetos de derecho en el marco de la sociedad para el pleno goce del derecho de acceso a la información y la libertad de expresión”.

En Colombia los discursos expresamente prohibidos se refieren a la apología del odio que constituya incitación a la violencia, la incitación al genocidio, la incitación al terrorismo, la propaganda de la guerra y la pornografía infantil. Por antagonismo, la libertad de expresión protege tres tipos especiales de discurso: los políticos y sobre asuntos de interés público (Sentencia T-242 de 2022), el que expresa elementos esenciales de la identidad o la dignidad personal (Sentencia T-179 de 2019) y los referidos a funcionarios o personajes públicos (Sentencia T-277 de 2015).

Una revisión constitucional de tutela elaborada por la Sala Plena de la Corte Constitucional convocó a audiencia pública el 28 de febrero de 2019 a expertos en el tema donde argumentaron los siguientes asuntos:

1) el derecho a la libertad de expresión fue creado justamente para proteger las opiniones que la mayoría de la sociedad no está dispuesta a escuchar, incluyendo a los jueces, y para garantizar la protección de los Derechos Humanos. A pesar que un link, un retwitt, un like, son elementos informáticos no se concluye por ellos mismos el impacto, la exposición o el daño. Existen otros distintivos como la buena fe, la razonabilidad y la proporcionalidad de las personas: Catalina Botero Marino, ex Relatora Especial para la Libertad de Expresión de la Corte Interamericana de Derechos Humanos.

2) el derecho a opinar cuenta con una protección mucho más amplia en el marco de una democracia pluralista, dado que prevalece la subjetividad del emisor del mensaje soportada en el ejercicio de la libertad de opinión. Puede ser que la idea expresada moleste, sea equivocada, provocadora, revolucionaria, inmoral pero quien opina tiene derecho a expresarse y a difundir sus formas de ver el mundo de las cosas y de sus semejantes: Defensora Delegada para Asuntos Constitucionales y Legales de la Defensoría del Pueblo.

3) el derecho de la libertad de expresión puesto sobre Internet ha representado un cambio en la forma en que se ejerce, por la transmisión de datos en tiempo real a través de múltiples formatos; por la reducción o eliminación de las distancias físicas; por el aumento de la capacidad de las personas para recibir, buscar y difundir información; porque representa una forma de democratización de la expresión donde el discurso público deja de ser moderado por periodistas profesionales o por medios tradicionales: Magistrados de la Sala Plena, autores de la Sentencia de Unificación 355 de 2019.