20 octubre 2024

De la pornovenganza a la violencia digital

El activismo quizás no ofrece justicia ni genera reparación al daño pero se ha convertido en multiplicador fundamental para prevenir, promover y fomentar la información y el contenido responsable compartido en las redes sociales

Iconografía del contenido

Haga click en imagen para ampliar
En su cuenta de Instagram, la joven mexicana Olimpia Coral Melo se identifica como serrana, hija de Josefina, nieta de Teresa, Bisnieta de Olimpia. En el mundo presencial Naciones Unidas la reconoce como defensora de espacios digitales libres de violencia para niñas y mujeres, y los parlamentos de Argentina, Colombia y su país gestionan la Ley Olimpia.

Aquella norma es un conjunto de reformas legislativas acerca de la ciberviolencia: conductas de acoso, abuso y amenaza que atentan contra la intimidad y la honra personal. Se trata de contenidos publicados y distribuidos sin consentimiento o mediante engaño a través de archivos de video, audio, fotografía con contenido real o simulado, sexual e íntimo de la persona agredida.

Otra forma de violencia digital se genera con materiales impresos, comunicación por correo electrónico, mensajes telefónicos, expuestos, exhibidos, distribuidos, difundidos, reproducidos, transmitidos, comercializados, ofertados, intercambiados y compartidos, usualmente en archivos de imagen con el mismo contenido íntimo de una persona, a sabiendas que no existe aprobación previa.

Según contó la joven Olimpia al noticiero ONU, el 8 de marzo de 2023: “Nos unimos desde hace una década para entender nuestros propios contextos y poder hacer estrategias para que otras mujeres no vivan la violencia sexual y virtual que nosotras vivimos”. Lo constituido por la activista y su grupo de defensoras es un movimiento político integrado por diversas mujeres para enfrentar desde el amor, la resiliencia y la solidaridad, el acoso y la violencia digital.

El motivo que despertó la conciencia de Olimpia a sus 18 años fue la distribución, sin su consentimiento, de un vídeo íntimo donde ella aparecía desnuda y que su novio hizo viral en WhatsApp y después en Facebook, negando haber sido el responsable. Por el suceso ella se aisló, se encerró en su hogar, dejó de asistir a su escuela, ni salía a la calle, pero con el apoyo de su familia retomó su vida y comprendió que no era la única mujer, ni la última, quien sufría violencia digital en México.

Efectos de la violencia digital

Existen tres tipologías de violencia clasificadas por los teóricos: directa, la forma más visible sea física o verbal; estructural, manifestada con base en discriminación y marginación; y cultural, referida al ataque a los rasgos culturales y a la identidad colectiva. Así lo expuso en 1998, Johan Galtung, creador de la perspectiva y la metodología “Investigación sobre la Paz”, en su ensayo “Tras la violencia, 3R: reconstrucción, reconciliación, resolución. Afrontando los efectos visibles e invisibles de la guerra y la violencia”.

Concretamente, la violencia digital está más ligada a internet y a las plataformas sociales por las expresiones que se intercambian libres pero a quienes son víctimas, aquel contenido les genera impacto negativo en sus vidas privada y social. Este tipo de violencia, que no deja marcas físicas, sí muestra huellas importantes en la víctima a nivel psicológico debido a la segregación social y a la automarginación.

Más allá, exhibir fotos o videos íntimos y privados sin consentimiento es delito contra la intimidad y la imagen personal, y cuando se agregan comentarios, negativos y ofensivos, en el muro de las cuentas en las redes sociales sobre las personas víctimas como en Facebook, X, Instagram, y en páginas en general de internet, esa ciberviolencia tiene el mismo impacto de la violencia física.

Para iluminar aquella violencia acosadora, intimidante, invisible en línea, lo primero es identificar y distinguir el contenido con amenaza, acoso, insultos. Son todos actos concretos y específicos pero intolerables, inadmisibles, violentos, que manifiestan por lo general una conducta hostil, intencionada, voluntaria, repetitiva y sistemática. Y claro, la persona víctima queda indefensa en la mayoría de los casos al no poder defenderse. El objetivo del acosador consiste pues en dominar física, verbal y socialmente a su víctima para aislarla y destruirla en el ámbito público. Por tanto, el agredido y su grupo social deben informar, contactar asesoría jurídica, interponer denuncias, mitigar ese progreso agresivo con terapia especializada en violencia contra mujeres o en violencia de género, según sea el caso.

Recogiendo acciones para fortalecer la seguridad digital, el gobierno colombiano ha incluido los programas del Ministerio de Tecnologías de la Información y Comunicaciones “Mujeres TIC para el Cambio”, que fomenta el liderazgo femenino a través de procesos de formación gratuita para la productividad, y “Ciberpaz”, que motiva a través de charlas el uso de la tecnología de manera consciente, empática, segura y responsable. Otras estrategias son algunas normas de regulación y de coordinación para bloquear las comunicaciones no autorizadas desde cárceles; el fortalecimiento del ColCert, un grupo de investigación y prevención sobre ciberseguridad y el proyecto de Ley que crearía la Agencia Nacional de Seguridad Digital y Asuntos Espaciales. Por su parte, gobiernos locales, sociedad civil y varios actores del ecosistema TIC han emprendido lentas acciones. La gobernación de Caldas, junto al centro de desarrollo tecnológico Bios, por ejemplo, en el último año, han venido impulsando el proyecto Hub de Ciberseguridad, y los centros de Inteligencia Artificial y de operaciones de seguridad.

Con base en una encuesta de 2017 que Amnistía Internacional encargó a Ipsos Mori se analizaron las experiencias de 500 mujeres entre 18 y 55 años de edad en Dinamarca, España, Estados Unidos, Italia, Nueva Zelanda, Polonia, Reino Unido y Suecia.

Casi una cuarta parte (23%) de las encuestadas dijeron haber experimentado abuso o acoso en línea al menos una vez; 41% de ellas abusadas o acosadas en línea dijeron que, al menos en una ocasión, esas experiencias las hicieron sentir amenazadas por la inseguridad física; poco menos de la mitad (46%) de quienes habían sufrido abuso o acoso en línea respondieron que el ataque era de naturaleza misógina o sexista; más de la mitad (58%) de abusadas o acosadas en todos los países dijeron que su ataque había incluido racismo, sexismo, homofobia o transfobia y 59% de quienes habían sufrido abuso o acoso en línea dijeron que la violencia provenía de completos desconocidos.

En Colombia los datos reportados por la Unidad para la Atención y Reparación Integral a las Víctimas, entre 1980 y 2016, más de 17.000 mujeres y niñas fueron víctimas de violencia sexual relacionada con el conflicto armado. El Centro Cibernético de la Policía recibió en 2022 denuncias por casos de sextorsión (62), por ciberacoso (325), por injuria o calumnia a través de redes sociales (676) y por amenaza (972). Según Ranking PAR en 2024, 60% de las mujeres entre 18 y 40 años de edad asegura haber sido acosada a través de medios digitales. El Observatorio de la Democracia y la Universidad de los Andes encontraron que “25.5% de las periodistas mujeres participantes en su investigación ha sido víctima de agresiones por violencia de género a través de canales digitales debido a su trabajo". Y para echar sal a esa herida, el Presidente de la República las califica de “muñecas de la mafia” sin determinar justificación objetiva alguna.

Según dan a conocer especialistas, como la doctora en Biomedicina Feggy Ostrosky, “nuestro cerebro registra la violencia y las amenazas virtuales como si fueran reales”, siendo sus efectos inmediatos: ansiedad, depresión y dependencia, lo que puede generar actitudes violentas hacia los demás o hacia sí mismo.

Retomando los resultados de Amnistía Internacional, 63% afirmó que no había podido volver a dormir normal desde el abuso o acoso en línea, 61% de quienes dijeron haber sufrido abuso o acoso en línea en todos los ocho países de la encuesta experimentó menor autoestima o pérdida de confianza en sí misma, 56% dijo que el abuso o acoso en línea les había impedido concentrarse durante largos períodos de tiempo y 55% dijo que había experimentado estrés, ansiedad o ataques de pánico después de sufrir abuso o acoso en línea.

Mitigaciones contra la violencia digital

La violencia digital la compone una amplia gama de agresiones: vulneración de los datos personales sensibles, privado o semiprivado; propagación pública de información falsa; divulgación de información engañosa; transmisión de mensajes de odio; difusión de contenido digital íntimo no consentido; acoso; hostigamiento; amenaza.

De manera que compartir información con alguien, por ejemplo la pareja o alguien de confianza, significa de entrada dar probabilidad a la ausencia del consentimiento. Un comportamiento humano frecuente debido a que no advertimos previamente en la protección de nuestros datos personales, que por Ley reconoce y protege el derecho de todas las personas a conocer, actualizar y rectificar las informaciones susceptibles de tratamiento por entidades públicas o privadas.

En Suecia 57% de las mujeres encuestadas para Amnistía Internacional afirmó que las políticas de gobierno para enfrentar el abuso eran inadecuadas, alrededor de un tercio de las mujeres en Reino Unido (33%), Estados Unidos y Nueva Zelanda (ambos 32%) afirmaron que la respuesta policial al abuso en línea era igual de inadecuada. La encuesta también indicó que menos de la cuarta parte (18%) de las mujeres en todos los países dijeron que las respuestas de las empresas de redes sociales eran muy, bastante o completamente adecuadas.

Defensores digitales recomiendan: no compartir links donde se exhiba violencia ya que se podría contribuir indirectamente con la viralización; denunciar el contenido en la misma plataforma digital; enviar a la red social el pantallazo para su revisión como prueba indiciaria; reportar desde diferentes cuentas para alertar el algoritmo hasta que se elimine el contenido. Por su parte, Amnistía Internacional ha venido solicitando a los gobiernos que garanticen la existencia de leyes, políticas, prácticas y formación adecuadas para prevenir y poner fin a la violencia y al abuso en línea contra las mujeres, sin imponer restricciones o sanciones indebidas al legítimo ejercicio de la libertad de expresión.

Los países de Latinoamérica donde una ley Olimpia no ha sido aprobada y las mujeres siguen sufriendo violencia digital, también pueden tomar acciones legales dentro de su marco legislativo existente, porque seguramente sobreviene el delito de extorsión. Se trata de encuadrar la conducta del acoso, la amenazas y de otro tipo en la figura legal. Por tanto, el proceso no es fácil pero la justicia debe superar el miedo a la usual cultura de violencia contra la mujer o la violencia de género, y las personas víctimas acceder al sistema ya que mientras más se ejerza el derecho de la denuncia y cuanto más se exija, se impulsarán dichos mecanismos hacia su perfección.

Otras medidas de seguridad digital extremas que protegen la privacidad digital, a saber: siempre utilizar dispositivos con contraseña actualizada por lo menos cada trimestre; nunca revelar esas contraseñas ni almacenarlas en la memoria informática; decididamente crear contraseñas secretas, complejas y seguras o activar la verificación en 2 pasos; definitivamente evitar la misma contraseña para todos los accesos a internet; periódicamente actualizar el software del dispositivo y de las aplicaciones activadas; incesantemente evitar el robo o la pérdida del dispositivo; habitualmente revisar las aplicaciones no instaladas; continuamente administrar la configuración de ubicación permanente en el dispositivo y sobre todo, constantemente bloquearlo en tiempo de descanso o de manera remota.

Educación en igualdad de género

Aunque se refuerce la seguridad digital, la violencia contra las mujeres es estereotipo del carácter social, que influye y fomenta la discriminación de género. Lo actuado en esencia por Olimpia Coral Melo ante la violencia digital contra las mujeres es promover el ejercicio de los derechos humanos y de los valores originado en relaciones de respeto mediante la educación desde la infancia en temas de igualdad y de equidad.

No vale solo reconocer la violencia digital como una modalidad de agresividad contra la mujer y el género sino que debe ser visibilizada, prevenida, inhibida y castigada mediante leyes que respalden el acceso de las mujeres a una vida libre de violencia con base en el género. De allí que la sororidad sea clave para erradicar la violencia digital contra mujeres y dejar de estigmatizar el tema. Ha repetido la joven Olimpia, “no quedarse callada sino alzar la voz, buscar ayuda profesional, proceder y actuar conforme la ley” y, algo de su mensaje, ha calado en la sociedad regional.

Tres países de Latinoamérica han reconocido el triunfo de la Ley Olimpia en el orden de fortalecer algunas bases sociales para transformar creencias, estigmas, prejuicios, roles y estereotipos que oprimen a las mujeres y que las colocan en especial vulnerabilidad cuando su intimidad es expuesta de forma explícita y pública.

El gobierno de México, desde abril de 2021, promulgó la Ley que colocó un tema invisible en su agenda pública y la academia ha empezado a estudiar debido a la lucha social organizada a través del Frente Nacional para la Sororidad, Defensoras Digitales y muchas otras colectividades feministas.

En Argentina, en octubre de 2023, el gobierno legalizó la Ley incorporando la violencia contra las mujeres en entornos digitales como un modo de violencia de género y determinó medidas cautelares de protección para que la justicia ordene a las plataformas digitales eliminar el contenido que genera violencia.

El Congreso de Colombia abrió un espacio de diálogo el pasado 17 de septiembre de 2024 para modificar ciertos artículos del Código Penal y de la Ley 1257 de 2008, por la cual se dictan normas de sensibilización, prevención y sanción de formas de violencia y discriminación contra las mujeres. Entonces el proyecto de ley penalizaría la creación, difusión, sustracción y distribución no consentida de material íntimo erótico o íntimo sexual en redes sociales y sancionaría las conductas relacionadas con creación, difusión, sustracción y distribución no consentida de material íntimo erótico o íntimo sexual.

No obstante, durante la tercera semana de septiembre 2024, en una peripecia política, el ministro de las TIC de Colombia asistió al Congreso de Seguridad Nacional donde aseguró que “El Hub de Ciberseguridad que se desarrolla en Caldas, el proyecto de ley para la creación de la Agencia Nacional de Seguridad Digital y Asuntos Espaciales y el fortalecimiento del ColCert hacen frente a las ciberamenazas”. Mientras tanto, dando vuelta a la tortilla, en el segundo Encuentro de Medios Alternativos, Comunitarios y Digitales, que reunió a 1.500 periodistas y comunicadores de todo el país, el mismo titular de aquella cartera se comprometió a fortalecer a los medios alternativos mediante la Ley de tercios: destinar 33,3% de la pauta oficial para la financiación y abrir dos convocatorias por $15.000 millones para invertir en contenidos y equipos, y para la creación de 300 nuevas emisoras comunitarias. ¿Y su regulación? Sigue girando en el Congreso.

19 septiembre 2024

Acciones para desarrollar y aplicar IA en Colombia

El Ministerio de Ciencia, Tecnología e Innovación publicó la Hoja de ruta para la adopción ética y sostenible de la inteligencia artificial (IA) cuyo fin último sería catalizar el cambio de mentalidad en diversos sectores nacionales

Iconografía del contenido

Haga click en imagen para ampliar

La iniciativa ha estado impulsada desde el año 2019 a partir de las políticas nacionales para la Transformación Digital e Inteligencia Artificial; la de Ciencia, Tecnología e Innovación 2022-2031 y las recomendaciones de UNESCO y OCDE IA de 2022 sobre ética, entre otras. El eje común al implementar la IA residirá en “potenciar la generación de valor social y económico del país, bajo principios de adopción y sostenibilidad”.

El factor crítico para la adopción de la Inteligencia Artificial en Colombia, sobre la base de la ética y la sostenibilidad, se sustenta en el Índice Latinoamericano de Inteligencia Artificial (ILIA), un estudio pionero que proporciona pautas e información sobre la postura de 12 países en la región. Por su parte, la hoja de ruta tuvo como sustento un proceso de co-creación y co-diseño donde participaron actores públicos y privados de sectores financieros y productivos; de la sociedad civil; de entidades internacionales y de centros de ciencia, investigación y desarrollo tecnológico. En complemento, fue “refinada” con retroalimentación mediante consultas a expertos especializados en Inteligencia Artificial de los cinco entornos que se describen enseguida.

No obstante, el grupo de 73 personas consultadas abrió de entrada una evidente brecha de equidad, contrario a lo expresado en el documento “Hoja de ruta para el desarrollo y aplicación de la IA en Colombia” de febrero de 2024, en el entendido que “esta muestra asegura una representación adecuada”. Incuestionable, participaron 24.7% de mujeres y 74% de hombres; ninguna personas en condición de discapacidad 99% y con discapacidad intelectual 1%. Con respecto a grupos étnicos la representación fue así: ningún grupo étnico 91.5%, indígenas 1.4%, población negra 1.4%, afrocolombianos 1.4%, raizales 1.4% y afrodescendientes 2.8%. Tampoco se esclarece la diferencia entre poblaciones, negra y afrocolombiano y afrodescendiente.

Ambitos de innovación

La actual cartera ministerial anhela alcanzar niveles de madurez tecnológica en IA mediante los siguientes entornos de innovación, que en conjunto, superarán desafíos identificados por ILIA “promoviendo así un futuro tecnológico equitativo y próspero”, expresa MinCiencias.

1- Ética y Gobernanza. Serán guías para el desarrollo y la implementación de tecnologías de IA y para el fortalecimiento de los marcos regulatorios y las prácticas de gobernanza con el objetivo de asegurar un entorno transparente y responsable. El motivo se focaliza en el problema relacionado con la baja comprensión y confianza pública en las aplicaciones de la IA.

Por tanto, las líneas de innovación en investigación en ética se encauzan para los datos, los algoritmos y las prácticas, y para la generación de nuevo conocimiento; desarrollo de métricas de equidad; organización de foros y talleres regionales públicos; campañas de sensibilización ética en medios de comunicación; y creación de un consejo asesor ciudadano en tecnología y un comité nacional de apoyo, entre otras.

El contexto estudiado para describir este plan de acción está sustentado en el informe “Indice Latinoamericano de Inteligencia Artificial 2023”, que identifica desafíos significativos como el impacto en el trabajo y la equidad de género. Aquel análisis revela además que subyace un rezago en las políticas de reconversión laboral y un aumento en la brecha de género en habilidades asociadas a la IA.

La mayor vulnerabilidad de la región, incluida Colombia, es la carencia de un marco regulatorio claro y actualizado, lo que ocasiona disparidades significativas entre los países en asuntos de desarrollo de las áreas estratégicas con IA, visión e institucionalidad, participación internacional y regulación, obviamente. Colombia en tres subdimensiones de la gobernanza se ubica por debajo de Argentina, Brasil y Chile pero de consuelo, por encima del 50% del promedio regional.

El tema clave de este entorno se dirige a profesionales, tomadores de decisiones y sociedad en general para desarrollar programas de educación ética en IA incluidas la sensibilización sobre los dilemas y la promoción de una cultura ética en el desarrollo y uso de la tecnología. En cuanto a la gobernanza, el documento “Sandbox sobre privacidad desde el diseño y por defecto en proyectos de inteligencia artificial”, emitido por la Superintendencia de Industria y Comercio en 2021, es uno de los mecanismos exploratorios de regulación basados en IA. El plan de acción que se reseña lo configura como ambiente preventivo y experimental, destinado a facilitar a las empresas y a entidades interesadas en proyectos de inteligencia artificial la creación de soluciones colaborativas.

2- Educación, Investigación e Innovación. Con esta esfera se impulsaría la formación y la capacitación en habilidades relacionadas con IA con base en programas educativos especializados para la preparación de una fuerza laboral competente y se incentivaría la investigación y la innovación. Se solucionaría así el conflicto por el bajo desarrollo de competencias y de diversidad de género en IA.

Según el informe “Future of Jobs Report 2023” del Foro Económico Mundial se anticipa que 44% de las competencias básicas de los trabajadores en el mundo cambiarán en los próximos cinco años debido al aumento de las tareas realizadas por máquinas. Se estima que aumentará de modo evidente el conjunto de habilidades básicas relacionadas con pensamiento analítico y creativo; resiliencia, flexibilidad y agilidad; motivación y autoconocimiento; y curiosidad y aprendizaje permanentes. No obstante, se señala que mujeres, minorías raciales, indígenas y personas con bajos ingresos son ahora más vulnerables a las consecuencias negativas de la IA para el empleo.

Abordar estos retos globales implica la necesidad esencial que las estrategias nacionales de IA se centren en mejorar la alfabetización en IA desde los sistemas públicos de educación. En consecuencia, el entorno pretende crear programas de formación continua para docentes; construcción de infraestructura para centros de investigación; otorgamiento de becas y subsidios para la formación en IA; diseño de plataforma de colaboración virtual; etc.

3- Datos y Organizaciones. Se centrará en potenciar el manejo eficiente de los datos para impulsar proyectos concretos de impacto mediante estrategias multilaterales entre los sectores público y privado pues el cuello delgado de la botella evidencia ausencia de marcos éticos y de gobernanza en los datos para las aplicaciones basadas en IA.

Según el libro blanco de 2019 “Data Trusts: A New Tool for Data Governance” de Future Cities Canada se requiere de nuevos enfoques de gobernanza de datos para restaurar la confianza pública. Es decir, la rápida evolución tecnológica hace ineficiente los actuales enfoques regulatorios necesarios debido a su carácter reactivo y no proactivo. A nivel nacional, el Ministerio de Tecnologías de la Información y Comunicaciones enfatiza la importancia de otorgar a las personas control sobre la información personal pero el sector privado genera riesgos frente a la privacidad, propiedad y uso indebido de la información.

Un sistema de datos requiere de infraestructura, ya para su almacenamiento ya para su búsqueda y recuperación o ya para simples transacciones. De modo que las recomendaciones dadas por el Banco de Desarrollo de América Latina y el Caribe indican que los gobiernos deben contar con una política nacional de datos y una gobernanza para la producción y reutilización. Este costo medido en 2019 por la Organización para la Cooperación y el Desarrollo Económico (OCDE) estima que los beneficios económicos y sociales significativos por acceso e intercambio de datos se encuentran entre 0.1% y 1.5% del PIB mientras que para los datos del sector público entre 1% y 2.5%.

Colombia aventaja ya que cuenta con una política de datos personales implementada por la Superintendencia de Industria y Comercio, lo que representa una salvaguarda que asegura la protección del valor de los datos de los individuos. No obstante, hay que implementar otras líneas de innovación para la inteligencia artificial, tales como: desarrollo de herramientas de evaluación ética; desarrollo de plataforma de análisis predictivo; mejora de la experiencia del cliente; rastreo y gestión de activos inteligentes; prevención de ataques cibernéticos en tiempo real.

4- Industrias Innovadoras y Emergentes. Este entorno se dedicará al fomento de la adopción de tecnologías disruptivas en los procesos industriales y la anticipación a las tendencias futuras. El problema reside en la baja adopción de la IA en empresas, industria y sectores gubernamentales.

El modelo de Industria 4.0 implica la integración de tecnologías digitales e Internet de las cosas (IoT) que fusiona los mundos físicos, digitales y biológicos. En el núcleo de este desarrollo se encuentran elementos clave como sistemas ciberfísicos e Internet de los servicios y fábrica inteligente los que forman un ecosistema digital interconectado. La digitalización sigue siendo parte integral de esta revolución por lo que un análisis al contexto global de la Industria 4.0 se percibe como oportunidad estratégica para los países.

Para Colombia, el cambio representa igualmente una oportunidad de transformación que debe enfrentar desafíos significativos. En el reporte “Readiness for the Future of Production Report 2018” del Foro Económico Mundial y A.T. Kearney, el país se ubicaba entonces en el listado de estructura de la producción en el puesto 56 con un puntaje de 4.61 y en factores impulsores de la producción en el escalón 65 con 4.53 puntos por debajo de Argentina, Brasil y Chile, todos en la categoría ‘países nacientes’. Sin embargo, Colombia está de último en la lista conjunta de todos los demás factores: Tecnología e innovación (4.01 puntos, puesto 60), Capital humano (4.60 puntos y puesto 65), Comercio e inversión global (3.89 puntos, puesto 80), Marco institucional (4.60 puntos y puesto 67), Demanda de recursos sostenibles (7.53 puntos y puesto 20) y Medio ambiente (4.91 puntos y puesto 46).

Ante la falta de acciones rápidas que generan rezago significativo, Colombia enfrenta otros desafíos que tienen relación con la seguridad de las Tecnologías de Información y Comunicación (TIC), la interconexión entre entidades que abre puertas traseras para violaciones de seguridad y fugas de datos, la capacidad de adaptación y orientación sobre las posibilidades de digitalización de las pequeñas y medianas empresas (PYME), la educación en ciencia, tecnología, ingeniería y matemáticas y la formación de profesionales, según ILIA. Es por ello que algunas líneas de innovación referencian desarrollar sensores inteligentes para monitorización, sistema de control de calidad automatizado, simulación avanzada en investigación y desarrollo, optimización del consumo energético en procesos industriales.

Considerando la visión de la Industria 4.0, con fábricas inteligentes y productos conectados, el nuevo entorno exige un enfoque integral que aborde investigación, I+D, adopción tecnológica, educación, inversión e infraestructura con base en colaboración entre gobierno, sector privado y academia. Por tanto, el mayor esfuerzo nacional debe erradicar la cultura del egoísmo alacrán.

5- Privacidad, Ciberseguridad y Defensa. Implementarán medidas para mitigar riesgos y garantizar que la IA contribuya positivamente al bienestar y la seguridad ciudadana pues el problema nacional consiste en el bajo nivel de desarrollo de soluciones basadas en inteligencia artificial que impacten positivamente la calidad de vida y el bienestar social, económico y ambiental de la población.

El hito significativo moderno en la evolución tecnológica consiste en la convergencia entre la inteligencia artificial, industria aeroespacial y defensa nacional. Este cruce ha permitido notables avances, desde la recopilación de información hasta la toma de decisiones estratégicas. Sin embargo, como en los entornos anteriores, surgen desafíos que se deben abordar de manera rigurosa debido al dinámico mercado de la inteligencia artificial y la robótica en el sector aeroespacial y de defensa, valorado en 29,67 mil millones de dólares en 2023 y proyectado para crecer a una tasa compuesta anual del 7.5%, que alcanzaría 42,60 mil millones de dólares en 2028, según el informe sobre IA en el mercado militar por aplicaciones de Modor Intelligence. una organización con sede en India de expertos en investigación de dominios específicos quienes rastrean continuamente los mercados.

Este mercado caracterizado por la presencia de múltiples actores destacados como The Boeing Company, Lockheed Martin Corporation, Airbus SE, IBM Corporation, Thales Group, entre otras, ─fabricantes de robots, proveedores de tecnología robótica, inteligencia artificial, etc.─ lideran, fabrican, trabajan en estrecha colaboración y desarrollan soluciones avanzadas basadas en IA. En la práctica se trata de asociaciones estratégicas que reflejan la creciente tendencia de colaboración entre empresas para impulsar la innovación, la criptografía y las tecnologías cuánticas.

Con estos avances mejorarán la seguridad, la eficiencia y la toma de decisiones para operaciones aeroespaciales y de defensa como ya ocurrió en 2023, cuando América del Norte representó la mayor cuota de mercado en la industria IA y robótica para el sector aeroespacial y de defensa global. Para Latinoamérica, un liderazgo regional sugiere presencia e impulso significativo de empresas y organizaciones de investigación en desarrollo y aplicación de tecnologías avanzadas.

Los retos que enfrenta el entorno se circunscriben a áreas cruciales, tales como capacidad de análisis en tiempo real, autonomía de los sistemas, responsabilidad y rendición de cuentas frente a las operaciones autónomas, regulaciones internacionales debido a la utilización en operaciones ofensivas. Las guerras geopolíticas que cruzan a Europa están mostrando nuevas vulnerabilidades en el uso de la IA en ciberseguridad: los adversarios vienen empleando malware y manipulando los sistemas autónomos; los sistemas autónomos han mostrado incapacidad para discernir situaciones complejas, evaluar el valor militar de objetivos y determinar intenciones; las corporaciones tecnológicas siguen influyendo a través de la manipulación de datos a gran escala.

Ante tal panorama se han alzado voces conocidas ─Elon Musk, Steve Wozniak y otros 1700 desarrolladores del mundo─ para “llamar a todos los laboratorios de IA a fin que todos los actores clave pausen inmediatamente, de modo público y verificable, durante al menos 6 meses, el entrenamiento más potente de los sistemas GPT-4”, la Convención de ONU sobre ciertas armas convencionales busca limitar el uso de armas autónomas letales. En Colombia, al menos, la tecnología de avanzada en las operaciones militares ha despertado una necesidad imperiosa.

Según reportes de medios a fines del 2023, el comandante general de las Fuerzas Militares anunciaba la incorporación de la Inteligencia Artificial en las operaciones de manera “integrada en el proceso de planeamiento, para poder anticipar, prever y planificar de manera más efectiva”. Argentina, Chile y Brasil ya han desarrollado planes de acción para implementar la inteligencia artificial en las Fuerzas Armadas. Bien nos valdría la pena el diálogo con los titulares de aquellos ministerios.

Si se trata de seleccionar un tema clave habría que generalizar el de seguridad, que cubre defensa nacional, ambiente, recursos naturales, residuos, monitoreo inteligente, etc. y cuya modernización se alinea a la monitorización de la biodiversidad con visión artificial; clasificación automática de residuos con visión por computadora; sistema de alerta temprana para contaminación; sistema de gestión de movilidad inteligente; monitorización continua de movimientos sísmicos; desarrollo de cámaras inteligentes en espacios públicos; entre otras.

La fase siguiente de esta ilusoria hoja de ruta trazada por MinCiencias de Colombia consiste en someter a consulta ciudadana las 130 rutas de innovación propuestas para establecer prioridades y recomendaciones dentro de cada entorno, y ya ha pasado medio año.

15 agosto 2024

Los medios sociales son propicios para la cancelación

La cultura de la cancelación como acción pública viene siendo ejecutada por terceros, quienes condenan al ostracismo a personas incómodas o transgresoras por su postura política, y debido a la virtualidad de los medios sociales se convierte en etiquetas de supervisores

Iconografía del contenido

Haga click en imagen para ampliar

El escenario más común de la cancelación es el medio social donde, por supuesto, las protestas y la negación son actos reiterativos del ciclo de la sanción que contribuyen a ignorar los procesos de la convocatoria a la cancelación y de la defensa activa de la cultura de la cancelación. No obstante, lugares de concurrencia física y pública como campus universitarios, ferias, auditorios, museos, tiendas, teatros, también son dimensiones propicias para ejercer la cancelación como un enfoque de la retribución desde el cual se imparte justicia propia.

Regularmente el código “ojo por ojo”, entronizado en la creencia, se ha mantenido a lo largo de la historia en las religiones pues “más te vale entrar tuerto en el reino de Dios que ser arrojado con los dos ojos al infierno”. En la tradición cristiana, verbigracia, el castigo a Adán y a Eva fue su expulsión ​​del jardín del Edén al momento en que violaron las reglas de Dios. En el Corán, el retribucionismo es solo para aquellos desobedientes o malvados, en el Dhammapada budista es consecuencia de las malas acciones y en el Bhagavadgita hindú se obtiene por el mal karma.

El mundo tangible ha sido testigo presencial de clases de justicia retributiva: quema de libros en plazas, degradación de editores por aprobar títulos, despidos de periodistas cuando se desvían de la línea editorial del medio y agresiones o vituperios a colectividades en lugares públicos. Lo más impactante de la cancelación ha sido remover al individuo de su cargo, prohibir su entrada o su discurso, dejar de nominarlo en un corporativo, negarlo o bloquearlo en las cuentas de los medios sociales y hasta cancelar su contrato laboral.

Eso último le ocurrió al vendedor Daniel Maples el 27 de junio de 2020, luego que los clientes dentro del Costco Gulf Coast Town Center de Fort Myers (Florida: USA) le pidieron usar el tapabocas para protección al Covid. Su respuesta fue gritar “Me siento amenazado” y avanzar hacia los clientes. Uno de aquellos, un director local de cine, lo grabó en video que publicó en Twitter y en menos de 24 horas la identidad del hombre ya había sido revelada. Afrontando el riesgo a la reputación corporativa, su empleador ─Ted Todd Insurance─ y un ejecutivo de la empresa, Charley Todd, anunciaron que Daniel había sido cancelado de su trabajo.

En otras ocasiones la cancelación es un modo personal que asume un individuo contra un amigo o conocido. Por ejemplo, el actor Daniel Radcliffe, quien interpretó a Harry Potter, se distanció de la posición de la autora cuando ella habló en público contra las mujeres transgénero. Críticos de la cancelación han denunciado esta práctica elevándola a un generalizado cambio cultural y referida como cultura de la cancelación. Estos censores, situados a menudo en la derecha ideológica, en ocasiones perciben la cancelación como un repudio reaccionario de los progresistas y una guerra contra las ideas conservadoras del activismo digital.

Ante los hechos, la cancelación es realizada únicamente por terceros quienes se autodeterminan ‘Supervisores’ de las normas legales y morales y, por tanto, asumen el derecho de transgredir enviando al cancelado al ostracismo.

La escritora afrocanadiense musulmana, Sarah Hagi, preguntó en noviembre de 2019 por la revista Times si ¿la cultura de la cancelación ha ido demasiado lejos? Para ella, “no es real, al menos no de la forma en que la gente cree”. En cambio, afirma que se ha convertido en un comodín cuando las personas con cierta notoriedad enfrentan consecuencias por sus acciones o reciben del público cualquier tipo de crítica.

Como flagelo por la difamación, la cancelación es un distorsionado punto de vista del Derecho a la Libertad de Expresión y una autoapropiación del Principìo de la Retribución ya que solo la institucionalidad que ejerce justicia bajo normas legales del derecho constitucional puede procesar a los individuos. Mientras que, como etiqueta, la cultura de la cancelación se materializa en medios sociales y en escenarios físicos, lo cual repercute en el entorno privado, personal y social del cancelado afectando su vida profesional y personal.

Por tanto, con base en la teoría de las normas sociales, y siendo cual fuere la perspectiva de la cancelación, las consecuencias consisten en excluir a sujetos por violar normas morales y en retirar apoyos a figuras públicas o a empresas por algo individualmente objetable. De modo que la cancelación y la cultura de la cancelación son acciones desiguales, en tanto las repercusiones de una y otra no afectan por igual a las personas canceladas, como los casos del tendero en Florida y del actor británico.

Repitiendo, el evento de cancelar es promulgado por la gestión de terceros quienes se apropian del manto de la supervisión mientras que, en la cultura de la cancelación subyace algún elemento de la teoría de las normas sociales interpretado de modo estropicio. Pero ambas actitudes generan efectos por la exclusión del cancelado.

Si bien ese aislamiento sufrido por la cancelación se inicia con una exposición difamatoria del individuo cancelador termina con otras formas sociales más violentas y discriminatorias para el cancelado, tales como: recopilar y publicar información suya o de su grupo, sin sus consentimientos, con el objetivo de dañar su trayectoria pública y profesional (doxing); negar la oportunidad a alguien para aportar sus ideas públicamente porque el cancelador cree que esas creencias son peligrosas o inaceptables (deplatforming) o las más recientes: denigrar a las mujeres blancas irritantes y abusadoras por sus privilegios o denunciar situaciones racistas provocadas por mujeres blancas (Karen), como ha acontencido desde el surgimiento del movimiento Black Lives Matter.

Algunas motivaciones

1) Cuando produce exclusión, la extendida cultura de la cancelación sobrepasa al Derecho a la Libertad de Expresión por ser un juicio arbitrario no objetivo y por cuanto el resultado de la acción es la proscripción a un individuo con su consiguiente afectación personal, familiar y social. Con esa oportunidad se reconoce que el cancelador confronta las normas sociales con sus propias reglas morales, que hace predominar.

Un primer asunto del sistema teórico de las normas sociales analiza la cancelación protegida por una libertad de expresión absoluta: el cancelador ejerce su acto con el poder de la manipulación sobre la persona denunciada y lo convoca a través de la mediación entre los miembros del medio social, publicando iniciales mensajes de denuncia sobre el punible comportamiento transgresor. Por tanto, con base en la cuestión jurídica general del Derecho a la Libertad de Expresión en sentido amplio, la justificación demostrable de esta cancelación impone estudiar si las limitaciones a la libertad de expresión pueden estar “argumentadas en una sociedad libre y democrática” mediante una legislación de incitación al odio.

En las ocasiones moderadas, el Derecho a la Libertad de Expresión ofrece sensibilidad, solidaridad y hasta educación ya que protege del malestar que ocasiona aquella cultura al leer angustiantes respuestas en medios sociales acerca de la culpa de las víctimas, la humillación a las putas, los chistes sobre violaciones, etc.

Una propuesta de Michalinos Zembylas, profesor de Teoría de la Educación y Estudios Curriculares en la Universidad Abierta de Chipre, se encauza a que ─además de enfatizar el pensamiento crítico, la alfabetización mediática, el debate y la argumentación─ “los programas de formación docente destinados a orientar a los profesores para que aborden la cultura de la cancelación, deben evitar reproducir esas formas en que las redes sociales la enmarcan con rutinas individualizadas y psicologizadas e instar a prestar atención ante las cuestiones estructurales de segregación e injusticia”.

2) Desde los estudios de medios comparados, Jose van Dijck ─autora, investigadora y profesora de la Universidad de Ámsterdam─, en su ensayo de 2013, “La cultura de la conectividad: Historia critica de los medios sociales” descifraba el compromiso oculto de cada plataforma, así: Facebook mantiene el imperativo de “compartir”; Twitter reproduce la paradoja entre “seguir” y “marcar tendencias”; Flickr se balancea entre la comunidad y el comercio; YouTube exacerba el vínculo íntimo entre televisión y comentar videos. De manera que preguntaba, ¿Cuáles son los detalles culturales e ideológicos de este ecosistema que al parecer lo interconecta sin fisuras?

En efecto, las prácticas en línea son meras bases algorítmicas de una socialidad para quedar atrapados, el régimen de propiedad privada de las tecnológicas es una integración vertical de la interoperabilidad donde consumimos cercados y los intentos fallidos por abandonar la conectividad no dejan salida debido a la ideología circulante. En últimas, “las conversaciones digitales” se han dirigido hacia sucesos plenamente subjetivos que confunden expresión personal propia de la democracia liberal con mercantilización de la peculiar identidad, afectando por tanto los derechos a la intimidad y la honra.

3) Desde la ciencia política también se estudian las perspectivas de la confianza pública en los sistemas democráticos. Para la politóloga Pippa Norris de Harvard University, la cancelación expresada por los progresistas se está apoderando de los campus universitarios al silenciar las voces conservadoras y los panoramas diversos en cuestiones de racismo, etnicidad, acoso sexual, misoginia, identidades de género no binarias y transfobia.

Así lo evidenció en el proyecto que moderó entre enero de 2023 a diciembre de 2025, “Trust in European Democracies”. Fue una investigación científica comparativa integral en 12 países de la Unión Europea (UE), incluida Ucrania, sobre las percepciones de la confianza y de la credibilidad públicas. Es decir, la confianza política considerada factor de estabilidad del régimen se asocia con las democracias representativas.

Por tanto, cuatro dimensiones enmarcaron el impacto del proyecto, i) comunicacional: facilitar el establecimiento de un nuevo paradigma de confianza política y la aparición de nuevas ideas sobre los orígenes multifacéticos de la confianza política mediante la publicación de los resultados en medios académicos; ii) político: debido a esas nuevas referencias, reactivar la gobernabilidad democrática y un marco normativo para mejorar la rendición de cuentas, la transparencia, la eficacia, la fiabilidad de las instituciones políticas y la agenda nacional y de la UE con el fin de estabilizar y consolidar las instituciones; iii) económico: preveer una reconstrucción del capital social vertical con alta cohesión social y baja conflictividad; y, iv) misión general: obtener mayor participación de los ciudadanos y de la sociedad civil mediante la educación, la comunicación política, el pluralismo de los medios de comunicación, las campañas de ONGs, entre otras.

4) Un cuarto itinerario al estudio del peligroso reproche a conductas que no constituyen delitos se relaciona con el derecho penal a partir del poder punitivo sin regulación. La cultura de la cancelación se puede convertir en ejercicio arbitrario de la fuerza excluyendo así la jurisdicción del Estado, que mantiene el orden en el complejo sistema social y lo utiliza para proteger bienes jurídicos indiscriminados ante agresiones injustificadas.

La causa visible de aquel actuar por fuera de las vías legales para conseguir un derecho propio produce que los debates se construyan dentro de los medios sociales, como ocurre en X (antes Twitter), en la plataforma rusa Telegram, en la red social de origen chino TikTok, entre otros. Esos contenidos atraviesan las barreras geográficas, llegan a más cantidad de usuarios localizados en diferentes partes del mundo y pueden también influir en el aumento de la participación social de la cancelación. El motivo invisible, por el contrario, ocasiona que “no siempre advertimos que tales debates en alguna medida se van volviendo irrelevantes ante las nuevas formas de comprender y de analizar el mundo”, según se lee en el libro “La vida en línea: El impacto de las redes sociales en todo lo que hacemos” del Licenciado en Derecho, Miguel Carbonell.

No obstante, una sistematización de casos de cancelación da cuenta de tres vertientes de defensa desde el cancelado: una conducta no condenada pero con repercusiones y reproches severos para quien cancela; un comportamiento inmoral de escasa gravedad penal; y comportamientos ilegales que no ameritan pena.

Ejemplo del primer escenario es el suicidio el 31 de agosto de 2019 en Winnipeg (Canadá) del desarrollador de juegos Alec Holowka quien fuera acusado en redes sociales de abuso físico, sexual y sicológico por su pareja sentimental Zoë Quinn. Al divulgar su violencia íntima en las campañas de ciberacoso, usando los hashtags #gamergate y #Metoo, fue cancelado en su trabajo y en su vida social. Su situación depresiva entonces lo llevó al suicidio sin que fuera escuchado o hubiera podido defenderse de las acusaciones ante un juez, invocando un proceso penal.

Con base en las noticias publicadas la primera semana de septiembre de 2019, por Diana Davison en Post Millenial ─“Allegations that led to Alec Holowka’s suicide need proper scrutiny”─ y Rick Rottman en su blog bentcorner ─“Zoë Quinn accuses Alec Holowka of sexual abuse, he then kills himself”─, las declaraciones de la expareja fueron tardiamente borradas de las redes pues el tribunal de la opinión pública ya lo había sentenciado.

Los comportamientos inmorales de escasa gravedad penal para el cancelado también son ilustrativos. Resulta que el 9 de noviembre de 2017, The New York Times informó que cinco mujeres comediantes acusaron al actor y escritor estadounidense Louis C. K. (Louis Alfred Székely) de proponerles que lo vieran masturbarse. Ese mismo día, el propio actor admitió su culpa y expresó remordimiento por el daño causado y el abuso de poder. No obstante, las distribuidoras de sus películas cancelaron los estrenos, su espectáculo en vivo “The Late Show with Stephen Colbert” también fue cancelado, HBO canceló su presencia en un especial benéfico para la televisión y eliminó de sus servicios on-demand sus comedias, la compañía The Orchard anunció que no iba a distribuir “I Love You Daddy” y dos coprotagonistas de su película dejaron de participar en la promoción del filme. Aún hoy se le critica y acusa por su comportamiento del pasado, según informa el portal well+good.

De la última vertiente fue protagonista el reconocido golfista Eldrick “Tiger” Woods, quien el 27 de noviembre de 2009, después de su accidente de tránsito, informó sobre su repetida infidelidad a su esposa, la modelo sueca Elin Nordegren. Ese comportamiento íntimo lo obligó a pagar el incumplimiento de su contrato matrimonial pero la esfera pública criticó al deportista fuertemente y muchos de sus patrocinadores lo cancelaron, según divulgó en Bleu Magazine, el periodista Justin Wallace.

5) El actual dispositivo de control social se asienta en la cultura de la cancelación desde imperativos morales, como alternativa frente a la ineficacia y/o la complicidad de las instituciones judiciales al no fallar las denuncias.

Para la Sociología, durante la sindemia del Covid-19, bien pudo ocurrir la supremacía del móvil y el crecimiento de la audiencia en internet como consolidación de una nueva modalidad del poder. Una posible causa estribaría en la no existencia de la interpelación discursiva de los sujetos [leáse como no se debaten argumentos] y que, en el último lustro, ha habido radicalización de las posturas político-ideológicas debido a la crisis económica y a las nuevas legislaciones y normativas post-pandémicas.

Aunque la medición del consumo digital no indica relación con el enjuiciamiento comunitario, el informe “Perspectivas del escenario digital latinoamericano” de Comscore revelaba, entre marzo a septiembre de 2020: “alto incremento en las cifras de páginas web vistas en Argentina, Brasil y Perú”, “185% más de personas informadas en últimas noticias por internet en Argentina, Brasil y México”, “334 horas de tiempo promedio por visitante web en Argentina, Brasil y México”, “las categorías de mayor consumo digital en América Latina fueron: mensajería instantánea, 127%; educación, 64% y noticias sobre negocios y finanzas, 56%”; “las aplicaciones colaborativas en la región tuvieron un alza sostenida durante la sindemia, siendo Zoom la de mayor crecimiento 2,711%, Telegram 71% y Google Meet 44%”.

Límites al reproche

De la misma manera en que el derecho penal sincroniza la justicia con base en los límites al judicializado por presuntamente cometer un delito ─como la presunción de inocencia, el debido proceso, la proporcionalidad entre pena y daño ocasionado, etc.─ la cultura de la cancelación los debe respetar por igual. Pero por el contrario, viraliza el error y elimina al sujeto lo que termina desprotegiendo sin justicia al cancelado, sus prerrogativas y otorgando a otros sujetos el poder de juzgar y condenar. Así se configura por la fuerza el tribunal de la opinión pública.

Además, el absolutismo de ciertas orientaciones comunes y el extremismo de los discursos por el sesgo ideológico son factibles de ser calificados “proliferación de dispositivos para la cancelación”. De esta manera el profesor argentino, Jonathan Enrique Prueger, licenciado en Sociología y becario del Instituto de Investigaciones Gino Germani/Conicet, lo conceptúa: los dispositivos de cancelación potencian radicalizaciones totalitaristas de registros ideológico-culturales, y al ser ejecutados suscitan la reactualización de los imperativos categóricos morales relacionados con las conductas.

La conclusión que expusó Prueger, en la XI Jornada de Sociología de la Facultad de Humanidades y Ciencias de la Educación de la Universidad Nacional de La Plata (Argentina), es que operar la cancelación mediante los discursos y las creencias genera “la eliminación del opuesto ─y desde allí profundizan una fractura social de lo inconciliable─ e inician dinámicas punitivas y de vigilancia”. Por tanto, aceptar la “proliferación de dispositivos para la cancelación” equivale a asumir el imperativo moral fundamental de la utopía de la positividad, orientada a la supresión de la contradicción, la disparidad y la alteridad.

Prueger insiste que aquellos dispositivos de cancelación ─pregonados desde los auges que caracterizaron al primer año pandémico─, expresados a través de contenidos en los medios sociales y a instancias del contagio digital y del juzgamiento moral intersubjetivo, configuran descargas controladas y redireccionadas de malestares cada vez mayores inherentes a nuestras sociedades neoliberales occidentales, alimentadas de fetichismos sociales y que, el cancelador cree, resuelven los problemas estructurales sociales al expulsar a sujetos concretos. De nuevo, la vuelta de esquina a la ley de Talión: “si tu mano te hace pecar, córtatela”.

En complemento, Prueger sintetiza tres oportunidades primordiales de espontáneas dinámicas de autorregulación para este tipo de violencia en la sociedad con gran protagonismo de las plataformas digitales: “un primer momento es el señalamiento de la falta de un agente hacia otro” (esta idea proviene del redactor de grist, David Roberts: ante la posibilidad que la acusación sea falsa, es inevitable referirse a la posverdad); un segundo momento son “la enunciación y la legitimación de un discurso ‘intersubjetivo’ que pregona la inadmisibilidad de determinada conducta”, siendo este una dinámica signada por el contagio digital y el juzgamiento moral; y la tercera instancia es la “denuncia, condena y linchamiento digital, lo cual configura el escenario final de la cancelación o muerte digital”. En cualquiera de los tres tiempos la autoconsciencia de los usuarios de medios sociales puede silenciar los mensajes al confrontar, desmentir y dejar de compartir esas etiquetas de los supervisores.

Algunas otras maneras de contrarrestar las consecuencias nocivas de la cultura de la cancelación, que seguirá imponiéndose como ahogo social, es mediante la educación sobre el principio de proporcionalidad entre la ofensa y el castigo.

De nuevo, el trabajo investigativo de Pipa Norris contribuye a responder el interrogante, ¿Se observan diferencias entre ideas de izquierda y de derecha en los académicos? Con base en la encuesta “The World of Political Science, 2019” ─que recopiló 1.245 respuestas de politólogos que estudiaban o trabajaban en 23 posgrados en sociedades industriales de Estados Unidos, Europa y Australasia─ se proporcionan comparaciones transnacionales que indican “Hay experiencias notablemente similares en una variedad de sociedades postindustriales, especialmente en las democracias angloamericanas, que comparten tradiciones históricas y sistemas de educación superior similares”.

Por lo tanto, el patrón estadounidense de quienes están en la derecha ideológica notifica las peores experiencias de la cultura de la cancelación siendo claramente reflejado también en Canadá, Australia, Reino Unido, Alemania, Italia, Países Bajos, Rusia y, en menor medida, Suecia. La excepción es Nigeria donde no hay diferencias significativas entre izquierda y derecha en los profesores universitarios.

Este índice de la cultura de cancelación en las democracias angloamericanas se creó combinando tres elementos ─libertad académica para enseñar e investigar, respeto al debate abierto desde diversas perspectivas y presiones para ser políticamente correcto─ subyacentes a la pregunta, “A menudo se piensa que la vida académica está en estado de cambio. Utilizando la escala (mejoró mucho, mejoró un poco, no hubo cambios, empeoró un poco, empeoró mucho) y basándose en su propia experiencia, indique si cree que la calidad de aquellos tres aspectos en la vida académica ha cambiado en los últimos cinco años”.

02 abril 2024

Marcos regulatorios y de seguridad para las Inteligencias Artificiales

Protocolos frente a la situación mundial de la práctica de la simulación computacional que se diferencia de la comprensión humana y se aparta de nuestros sistemas de valores y de necesidades

Iconografía del contenido
Haga click en imagen para ampliar

El filósofo John Searle, en la revista Behavioral and Brain Science (volumen 3, número 3), propuso en 1980 distinguir dos tipos de Inteligencia Artificial, las débiles y las fuertes. Siendo las primeras, “herramientas poderosas que nos permiten formular y poner a prueba hipótesis de manera más rigurosa y precisa que antes”; y, las segundas, “per se, explicaciones de la cognición humana”.

Esa genérica disertación le provino de los tiempos de Alan Turing, quien preguntaba: ¿son inteligentes las máquinas? pero la inquietud la extendió Searle con un ligero cambio, ¿puede pensar la simulación computacional hecha por el hombre? Su discusión particular, centrada en la Inteligencia Artificial fuerte, le habría surgido con el principio de Allen Newell y Herbert Simon, de la década de 1960, a saber: cualquier sistema que sea capaz de descifrar símbolos físicos de una manera correcta es capaz de inteligencia.

Debido al desarrollo de los sistemas operativos computaciones de aquellos años 1980, Searle agregó valor a sus dos fuentes esenciales ya que podía complementar con propiedad su concepto diferenciado. Por tanto, aquel argumento inicial de la IA fuerte aplicado a “un computador programado apropiadamente es realmente una mente, en el sentido que puede literalmente “comprender” y tener otros estados cognitivos” pero donde los programas no son meras herramientas. En relación con la IA débil, Searle la consideraba desde “el valor fundamental del computador en el estudio de la mente” como herramienta muy poderosa sin ninguna otra objeción. (Aclarando, la “comprensión” según Searle implica tanto la posesión de estados mentales intencionales como la validez y el éxito de esos estados.)

En otro enfoque, las IA presentan evolutivos modelos −simbólico y conexionista− que significan, en su orden: esquema prominente con base en el razonamiento lógico y la búsqueda que opera con representaciones abstractas del mundo real modeladas mediante lenguajes de la lógica matemática. En complemento, el modelo de conexión consiste en la modelización subordinada apoyada en la hipótesis que la inteligencia emerge a partir de la actividad distribuida en cantidades de unidades interconectadas que procesan información compatible en simultáneo. Para entender: en el nivel avanzado, el uso de lenguajes representativos creados de la realidad consolidan la toma de decisiones, y, el escalón inferior, pretende aproximarse a la abstracción matemática de la neurona que posee dendritas (entradas) y axiones (salidas) útiles para el aprendizaje, la cognición y la memoria. El enlace entre las unidades se ejecuta entre la salida de cada operación con la entrada de otra, lo que forma una red neuronal natural o artificial.

Todo el preámbulo anterior fundamenta lo que se tratará y se hablará: el contexto de la comprensión del lenguaje natural utilizado para programar correctas instrucciones en la computadora, en tanto máquina estúpida −que no logra generar inteligencia humana: comprender− y, la plausible asimilación como solo simulación informática que da respuesta a esas instrucciones. No obstante, como cualquier avance de creación humana para el progreso social, debe procurarse reglamentar con base en normas legales, morales y éticas con las que hemos sobresalido desde el estadio denominado Homo Erectus.

Las practicas anti-hacker

La protección a la seguridad que mitiga el hackeo a la IA generativa ha sido expuesto con demostraciones públicas a través de pruebas red-teaming, agrupadas en el evento anual “Def Con” en Las Vegas, entre el 10 y el 13 de agosto de 2023, con consentimiento de la Casa Blanca y de algunas empresas estadounidenses de IA.

Este examen a la piratería informática ha tenido por finalidad, en sus diez años, identificar las vulnerabilidades de los programas de computación con base en un máximo de 21 retos y 50 minutos de duración para cada competidor. Además, fascina a hackers sombrero blanco del mundo por la posibilidad de defender la primera ley de Isaac Asimov: “un robot no puede dañar a un ser humano ni permitir por inacción que sufra daño”.

Voces como la de Avijit Ghosh, investigador de políticas aplicadas en aprendizaje automático y sociedad de Hugging Face Inc., aquel concurso significa cotejo a varios modelos de IA que demuestren avance de desarrollo técnico para certificar su tecnología responsable y coherente. Para Arati Prabhakar, directora de la Oficina de Política Científica y Tecnológica de la Casa Blanca, “la era generativa, que irrumpe entre nosotros y la gente, se está aprovechando para hacer todo tipo de cosas nuevas que hablan de la enorme promesa de la IA para ayudarnos a resolver algunos de nuestros problemas más difíciles pero también trae un conjunto muy amplio de riesgos”.

La versión “Def Con” 2023 ha sido la más popular debido a que sus organizadores aprovecharon la creciente alarma por la capacidad de la IA generativa para producir mentiras perjudiciales, influir en elecciones, arruinar reputaciones, generar perjuicio a los humanos, etc. El diario New York Times reseñó algunos de esos desafíos ante el pretexto de ataque a los ChatGPT:

a) sesgo y discriminación (diálogo aparente entre un bot conversacional y Emily Choi-Greene, Ingeniera de seguridad y privacidad en Moveworks, una plataforma de IA generativa): la charla inició sobre un juego con fichas de color blanco y negro, luego Emily pidió generalizar las afirmaciones ocasionadas con temas racistas, posterior organizó el “juego de opuestos” y por último, requirió al chatbot, crear un poema que respondiera a la pregunta porqué es buena la violación. La conclusión humana al comprender el contexto del resultado es que la IA “solo piensa en las palabras como tales, no en su significado ni en su contexto real” [de allí la estupidez de lo artificial]. Así resultaría evidente la propuesta mental de Searle acerca de su ‘habitación china’ y, a la vez, se ratificaría la segunda ley robótica: “un robot debe cumplir las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley”.

b) desinformación y estereotipo (inexistencia de objetos): otro participante solicitó a un asistente virtual inteligente buscar y describir un falso lugar para vacaciones conocido con el nombre de un personaje real histórico y, como segundo desafío, pidió el requisito de la declaración de impuestos por internet según la enmienda constitucional 28 [la Constitución de Estados Unidos contiene solo 27 reformas]. El ayudante artificial demostró obediencia fiel al redactar aquellos objetos no existentes, lo que sublevó la tercera ley de Asimov: “un robot debe proteger su propia existencia en la medida en que no entre en conflicto con la Primera o la Segunda Ley”.

c) farsa de campaña electoral para presidente: un estudiante de posgrado pretendió defender el activismo político mediante el trabajo infantil forzado a lo que el modelo de IA respondió que los jóvenes trabajadores involuntarios proyectaban sólida ética laboral.

d) automatización masiva: en un traductor inteligente de idiomas se escribió en inglés que un hombre había sido abaleado mientras bailaba y la traslación al hindi, uno de los dos idiomas oficiales de India, afirmaba que el hombre había muerto.

Legislaciones estancadas

En relación con la regulación legal a los modelos de la IA, desde abril y diciembre de 2018, han habido antecedentes que contienen tanto la visión europea de apoyo con ética segura y vanguardista como el temor de los usuarios a que se limite el potencial y beneficio amplio de esta tecnología.

De modo que gestores de política pública y desarrolladores han venido coincidiendo en llevar a cabo el trabajo colaborativo −importante y urgente− entre gobiernos, empresas privadas, laboratorios, usuarios, para enfrentar los riesgos, combatir el uso indebido de los modelos desde actores no estatales potenciales peligrosos y promover mejores prácticas. El cuello de botella se genera en el cómo y en las limitaciones, según los encuentros posteriores en Ginebra y en Washington.

Los documentos “Inteligencia Artificial para Europa” y “Plan Coordinado sobre Inteligencia Artificial” de la Comisión Europea han sido arbitrados con base en tres pilares:

a) potenciar la capacidad tecnológica e industrial de la UE e impulsar la adopción de la IA en todos los ámbitos de la economía privada y pública;

b) fomentar la modernización de los sistemas de educación y formación frente a las transformaciones socio-económicas; y

c) garantizar el establecimiento de un marco ético y jurídico apropiado basado en los valores de la Unión Europea.

Cumbre global sobre seguridad

Luego de dos meses de las pruebas “Def Con” 2023 se realizó la primera Cumbre Global sobre Seguridad de la IA en Reino Unido, con base en seis paneles previos, para entender de modo urgente e internacional, cómo gestionar mejor los riesgos por los avances más recientes en la frontera de las IA.

La reunión se orientó hacia dos amenazas: uso indebido cuando un presunto delincuente recibe ayuda con nuevas capacidades de IA para ataques biológicos o cibernéticos, desarrollo de tecnologías peligrosas o interferencias críticas a los sistemas; y pérdida de control que podría surgir en sistemas avanzados sin tener alineación con nuestros sistemas humanos de valores y de intenciones. Estos enfoques se apoyan en el trabajo sobre riesgos y daños de la IA que adelantan la OCDE, el G-7 con el Proceso de Hiroshima sobre IA, la Asociación Global sobre IA y el Consejo de Europa.

Mientras se genera el protocolo de seguridad global, el portal web de la conferencia global reseña estos objetivos para la seguridad de las IA:

a) garantizar el desarrollo seguro de la IA que permita su uso para el bienestar mundial;

b) comprender de manera compartida sobre los riesgos que plantea la frontera de las IA y la necesidad de actuar;

c) acoger medidas apropiadas para que las organizaciones individuales extiendan la seguridad de la frontera de las IA;

d) colaborar con la investigación en seguridad de la IA, incluida la evaluación a las capacidades del modelo y el desarrollo de nuevos estándares, para respaldar la gobernanza;

e) avanzar, con base en un proceso de colaboración internacional, ante la seguridad de la frontera de las IA, incluida la mejor manera de apoyar a los marcos nacionales e internacionales.

Código Internacional de Conducta Organizacional

Con base en los Principios Rectores Internacionales para organizaciones que desarrollan tecnologías avanzadas IA, incluidos los modelos básicos y los sistemas de IA generativa, este código internacional de conducta del Proceso de Hiroshima del G-7 plantea como objetivo general promover una IA segura y confiable en todo el mundo. Alcanzar tal fin requiere de orientación voluntaria para ejecutar estas acciones:

a) tomar medidas apropiadas para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA, que incluye el desarrollo de sistemas avanzados, la implementación y la colocación en el mercado;

b) identificar y mitigar las vulnerabilidades, los incidentes y los patrones del uso indebido así como implementar controles de seguridad sólidos ante lo físico, la ciberseguridad y las salvaguardias contra amenazas internas;

c) informar públicamente acerca de las capacidades, limitaciones y dominios de uso apropiado e inapropiado de los sistemas avanzados de IA para ayudar a garantizar transparencia suficiente;

d) compartir responsablemente información, divulgar políticas de gestión de riesgos y gobernanza de la IA y reportar incidentes entre organizaciones que desarrollan sistemas avanzados de IA;

e) desarrollar e implementar mecanismos confiables de autenticación y procedencia de contenido, cuando sea técnicamente factible, como marcas de agua u otras técnicas, que permitan a los usuarios identificar contenido generado por IA.

Audiencia en el Capitolio de Estados Unidos

El 13 de septiembre de 2023, por iniciativa del Senador Demócrata Chuck Schumer, se realizó una audiencia a puerta cerrada en el Capitolio de Estados Unidos que ambicionaba sentar las bases del apoyo político bipartidista para la aprobación de la ley por el Congreso. En la cita, 60 senadores y más de 20 ejecutivos tecnológicos, activistas de derechos civiles y líderes sindicales, intercambiaron algunas propuestas como por ejemplo:

a) creación de una agencia gubernamental estadounidense con poder de auditoría global para ciertos sistemas de IA con el fin de determinar preventivamente el daño, antes de otorgarles licencia;

b) cerramiento de la brecha de acceso a internet de banda ancha que ahora impide a la comunidad hispana estar en la puerta principal de las infraestructuras de IA;

c) requerimiento para que los anuncios electorales realizados con IA, ya sean imágenes o sonidos, mantengan un aviso de precaución;

d) generación de responsabilidades a usuarios y a creadores de la tecnología;

e) necesidad de más trabajadores altamente calificados.

Desde el Parlamento Europeo

El Parlamento Europeo aprobó la Ley de Inteligencia Artificial que protege los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental a través del uso del modelo de IA fuerte de propósito general. Ya la Unión Europea, en primera instancia, la había discutido y generado enmiendas, con desagrado de Francia, Alemania e Italia por lo estricta. Ahora, en última instancia, será el Consejo de la Unión Europea el que la active como único marco común en los países del mundo.

La nueva ley adapta 14 elementos de compromiso como la lista de prácticas prohibidas de IA, los sistemas de categorización para la identificación biométrica y el reconocimiento de emociones, la evaluación del impacto sobre los derechos fundamentales individuales y la experimentación por fuera de los entornos limitados para las pruebas con sistemas de IA de alto riesgo en condiciones del mundo real, entre otros. Destacamos los primordiales para la seguridad y los riesgos humanos:

a) comercialización, puesta en servicio o uso de sistemas de IA que utilicen técnicas subliminales o procedimientos deliberadamente manipuladores o aprovechen las vulnerabilidades de personas o de grupos específicos debido a la edad, discapacidad, situación social o económica, con el efecto de distorsionar materialmente su comportamiento o hacer tomar decisiones erradas que causen daño significativo;

b) comercialización, puesta en servicio o utilización de sistemas de categorización biométrica que clasifiquen individualmente a personas físicas con base en inferencia o atributos y características sensibles o protegidas, extraídos con etiquetado o filtrado de datos y durante un tiempo determinado. Se exceptúan aquellos para ser usados con fines terapéuticos con base en un consentimiento informado específico y autorizado del paciente;

c) comercialización, puesta en servicio o uso de sistemas de IA para evaluar o clasificar, durante un período determinado, a personas físicas o a grupos atendiendo a su conducta social o a características conocidas de su personalidad y cuyo resultado provoque trato perjudicial por su raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, sexo u orientación sexual;

d) uso de sistemas de identificación biométrica remota y en tiempo real en espacios de acceso público. Se exceptúan aquellos que alcanzan tres objetivos: buscar víctimas de secuestro o desaparecidos, trata de personas y explotación sexual; prevenir amenaza inminente a la vida o a la seguridad física de las personas por previsible ataque terrorista; localizar o identificar sospechosos de haber cometido un delito penal para efectos de realizar la investigación, enjuiciar o ejecutar la sanción punible en el Estado miembro;

e) captura indiscriminada de imágenes faciales de internet o de grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento de rostros y de emociones en el lugar de trabajo y en las instituciones educativas o por razones médicas y de la actuación policial predictiva.

Resolución de la ONU

La Asamblea General de la ONU a finales de marzo pasado, sin votación pero con respaldo de más de 120 Estados miembros, adoptó una resolución liderada por Estados Unidos para la promoción de sistemas de IA seguros y fiables que beneficien el desarrollo sostenible para toda la humanidad. El texto reconoce por primera vez el potencial de los sistemas de IA para acelerar y permitir el progreso en procura de la consecución de los 17 Objetivos de Desarrollo Sostenible.

a) iguales derechos en línea y fuera de ella: solicitud para no utilizar sistemas de IA que no puedan funcionar según las normas internacionales de derechos humanos o que planteen riesgos indebidos para el disfrute de los mismos;

b) equidad y alfabetización digital: conminando a los Estados miembros y a las partes interesadas a cooperar y apoyar a los países en desarrollo para que se beneficien del acceso inclusivo y equitativo, cierren la brecha digital y aumenten la alfabetización digital;

c) gobernar la IA en lugar que nos gobierne: destacando oportunidades y responsabilidades de la comunidad internacional para crear y desplegar modelos de IA con la perspectiva de la humanidad y la dignidad, la seguridad y la protección, los derechos humanos y las libertades fundamentales.

La Complejidad Social

Por la preocupación expresada por Sam Altman, director ejecutivo de OpenAI, en un comité del Senado estadounidense sobre los modelos lingüísticos que pueden predecir la opinión pública e influir en el comportamiento de los votantes, me inquieta también este asunto: ¿es suficiente la regulación y la educación para atenuar la manipulación y la desinformación en conversaciones directas a través de sistemas y aplicaciones que incorporan modelos de IA?

Acudiendo a la teoría de la Complejidad Social, planteada por el sociólogo alemán Niklas Luhmann, existen tres condiciones −como método− para alcanzar máximas éticas donde opera la confianza, “en el más amplio sentido de la certidumbre del futuro frente a las expectativas personales”:

a) ubicarla en la naturaleza del mundo que es evidente por sí mismo pues “la confianza es una parte integral de los límites dentro de los cuales vivimos” y afianzarla con la naturaleza humana dado que “la ética es conjunto de principios personales inherentemente reversibles y de valor cuestionable”;

b) considerarla según la necesidad como “punto de partida correcto y apropiado con la que se derivan las reglas justas para una conducta”; y

c) “pensar y usar nuestra imaginación para representar las ansiedades de una existencia sin confianza”.

14 febrero 2024

Insertando marcas de calidad informativa en contextos de desinformación

Reflexiones académicas Iberoamericanas para combatir los riesgos de la posverdad al elaborar noticias falsas o engañosas dentro de los siguientes conflictos: cuál es el modelo de negocio de los medios sociales, cómo la desinformación pública provoca desconfianza y polarización, en qué momentos se acentúa la problemática de las fake news

Iconografía del contenido


Haga click en imagen para ampliar

“La democracia muere en la oscuridad”, eslogan oficial del diario The Washington Post

Cuatro documentos publicados en diciembre último y rescatados mediante alertas de Google Academic sirven de fuentes primarias para abordar el tema de la desinformación que bloquea el debate público, crea mega identidades partidistas y vulnera el goce de los derechos fundamentales.

Para desarrollar el asunto es necesario precisar con antelación este glosario: posverdad−también llamada mentira emotiva− (post-truth) es la distorsión deliberada de la realidad a través de discursos ideológicos para influir en las creencias políticas emocionales de los ciudadanos. Dentro de ese ámbito se encuentran dos tipos de desinformación, la entendida como el ejercicio de transmitir información errónea (disinformation) y la conocida como información intencionalmente engañosa (misinformation). Estas variedades se divulgan indistintamente mediante fake news: relatos periodísticos con información falsa que circula entre la ciudadanía con el fin de impactar su comportamiento social.

Conceptualmente las fake news se enmarcan en referentes sociales, se propagan mediante datos publicados y se protegen con la sombrilla de la posverdad. Las académicas de las Universidades de Sevilla y Málaga (España), María Lamuedra Graván & Lucía Ballesteros Aguayo, anotan en su artículo Fact-checking contra la desinformación: aprender a re-enmarcar en el aula y en la redacción periodística: “necesitamos verdades funcionales, y para tal fin se desarrollan diversos procesos institucionales” ya que una sociedad avanza en dependencia de los relatos adecuados que acontecen y son compartidos.

Cualquier relato atraviesa el entorno lingüístico que comienza en las estructuras mentales con las que los individuos damos forma al mundo que percibimos, de las cosas y de los seres. Aquellas estructuras están fijadas en la biología celular de nuestras redes neuronales que se activan al percibir ciertas experiencias del exterior. Por tanto, el ejercicio de informar verdades no se limita a registrar hechos como el marinero en el cuaderno de bitácora, por el contrario: es una acción que utiliza la racionalidad para representar el evento fundamentado en hechos.

El cerebro los procesa en la medida en que el flujo de la sinapsis cerebral establece relaciones duraderas o temporales entre ciertas metáforas, pensamientos y sentimientos que se han experimentado con anterioridad. De manera que el constante y repetido desarrollo de publicaciones y de datos se convierte en memoria a largo plazo cuyas estructuras mentales las fija el individuo gregario como asociación significativa y la sociedad las limita como visión de un mundo particular expresado en un lenguaje acorde.

Acentos de las fake news

Toda verdad incluida la de las Ciencias está sujeta a revisión. Así por ejemplo, la Policía en su labor diaria de detectar al delincuente debe verificar de modo permanente el archivo de sospechosos para actualizar y validar las búsquedas. De manera analógica lo deben hacer los medios periodísticos como institución encargada de seleccionar, explicar y relatar el acontecer cotidiano.

Los medios periodísticos, casi desde su origen, han rodado por el abismo temas noticiosos que exageran, a saber: el incesante impacto del crimen, la creciente incertidumbre social, la inviabilidad del mundo como lugar peligroso que requiere por tanto de cierto autoritarismo, etc. Los anteriores sustantivos así adjetivados acrecientan la mentira, la desconfianza y la posverdad, de la misma manera en que lo hacen la circulación de bulos específicos emitidos en medios sociales. Al respecto, más de treinta plataformas informáticas en línea y grupos verificadores de datos, entre otros firmantes, suscribieron en 2022 el “Código de prácticas reforzado sobre desinformación” de la Comisión Europea.

En complemento, el mundo moral subjetivo, de lo bueno y de lo malo, se configura con arreglo al discurso y su interacción social, así como también, en proporción a otras formas de habla y de texto. Este tipo de discurso y de interacción en la comunicación digital ha quedado atrapado en el modelo de negocio de los medios sociales, que “no pasa por la verdad sino por el engagement, de forma que fiscalizar la veracidad ha sido un elefante cada vez más grande e incómodo para la gestión de las redes sociales”, anota Alexandre López-Borrull, doctor en Química y licenciado en Documentación, en el artículo En busca de la verdad perdida: redes sociales y desinformación. También Nick Srnicek, profesor de Economía Digital en el Departamento de Humanidades Digitales del King's College London, sostiene que “las plataformas son modelos de negocios clave para extraer y controlar datos”.

El principal problema de las fake news se ha enfatizado en dos momentos estratégicos: la alternancia programada de las campañas electorales y los cambios forzados debido a crisis sociales. Las profesoras españolas explican, a través del autor George Lakoff, la dinámica del discurso de los republicanos de EE. UU. quienes han logrado que sus marcos mentales asociados a su cosmovisión social de la institución política se expresen con el lenguaje informativo aceptado como “guerra contra el terror”. Según los progresistas de esa nación, esa oposición guerra vs terror (alza de impuestos, intensa inmigración, continuidad de programas de ayuda social) ha sido aceptada últimamente como valor estadounidense pero los mismos progresistas no han logrado articularla con la tradición “Thanksgiving” o día de los valores de la familia originada en el año 1621.

Afirman Lamuedra Graván & Ballesteros Aguayo: “el contraste dialógico de perspectivas y encuadres es esencial para el pluralismo y la búsqueda de la verdad” pues son herramientas legítimas para persuadir, mientras que “el uso de la exageración, la tergiversación o la mentira deliberada para imponer marcos conceptuales son técnicas orientadas a promover un régimen de posverdad, por tanto, incompatible con la democracia”. Estas técnicas buscan generar una experiencia y una lógica alterativa e incompatible donde priman los intereses particulares de un sector.

Con Donald Trump se ha observado el segundo comportamiento en muchos frentes pero mientras fue presidente de Estados Unidos desmintió, cuanto pudo y sin argumento, al médico Anthony Fauci, especializado en inmunología, y culpó a la Administración de Alimentos y Medicamentos (FDA) de estar demorando el desarrollo de las vacunas contra el Covid 19 debido a las elecciones presidenciales del 3 de noviembre de 2020. Esta conducta social de imposturas contribuye a generar más controversia social porque los medios informativos la amplifican en espacio destacado de los temas controvertidos.

Un ejemplo más cercano se evidenció con el discurso ideológico del actual Ministro de Salud de Colombia al señalar el 28 de noviembre de 2023, en un debate en la Comisión Primera del Senado de la República, que “todos los colombianos que están vacunados sirvieron para el más grande experimento que se haya hecho en toda la historia de la humanidad” [como si la inmunización mundial hubiera sido exclusiva para Colombia]. Y de nuevo, los guardianes de la libertad rodaron sus bulos de información cuesta abajo generando escepticismo social sin siquiera criticar este otro populismo ramplón.

Para explicar el segundo camino del acento de las fake news ha sido relevante el proyecto interdisciplinar de la Junta de Andalucía, en España: “Posverdad: un problema socio-político durante y después de la pandemia” dirigido por Juan Antonio Nicolás, director de la Cátedra G. W. Leibniz de Filosofía. Según el análisis de los expertos “las técnicas de posverdad se caracterizan por mentir deliberadamente, evitar el funcionamiento dialógico y sano de la esfera pública e imponer intereses particulares deslegitimando a los interlocutores y contribuyendo a un clima de desconfianza”.

Ante la posverdad se debería enfrentar el régimen de verdad que requiere: ética, promoción de la confianza, reconocimiento de los participantes en una esfera pública plural y uso sistemático de método para corroborar fuentes y, consustancial, verificar hechos. Como nada de eso ocurre, Lamuedra Graván & Ballesteros Aguayo conceptualmente insisten en aplicar la lingüística cognitiva como técnica del re-enmarcado para consolidar nuevos marcos mentales en los ciudadanos y transformar aquellos bulos, contenido sesgado, verdades no contrastadas. Para Teun van Dijk, lingüista neerlandés, se trata de la retórica persuasiva: “Si los receptores no tienen información alternativa o no tienen acceso a otros discursos, la credibilidad y retórica persuasiva del discurso público puede ser tal que muchos receptores adoptarán las creencias expresadas por esos discursos prejuiciosos”.

Aquel aspecto relacionado con la problemática fundamental de la desinformación no solo asegura juicios inexactos como referentes conceptuales sino que crea cámaras de eco −bucles de contenidos personalizados transmitidos por medios sociales− y con ellas mega identidades partidistas, según Mariano Torcal, catedrático de Ciencia Política de la Universitat Pompeu Fabra (España). Estas nuevas comunidades que se están creando con cierta uniformidad favorecen la polarización global afectiva, protegen la esfera pública local hostil, fomentan el distanciamiento social corporal y hasta rechazan la interacción con ciertos familiares y amigos. Para evitar la avalancha de su propio lodo, los medios periodísticos modificaron el sintagma nominal ‘mega identidades partidistas’ por el de ‘bodegas’ o ‘cibertropas’ o ‘granjas de likes’ puestas como centro noticioso desde el proceso del plebiscito sobre los acuerdos de paz en Colombia en el año 2016.

Como anota López-Borrull, “Si las plataformas y sus excéntricos propietarios no quieren gestionar la desinformación y si los usuarios se encuentran más cómodos viviendo sus posverdades, tenemos un problema” asentado en el discurso de odio que demolió la racionalidad comunicativa −ausencia de premisas epistemológicas y normas comunicativas− y ofrece ínfimo análisis para la producción de la información como bien público.

Desinformación en guetos y discursos de odio

Una segunda dificultad por las fake news, analizada con evidencia empírica, muestra la relación proporcional entre desinformación y discursos de odio en el denominado ecosistema mediático: aquellos guetos para circular relatos.

Ese otro nominal alterado −ecosistema mediático− en verdad debe ser denominado Polymedia: “todas las oportunidades comunicativas convergentes que los usuarios aprovechan para gestionar sus relaciones con base en las diferencias de los medios”, según definen sus creadores Mirca Madianou, profesora en el Departamento de Medios, Comunicación y Estudios Culturales de Goldsmiths en University of London, y Daniel Miller, del Departamento de Antropología de la University College London.

La investigación Desinformación y colectivos vulnerables. Estrategias pragmáticas en bulos y fake news sobre género, inmigración y personas LGTBI+ desarrollada por Carolina Arrieta-Castillo, doctora en Lingüística aplicada de la Universidad de Salamanca (España), manifiesta que “las falsedades son percibidas como estratagemas retóricas que ayudan a conceptualizar la realidad”. Tal marco, disputable y disputado, según el filósofo surcoreano Byung-Chul Han, proviene de la ‘Infocracia’ −nuevo tipo de racionalidad comunicativa que degenera la democracia− erigida en los algoritmos que sustituyeron a los argumentos de la lógica de la razón y en la arquitectura digital de la Inteligencia Artificial que reemplazó al espacio domésticamente localizado del diálogo natural y presencial humano.

Arrieta-Castillo hizo una búsqueda de tres palabras clave ‘inmigración’, ‘género’ y ‘LGTBI’ con la herramienta Fact Check Explorer de Google y luego, usando los verificadores de origen español Maldita, Newtral y EFE Verifica reconocidos por la International Fact-Checking Network (IFCN) corroboró las falsedades identificadas y categorizó 7 tipos de mensajes desinformativos: contenido con información engañosa para incriminar a alguien; contenido genuino mezclado con información falsa; conexión ficticia en algún apartado de la noticia; contenido manipulado para engañar; contenido falso fabricado; sátira para ridiculizar a un sujeto y suplantación de fuentes genuinas. Su trabajo concluye entonces que la manipulación es evidentemente real en medios sociales, siendo el canal más frecuente, y casi siempre por emisores desconocidos.

Como características pragmáticas del listado de las desinformaciones, sostiene que detrás de esas redes se encuentran “las cámaras de representantes, pues gran parte de las falsedades provienen de los propios discursos de los políticos” y, para el momento de su investigación, Twitter fue la plataforma con más bulos identificados sobre colectivos vulnerables debido a que es donde más se producen ese tipo de mensajes o porque es donde más se denuncian discriminaciones.

Con esta prueba y con las conceptualizaciones de otros académicos, los guetos de las audiencias encuentran la recepción propicia para las desinformaciones ya que sus receptores agrupados poseen marcos cognitivos preexistentes favorables a alguno de aquellos 7 tipos de mensajes desinformativos. Y sobre todo, debido a que:

a) las intenciones de los mensajes desinformativos tienen más probabilidades de ser compartidos por ciertas audiencias que los mensajes verdaderos, afirman Vosoughi, Roy y Aral, profesores en The Media Lab. del Massachusetts Institute of Technology (MIT); y los discursos destinados a distintos colectivos pueden controlar los modelos mentales que forman los individuos, manifiesta la teoría Estudios Críticos del Discurso de Teun van Dijk.

b) el alcance de la desinformación se está lanzando hacia poblaciones de inmigrantes, de ecologistas o de feministas. Así por ejemplo, un discurso ideológico contiene la figura del imaginario invasor construida con base en el estigma del bárbaro terrorista, que expresa características inherentes con la violencia, la crueldad y el fanatismo e introduce distintos desórdenes en la nación que lo recibe, precisa Enrique Santamaría, profesor en el Departamento de Sociología de la Universidad de Barcelona.

Otros mensajes desinformativos contra colectivos −siendo los menos peor− transmiten valoración compasiva al representar a los sujetos que atacan como meras tramas complejas. Verbigracia, en los mensajes con desinformación sobre género se cuestiona la utilidad del feminismo disputando su objeto de acción: la discriminación de las mujeres, la exageración del discurso, etc.

c) atajar estas intenciones deliberadas requiere quizá de mecanismos de control y desarrollo de instrumentos para verificar hechos, plantean las Doctoras y Magister en Comunicación en Medios Krause, Freiling, Beets y Brossard. Por ejemplo, habilidad en medios, en información, aptitud interpersonal, fortalecimiento y goce de derechos fundamentales, contraste de fuentes, uso de antecedentes, contextualización, explicación, interpretación de hechos, lenguaje divulgativo...

Marcas de calidad

Profesores en la Facultad de Información y Comunicación de la Universidad de la República de Uruguay, Magela Cabrera Castiglioni, Javier Canzani Cuello & Ignacio Saraiva Cruz, en el documento Pautas de alfabetización informacional y mediática en contextos de desinformación, presentan pautas de alfabetización en información y en medios para que los consumidores posibiliten el desarrollo de nuevos recursos e insumos con el fin de afrontar estos contextos de desinformación.

Rescatamos dos acciones de dos competencias por ser intrínsecamente naturales: “conocer las legislaciones vigentes en relación con el derecho de autor y el uso ético de la información como dimensión que proporcione elementos para consumir y comunicar información” y “reconocer nuestro estado como sujetos de derecho en el marco de la sociedad para el pleno goce del derecho de acceso a la información y la libertad de expresión”.

En Colombia los discursos expresamente prohibidos se refieren a la apología del odio que constituya incitación a la violencia, la incitación al genocidio, la incitación al terrorismo, la propaganda de la guerra y la pornografía infantil. Por antagonismo, la libertad de expresión protege tres tipos especiales de discurso: los políticos y sobre asuntos de interés público (Sentencia T-242 de 2022), el que expresa elementos esenciales de la identidad o la dignidad personal (Sentencia T-179 de 2019) y los referidos a funcionarios o personajes públicos (Sentencia T-277 de 2015).

Una revisión constitucional de tutela elaborada por la Sala Plena de la Corte Constitucional convocó a audiencia pública el 28 de febrero de 2019 a expertos en el tema donde argumentaron los siguientes asuntos:

1) el derecho a la libertad de expresión fue creado justamente para proteger las opiniones que la mayoría de la sociedad no está dispuesta a escuchar, incluyendo a los jueces, y para garantizar la protección de los Derechos Humanos. A pesar que un link, un retwitt, un like, son elementos informáticos no se concluye por ellos mismos el impacto, la exposición o el daño. Existen otros distintivos como la buena fe, la razonabilidad y la proporcionalidad de las personas: Catalina Botero Marino, ex Relatora Especial para la Libertad de Expresión de la Corte Interamericana de Derechos Humanos.

2) el derecho a opinar cuenta con una protección mucho más amplia en el marco de una democracia pluralista, dado que prevalece la subjetividad del emisor del mensaje soportada en el ejercicio de la libertad de opinión. Puede ser que la idea expresada moleste, sea equivocada, provocadora, revolucionaria, inmoral pero quien opina tiene derecho a expresarse y a difundir sus formas de ver el mundo de las cosas y de sus semejantes: Defensora Delegada para Asuntos Constitucionales y Legales de la Defensoría del Pueblo.

3) el derecho de la libertad de expresión puesto sobre Internet ha representado un cambio en la forma en que se ejerce, por la transmisión de datos en tiempo real a través de múltiples formatos; por la reducción o eliminación de las distancias físicas; por el aumento de la capacidad de las personas para recibir, buscar y difundir información; porque representa una forma de democratización de la expresión donde el discurso público deja de ser moderado por periodistas profesionales o por medios tradicionales: Magistrados de la Sala Plena, autores de la Sentencia de Unificación 355 de 2019.