05 diciembre 2022

Uso idóneo de medios digitales para el proceso de paz y la democracia

Análisis de problemas relacionados con el despliegue de información digital y los riesgos de la inseguridad epistémica a propósito de la agenda del diálogo para la paz entre Gobierno y ELN de Colombia que sus delegados están terminando de configurar en Caracas

Iconografía del contenido
Haga click para ampliar imagen

Los espacios digitales traen riesgos y oportunidades para los procesos de paz. Es el momento conveniente para la identificación de pistas temáticas por la re-instalación de la mesa de diálogo entre delegados del estado de Colombia y del grupo guerrillero Ejército de Liberación Nacional, con Venezuela como nación garante. Es también oportunidad ya que el Presidente de la República de Colombia informa los actos del gobierno nacional mediante plataformas de medios sociales.

Las historias periodísticas y las noticias fluyen a través de ecosistemas híbridos de información, donde los espacios mediáticos heredados (medios analógicos como radiodifusión, televisión y periódicos) coexisten con los espacios digitales configurados en plataformas de medios sociales (Facebook, Twitter, WhatsApp y YouTube en Occidente o WeChat, Weibo y TikTok de China). Tal hibridación arrastra desinformación, información engañosa, noticias falsas y discursos de odio pero sobre todo genera la acción de remediación, donde los medios analógicos y los digitales se refuerzan mutuamente a través de estrategias de inmediatez y de hipermediación con base en la retórica inmersiva. Más todavía, si los medios heredados reafirman el status social los medios digitales lo retan, representándose unos en los otros.

Las principales plataformas de medios sociales se apoyan en el modelo económico de ganancia que recompensa la información errónea y emocional socavando al periodismo asentado en hechos, a diferencia de otras tecnologías de información. Ese modelo económico es el prototipo del capitalismo de vigilancia que monetiza los datos privados, aprovecha la economía de la atención predispuesta en los usuarios que se mantienen en línea y abastece los algoritmos que privilegian los contenidos de sensación que, a su vez, refuerzan los filtros de burbuja con los peores aspectos de la sensibilidad humana. La información así compartida en ecosistemas híbridos influye en la democracia y en los conflictos sociales al presentar un marco con otros tipos de polarización.

Literatura al respecto

Han sido estudiados en el libro, Digital Information, Conflict and Democracy. In Social Media Impacts on Conflict and Democracy: The Techtonic Shift (editado en 2021), entre otros, exponentes como Brasil con base en la información armada y el odio digitalizado, Colombia mediante la influencia espuria en espacios democráticos por el uso de medios sociales y Venezuela debido al autoritarismo del siglo XXI en el ámbito digital. 

Para el proyecto ICT4 Peace, surgido en las primeras conversaciones de la Cumbre Mundial sobre la Sociedad de la Información, en Ginebra (2003), liderado por el Grupo de Trabajo sobre TIC de Naciones Unidas, “la comunicación también es esencial para poner fin a los conflictos y construir una paz duradera, y las TIC tienen un papel clave que desempeñar en la mejora de la comunicación al facilitar las negociaciones, aumentar la transparencia y formar confianza.”

Lisa Schirch, profesora senior de Práctica de Estudios de Paz en Keough School of Global Affairs de la Universidad de Notre Dame, argumenta que el entorno digital ha creado un cambio tectónico al ofrecer nuevas posibilidades para escalar la participación pública, mejorar la colaboración de múltiples partes interesadas en las decisiones y apoyar elementos de los procesos de paz públicos sostenidos. Las nuevas posibilidades serían: velocidad de transmisión y alcance de la información, multiformas para compartir información y comunicación interpersonal, creación de contenido evitando técnicas del periodismo, etc.

Iria Puyosa, académica venezolana en comunicación política especializada en resistencia civil bajo regímenes autoritarios, en su documento "Venezuela: 21st Century Authoritarianism in the Digital Sphere", resume la información extensa sobre violaciones motivadas en derechos digitales y políticos que afectan a los venezolanos, principalmente a los usuarios de medios sociales, debido a la dinámica del conflicto entre el gobierno autoritario y los luchadores por la redemocratización cuyo proceso erosiona la democracia.

Diana Dajer, asesora colombiana del Ministerio del Interior de Colombia, del Programa de Estado de Derecho para América Latina de Konrad-Adenauer-Stiftung y del Centro Internacional de Toledo para la Paz, en su artículo "The Use of Social Media in Colombian Democratic Spaces: A Double-Edged Sword", sostiene que la era de los medios sociales brinda oportunidades y desafíos a una amplia gama de partes interesadas en Colombia, para aprovechar el poder de la innovación tecnológica a fin de fomentar una democracia más abierta y transparente en medio del conflicto.

Riesgos mediáticos

Así mismo se han logrado aclarar riesgos del entorno digital para los procesos públicos de paz sostenidos, relacionados con la tecnología digital y las ganancias de las plataformas de medios sociales. Con la infraestructura y el diseño tecnológico se amplifican la polarización, la discriminación y el extremismo mientras que con el modelo de negocio se altera la viabilidad financiera del periodismo de noticias.

Dichas conclusiones se han cerrado en mayo 2022 luego del ciclo de entrevistas y el taller sobre paz convocados por las fundaciones internacionales Hirondelle (con sede en Lausana, Suiza, fundada en 1995 para crear y desarrollar medios de comunicación, estaciones de radio FM, programas multimedia y sitios Web "pure player" para enfrentar conflictos, desastres humanitarios, revoluciones, cambio climático, violaciones masivas de los Derechos Humanos) y ICT4Peace (que apoya el gobierno suizo desde 2003 orientada a la política y la acción cuyo propósito es salvar vidas y proteger la dignidad humana a través de las TIC y los nuevos medios con fines pacíficos).

Previamente, informes generalizados del año 2021 sobre plataformas de medios sociales estudiaron también la amplificación de la polarización, el odio y el extremismo en prácticamente todos los países de los cinco continentes. La primera tesis argumenta que las prestaciones del servicio digital muestran información a los usuarios que muy probablemente refuerza sus creencias y sesgos actuales al ocultar fuentes de información diversas, confiables y basadas en hechos. Mediante ese diseño del contenido se amplifican la polarización ideológica y los grupos identitarios.

Puyosa en el año 2018, identificó con antelación cuatro estrategias comúnmente utilizadas en Twitter por el gobierno de Venezuela (garante del diálogo de paz entre ELN y Estado de Colombia): i) coordinación de cuentas oficiales y automatizadas para responder los trending topics diarios; ii) promoción de hashtags distractores acompañados de mensajes emocionales, escandalosos, engañosos, ofensivos y falsos a través de cuentas cyborg y bot; iii) secuestro de hashtags publicados por la oposición para distorsionar los mensajes; y iv) interferencia y contaminación a las conversaciones entre las diversas comunidades de oposición, según el documento "Venezuelan Government Strategies for Information War on Twitter".

La segunda proposición acerca del negocio de los medios digitales tiene vinculación con los algoritmos no neutrales moralmente pues reflejan los sesgos y los prejuicios de las personas que los crean. Investigadoras como Cathy O'Neil, matemática estadounidense y autora de documentos en temas de ciencia de datos, o Ruha Benjamin, socióloga y profesora en el Departamento de Estudios Afroamericanos de la Universidad de Princeton, han encontrado algoritmos que refuerzan la discriminación por motivos de identidad, género, etnicidad, clase social, etc. Este desarrollo prolonga las publicaciones con altos niveles de participación con las que se aumentan las ganancias del modelo informático.

Luego de la investigación interna de Keach Hagey y Jeff Horwitz, publicada en The Wall Street Journal Online, Facebook admitió que sus algoritmos y las publicaciones incendiarias expandieron emociones porque tienden a generar mayor participación del usuario. Esa amplificación digital de la polarización, discriminación y extremismo representa amenazas significativas en elecciones democráticas y procesos de paz destinadas a prevenir, reducir o poner fin a la violencia. Sea el caso “el modelo neo-autoritario de las dictaduras cerradas: incluye la judicialización al discurso opositor en línea y la promoción de ciberataques contra activistas pro-democracia”, se argumenta en el artículo "Political control on the Internet in the context of a hybrid regime. Venezuela 2007-2015" de Puyosa. En Colombia también hay investigaciones sobre la influencia del uso de plataformas como WhatsApp, Facebook y Twitter en diferentes procesos políticos internos, como el plebiscito de 2016 sobre el acuerdo de paz entre gobierno y guerrilla de FARC-EP, las elecciones presidenciales del año 2018 y las amenazas y los asesinatos contra líderes sociales desde que se firmó el acuerdo de paz, como señala Dajer en su artículo ya mencionado.

Estas causas en la infraestructura tecnológica no neutral, que amplifican la polarización y alteran el negocio de las historias noticiosas, han generado que el movimiento “Stop Hate for Profit” reclamara a Facebook en julio 2020 “dejar de valorizar las ganancias por encima del odio, la intolerancia, el racismo, el antisemitismo y la desinformación”.

El modelo de negocio de ganancia de los medios sociales en detalle altera la viabilidad financiera del periodismo de noticias en los medios de comunicación heredados que respetan la ética profesional del periodismo. También las ganancias económicas de muchas plataformas generan conflictos al ofrecer acceso gratuito a los usuarios a cambio de recopilar o extraer sus datos privados sobre creencias y preferencias de esos usuarios, que luego venden mediante anuncios personalizados en línea. Este segundo perjuicio mediático, con base en el modelo de ganancia, conocido como “economía de la atención”, orienta el desarrollo de los algoritmos que sesgan y crea las posibilidades de contenidos que impulsan conflictos.

Se trata de un bucle cerrado por cuestión de dinero. Es decir, las ganancias generan tecnologías con sesgo que aventajan el modelo de negocio de la noticia digital. Algunas de esas dinámicas estudiadas a escala global se refieren, entre otras a: agregación de noticias (re-publicación) en los espacios digitales que resta financiación al laborioso oficio del periodismo profesional cimentado en exactitud, verificación de fuentes, imparcialidad, minuciosidad, etc.; traslado de los anuncios de los medios heredados a los medios digitales con información más particular que rastrean perfiles del usuario lo que ha generado cierre o reducción en la cobertura periodística; búsquedas ubícuas digitales cuyo poder predictivo es “miga de pan” que cuenta la historia más precisa de nuestra vida y registra nuestro comportamiento tal como sucede en realidad. Es una tendencia para Kleis Nielsen, Alessio Cornia y Antonis Kaleogeropoulos reportada en 2016 por el Council of Europe cuya consecuencia “reduce el acceso a la información verificada necesaria para el interés público en momentos de elecciones democráticas y participación social para los procesos del gobierno inclusivo”.

Los hitos significativos del esfuerzo neo-autoritario de control a la comunicación en Venezuela con base en el modelo de negocio de ganancia genérica incluyen, por ejemplo: la nacionalización de la empresa de telecomunicaciones CANTV (2007), el cierre del canal de televisión RCTV (2007), la suspensión de 39 estaciones de radiodifusión (2009), la expropiación del canal privado de noticias Globovisión (2014) y la venta obligada de varios periódicos, como Últimas Noticias (2013), El Universal (2014), Noti Tarde (2015). Por si no bastara, el canal multiestatal Telesur de suscripción inició transmisiones por iniciativa de Hugo Chávez de Venezuela y Fidel Castro de Cuba, en el 222 aniversario del natalicio de Simón Bolívar, para la difusión de noticias internacionales del Sur.

Militarización digital

Otros cuatro riesgos digitales para los procesos públicos de paz sostenidos se enlazan directamente con el uso óptimo de las tecnologías digitales que interrumpen el ecosistema de información de diversas maneras.

El primero es el acceso digital que implica neutralidad de la red y apagones de Internet. La brecha del acceso digital persiste en gran parte de la población mundial en modos de desigualdades entre pobres y ricos, alfabetizados y analfabetos, urbanos y rurales, identidades de género...

En Colombia, el informe del estado de acceso y necesidades del servicio de Internet elaborado por Néstor Alonso Jiménez de la Universidad del Rosario, de marzo 2022, da cuenta que los Proveedores de Redes y Servicios de Telecomunicaciones (PRST) están segmentados con base en nichos de mercado, así: cuatro mantienen 82% del mercado, cinco tienen un mercado del 10% y el restante 8% del mercado lo posee el resto. Estas cifras tomadas del Boletín Trimestral del sector TIC -cuarto trimestre de 2020- del Ministerio de las TIC son manifiestas posibilidades que “se presenten las condiciones para configurar un oligopolio, figura económica de mercado, inconveniente para el usuario, porque facilita acuerdos entre proveedores”.

Las cabeceras municipales de los departamentos de Valle, Quindío, Risaralda y Cundinamarca tienen más computadores de escritorio; Valle y Risaralda lideran los hogares con internet fijo; Santander, Meta, Valle, Casanare, Quindío y Boyacá encabezan los servicios de Internet móvil. No existen análisis detallados para conocer cuál es el cubrimiento del servicio público de Internet en zonas rurales pero hay que tener en cuenta que los PRST que se presentaron en 2019 a la subasta del Espectro Radioeléctrico para las bandas 700, 1.900 y 2.500 MHz aprovecharían las poblaciones de los centros urbanos para maximizar el potencial de la tecnología 4G en “3.658 localidades en zonas rurales de los 32 departamentos del país, incluyendo el archipiélago de San Andrés, y estarán operativos en menos de cinco años”. Lo cierto es que la “informatización rural es aparentemente poco rentable debido a la mezcla entre el cumplimiento pasivo del deber político y la búsqueda proactiva de los intereses comerciales”, según ilustra Chun Liu, en su documento de 2016 “Sustainability of rural informatization programs in developing countries: A case study of China׳s Sichuan province”.

La ausencia de neutralidad de la red ya es un hecho en la democracia del primer mundo. Resulta que en diciembre 2017, la presidencia de Estados Unidos, a través de la Comisión Federal de Comunicaciones (FCC), revertió la normativa aprobada en el gobierno de Barack Obama, donde los proveedores del servicio de información digital deben permitir el acceso a cualquier contenido sin importar de donde provenga y sin favorecer o bloquear productos o servicios particulares. En Colombia, por el contrario, el artículo 2 numeral 6 de la Ley 1341 de 2009 y el artículo 9 de la Resolución 2715 de 2020, expedidas por MinTIC, establecen la neutralidad tecnológica en la “garantía del Estado a la libre adopción de tecnologías” y en las “obligaciones de hacer comparaciones entre diferentes tecnologías para identificar pertinencia o viabilidad.”

Esta neutralidad de la red para académicos y profesionales nos representa que Internet debe tratarse como un servicio público de Red provechosa. Por encima del presupuesto obvio que Internet es libre, abierta y necesaria con la que se accede a información y comunicación, es condición previa para una paz sostenida. A mayor información de calidad con fuentes autorizadas superior pensamiento y lectura críticas.

Adicional, se han constituido perversas alianzas no para interrumpir el acceso público gratuito a Internet si no para “priorizar los anuncios pagados o la información con fines de lucro en las búsquedas en Red, bloquear algunas fuentes de información y/o presionar las fuentes de información del gobierno como fuerzas políticas y económicas”, sostiene Deji Olukotun, investigador en The Global Net Neutrality Coalition. En efecto, la aplicación “Free Basics”, apta para todo público, de la tecnológica Meta, sí aumenta el acceso digital a Internet al precargarse en los teléfonos móviles para que los usuarios locales alcancen fuentes de información seleccionadas “gratuitas” a través de Facebook. Pero los algoritmos de Meta adaptan las noticias a las creencias pre-existentes de los usuarios con lo que se puede contribuir a mayor polarización y conflicto.

Los apagones de Internet son también táctica de gobiernos neo-autoritarios para silenciar críticos y castigar ciudadanos no solo cerrando la conexión a la Red si no generando apagones eléctricos que afecten la conectividad a internet. El movimiento global Access Now documentó en la publicación “#KeepItOn Update: Who is Shutting Down the Internet in 2021?” no menos de 50 apagones de Internet en 21 países solo en la primera mitad del año 2021.

El segundo control digital es la ciberseguridad con base en ataques de malware con los que los actores de los conflictos estructuran variedades de formas. Mientras el robo cibernético implica conquistar o secuestrar información privada los ataques de denegación del servicio impiden el uso de todo elemento digitalizado. Las tácticas oscilan entre infectar o dañar sistemas de agencias gubernamentales, interrumpir redes eléctricas, sistemas de agua potable, plantas de energía nuclear, instalaciones de atención médica, señales de tránsito masivo, hasta suprimir programas informáticos y vender datos privados.

El sitio Web de la agencia Comisión de Paz del gobierno de Colombia es No seguro según notificación del navegador Google Chrome, versión 104, con que se hizo el acceso el 30 noviembre 2022. En la sección Prensa, no hay Noticias publicadas en septiembre 2022 sobre las “convocatorias abiertas a los diálogos regionales”. En el portal Web de la Presidencia, el buscador de la sección Noticias no funciona. Estas dos muestras me corroborarían la respuesta del Alto Comisionado para la Paz de Colombia, Danilo Rueda, al responder en entrevista de televisión (14 septiembre 2022) acerca de la relación entre los diálogos regionales vinculantes con la paz total:

Decía Rueda: 

“La exclusión social y la desigualdad es lo que ha sustentado y justificado para muchos la violencia. La desigualdad, la ausencia de oportunidades, es lo que ha justificado que muchos jóvenes se vinculen a la violencia. Y el diálogo según el Presidente no es sólo con los armados, es con los ciudadanos. Los ciudadanos son el sujeto que puede construir la paz. Solamente una ciudadanía conciente de sus derechos y un gobierno que responda a sus derechos pueden construir la paz. En la medida en que este gobierno asume compromisos muy concretos y específicos en todos los territorios, la legitimidad de posibilitar el uso de la violencia, sea para un alzamiento armado y ejercer el derecho a la rebelión o para la acumulación y la protección de la riqueza para unos pocos, pierde su sustento”.

-Y, ¿cómo llegan las personas a los encuentros del diálogo regional vinculante?

“Habrá líneas abiertas de participación virtual pero también habrá escenarios públicos donde los ciudadanos participarán en las mesas que se ubicarán en esos lugares públicos, en la plaza pública. Es un ejercicio de Agora, es recoger el principio de la democracia sin ningún tipo de exclusión. Se hacen convocatorias abiertas que van a conocerse a través de los medios de información, a través de las redes sociales, y todo aquel que quiera participar asiste.”

En complemento, la hegemonía comunicacional o control de la información en Venezuela integra un sistema de medios administrado por el gobierno y financiado por entidades para-gubernamentales, según expone Raisa Urribarrí, co-fundadora del Capítulo de Panamá de Internet Society, en su documento Medios comunitarios: el reto de formar(se) para la inclusión. Expone igualmente Puyosa, en Venezuela: 21st Century Authoritarianism in the Digital Sphere, que existe el documento filtrado del Ministerio del Interior y Justicia, “Ejército de Trolls de la Revolución Bolivariana”, cuyo contenido en 14 páginas trata la estrategia del gobierno para enfrentar la guerra mediática y explica que la base de operaciones del Ejército Digital debe ser dividida en cinco escuadrones: pro-gobierno (“hablaran solo temas a favor del proceso y se dividen en dos grupos”), opositores (“hablaran solo temas en contra del proceso y se dividen en dos grupos”), neutros (“hablaran solo temas no politicos”), distracción (“hablaran solo temas deportivos, sexo, eventos publicos”) y fake news (“iniciadores de falsos positivos”). Estas cibertropas empleadas del gobierno aparentemente tienen vínculos con agencias de la administración pública −incluidos los ministros de educación, salud, alimentación, cultura, turismo y vivienda− siendo su trabajo principal twittear para suplicar lealtad al régimen. Según el Instituto Prensa y Sociedad Venezuela (IPYS Venezuela) desde junio de 2014 la Comisión Nacional de Telecomunicaciones (CONATEL) estableció como práctica rutinaria el bloqueo de páginas web que publican los tipos de cambio. Otras voces afirman que desde 2017 crecientes medios digitales han sido bloqueados, que en 2019 el gobierno bloqueó casi por completo Wikipedia, que en el último año se han ejecutado interferencias técnicas muy sofisticadas como suplantación de DNS en sitios web de la oposición.

El tercer control digital es la privacidad y la vigilancia masiva, siendo relevantes para un proceso de paz sostenido porque mediadores, líderes clave o personas influyentes pueden identificarse y rastrearse en dispositivos digitales. China y Venezuela, como muestra de gobiernos que experimentan la vigilancia masiva, utilizan marcadores de identidad biométricos, programas de reconocimiento facial entre otros controles. Con la pandemia Covid-19 se aumentó la precisión de algunos de ellos para identificar a las personas con mascarillas.

La técnica Doxxing −el acto de revelar intencional y públicamente información personal sobre un individuo u organización, generalmente a través de Internet− generaliza las violaciones a la privacidad de las personas para que se auto-censuren en los medios sociales bajo el temor de repercusiones posibles. Así lo estudiaron en 2020, Ekaterina Zhuravskaya, Maria Petrova y Ruben Enikolopov, en el documento Political Effects of the Internet and Social Media. El doxxing de información sobre mediadores o partes interesadas en el conflicto podría ser más peligroso tanto para las personas involucradas como para un proceso de negociación al motivar el seguimiento digital, organizar los ataques físicos o simplemente legislar.

Según los académicos de la Universidad Iberoamericana de México, Manuel Guerrero y Mireya Márquez-Ramírez, existen “reglamentos que limitan el acceso a la información y a la libertad de prensa y recuerdan a los periodistas que puede haber costos muy altos por su expresión que promueva la auto-censura.”

Ejemplo de este tipo de legislación es la Ley de responsabilidad social en radio, televisión y medios electrónicos decretada por la Asamblea Nacional de la República Bolivariana de Venezuela, y sus reformas, publicadas en la Gaceta Oficial número 39.610, del lunes 7 de febrero de 2011. El artículo 3 de objetivos generales garantiza “el respeto a la libertad de expresión e información, sin censura, dentro de los límites propios de un Estado democrático y social de Derecho y de Justicia y con las responsabilidades que acarrea el ejercicio de dicha libertad, conforme con la Constitución de la República, los tratados internacionales ratificados por la República Bolivariana de Venezuela en materia de derechos humanos y la ley … y promueve el efectivo ejercicio y respeto de los derechos humanos, en particular, los que conciernen a la protección del honor, vida privada, intimidad, propia imagen, confidencialidad y reputación y al acceso a una información oportuna, veraz e imparcial, sin censura”. Además, el artículo 27 sobre Prohibiciones de los servicios de radio, televisión y medios electrónicos, no permite “la difusión de los mensajes que ... inciten o promuevan el odio y la intolerancia por razones religiosas, políticas, por diferencia de género, por racismo o xenofobia” y el artículo 29 sobre Suspensión y revocatoria si … “inciten o promuevan el odio o la intolerancia por razones religiosas, políticas, por diferencia de género, por racismo o xenofobia.”

Por último pero no el control digital más desechado es el enfrentamiento cognitivo librado que consiste en reafirmar o retar el statu quo social a través de la remediación con base en el rol de los editores de noticias en los medios heredados o en la aparente democratización de contenidos digitales de los usuarios de medios sociales. Su componente inseguridad epistémica proviene de actores políticos y de agentes mailciosos mediante estrategias de distracción con las que inundan de noticias las plataformas digitales con interés personal.

El propósito es confundir y distraer al público involucrado en el discurso político. Cotejando lo anunciado por el Alto Comisionado para la Paz de Colombia en aquella entrevista de TV ya citada se encontró el caso de inconsistencias de conceptos, a saber: “¿Qué funcionarios asisten a cada encuentro regional? En la medida de lo posible estará el Presidente. Son 50 encuentros antes de noviembre en espacios de dos días y medio, con una metodología participativa, donde los ciudadanos indistintamente, sin ningún tipo de exclusión, participarán a través de una metodología que posibilitará que sus necesidades, que sus derechos insatisfechos, puedan ser expresados y sean parte de ese plan nacional de desarrollo.” Con base en el portal Web, sección Cronograma, se han realizado 43 diálogos vinculantes estando la Inscripción en dos de ellos aplazada, en dos pendientes y en cuatro abierta, cuya agenda se extendería hasta el sábado 3 de Diciembre con el diálogo 47.

Dado que los actores políticos pueden difundir información falsa o engañosa para modificar las creencias políticas o los comportamientos, la OTAN sugiere que la “guerra cognitiva”, basada en medios sociales, socava las capacidades humanas para el pensamiento crítico y la administración pública. Una segunda intención es provocar la sensación de caos e incertidumbre, ya que los actores políticos contribuyen a la inseguridad epistémica para que el público no pueda discernir qué creer o cómo comportarse. Dos ejemplos de la reiterada confianza fallida del proceso de paz con el ELN y el Estado de Colombia la expresan Carlos Velandia, alías Felipe Torres, del ELN, el 21 noviembre 2022, cuando respondía por TV a la pregunta “¿Es usted optimista cuando hoy lunes 21 de noviembre en Caracas volvieron a abrir el proceso? Soy optimista con racionalidad, fundado en información y estudios de paz y de conflictos. Primero, porque el país ya no aguanta; en segundo lugar, porque el proceso de paz con las FARC puso en la cola, en el tramo final del conflicto, lo que queda de violencia y lo que queda de conflicto. Y en tercer lugar, porque tenemos un cambio político en el país que ha sido dramático. Hoy estamos siendo gobernados por un partido, un movimiento de izquierda, con planteamientos de paz, de cambio, que también el ELN buscaba este tipo de escenarios. Con este gobierno de izquierda habrá mejores condiciones para un entendimiento y buscar el mejor arreglo posible. No significa que el Estado va a declinar sus posiciones o soberanía o la contextura del Estado que somos. Pero si va a hacer mucho más posible el trámite dialéctico y sobre todo la posibilidad de llegar a acuerdos.”

Y el segundo exponente es la respuesta del Jefe de la delegación negociadora del ELN, Israel Ramirez Pineda, alías Pablo Beltrán, al hablar en TV de los retos para alcanzar la paz total, el 23 noviembre 2022: “¿Por qué en esta oportunidad los colombianos deben ser crédulos frente a esa iniciativa de reconciliación con el ELN? El país pasa por un cuarto de hora en que hay una exigencia en las calles para que haya cambios, entre ellos, que haya paz. Parte de esa exigencia la recoge el gobierno y desde el 7 de agosto el Presidente dijo que iba a trabajar por una paz verdadera y definitiva. Lo que quiere decir que nosotros tenemos un interlocutor que lo ha dicho públicamente, ha hecho de la paz una parte de su programa de gobierno. Quiere decir que es una gran oportunidad. En cuanto a nosotros, acabamos de hacer una consulta con todos los frentes nuestros, durante mes y medio, y hay un consenso total que debemos proseguir en la búsqueda de una solución política al conflicto y por eso estamos aquí en Caracas y por eso reanudamos la mesa.”

Todos los tres archivos de las entrevistas de TV citadas se encuentran almacenados en el canal NotiCentro CM& de Youtube.

10 noviembre 2022

Se desacelera el progreso continuo de la Inteligencia Artificial

El control del mundo atiborrado de máquinas inteligentes transcurre sin acuerdos de valores de quienes construyen esos sistemas

Iconografia del contenido
Haga click para ampliar la imagen

La inteligencia de la computadora superará a la inteligencia humana en el siguiente milenio siempre y cuando se tenga en cuenta el costo total de cualquier solución, ya que hasta ahora todas las decisiones han requerido conjuntos sustanciales de ingenio humano y no mayor computación con cantidades desmesuradas de datos. Mientras llega ese futuro se debate acerca de los valores inculcados en las personas y en las instituciones con los que se construye la tecnología anclada en un principio de la psicología: diseño elaborado por personas (naturaleza) versus aprendizaje de máquinas a partir de datos (nutrición).

La acción de la tecnología en los últimos 70 años de investigación en Inteligencia Artificial (IA) y Aprendizaje Automático (AA) desambigua e interpreta datos en tiempo real a costa de acentuar en el aprendizaje de propósito general y en los conjuntos de entrenamiento cada vez con mayor y más y más computación. Significa entonces que mediante la IA un individuo experimentaría el mundo de maneras muy provechosas. Por tanto, para afianzar el progreso continuo del campo IA, ¿debemos enfrentar los nuevos desafíos aplicando métodos de resolución de problemas de propósito general o escribir algoritmos especializados diseñados por expertos para cada problema en particular?

Prototipos singulares sobre lo incierto de la tecnología se encuentran a diario: en las transformaciones de la imagen del mundo visual a un entorno audible (la audio descripción para personas con limitación visual), en la escucha de las voces artificiales de los asistentes digitales personales que “leen” textos, en las estrategias de los juegos por computadora (ajedrez informático y aplicaciones Go), etc. En concepto general “la IA que se está implementando en aplicaciones afecta ya la vida de las personas de manera crítica y personal”, sostiene el estudio de septiembre 2021 Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100) de la universidad de Stanford.

En términos de Microsoft Corporation usados para su patente US 9.427.185 B2 del 30 ago. 2016, sobre User behavor monitoring on a computerized device, “... no hay intención de limitar la invención a formas específicas, sino que, por el contrario, el propósito es cubrir todas las modificaciones, construcciones alternativas y equivalentes que caen dentro del espíritu y alcance de la invención.” Por ejemplo, interpretación de los datos para aprobaciones de préstamos, sentencias penales, atención médica, cuidado emocional y recomendaciones influyentes en múltiples ambientes.

De manera que los humanos con la implementación de la IA estaremos mejor favorecidos en el marco conceptual pero hay dudas en la práctica. Según publicaciones en blog de Richard Sutton, líder en aprendizaje por refuerzo, “La lección más grande que se puede leer en 70 años de investigación en IA es que los métodos generales que aprovechan la computación son, en última instancia, los más efectivos y por amplio margen” y de Rodney Brooks, profesor emérito de robótica Panasonic en el MIT, en respuesta que “Esto resuena con un modo de pensar actual entre muchos de los nuevos participantes en la IA que es mejor diseñar redes de aprendizaje y poner cantidades masivas de potencia informática, que tratar de diseñar una estructura para computación especializada de alguna manera para la tarea.”

¿Habrá progreso continuo?

En las décadas de 1960 y 1970, desde el inicio de la investigación al campo IA, con base en argumentos de Herbert Simon −premio Nobel de Economía− y de Alan Newell −ganador del Premio Turing−, se trataron de construir métodos de propósito general que fueron fácilmente superados en la década de 1980 con el conocimiento especializado codificado a mano a través de sistemas expertos.

Durante la década de 2010 se superaron dichos métodos especializados ajustados a mano, cuando la adición del big data y de los procesadores más rápidos permitieron métodos de propósito general como el Aprendizaje Profundo (AP). Ahora, en la década de 2020, estos métodos generales se están ejecutando en los límites, y muchos académicos investigadores del campo IA se preguntan, ¿cómo podremos mejorar un progreso continuo? Hay por lo menos cuatro fuentes con la respuesta.

En opinión de Gary Marcus, profesor emérito de psicología y ciencia neuronal de la universidad de New York, “no tenemos ninguna esperanza de lograr una inteligencia sólida sin desarrollar primero sistemas de comprensión profunda, que implica capacidad de correlacionar y discernir patrones sutiles en conjuntos de datos complejos y también operatividad para mirar cualquier escenario y abordar preguntas como las que podría formular un periodista: quién, qué, dónde, por qué, cuándo y cómo.”

Para el Panel de Estudio sobre IA 2021, los “métodos generales están llegando a límites, tales como: cómputo disponible, tamaño del modelo, sostenibilidad, disponibilidad de datos, fragilidad y falta de semántica. Todas están influyendo para que los investigadores regresen al diseño de componentes especializados de sistemas. Para continuar progresando, los investigadores de IA probablemente necesitarán adoptar métodos codificados a mano para fines generales y especiales, así como procesadores cada vez más rápidos y datos más grandes.” Esas necesidades de construir modelos tan grandes aumentarán la huella de carbono en el ambiente ecológico.

El taller convocado para el segundo reporte del Estudio Cien Años sobre Inteligencia Artificial expone la existencia de otros límites, según la experiencia de informáticos e ingenieros, académicos en ciencias sociales y humanidades (incluidos antropólogos, economistas, historiadores, académicos de medios, filósofos, psicólogos y sociólogos), expertos en derecho y en políticas públicas, y representantes de la gestión empresarial y de los sectores público y privado.

Dichas restricciones al progreso continuo del campo IA a saber ya no tienen relación con la potencia del procesamiento que se duplicaba cada dos años más o menos sino con extremos cuánticos y costes de desarrollo. Superarlos significa construir hardware especializado, optimizado, que admita software de IA como el Tensor de Unidades de Procesamiento (TPU) de Google. Son chips versión 4 que brindan poder crítico y promesa de mayor velocidad en capacitación para el aprendizaje automático. Anunció el CEO de Google, Sundar Pichai que “… nuestra próxima generación, la TPU v4 estará conectada entre sí en super computadoras, llamadas pods, donde un solo módulo v4 contiene 4096 chips, y cada módulo tiene 10 veces el ancho de banda de interconexión por chip a escala.”

Otro borde a retar es el tamaño del modelo, desde mayo 2020 establecido en GPT-3. Es un modelo de lenguaje de red neuronal con 175 billones de parámetros o sea más de diez veces más grande que el tamaño del anterior modelo de lenguaje, Turing NLG. Un equipo de OpenAI, una empresa de investigación e implementación de IA, calculó que, desde 2012, los más grandes entrenamientos de IA han ido aumentando exponencialmente con un tiempo de duplicación de aproximadamente tres meses y medio y no dos años como aseguraba la Ley de Moore.

La disponibilidad de datos también frena el desarrollo del campo IA pues los métodos del AP necesitan a menudo conjuntos de datos con decenas de miles, cientos de miles o millones de ejemplos. Según los investigadores, no tenemos conjuntos de datos tan grandes para ciertos problemas como trasplantes de corazón y de pulmón, a pesar del deseo de construir modelos predictores de éxito. La causa se fundamenta en que, aun cuando hay datos limitados disponibles para entrenar sistemas, la cantidad de operaciones quirúrgicas realizadas en todo el mundo son solo unas pocas centenas. Además, los métodos de Aprendizaje Automático como el Aprendizaje Profundo luchan por trabajar con datos que quedan fuera de su distribución durante el entrenamiento.

Solo estas tres fronteras (potencia del procesamiento, tamaño del modelo y disponibilidad de profusión de datos) ponen en riesgo la sostenibilidad ecológica del planeta −un cuarto motivo− debido al incremento en la huella de carbono y a los costos ambientales significativos. Un informe de 2015, On Global Electricity Usage of Communication Technology: Trends to 2030, advirtió ya que las tecnologías informática y de comunicaciones podrían consumir la mitad de la electricidad producida globalmente para la década 2030 si los centros de datos no pueden ser más eficientes. Afortunadamente, la mayoría de empresas ha estado trabajando para que sus centros de datos sean más eficientes muy rápido al cambiar a energía verde, manteniendo estable su huella de carbono durante los últimos cinco años.

Finalmente el actual CEO de Microsoft Corporation, Satya Nadella, predice que las máquinas autónomas nos llevarán a lugares, harán nuestras tareas, nos ayudarán a tomar mejores decisiones pero también podrán generar errores inducidos económicos masivos. Para el gigante del software propietario, el actual enfoque de la IA se inicia con tres principios que denomina singularidad:

  1. construir inteligencia que aumente las habilidades y las experiencias humanas, o sea que la tecnología posea capacidad para razonar sobre grandes cantidades de datos y para reconocer patrones rápidamente;
  2. generar confianza directamente en nuestra tecnología para infundir protecciones a la privacidad, la transparencia y la seguridad;
  3. incluir en la tecnología que se construye responsabilidades inclusivas y respetuosas con todos.

Tecnología más humanista: un marco

Para acordar una atmósfera pudorosa los diseñadores de tecnología con IA empiezan a abordar una pregunta fundamental, ¿cuáles son los principios y los valores de diseño universal que deben guiar nuestro pensamiento, diseño y desarrollo?

La perspectiva de la construcción basada en principios comienza con la plataforma sobre la que se construye tecnología IA. Es decir, el desarrollo del software se está convirtiendo en un "tercer tiempo de ejecución", que significa cuál es el sistema sobre el que los programadores establecen y ejecutan aplicaciones. Si las primeras cajas de herramientas ofimáticas se construyeron para PC en la base del procesador de texto y de las presentaciones hoy se escriben para la Web con hipertexto. No obstante, las herramientas de productividad y de comunicaciones que vendrán deberán escribirse para una plataforma completamente nueva, que administre información, aprenda del contexto de la información e interactúe con el mundo físico.

El auge de la computación inteligente competente conlleva por tanto modificaciones: de las percepciones sobre la inteligencia de las máquinas y de los comportamientos humanos por las relaciones informáticas. De manera que los líderes empresariales deben de estar comprometidos con diseños de tecnología que complementen el trabajo humano en lugar de sustituirlo, pues la sola automatización no provoca mayor o menor igualdad. Dependemos de talentos para construir nueva forma de pensar ya que la botella lanzada al océano contiene el mensaje “navegamos por la distorsión, la disonancia y la dislocación” pues no está acordado el marco ético y empático que funcione como estrategia de ingeniería a largo plazo.

Los sistemas informáticos existentes también son bastante frágiles, siendo un quinto limitante. Recientes ataques de adversarios demuestran que los métodos actuales de IA a menudo están propensos a errores cuando se utilizan en nuevos contextos debido, principalmente, a que la inteligencia humana se degrada por distracción. Según estudios de Ian Goodfellow, Jonathon Shlens y Christian Szegedy, científicos informáticos en Google, la vulnerabilidad de la perturbación adversaria radica en la naturaleza lineal de las redes neuronales que genera fallos generalizados.

Por ejemplo, un solo píxel modificado en un objeto puesto, en una orientación y un contexto no canónicos, a la entrada del sistema de reconocimiento de imagen puede clasificar un bus amarillo de transporte escolar como una banana. Por supuesto, nuestra visión humana puede ser fácilmente engañada también pero de maneras muy diferentes a los sistemas de visión artificial. Hay otros casos típicos ya no con imágenes sino con textos, presentados en el evento NeurIPS por el profesor Marcus:

1- Ayer dejé mi ropa en la tintorería y todavía no la recojo. ¿Donde esta mi ropa? … en casa de mamá. Este modelo de lenguaje de red neuronal predice correctamente la categoría de elementos que sigue al fragmento de la consulta (es decir, una ubicación) pero no logra realizar el seguimiento correcto de dónde se encuentra la tintorería.

2- Observé a seis ranas en un tronco. Dos se van y tres se unen. … El número de ranas en el tronco ahora es diecisiete. Ese caso nuevamente predice correctamente la categoría de respuesta (un número) y nuevamente no logra captar los detalles.

Y un límite final es el relacionado con la semántica. Los métodos de IA tienden a ser muy estadísticos y entienden el mundo de maneras bastantes diferentes a lo idiosincrático de los humanos. El traductor de idiomas de Google que utiliza Aprendizaje Profundo traduce "el teclado está muerto" y "el teclado está vivo" palabra por palabra, sin hacer pausa para pensar. Pero esa metáfora funciona muy bien en la primera traducción que en la segunda como podríamos entender UD y yo.

Incluso habría que considerar cuatro obligaciones humanas para dejar de ignorar al enfoque humanista: a) percibir pensamientos y sentimientos de los demás con el propósito de colaborar y construir relaciones fundamentales; b) invertir más en educación para lograr un pensamiento de mayor nivel y resultados más equitativos; c) mantener nuestra creatividad dentro de las máquinas que la seguirán enriqueciendo y aumentando; y d) ejercer juicio y responsabilidad humanos a pesar de los diagnósticos finales generados por computadora. Se trata de tecnología con enfoque más humanista.

Para Nadella, la industria y la sociedad deberían discutir seis fundamentos relacionados con el campo IA: “diseños que ayuden a la humanidad; transparencia sobre cómo funciona la tecnología y cuáles son sus reglas; maximización de las eficiencias sin destruir la dignidad de las personas; protecciones sofisticadas que moderen la información personal y grupal; responsabilidad algorítmica para que los humanos puedan deshacer el daño no deseado y protección contra el sesgo para evitar el existente uso con fines de discriminación.”

Cynthia Breazeal, ingeniera del MIT Media Lab, argumenta que “de todas las especies, somos los más sociales y emocionales pero dedicamos poco tiempo a pensar en esas empatías con que experimentamos el mundo a través de las comunicaciones y la colaboración.” Según propone Marcus, en su ensayo The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence, un paso es “… un enfoque híbrido, basado en el razonamiento y en el conocimiento, centrado en modelos cognitivos, que podría proporcionar el sustrato para una IA más rica y robusta de lo que es en la actualidad.”

07 octubre 2022

La tecnología digital como poder instrumentario contra amenazas de muerte

Cada sociedad según su desarrollo de alfabetización utiliza medios y lenguaje propicios para la propagación de contenido que vulnera o protege el DIH

Iconografia del contenido
Haga click para empliar imagen

En el transcurso de la guerra interna de Colombia la amenaza contra los derechos humanos se ha ajustado al desarrollo de las tecnologías de información modificando medios, estilos y mensajes. En el mundo, por su parte, las empresas capitalistas de vigilancia como Facebook, Microsoft, Google y Twitter constituyeron en 2017 el Foro Global de Internet para Combatir el Terrorismo (GIFCT) debido al avance mundial de las acciones.

En los inicios de la guerra interna nacional, el escrito de texto breve o el mensaje oral de la amenaza estaba acompañado de grafitis, sufragios, coronas fúnebres, balas, dibujos de balas, siluetas de armas, croquis de tumbas, manchas de sangre, animales muertos... Las llamadas telefónicas, los panfletos impresos, las listas públicas o las cartas privadas fueron medios preferidos por los victimarios de Colombia por los cuales anunciaban a ciertas personas que habían sido condenadas para ser asesinadas. Actualmente, los amenazadores utilizan Internet y los celulares inteligentes como propicios instrumentos para el delito de intimidar mediante terror y para dar a entender que se quiere hacer algún mal o daño a alguien.

El informe final “Hasta la guerra tiene límites” de la Comisión para el esclarecimiento de la verdad, la convivencia y la no repetición, sobre violaciones de los derechos humanos, infracciones al Derecho Internacional Humanitario (DIH) y responsabilidades colectivas, aporta que algunas de las modalidades para las amenazas en Colombia han evolucionado en las tres décadas del conflicto armado. Con base en las entrevistas a las víctimas efectuadas por los miembros de la Comisión se destacan además las cadenas de violencias asociadas a la amenaza.

Según el Comité Internacional de la Cruz Roja, aquel conjunto de normas que constituye el DIH trata de limitar los efectos de los conflictos armados, por razones humanitarias. De manera que todos los sujetos distintos a población civil, combatientes puestos fuera de combate, periodistas, personal médico, sanitario, religioso o humanitario no se pueden declarar «objetivo militar». En Colombia, a mediados de los años 1980, sin embargo, el lenguaje de la amenaza de muerte seguía denominando a las víctimas seleccionadas «objetivo militar» por el actor armado.

Muy recientemente, se conoció por medios periodísticos, otra vez, que unidades del Ejército de Colombia han clasificado, según los reportes secretos y el lenguaje usado, como «enemigos del Estado» a periodistas. En suma han sido estudiantes, profesores, organizaciones estudiantiles y la comunidad académica en general, víctimas de amenazas por medio de panfletos o sufragios de paramilitares como las Águilas Negras. Pero también las FARC-EP amenazaron a través de medios sociales a miembros de comunidades LGTBQ+ con lenguaje sexista, prejuicioso y humillante.

Desde la última década del siglo pasado, el actor armado expandido en grupos ilegales −guerrillas, paramilitares, narcotraficantes y delincuencia−, usó algunos servicios de la tecnología de información y comunicación −como los correos electrónicos, los mensajes de texto y las llamadas al celular− para continuar con la amenaza de muerte. Inclusive, operaciones realizadas por el extinto Departamento Administrativo de Seguridad dan cuenta que hubo acciones dentro de Internet para amenazar a ONG de derechos humanos internacionales y colombianas. Se pretendía crear controversia en torno a aquellas organizaciones y usaron entre otras estrategias la guerra psicológica, el desprestigio, la creación de ONG falsas y el diseño de páginas Web fachadas, según la información tomada de la Comisión de la Verdad “Persecución, estigmatización y exterminio de opositores políticos, magistrados, organizaciones de derechos humanos y periodistas por el DAS: 2000-2009”.

Desde luego que descalificar, perseguir y eliminar requiere previamente de maniobras totalitarias para obtener información privada de las personas y de sus familias víctimas. Por ejemplo, vigilancias para saber qué hacen, en qué colegio estudian los hijos; envios de fotografías que comprometen; señalamiento a las vulnerabilidades; descalificación de las debilidades; insultos hacia aquello que pueda quebrantar el carácter de las personas; seguimiento a vehículos; persecución hasta el lugar en donde vota; rastreo a las infracciones de tránsito; silenciar ideas opuestas; registrar llamadas de teléfonos; encarpetar mensajes de correos; clasificar dirección de compras o de trabajo o de vivienda.

Con la tecnología digital aquellas urdimbres se ejecutan distinto debido al conjunto del instrumentalismo con cuyo poder se “aspira a organizar, estimular y afinar la sociedad para que alcance una confluencia social analógica, en la que la presión del grupo y la certeza computacional sin terror sustituyan a la política y a la democracia, y se extingan tanto la realidad sentida como la función social de una existencia individualizada”, según describe la socióloga estadounidense Shoshana Zuboff. Por ejemplo se rastrea a través de dispositivos electrónicos; se comparten técnicas para clasificación de contenidos; se gestiona el conocimiento frente a amenazas a la seguridad y a la convivencia ciudadana; se anticipan y previenen las amenazas y sus focos; se mejora la capacidad de registro, clasificación, organización y valoración de información en bases de datos y sistemas tecnológicos.

Colaboración para la eficiencia

Las Fuerzas Armadas de Colombia realizaron el 1 de marzo de 2008 la operación Fénix o bombardeo de Angostura en la frontera con Ecuador causando la muerte a 22 guerrilleros incluido Luis Édgar Devia Silva alias Raúl Reyes, segundo comandante en rango de las Fuerzas Armadas Revolucionarias de Colombia (FARC-EP), y reunieron datos obtenidos de los dispositivos digitales confiscados como pruebas que revelaron información relacionada con la red internacional de apoyo y de financiamiento a la organización guerrillera.

Algunas de esas evidencias fueron compartidas por las autoridades colombianas con sus homólogas de España, especialmente para solicitar la extradición de alias Leonardo, a quien el Ministro del Interior de la península había concedido asilo político, para ser juzgado en Colombia por sus vínculos de financiación del terrorismo. Además, la colaboración reforzó la hipótesis de alianzas entre Leonardo y personas sometidas a juicio por sus vínculos con el grupo terrorista vasco Euskadi Ta Askatasuna (ETA).

En este caso las nuevas pruebas también confirmaron la existencia de una comisión internacional dentro de las FARC-EP que “mantenía un programa de seguridad, cifrado con esteganografía, para las comunicaciones de mensajes, en particular las transmitidas por Internet o por radio”, según el documento “El uso de internet con fines terroristas” de la Oficina de las Naciones Unidas contra la Droga y el Delito (UNODC) de 2013.

Otra propuesta local de tecnología digital como poder instrumentario es la iniciativa Ci3 o “Centro Integrado de Información de Inteligencia para la Convivencia y Seguridad Ciudadana” de la Policía Nacional de Colombia en torno al principal problema de “gestión del conocimiento orientado a mejorar las capacidades de planificación institucional bajo criterios de anticipación y prevención frente a amenazas a la seguridad y convivencia ciudadana de los colombianos.” El Centro Integrado, por tanto, innova en “la planeación del servicio de Policía en relación con la identificación y priorización de fenómenos, elaboración de proyecciones, conocimiento de las dinámicas criminales locales, así como despliega acciones que permitan enfrentar los nuevos desafíos para combatir el crimen nacional y trasnacional.”

La iniciativa participó a los tres años de implementación en la versión 3 del “Premio Interamericano a la Innovación para la Gestión Pública Efectiva” en la categoria “Innovación en el Gobierno Abierto y Acceso a la Información”: una idea motivadora del Departamento para la Gestión Pública Efectiva de la Organización de Estados Americanos que busca reconocer novedades en gestión pública, sistematizarlas, incentivarlas y promocionarlas como experiencias útiles y posibles de replicar en otras naciones. Según la ficha de postulación al premio interamericano versión 2015 el costo total de la construcción, dotación, instalación de oficinas, cableado estructurado, equipos activos, planta eléctrica, adecuación de la sala situacional y 2.800 horas de trabajo para diseño y estructuración de los sistemas inteligentes fue de US$7.718.148.

Con base en la planeación innovadora del Ci3 se mejora “la capacidad de organización, clasificación, valoración y registro de información en bases de datos y sistemas tecnológicos desarrollados por el servicio de inteligencia Policial, con el único fin de anticipar amenazas que incidan en la convivencia y seguridad ciudadana, prevenir el surgimiento de nuevos focos de crimen y delincuencia y fortalecer la planeación estratégica, táctica y operativa en torno a fenómenos previamente diagnosticados.” Para alcanzar el objetivo se diseñaron acciones estratégicas tales como:

– Proveer insumos para diseñar lineamientos de planeación en el ámbito estratégico, táctico y operativo en torno a la seguridad y convivencia ciudadana.

– Constituir el análisis situacional como una nueva dimensión y especialización en la administración de información, análisis de inteligencia y planificación del servicio de policía.

– Diseñar y construir infraestructura tecnológica para incorporar actividades de innovación que den respuesta a fenómenos actuales y futuros de seguridad y convivencia.

– Fortalecer el modelo de gestión del conocimiento, soportado en análisis de información y vigilancia estratégica a partir de la combinación de capacidades de talento humano, tecnología e infraestructura.

A nivel global, el denominado “apremiante problema de contenido terrorista en línea” empezó a ser considerado, diferenciado, compartido y eliminado de las plataformas Web a partir del informe elaborado en el año 2017 por los Ministros del Interior, de Inmigración y Fiscales Generales de Australia, Canadá, Nueva Zelanda, Reino Unido y Estados Unidos reunidos en Ottawa (Canadá). Discutieron en ese junio los desafíos a la seguridad nacional que enfrentan y acordaron áreas proactivas para la colaboración.

En consecuencia, los cinco ministerios y fiscales firmantes contrarrestan el extremismo violento ante la seguridad y la protección de los ciudadanos, nativos o extranjeros en aquellas naciones, con base en un “enfoque compartido que: i) compromete a los proveedores de servicios de comunicación a afrontar las actividades y las propagandas terroristas en línea; ii) apoya un nuevo foro de la industria dirigido por Google, Facebook, Microsoft y Twitter; iii) examina el papel de los medios tradicionales y sociales y las voces de la comunidad para facilitar o interrumpir procesos de radicalización hacia la violencia o la amenaza de propaganda terrorista; y iv) respalda prácticas efectivas en esta área.”

Igualmente, señalaron frente al cifrado de mensajes, que puede socavar gravemente los esfuerzos de la seguridad pública al impedir el acceso legal al contenido de las comunicaciones durante investigaciones de delitos graves incluido el terrorismo, “explorar soluciones compartidas mientras defienden la ciberseguridad y los derechos y libertades individuales” conforme el compromiso con las empresas de tecnología y comunicaciones. Y en relación con los ataques cibernéticos en aumento “estudiar y evaluar temas y tendencias en ciberseguridad para prevenir, detectar y responder a las ciberamenazas”.

Google en Europa, por su parte, publicó un comunicado para afirmar que las cuatro empresas señaladas en Ottawa por los ministerios y fiscales “tomamos medidas rápidas contra este tipo de contenido de acuerdo con nuestras políticas respectivas” mientras que las acciones concretas se orientan a:

  1. crear una base de datos industrial compartida para hashes (huellas dactilares digitales únicas) con fotografías de terroristas o videos violentos o imágenes de reclutamiento de terroristas; 
  2. eliminar de nuestros servicios dichas huellas; 
  3. compartir aquella información entre nosotros para ayudar a identificar contenido terrorista potencial alojado en nuestras respectivas plataformas de consumo; 
  4. capacitar a otras empresas tecnológicas mediante estrategias clave para ejecutar programas de contradiscurso de odio y de extremismo violento como Creators for Change de YouTube, Peer to Peer y Online Civil Courage Initiative de Facebook; y
  5. proteger la privacidad de nuestros usuarios y su capacidad para expresarse de forma libre y segura en nuestras plataformas.

En cuanto al Foro Global de Internet para Combatir el Terrorismo (GIFCT), Facebook, Microsoft, Twitter, YouTube y otras siete tecnológicas, se asociaron con el propósito de ayudar a frenar la propagación de contenido terrorista en línea y evitar más errores en el intercambio de información, en especial luego de la navidad en Berlin cuando el terrorista islamista Anis Amri atacó a mano salva el mercado desde un camión. Pero 15 organizaciones de derechos humanos y digitales reiteraron en julio 2020 sus quejas escritas a Nicholas Rasmussen, Director Ejecutivo del GIFCT, por “los riesgos de censura extralegal debido a la participación de gobiernos en el Comité Asesor Independiente (IAC), al aumento del uso y alcance de la base de datos hashes y a la persistente falta de transparencia en torno a la actividad del Foro Global.”

Finalmente, el Consejo Europeo en su reunión de junio de 2017, dedicó su atención al fortalecimiento de Europa y a la protección de los ciudadanos mediante medidas eficaces destinadas a luchar contra el terrorismo y a desarrollar su seguridad y defensa comunes, interna y exterior.

Por tanto, para la seguridad interior de los países europeos se “combatirá la propagación de la radicalización en Internet, coordinarán trabajos para prevenir y combatir el extremismo violento y hacer frente a la ideología afín, atajarán la financiación del terrorismo, facilitarán intercambios ágiles de información y bien definidos entre las autoridades policiales en particular con los socios de confianza y mejorarán la interoperabilidad entre las bases de datos.”

Para la seguridad y defensa exterior de la Unión Europea (UE) “fortalecerán la cooperación para proteger a la Unión y a sus ciudadanos y contribuir a la paz y la estabilidad de la vecindad y de otras partes del mundo, subsanarán las principales deficiencias existentes y desarrollarán tecnologías del futuro, mantendrán la relación transatlántica y la cooperación entre UE y OTAN para asegurar y responder a las amenazas cambiantes en seguridad cibernética, híbrida y terrorismo.”

En el contexto político de la democracia liberal, no obstante, gravita el miedo de la migración y de los refugiados, por lo cual se prioriza en la seguridad pública y en el bienestar de los ciudadanos nacionales, al tiempo que se proporcionan a inmigrantes legales oportunidades para que realicen positivas contribuciones a la sociedad local que los acoge. Aún así la percepción por la correcta moderación de contenido digital extremista es el desafío por superar desde la perspectiva de las agencias defensoras de derechos humanos.

Preocupaciones compartidas

El poder instrumentario de los componentes de la tecnología digital, como los algoritmos de aprendizaje automático −“utilizados cada vez más para detectar y eliminar contenido extremista”− contienen errores, según afirman defensores de derechos humanos.

Existe evidencia publicada que los procesos de moderación o eliminación de aquel contenido en línea tienen efectos contraproducentes para otros discursos antiterroristas como la sátira, el material periodístico, la evidencia jurisprudencial, etc. que en la mayoría de los marcos legales democráticos se consideran discursos legítimos. Inclusive las medidas contundentes aplicadas por las corporaciones tecnológicas impactan en la estigmatización cultural, el activismo de usuarios marginados, la censura documental y hasta en procesos de independencia o judicialización de los conflictos bélicos.

Por encima de este impacto para la esfera democrática de la documentación sobre derechos humanos se encuentra la presión a las empresas de medios sociales por adoptar estrictos mecanismos ante el discurso extremista de odio, violencia, terror, sobre todo tras el ascenso del Estado Islámico que descalifica los derechos de musulmanes, árabes y otros grupos en todo el mundo. Es decir, quedamos atrapados en la red: por el contenido de mensaje violento extremista alojado en plataformas de medios sociales y por la tecnología de moderación automatizada defectuosa.

Argumenta, entre otros, Hadi Al Khatib, archivista y activista de la organización Syrian Archive para la documentación en riesgo relacionada con las violaciones de derechos humanos cometidas por todas las partes involucradas en el conflicto en Siria, que “las compañías de medios sociales han respondido con políticas y prácticas demasiado amplias y vagas frente al extremismo que han llevado a errores de gran escala, diezmando el contenido de los derechos humanos, por la creencia que eliminar contenido en línea resuelve el problema profundo arraigado del extremismo en la sociedad moderna.”

Adicional, existe imprecisa definición internacional sobre qué se considera contenido extremista o terrorismo o violencia extrema, según expresan 15 organizaciones de derechos humanos y digitales, entre ellas Association for Progressive Communications, Center for Democracy & Technology, Committee to Protect Journalists, Human Rights Watch. Esta ambigüedad y falta de consenso mundial ha afectado por ejemplo la emancipación de la sociedad chechena, el activismo kurdistan, la memoria y la evidencia judicial de los conflictos internos bélicos en Siria, Yemen y Ucrania.

Otra sin salida de la red se relaciona con la mayor atención puesta a grupos extremistas por las tecnológicas norteamericanas miembros del GIFCT pues más observan a las incluidas en la Lista de Organizaciones Terroristas Extranjeras del Departamento de Estado de Estados Unidos.

Ante tanta indeterminación, la carta enviada a Rasmussen suscrita por las organizaciones de derechos humanos y digitales expresa que, no obstante, un objetivo es “asegurar que el trabajo del Foro Global esté alineado con las leyes internacionales de derechos humanos” su IAC está compuesto casi en su totalidad por funcionarios gubernamentales y representantes de centros de investigación y universidades privadas lo que presume no estar “abierto y receptivo a las críticas de expertos en derechos humanos.”

El problema de fondo de la propagación y hospedaje de contenido extremista en línea es su moderación desde el Foro, pues esa acción es la “herramienta preferida para el trabajo antiterrorista sin ninguna evaluación de su impacto en los derechos humanos, y mucho menos garantías adecuadas para la protección de esos derechos, ya que parece implementarse a expensas de otros programas que podrían abordar las causas fundamentales del extremismo violento y la radicalización de manera más efectiva a largo plazo.” En concreto elevaron la queja porque “Estados Unidos ve el extremismo violento con base en la ideología de derecha como amenaza clave luego de la masacre de Christchurch el 15 de marzo de 2019, cuando un hombre armado supremacista blanco asesinó a 51 musulmanes durante la oración.”

El GIFCT se reforzó institucionalmente como respuesta ante aquella masacre pero continúan las operaciones en el entorno global complejo sin definiciones acordadas internacionalmente sobre terrorismo o violencia extremista, donde dicho extremismo violento de derecha no está reconocido legalmente. Por tanto para el enfoque del derecho humanitario, la eliminación frecuente de contenido en países en conflictos predominantemente musulman y de habla árabe, provoca otra actitud de los miembros del GIFCT relacionada con ¿cómo pretenden preservar la valiosa evidencia potencial de una manera que aborde tanto los derechos de privacidad como la necesidad de responsabilidad?, ¿cómo ven el cifrado, especialmente a la luz de su uso por parte de defensores de derechos humanos en todo el mundo al enfrentar riesgos para su vida y para la libertad si sus comunicaciones caen en manos equivocadas?

06 septiembre 2022

Predicción de rasgos de la personalidad en medios sociales

Laboratorios académicos analizan lo lingüístico de los textos que publican los usuarios en sus perfiles y en sus actualizaciones

la huella del signo lingüístico revela detalles de la vida personal

Iconografia del contenido
Haga click para ampliar imagen

Todo indica que expresar información, de modo individual o colectivo, ha variado de la psiquis humana en el campo de la cultura a la inteligencia natural y artificial en el campo biológico-digital, pues la digitalización de todo el acervo de la información mediada con tecnología ha llevado menos de 30 años.

De modo que el corpus de la tecnología digital ha venido desafiando la restricción humana y es considerado un organismo vivo, auto-organizado por su adaptación, transformador de energía debido a que produce, consume e intercambia energía con el medio ambiente y autopoiético ya que auto-produce nueva tecnología a partir de sus propias partes, al tiempo que aumenta su eficiencia mediante el reemplazo y el crecimiento diferencial de sus partes constituyentes.

Escriben los Biólogos de la universidad Macquarie de Australia, Michael Gillings y Darrell Kemp, acompañados por el profesor de comunicación de la universidad de California, Martin Hilbert, en su artículo "Information in the Biosphere: Biological and Digital Worlds" (2016), publicado en Previously Published Works, que “Después que los genomas de ARN fueran reemplazados por ADN, se necesitaron mil millones de años para que aparecieran las células eucariotas, y aproximadamente otros dos mil millones para los organismos multicelulares con sistema nervioso. Luego se necesitaron otros 500 millones de años para desarrollar sistemas neuronales capaces de formar lenguajes. A partir de ahí, se necesitaron solo cien mil años para desarrollar el lenguaje escrito y otros 4.500 años antes de la invención de las imprentas capaces de replicar rápidamente la información escrita.”

Algunos ejemplos estructurados de robótica e Inteligencia Artificial (IA) se localizan en diversos entornos del universo: en el planeta Marte recorren su superficie vehículos autónomos, los sistemas de crédito anti-fraude se bloquean con tarjetas autónomas, los sistemas masivos de transporte están controlados por IA que utilizan algoritmos genéticos, redes neuronales artificiales o aprendizaje profundo.

Personalidad en Facebook

La información digital, en términos generales, se puede ver como una réplica con propiedades similares a las que tienen los replicadores biológicos (ARN y ADN) al observar los fuertes paralelismos entre lenguaje y genes, especialmente si las palabras se consideran estructuras informativas autónomas. Al respecto, el equipo de académicas de la universidad de Maryland conformado por Jennifer Golbeck, Cristina Robles y Karen Turner intentó “cerrar la brecha entre las redes sociales y la investigación de la personalidad mediante el uso de la información que las personas revelan al interaccionar en sus perfiles en línea”.

Ese trabajo publicado en 2011 se considera el primer estudio que analiza la relación entre la información del perfil proporcionado en medios sociales y los rasgos de la personalidad de su usuario. En consecuencia, recopilaron datos a través de la creación de una aplicación para Facebook con dos funciones: una para administrar una versión con 45 preguntas sobre el inventario de las Cinco Grandes Personalidades y otra, también para recopilar todos los textos sobre el perfil del usuario que estaban disponibles. Compilaron, entonces, 161 estadísticas en total de la lista de amigos para comprender la densidad de la red del usuario egocéntrico (muestrearon 2.000 pares únicos de amigos) y de la información de los enlaces entre los amigos del usuario.

Al respecto, las académicas afirman que “Los usuarios proporcionan gran cantidad de información personal.” Por ejemplo, de 279 usuarios 111 mencionaron una religión a través de 82 entradas diferentes, lo que revela disposición para compartir información a pesar del espacio demasiado escaso para hacer cualquier análisis estadístico. Otra exposición pública que el usuario de medios sociales proporciona es su lista de actividades personales o de asuntos favoritos como programas de televisión, películas, música, libros y citas, así como sus afiliaciones políticas y organizativas. Aun así, los usuarios también pueden compartir más información personal en sus perfiles al escribir textos “Acerca de mí”, “blurb” (“propaganda”), datos característicos y actualizaciones de estado.

Luego de combinaciones, eliminaciones, promedios de palabras publicadas, se realizó el estudio de análisis lingüístico con 167 sujetos que tenían al menos diez palabras entre todos sus campos de texto con un promedio de 42,6 palabras por persona. La información demográfica fue extraída de sus perfiles, siendo la edad promedio 31,2 años (desviación estándar de 8,7), 68 mujeres y 61 hombres (38 no informaron), y su localización Estados Unidos (138 usuarios), India (8), Australia (7), Italia (7) y otros (7).

El método de estudio para analizar el texto fue emplear la herramienta de software "Linguistic Inquiry and Word Count (LIWC)", que produce estadísticas sobre 81 diferentes características de texto en cinco categorías. Estas incluyen recuentos estándar (conteo de palabras, de palabras de más de seis letras, de la cantidad de preposiciones, etc.), procesos psicológicos (recursos emocionales, cognitivos, sensoriales y sociales), relatividad (palabras sobre el tiempo, el pasado, el futuro), preocupaciones personales (como ocupación, problemas financieros, salud) y otras dimensiones (recuentos de varios tipos de puntuación, de palabrotas).

Las mayores correlaciones estadísticamente significativas se localizaron en las características lingüísticas, así: el rasgo de personalidad Concienciación (responsable, organizado, perseverante) se relaciona con la mayor cantidad de correlaciones positivas y negativas. Las positivas se emparentan con los procesos sociales −compañero, niño, ellos, hablar− y con palabras que vinculan a humanos −bebé, hombre−. A su vez, las negativas guardan afinidad con las palabrotas y con los procesos de percepción (ver, oír, sentir), incluido el subconjunto de palabras específicas sobre ver. Lo anterior sugiere que las personas más conscientes hablan sobre otras personas pero callan sobre asuntos que vieron o escucharon.

Los demás rasgos de personalidad, Amabilidad (cooperativo, servicial, cariñoso) presenta relaciones positivas con los procesos biológicos y afectivos, incluidas las palabras que expresan emoción positiva; Neuroticismo (ansioso, inseguro, sensible) presenta palabras frecuentes relacionadas con ansiedad e indigestión; Extroversión (comunicativo, amistoso, asertivo) expone una relación positiva con palabras para el trabajo y negativa, con los procesos perceptuales; y Apertura a la Experiencia (curioso, inteligente, imaginativo) se relaciona negativamente con las palabras sobre dinero.

La escala medible fue normalizada entre 0 a 1, siendo el Error Absoluto Medio para cada factor de la personalidad de un usuario de Facebook aproximadamente 11% lo que significa que la predicción presenta una precisión de poco más de una décima parte de su valor real en ciertas características o experiencias del usuario. Según el tipo de personalidad expuestas en el laboratorio de Maryland se “mostró que los usuarios preferían las interfaces diseñadas para representar sus personalidades que más se asemejaban a las suyas” lo que amplía el filtro de burbuja o aislamiento intelectual y sensible.

Rasgos privados

Dos años después, en la universidad de Cambridge, el equipo formado por Michal Kosinski, David Stillwell y Thore Graepel, publicó el artículo "Private traits and attributes are predictable from digital records of human behavior", editado en 2013 por la Universidad de California, mostrando “los registros digitales fácilmente accesibles del comportamiento subjetivo a través de la función 'Me Gusta' de Facebook, para predecir de forma automática y precisa una gama de atributos personales altamente sensibles, que incluyen: edad, género, orientación sexual, etnia, inteligencia, felicidad, rasgos de personalidad, uso de sustancias adictivas, separación de los padres y puntos de vista religioso y político.”

El laboratorio en concreto seleccionó las citadas peculiaridades de los usuarios escogidos que revelaron precisión pero son potencialmente intrusivas al realizar el análisis predictivo. Por ello advierten que, “predecir la información personal para mejorar productos, servicios y orientación de compras puede dar lugar a peligrosas invasiones de la privacidad.”

Aun cuando las personas optan por ocultar cierta información sobre sus vidas −orientación sexual o edad− esa información puede ser predecible en estadísticas frente a otros aspectos de sus vidas que sí revelan. Por ejemplo, una importante red minorista de EE. UU. utilizó registros de compras de sus clientas para predecir los embarazos y enviarles ofertas oportunas y adecuadamente dirigidas.

Para los académicos del Reino Unido mercancías, música, libros, deportes, restaurantes o sitios Web populares activados desde la función 'Me Gusta' de Facebook −que expresa asociación positiva con el contenido en línea− representan una clase muy genérica, relativamente básica del comportamiento humano, cuyos registros digitales son similares a las consultas de búsqueda Web, los historiales de navegación Web y las compras en línea empleando tarjeta de crédito.

Con base en la cantidad de datos disponibles y en la precisión de la predicción a los productos lograron medir dos variables: dicotómica y numérica. La cantidad de datos disponibles fue respaldada con personas para las que había disponibles entre 1 y 700 'Me Gusta', siendo la media de tal función 68 por sujeto. Por lo tanto, ¿cuál es la precisión esperada dado un individuo al azar? y ¿cómo cambia la precisión de la predicción con el número de 'Me Gusta' observado?

Utilizaron entonces una sub-muestra igual a 500 usuarios para los que había al menos 300 'Me Gusta' disponibles y ejecutaron modelos predictivos basados en subconjuntos seleccionados al azar de los n 'Me Gusta'. Los resultados muestran que incluso conocer un solo 'Me Gusta' aleatorio para un usuario determinado puede alcanzar una precisión no despreciable de predicción. De modo concluyente: conocer más 'Me Gusta' aumenta la precisión pero con rendimientos decrecientes en cada pieza de información adicional.

En cuanto la variable dicotómica ésta fue expresada en términos del área bajo la curva característica operativa del receptor, que es equivalente a la probabilidad de clasificar correctamente a dos usuarios seleccionados al azar, uno de cada clase (por ejemplo, hombre y mujer). En consecuencia, las precisiones más altas de las predicciones se lograron para el origen étnico −afroamericano y americano caucásico− (95%) y para el género −hombre y mujer− (93%). Los porcentajes sugieren que los patrones del comportamiento en línea expresados con la función 'Me Gusta' difieren significativamente entre esos grupos, lo que permite una clasificación casi perfecta. Por su parte, la precisión más baja fue inferir si los padres permanecieron juntos antes que los usuarios cumplieran 21 años de edad (60%). Los usuarios con padres separados tienen mayor probabilidad que les gusten las declaraciones preocupadas por las relaciones, como “Si estoy contigo, entonces estoy contigo; no quiero a nadie más”.

Según las preferencias por una religión, cristianos y musulmanes (82%) se clasificaron también correctamente, y por las de partidos políticos se lograron resultados similares para Demócratas y Republicanos (85%). Igualmente se logró acertada precisión de predicción para el estado civil y el consumo de sustancias psicoactivas (entre 65% y 73%). La orientación sexual fue más fácil de distinguir entre los hombres (88%) que entre las mujeres (75%), lo que puede sugerir una división más amplia de la conducta, como se observa en el comportamiento en línea, entre los hombres heterosexuales y homosexuales.

Así mismo, con base en la variable numérica, la precisión de la predicción fue expresada por el coeficiente de correlación producto-momento de Pearson entre los valores reales y los predichos. La mayor correlación se obtuvo para la edad (0,75), seguida de la densidad de la red (0,52) y el tamaño de la amistad en Facebook (0,47). Le siguieron de cerca los rasgos de la personalidad Apertura a la Experiencia (0,43) y Extroversión (0,40). Esto indica que para el rasgo Apertura, la observación de los 'Me Gusta' del usuario es más o menos tan informativa como el uso de la puntuación de su prueba de personalidad.

La precisión de la predicción relativamente más baja para el atributo satisfacción con la vida puede atribuirse a la dificultad de separar la felicidad a largo plazo de los cambios de humor, que varían con el tiempo. Por lo tanto, aunque la puntuación a la satisfacción con la vida incluye la variabilidad atribuible al estado de ánimo, los 'Me Gusta' de los usuarios se acumulan durante un período más largo y, por lo tanto, pueden ser adecuados solo para predecir la felicidad a largo plazo.

En relación con el poder predictivo de la función que se viene citando, el resultado del experimento en Facebook arrojó como mejores predictores de la inteligencia alta los temas “Tormentas eléctricas”, “Informe Colbert”, “Ciencia” y “Papas fritas rizadas” (cuya conexión no es obvia), mientras la inteligencia baja incluyen “Sephora”, “Me encanta ser mamá”, “Harley Davidson” y “Lady Antebellum”. Los magníficos predictores de la homosexualidad masculina incluyeron asuntos como “No H8 Campaign”, “Mac Cosmetics” y “Wicked The Musical”, mientras que los fuertes predictores de la heterosexualidad masculina incluyeron “Wu-Tang Clan”, “Shaq” y “Being Confused After Waking Up From Naps (Estoy confundido después de despertarme de la siesta)”.

La predicción de la función de la red tuvo en cuenta a los pocos usuarios que revelaron explícitamente sus atributos. Por ejemplo, menos del 5% de los usuarios etiquetados como homosexuales estaban conectados a grupos explícitamente homosexuales, como “No H8 Campaign”, “Ser homosexual”, “Matrimonio homosexual”, “Me encanta ser homosexual”, “No elegimos ser homosexuales, fuimos elegidos”. En consecuencia, las predicciones menos informativas pero más populares se basan en Me Gusta "Britney Spears" o "Desperate Housewives" (ambas moderadamente indicativas de ser homosexual).

Cada 'Me Gusta' atrae a usuarios con una personalidad promedio y un perfil demográfico diferente y, por lo tanto, la función puede usarse para predecir esos atributos. Por ejemplo, los usuarios a los que les gustaba la marca “Hello Kitty” tendían a ser altos en el rasgo de personalidad Apertura y bajos en Concienciación y Amabilidad. También era más probable que tuvieran opiniones políticas Demócratas y que fueran de origen afroamericano, predominantemente cristianos y ligeramente estar por debajo de la edad promedio. Por ejemplo, aunque el gusto por Barack Obama está claramente relacionado con ser Demócrata, también es relativamente popular entre cristianos, afroamericanos y personas homosexuales.

Predicción desde Twitter

También el equipo de académicas de la universidad de Maryland, formado por Jennifer Golbeck, Cristina Robles, Michon Edmondson y Karen Turner, presentó en 2011 su artículo "Predicting Personality from Twitter", “un método mediante el cual se puede predecir con precisión la personalidad de un usuario a través de la información disponible públicamente en su perfil de Twitter.”

En efecto, a través de una aplicación de Twitter, administraron el inventario de las Cinco Grandes Personalidades con 279 sujetos y reunieron sus 2.000 tweets públicos más recientes. Las investigadoras aclaran que los 140 caracteres de Twitter (hasta el 26 septiembre 2017) son “más un flujo de pensamientos inconexos que una narrativa coherente”. Aun así los textos cortos se filtraron a través de la herramienta de análisis de texto LIWC para obtener un conjunto de características. El modelo pudo predecir la personalidad en cada uno de los cinco factores de personalidad con una precisión de entre 11% y 18% de los valores reales.

Para cada usuario incluyeron los siguientes componentes: número de followers, de following, de @menciones, de respuestas, de hashtags, de enlaces, palabras por tweet y densidad de la red social. Para la cantidad de @menciones, de respuestas, de hashtags y de enlaces, usaron los números sin procesar y el promedio por tweet. Hubo un promedio de 1.914 palabras por usuario siendo el número de palabras entre 50 y 5.724, que provinieron de un promedio de 142.2 tweets entre un máximo de 350 y un mínimo de 4.

Luego de haber ejecutado un análisis de correlación de Pearson entre las puntuaciones de la personalidad de los sujetos y cada una de las características obtenidas del análisis a los tweets los resultados muestran relaciones positivas significativas con al menos un rasgo de la personalidad, así: Extroversión por la relación de procesos sociales, incluida la familia. Amabilidad y Concienciación por las características del lenguaje y los procesos biológicos incluidos, en su orden, ingestión y trabajo. Neuroticismo por los procesos perceptuales como oír y sentir y el rasgo Apertura a la Experiencia por las características del lenguaje, los procesos sociales humanos y los mecanismos cognitivos de causalidad y certeza.

Las relaciones negativas significativas con al menos un rasgo de la personalidad resultaron ser: Extroversión por la relación de procesos biológicos que involucran salud. Amabilidad por el mecanismo cognitivo de causalidad y los procesos biológicos que incluyen logro y dinero. Concienciación por las características del lenguaje, las emociones negativas incluida la tristeza, los mecanismos cognitivos incluida la discrepancia, los procesos perceptuales como sentir y los biológicos como muerte, “quiero decir”, “tu sabes”. Apertura a la Experiencia por los procesos biológicos incluido el cuerpo.

Argumentan las investigadoras que en este análisis encontraron resultados mixtos y comparados con el anterior estudio de la personalidad en línea (efectuado dentro de Facebook con 167 sujetos), donde se tenía menos correlaciones y más débiles, lograron predecir todos los rasgos de la personalidad con una precisión aproximada del 11%.

Estos tres laboratorios para predecir los rasgos de la personalidad en medios sociales se apoyan en la huella del signo lingüístico que revela detalles de la vida personal. Por su parte, con todos los datos del perfil de usuario, como conjunto de funciones, se entrenan algoritmos de aprendizaje automático que abren muchas oportunidades al marketing para personalizar las interfaces y la información en línea para las ventas correctamente dirigidas.

Aún así no está aclarado todo pues la fuerza de los enlaces, la confianza y otros factores relacionados todavía es un espacio abierto para la investigación. No obstante, la predicción enfatiza amenazas potenciales cuando se trata de usuarios emocionalmente estables como invadir la privacidad sin consentimiento, afectar negativamente la experiencia personal con las tecnologías digitales, disminuir la seguridad en los servicios en línea, disuadir por completo del uso de la tecnología digital, entre otras.