Mostrando entradas con la etiqueta amenaza. Mostrar todas las entradas
Mostrando entradas con la etiqueta amenaza. Mostrar todas las entradas

20 octubre 2024

De la pornovenganza a la violencia digital

El activismo quizás no ofrece justicia ni genera reparación al daño pero se ha convertido en multiplicador fundamental para prevenir, promover y fomentar la información y el contenido responsable compartido en las redes sociales

Iconografía del contenido

Haga click en imagen para ampliar
En su cuenta de Instagram, la joven mexicana Olimpia Coral Melo se identifica como serrana, hija de Josefina, nieta de Teresa, Bisnieta de Olimpia. En el mundo presencial Naciones Unidas la reconoce como defensora de espacios digitales libres de violencia para niñas y mujeres, y los parlamentos de Argentina, Colombia y su país gestionan la Ley Olimpia.

Aquella norma es un conjunto de reformas legislativas acerca de la ciberviolencia: conductas de acoso, abuso y amenaza que atentan contra la intimidad y la honra personal. Se trata de contenidos publicados y distribuidos sin consentimiento o mediante engaño a través de archivos de video, audio, fotografía con contenido real o simulado, sexual e íntimo de la persona agredida.

Otra forma de violencia digital se genera con materiales impresos, comunicación por correo electrónico, mensajes telefónicos, expuestos, exhibidos, distribuidos, difundidos, reproducidos, transmitidos, comercializados, ofertados, intercambiados y compartidos, usualmente en archivos de imagen con el mismo contenido íntimo de una persona, a sabiendas que no existe aprobación previa.

Según contó la joven Olimpia al noticiero ONU, el 8 de marzo de 2023: “Nos unimos desde hace una década para entender nuestros propios contextos y poder hacer estrategias para que otras mujeres no vivan la violencia sexual y virtual que nosotras vivimos”. Lo constituido por la activista y su grupo de defensoras es un movimiento político integrado por diversas mujeres para enfrentar desde el amor, la resiliencia y la solidaridad, el acoso y la violencia digital.

El motivo que despertó la conciencia de Olimpia a sus 18 años fue la distribución, sin su consentimiento, de un vídeo íntimo donde ella aparecía desnuda y que su novio hizo viral en WhatsApp y después en Facebook, negando haber sido el responsable. Por el suceso ella se aisló, se encerró en su hogar, dejó de asistir a su escuela, ni salía a la calle, pero con el apoyo de su familia retomó su vida y comprendió que no era la única mujer, ni la última, quien sufría violencia digital en México.

Efectos de la violencia digital

Existen tres tipologías de violencia clasificadas por los teóricos: directa, la forma más visible sea física o verbal; estructural, manifestada con base en discriminación y marginación; y cultural, referida al ataque a los rasgos culturales y a la identidad colectiva. Así lo expuso en 1998, Johan Galtung, creador de la perspectiva y la metodología “Investigación sobre la Paz”, en su ensayo “Tras la violencia, 3R: reconstrucción, reconciliación, resolución. Afrontando los efectos visibles e invisibles de la guerra y la violencia”.

Concretamente, la violencia digital está más ligada a internet y a las plataformas sociales por las expresiones que se intercambian libres pero a quienes son víctimas, aquel contenido les genera impacto negativo en sus vidas privada y social. Este tipo de violencia, que no deja marcas físicas, sí muestra huellas importantes en la víctima a nivel psicológico debido a la segregación social y a la automarginación.

Más allá, exhibir fotos o videos íntimos y privados sin consentimiento es delito contra la intimidad y la imagen personal, y cuando se agregan comentarios, negativos y ofensivos, en el muro de las cuentas en las redes sociales sobre las personas víctimas como en Facebook, X, Instagram, y en páginas en general de internet, esa ciberviolencia tiene el mismo impacto de la violencia física.

Para iluminar aquella violencia acosadora, intimidante, invisible en línea, lo primero es identificar y distinguir el contenido con amenaza, acoso, insultos. Son todos actos concretos y específicos pero intolerables, inadmisibles, violentos, que manifiestan por lo general una conducta hostil, intencionada, voluntaria, repetitiva y sistemática. Y claro, la persona víctima queda indefensa en la mayoría de los casos al no poder defenderse. El objetivo del acosador consiste pues en dominar física, verbal y socialmente a su víctima para aislarla y destruirla en el ámbito público. Por tanto, el agredido y su grupo social deben informar, contactar asesoría jurídica, interponer denuncias, mitigar ese progreso agresivo con terapia especializada en violencia contra mujeres o en violencia de género, según sea el caso.

Recogiendo acciones para fortalecer la seguridad digital, el gobierno colombiano ha incluido los programas del Ministerio de Tecnologías de la Información y Comunicaciones “Mujeres TIC para el Cambio”, que fomenta el liderazgo femenino a través de procesos de formación gratuita para la productividad, y “Ciberpaz”, que motiva a través de charlas el uso de la tecnología de manera consciente, empática, segura y responsable. Otras estrategias son algunas normas de regulación y de coordinación para bloquear las comunicaciones no autorizadas desde cárceles; el fortalecimiento del ColCert, un grupo de investigación y prevención sobre ciberseguridad y el proyecto de Ley que crearía la Agencia Nacional de Seguridad Digital y Asuntos Espaciales. Por su parte, gobiernos locales, sociedad civil y varios actores del ecosistema TIC han emprendido lentas acciones. La gobernación de Caldas, junto al centro de desarrollo tecnológico Bios, por ejemplo, en el último año, han venido impulsando el proyecto Hub de Ciberseguridad, y los centros de Inteligencia Artificial y de operaciones de seguridad.

Con base en una encuesta de 2017 que Amnistía Internacional encargó a Ipsos Mori se analizaron las experiencias de 500 mujeres entre 18 y 55 años de edad en Dinamarca, España, Estados Unidos, Italia, Nueva Zelanda, Polonia, Reino Unido y Suecia.

Casi una cuarta parte (23%) de las encuestadas dijeron haber experimentado abuso o acoso en línea al menos una vez; 41% de ellas abusadas o acosadas en línea dijeron que, al menos en una ocasión, esas experiencias las hicieron sentir amenazadas por la inseguridad física; poco menos de la mitad (46%) de quienes habían sufrido abuso o acoso en línea respondieron que el ataque era de naturaleza misógina o sexista; más de la mitad (58%) de abusadas o acosadas en todos los países dijeron que su ataque había incluido racismo, sexismo, homofobia o transfobia y 59% de quienes habían sufrido abuso o acoso en línea dijeron que la violencia provenía de completos desconocidos.

En Colombia los datos reportados por la Unidad para la Atención y Reparación Integral a las Víctimas, entre 1980 y 2016, más de 17.000 mujeres y niñas fueron víctimas de violencia sexual relacionada con el conflicto armado. El Centro Cibernético de la Policía recibió en 2022 denuncias por casos de sextorsión (62), por ciberacoso (325), por injuria o calumnia a través de redes sociales (676) y por amenaza (972). Según Ranking PAR en 2024, 60% de las mujeres entre 18 y 40 años de edad asegura haber sido acosada a través de medios digitales. El Observatorio de la Democracia y la Universidad de los Andes encontraron que “25.5% de las periodistas mujeres participantes en su investigación ha sido víctima de agresiones por violencia de género a través de canales digitales debido a su trabajo". Y para echar sal a esa herida, el Presidente de la República las califica de “muñecas de la mafia” sin determinar justificación objetiva alguna.

Según dan a conocer especialistas, como la doctora en Biomedicina Feggy Ostrosky, “nuestro cerebro registra la violencia y las amenazas virtuales como si fueran reales”, siendo sus efectos inmediatos: ansiedad, depresión y dependencia, lo que puede generar actitudes violentas hacia los demás o hacia sí mismo.

Retomando los resultados de Amnistía Internacional, 63% afirmó que no había podido volver a dormir normal desde el abuso o acoso en línea, 61% de quienes dijeron haber sufrido abuso o acoso en línea en todos los ocho países de la encuesta experimentó menor autoestima o pérdida de confianza en sí misma, 56% dijo que el abuso o acoso en línea les había impedido concentrarse durante largos períodos de tiempo y 55% dijo que había experimentado estrés, ansiedad o ataques de pánico después de sufrir abuso o acoso en línea.

Mitigaciones contra la violencia digital

La violencia digital la compone una amplia gama de agresiones: vulneración de los datos personales sensibles, privado o semiprivado; propagación pública de información falsa; divulgación de información engañosa; transmisión de mensajes de odio; difusión de contenido digital íntimo no consentido; acoso; hostigamiento; amenaza.

De manera que compartir información con alguien, por ejemplo la pareja o alguien de confianza, significa de entrada dar probabilidad a la ausencia del consentimiento. Un comportamiento humano frecuente debido a que no advertimos previamente en la protección de nuestros datos personales, que por Ley reconoce y protege el derecho de todas las personas a conocer, actualizar y rectificar las informaciones susceptibles de tratamiento por entidades públicas o privadas.

En Suecia 57% de las mujeres encuestadas para Amnistía Internacional afirmó que las políticas de gobierno para enfrentar el abuso eran inadecuadas, alrededor de un tercio de las mujeres en Reino Unido (33%), Estados Unidos y Nueva Zelanda (ambos 32%) afirmaron que la respuesta policial al abuso en línea era igual de inadecuada. La encuesta también indicó que menos de la cuarta parte (18%) de las mujeres en todos los países dijeron que las respuestas de las empresas de redes sociales eran muy, bastante o completamente adecuadas.

Defensores digitales recomiendan: no compartir links donde se exhiba violencia ya que se podría contribuir indirectamente con la viralización; denunciar el contenido en la misma plataforma digital; enviar a la red social el pantallazo para su revisión como prueba indiciaria; reportar desde diferentes cuentas para alertar el algoritmo hasta que se elimine el contenido. Por su parte, Amnistía Internacional ha venido solicitando a los gobiernos que garanticen la existencia de leyes, políticas, prácticas y formación adecuadas para prevenir y poner fin a la violencia y al abuso en línea contra las mujeres, sin imponer restricciones o sanciones indebidas al legítimo ejercicio de la libertad de expresión.

Los países de Latinoamérica donde una ley Olimpia no ha sido aprobada y las mujeres siguen sufriendo violencia digital, también pueden tomar acciones legales dentro de su marco legislativo existente, porque seguramente sobreviene el delito de extorsión. Se trata de encuadrar la conducta del acoso, la amenazas y de otro tipo en la figura legal. Por tanto, el proceso no es fácil pero la justicia debe superar el miedo a la usual cultura de violencia contra la mujer o la violencia de género, y las personas víctimas acceder al sistema ya que mientras más se ejerza el derecho de la denuncia y cuanto más se exija, se impulsarán dichos mecanismos hacia su perfección.

Otras medidas de seguridad digital extremas que protegen la privacidad digital, a saber: siempre utilizar dispositivos con contraseña actualizada por lo menos cada trimestre; nunca revelar esas contraseñas ni almacenarlas en la memoria informática; decididamente crear contraseñas secretas, complejas y seguras o activar la verificación en 2 pasos; definitivamente evitar la misma contraseña para todos los accesos a internet; periódicamente actualizar el software del dispositivo y de las aplicaciones activadas; incesantemente evitar el robo o la pérdida del dispositivo; habitualmente revisar las aplicaciones no instaladas; continuamente administrar la configuración de ubicación permanente en el dispositivo y sobre todo, constantemente bloquearlo en tiempo de descanso o de manera remota.

Educación en igualdad de género

Aunque se refuerce la seguridad digital, la violencia contra las mujeres es estereotipo del carácter social, que influye y fomenta la discriminación de género. Lo actuado en esencia por Olimpia Coral Melo ante la violencia digital contra las mujeres es promover el ejercicio de los derechos humanos y de los valores originado en relaciones de respeto mediante la educación desde la infancia en temas de igualdad y de equidad.

No vale solo reconocer la violencia digital como una modalidad de agresividad contra la mujer y el género sino que debe ser visibilizada, prevenida, inhibida y castigada mediante leyes que respalden el acceso de las mujeres a una vida libre de violencia con base en el género. De allí que la sororidad sea clave para erradicar la violencia digital contra mujeres y dejar de estigmatizar el tema. Ha repetido la joven Olimpia, “no quedarse callada sino alzar la voz, buscar ayuda profesional, proceder y actuar conforme la ley” y, algo de su mensaje, ha calado en la sociedad regional.

Tres países de Latinoamérica han reconocido el triunfo de la Ley Olimpia en el orden de fortalecer algunas bases sociales para transformar creencias, estigmas, prejuicios, roles y estereotipos que oprimen a las mujeres y que las colocan en especial vulnerabilidad cuando su intimidad es expuesta de forma explícita y pública.

El gobierno de México, desde abril de 2021, promulgó la Ley que colocó un tema invisible en su agenda pública y la academia ha empezado a estudiar debido a la lucha social organizada a través del Frente Nacional para la Sororidad, Defensoras Digitales y muchas otras colectividades feministas.

En Argentina, en octubre de 2023, el gobierno legalizó la Ley incorporando la violencia contra las mujeres en entornos digitales como un modo de violencia de género y determinó medidas cautelares de protección para que la justicia ordene a las plataformas digitales eliminar el contenido que genera violencia.

El Congreso de Colombia abrió un espacio de diálogo el pasado 17 de septiembre de 2024 para modificar ciertos artículos del Código Penal y de la Ley 1257 de 2008, por la cual se dictan normas de sensibilización, prevención y sanción de formas de violencia y discriminación contra las mujeres. Entonces el proyecto de ley penalizaría la creación, difusión, sustracción y distribución no consentida de material íntimo erótico o íntimo sexual en redes sociales y sancionaría las conductas relacionadas con creación, difusión, sustracción y distribución no consentida de material íntimo erótico o íntimo sexual.

No obstante, durante la tercera semana de septiembre 2024, en una peripecia política, el ministro de las TIC de Colombia asistió al Congreso de Seguridad Nacional donde aseguró que “El Hub de Ciberseguridad que se desarrolla en Caldas, el proyecto de ley para la creación de la Agencia Nacional de Seguridad Digital y Asuntos Espaciales y el fortalecimiento del ColCert hacen frente a las ciberamenazas”. Mientras tanto, dando vuelta a la tortilla, en el segundo Encuentro de Medios Alternativos, Comunitarios y Digitales, que reunió a 1.500 periodistas y comunicadores de todo el país, el mismo titular de aquella cartera se comprometió a fortalecer a los medios alternativos mediante la Ley de tercios: destinar 33,3% de la pauta oficial para la financiación y abrir dos convocatorias por $15.000 millones para invertir en contenidos y equipos, y para la creación de 300 nuevas emisoras comunitarias. ¿Y su regulación? Sigue girando en el Congreso.

15 agosto 2024

Los medios sociales son propicios para la cancelación

La cultura de la cancelación como acción pública viene siendo ejecutada por terceros, quienes condenan al ostracismo a personas incómodas o transgresoras por su postura política, y debido a la virtualidad de los medios sociales se convierte en etiquetas de supervisores

Iconografía del contenido

Haga click en imagen para ampliar

El escenario más común de la cancelación es el medio social donde, por supuesto, las protestas y la negación son actos reiterativos del ciclo de la sanción que contribuyen a ignorar los procesos de la convocatoria a la cancelación y de la defensa activa de la cultura de la cancelación. No obstante, lugares de concurrencia física y pública como campus universitarios, ferias, auditorios, museos, tiendas, teatros, también son dimensiones propicias para ejercer la cancelación como un enfoque de la retribución desde el cual se imparte justicia propia.

Regularmente el código “ojo por ojo”, entronizado en la creencia, se ha mantenido a lo largo de la historia en las religiones pues “más te vale entrar tuerto en el reino de Dios que ser arrojado con los dos ojos al infierno”. En la tradición cristiana, verbigracia, el castigo a Adán y a Eva fue su expulsión ​​del jardín del Edén al momento en que violaron las reglas de Dios. En el Corán, el retribucionismo es solo para aquellos desobedientes o malvados, en el Dhammapada budista es consecuencia de las malas acciones y en el Bhagavadgita hindú se obtiene por el mal karma.

El mundo tangible ha sido testigo presencial de clases de justicia retributiva: quema de libros en plazas, degradación de editores por aprobar títulos, despidos de periodistas cuando se desvían de la línea editorial del medio y agresiones o vituperios a colectividades en lugares públicos. Lo más impactante de la cancelación ha sido remover al individuo de su cargo, prohibir su entrada o su discurso, dejar de nominarlo en un corporativo, negarlo o bloquearlo en las cuentas de los medios sociales y hasta cancelar su contrato laboral.

Eso último le ocurrió al vendedor Daniel Maples el 27 de junio de 2020, luego que los clientes dentro del Costco Gulf Coast Town Center de Fort Myers (Florida: USA) le pidieron usar el tapabocas para protección al Covid. Su respuesta fue gritar “Me siento amenazado” y avanzar hacia los clientes. Uno de aquellos, un director local de cine, lo grabó en video que publicó en Twitter y en menos de 24 horas la identidad del hombre ya había sido revelada. Afrontando el riesgo a la reputación corporativa, su empleador ─Ted Todd Insurance─ y un ejecutivo de la empresa, Charley Todd, anunciaron que Daniel había sido cancelado de su trabajo.

En otras ocasiones la cancelación es un modo personal que asume un individuo contra un amigo o conocido. Por ejemplo, el actor Daniel Radcliffe, quien interpretó a Harry Potter, se distanció de la posición de la autora cuando ella habló en público contra las mujeres transgénero. Críticos de la cancelación han denunciado esta práctica elevándola a un generalizado cambio cultural y referida como cultura de la cancelación. Estos censores, situados a menudo en la derecha ideológica, en ocasiones perciben la cancelación como un repudio reaccionario de los progresistas y una guerra contra las ideas conservadoras del activismo digital.

Ante los hechos, la cancelación es realizada únicamente por terceros quienes se autodeterminan ‘Supervisores’ de las normas legales y morales y, por tanto, asumen el derecho de transgredir enviando al cancelado al ostracismo.

La escritora afrocanadiense musulmana, Sarah Hagi, preguntó en noviembre de 2019 por la revista Times si ¿la cultura de la cancelación ha ido demasiado lejos? Para ella, “no es real, al menos no de la forma en que la gente cree”. En cambio, afirma que se ha convertido en un comodín cuando las personas con cierta notoriedad enfrentan consecuencias por sus acciones o reciben del público cualquier tipo de crítica.

Como flagelo por la difamación, la cancelación es un distorsionado punto de vista del Derecho a la Libertad de Expresión y una autoapropiación del Principìo de la Retribución ya que solo la institucionalidad que ejerce justicia bajo normas legales del derecho constitucional puede procesar a los individuos. Mientras que, como etiqueta, la cultura de la cancelación se materializa en medios sociales y en escenarios físicos, lo cual repercute en el entorno privado, personal y social del cancelado afectando su vida profesional y personal.

Por tanto, con base en la teoría de las normas sociales, y siendo cual fuere la perspectiva de la cancelación, las consecuencias consisten en excluir a sujetos por violar normas morales y en retirar apoyos a figuras públicas o a empresas por algo individualmente objetable. De modo que la cancelación y la cultura de la cancelación son acciones desiguales, en tanto las repercusiones de una y otra no afectan por igual a las personas canceladas, como los casos del tendero en Florida y del actor británico.

Repitiendo, el evento de cancelar es promulgado por la gestión de terceros quienes se apropian del manto de la supervisión mientras que, en la cultura de la cancelación subyace algún elemento de la teoría de las normas sociales interpretado de modo estropicio. Pero ambas actitudes generan efectos por la exclusión del cancelado.

Si bien ese aislamiento sufrido por la cancelación se inicia con una exposición difamatoria del individuo cancelador termina con otras formas sociales más violentas y discriminatorias para el cancelado, tales como: recopilar y publicar información suya o de su grupo, sin sus consentimientos, con el objetivo de dañar su trayectoria pública y profesional (doxing); negar la oportunidad a alguien para aportar sus ideas públicamente porque el cancelador cree que esas creencias son peligrosas o inaceptables (deplatforming) o las más recientes: denigrar a las mujeres blancas irritantes y abusadoras por sus privilegios o denunciar situaciones racistas provocadas por mujeres blancas (Karen), como ha acontencido desde el surgimiento del movimiento Black Lives Matter.

Algunas motivaciones

1) Cuando produce exclusión, la extendida cultura de la cancelación sobrepasa al Derecho a la Libertad de Expresión por ser un juicio arbitrario no objetivo y por cuanto el resultado de la acción es la proscripción a un individuo con su consiguiente afectación personal, familiar y social. Con esa oportunidad se reconoce que el cancelador confronta las normas sociales con sus propias reglas morales, que hace predominar.

Un primer asunto del sistema teórico de las normas sociales analiza la cancelación protegida por una libertad de expresión absoluta: el cancelador ejerce su acto con el poder de la manipulación sobre la persona denunciada y lo convoca a través de la mediación entre los miembros del medio social, publicando iniciales mensajes de denuncia sobre el punible comportamiento transgresor. Por tanto, con base en la cuestión jurídica general del Derecho a la Libertad de Expresión en sentido amplio, la justificación demostrable de esta cancelación impone estudiar si las limitaciones a la libertad de expresión pueden estar “argumentadas en una sociedad libre y democrática” mediante una legislación de incitación al odio.

En las ocasiones moderadas, el Derecho a la Libertad de Expresión ofrece sensibilidad, solidaridad y hasta educación ya que protege del malestar que ocasiona aquella cultura al leer angustiantes respuestas en medios sociales acerca de la culpa de las víctimas, la humillación a las putas, los chistes sobre violaciones, etc.

Una propuesta de Michalinos Zembylas, profesor de Teoría de la Educación y Estudios Curriculares en la Universidad Abierta de Chipre, se encauza a que ─además de enfatizar el pensamiento crítico, la alfabetización mediática, el debate y la argumentación─ “los programas de formación docente destinados a orientar a los profesores para que aborden la cultura de la cancelación, deben evitar reproducir esas formas en que las redes sociales la enmarcan con rutinas individualizadas y psicologizadas e instar a prestar atención ante las cuestiones estructurales de segregación e injusticia”.

2) Desde los estudios de medios comparados, Jose van Dijck ─autora, investigadora y profesora de la Universidad de Ámsterdam─, en su ensayo de 2013, “La cultura de la conectividad: Historia critica de los medios sociales” descifraba el compromiso oculto de cada plataforma, así: Facebook mantiene el imperativo de “compartir”; Twitter reproduce la paradoja entre “seguir” y “marcar tendencias”; Flickr se balancea entre la comunidad y el comercio; YouTube exacerba el vínculo íntimo entre televisión y comentar videos. De manera que preguntaba, ¿Cuáles son los detalles culturales e ideológicos de este ecosistema que al parecer lo interconecta sin fisuras?

En efecto, las prácticas en línea son meras bases algorítmicas de una socialidad para quedar atrapados, el régimen de propiedad privada de las tecnológicas es una integración vertical de la interoperabilidad donde consumimos cercados y los intentos fallidos por abandonar la conectividad no dejan salida debido a la ideología circulante. En últimas, “las conversaciones digitales” se han dirigido hacia sucesos plenamente subjetivos que confunden expresión personal propia de la democracia liberal con mercantilización de la peculiar identidad, afectando por tanto los derechos a la intimidad y la honra.

3) Desde la ciencia política también se estudian las perspectivas de la confianza pública en los sistemas democráticos. Para la politóloga Pippa Norris de Harvard University, la cancelación expresada por los progresistas se está apoderando de los campus universitarios al silenciar las voces conservadoras y los panoramas diversos en cuestiones de racismo, etnicidad, acoso sexual, misoginia, identidades de género no binarias y transfobia.

Así lo evidenció en el proyecto que moderó entre enero de 2023 a diciembre de 2025, “Trust in European Democracies”. Fue una investigación científica comparativa integral en 12 países de la Unión Europea (UE), incluida Ucrania, sobre las percepciones de la confianza y de la credibilidad públicas. Es decir, la confianza política considerada factor de estabilidad del régimen se asocia con las democracias representativas.

Por tanto, cuatro dimensiones enmarcaron el impacto del proyecto, i) comunicacional: facilitar el establecimiento de un nuevo paradigma de confianza política y la aparición de nuevas ideas sobre los orígenes multifacéticos de la confianza política mediante la publicación de los resultados en medios académicos; ii) político: debido a esas nuevas referencias, reactivar la gobernabilidad democrática y un marco normativo para mejorar la rendición de cuentas, la transparencia, la eficacia, la fiabilidad de las instituciones políticas y la agenda nacional y de la UE con el fin de estabilizar y consolidar las instituciones; iii) económico: preveer una reconstrucción del capital social vertical con alta cohesión social y baja conflictividad; y, iv) misión general: obtener mayor participación de los ciudadanos y de la sociedad civil mediante la educación, la comunicación política, el pluralismo de los medios de comunicación, las campañas de ONGs, entre otras.

4) Un cuarto itinerario al estudio del peligroso reproche a conductas que no constituyen delitos se relaciona con el derecho penal a partir del poder punitivo sin regulación. La cultura de la cancelación se puede convertir en ejercicio arbitrario de la fuerza excluyendo así la jurisdicción del Estado, que mantiene el orden en el complejo sistema social y lo utiliza para proteger bienes jurídicos indiscriminados ante agresiones injustificadas.

La causa visible de aquel actuar por fuera de las vías legales para conseguir un derecho propio produce que los debates se construyan dentro de los medios sociales, como ocurre en X (antes Twitter), en la plataforma rusa Telegram, en la red social de origen chino TikTok, entre otros. Esos contenidos atraviesan las barreras geográficas, llegan a más cantidad de usuarios localizados en diferentes partes del mundo y pueden también influir en el aumento de la participación social de la cancelación. El motivo invisible, por el contrario, ocasiona que “no siempre advertimos que tales debates en alguna medida se van volviendo irrelevantes ante las nuevas formas de comprender y de analizar el mundo”, según se lee en el libro “La vida en línea: El impacto de las redes sociales en todo lo que hacemos” del Licenciado en Derecho, Miguel Carbonell.

No obstante, una sistematización de casos de cancelación da cuenta de tres vertientes de defensa desde el cancelado: una conducta no condenada pero con repercusiones y reproches severos para quien cancela; un comportamiento inmoral de escasa gravedad penal; y comportamientos ilegales que no ameritan pena.

Ejemplo del primer escenario es el suicidio el 31 de agosto de 2019 en Winnipeg (Canadá) del desarrollador de juegos Alec Holowka quien fuera acusado en redes sociales de abuso físico, sexual y sicológico por su pareja sentimental Zoë Quinn. Al divulgar su violencia íntima en las campañas de ciberacoso, usando los hashtags #gamergate y #Metoo, fue cancelado en su trabajo y en su vida social. Su situación depresiva entonces lo llevó al suicidio sin que fuera escuchado o hubiera podido defenderse de las acusaciones ante un juez, invocando un proceso penal.

Con base en las noticias publicadas la primera semana de septiembre de 2019, por Diana Davison en Post Millenial ─“Allegations that led to Alec Holowka’s suicide need proper scrutiny”─ y Rick Rottman en su blog bentcorner ─“Zoë Quinn accuses Alec Holowka of sexual abuse, he then kills himself”─, las declaraciones de la expareja fueron tardiamente borradas de las redes pues el tribunal de la opinión pública ya lo había sentenciado.

Los comportamientos inmorales de escasa gravedad penal para el cancelado también son ilustrativos. Resulta que el 9 de noviembre de 2017, The New York Times informó que cinco mujeres comediantes acusaron al actor y escritor estadounidense Louis C. K. (Louis Alfred Székely) de proponerles que lo vieran masturbarse. Ese mismo día, el propio actor admitió su culpa y expresó remordimiento por el daño causado y el abuso de poder. No obstante, las distribuidoras de sus películas cancelaron los estrenos, su espectáculo en vivo “The Late Show with Stephen Colbert” también fue cancelado, HBO canceló su presencia en un especial benéfico para la televisión y eliminó de sus servicios on-demand sus comedias, la compañía The Orchard anunció que no iba a distribuir “I Love You Daddy” y dos coprotagonistas de su película dejaron de participar en la promoción del filme. Aún hoy se le critica y acusa por su comportamiento del pasado, según informa el portal well+good.

De la última vertiente fue protagonista el reconocido golfista Eldrick “Tiger” Woods, quien el 27 de noviembre de 2009, después de su accidente de tránsito, informó sobre su repetida infidelidad a su esposa, la modelo sueca Elin Nordegren. Ese comportamiento íntimo lo obligó a pagar el incumplimiento de su contrato matrimonial pero la esfera pública criticó al deportista fuertemente y muchos de sus patrocinadores lo cancelaron, según divulgó en Bleu Magazine, el periodista Justin Wallace.

5) El actual dispositivo de control social se asienta en la cultura de la cancelación desde imperativos morales, como alternativa frente a la ineficacia y/o la complicidad de las instituciones judiciales al no fallar las denuncias.

Para la Sociología, durante la sindemia del Covid-19, bien pudo ocurrir la supremacía del móvil y el crecimiento de la audiencia en internet como consolidación de una nueva modalidad del poder. Una posible causa estribaría en la no existencia de la interpelación discursiva de los sujetos [leáse como no se debaten argumentos] y que, en el último lustro, ha habido radicalización de las posturas político-ideológicas debido a la crisis económica y a las nuevas legislaciones y normativas post-pandémicas.

Aunque la medición del consumo digital no indica relación con el enjuiciamiento comunitario, el informe “Perspectivas del escenario digital latinoamericano” de Comscore revelaba, entre marzo a septiembre de 2020: “alto incremento en las cifras de páginas web vistas en Argentina, Brasil y Perú”, “185% más de personas informadas en últimas noticias por internet en Argentina, Brasil y México”, “334 horas de tiempo promedio por visitante web en Argentina, Brasil y México”, “las categorías de mayor consumo digital en América Latina fueron: mensajería instantánea, 127%; educación, 64% y noticias sobre negocios y finanzas, 56%”; “las aplicaciones colaborativas en la región tuvieron un alza sostenida durante la sindemia, siendo Zoom la de mayor crecimiento 2,711%, Telegram 71% y Google Meet 44%”.

Límites al reproche

De la misma manera en que el derecho penal sincroniza la justicia con base en los límites al judicializado por presuntamente cometer un delito ─como la presunción de inocencia, el debido proceso, la proporcionalidad entre pena y daño ocasionado, etc.─ la cultura de la cancelación los debe respetar por igual. Pero por el contrario, viraliza el error y elimina al sujeto lo que termina desprotegiendo sin justicia al cancelado, sus prerrogativas y otorgando a otros sujetos el poder de juzgar y condenar. Así se configura por la fuerza el tribunal de la opinión pública.

Además, el absolutismo de ciertas orientaciones comunes y el extremismo de los discursos por el sesgo ideológico son factibles de ser calificados “proliferación de dispositivos para la cancelación”. De esta manera el profesor argentino, Jonathan Enrique Prueger, licenciado en Sociología y becario del Instituto de Investigaciones Gino Germani/Conicet, lo conceptúa: los dispositivos de cancelación potencian radicalizaciones totalitaristas de registros ideológico-culturales, y al ser ejecutados suscitan la reactualización de los imperativos categóricos morales relacionados con las conductas.

La conclusión que expusó Prueger, en la XI Jornada de Sociología de la Facultad de Humanidades y Ciencias de la Educación de la Universidad Nacional de La Plata (Argentina), es que operar la cancelación mediante los discursos y las creencias genera “la eliminación del opuesto ─y desde allí profundizan una fractura social de lo inconciliable─ e inician dinámicas punitivas y de vigilancia”. Por tanto, aceptar la “proliferación de dispositivos para la cancelación” equivale a asumir el imperativo moral fundamental de la utopía de la positividad, orientada a la supresión de la contradicción, la disparidad y la alteridad.

Prueger insiste que aquellos dispositivos de cancelación ─pregonados desde los auges que caracterizaron al primer año pandémico─, expresados a través de contenidos en los medios sociales y a instancias del contagio digital y del juzgamiento moral intersubjetivo, configuran descargas controladas y redireccionadas de malestares cada vez mayores inherentes a nuestras sociedades neoliberales occidentales, alimentadas de fetichismos sociales y que, el cancelador cree, resuelven los problemas estructurales sociales al expulsar a sujetos concretos. De nuevo, la vuelta de esquina a la ley de Talión: “si tu mano te hace pecar, córtatela”.

En complemento, Prueger sintetiza tres oportunidades primordiales de espontáneas dinámicas de autorregulación para este tipo de violencia en la sociedad con gran protagonismo de las plataformas digitales: “un primer momento es el señalamiento de la falta de un agente hacia otro” (esta idea proviene del redactor de grist, David Roberts: ante la posibilidad que la acusación sea falsa, es inevitable referirse a la posverdad); un segundo momento son “la enunciación y la legitimación de un discurso ‘intersubjetivo’ que pregona la inadmisibilidad de determinada conducta”, siendo este una dinámica signada por el contagio digital y el juzgamiento moral; y la tercera instancia es la “denuncia, condena y linchamiento digital, lo cual configura el escenario final de la cancelación o muerte digital”. En cualquiera de los tres tiempos la autoconsciencia de los usuarios de medios sociales puede silenciar los mensajes al confrontar, desmentir y dejar de compartir esas etiquetas de los supervisores.

Algunas otras maneras de contrarrestar las consecuencias nocivas de la cultura de la cancelación, que seguirá imponiéndose como ahogo social, es mediante la educación sobre el principio de proporcionalidad entre la ofensa y el castigo.

De nuevo, el trabajo investigativo de Pipa Norris contribuye a responder el interrogante, ¿Se observan diferencias entre ideas de izquierda y de derecha en los académicos? Con base en la encuesta “The World of Political Science, 2019” ─que recopiló 1.245 respuestas de politólogos que estudiaban o trabajaban en 23 posgrados en sociedades industriales de Estados Unidos, Europa y Australasia─ se proporcionan comparaciones transnacionales que indican “Hay experiencias notablemente similares en una variedad de sociedades postindustriales, especialmente en las democracias angloamericanas, que comparten tradiciones históricas y sistemas de educación superior similares”.

Por lo tanto, el patrón estadounidense de quienes están en la derecha ideológica notifica las peores experiencias de la cultura de la cancelación siendo claramente reflejado también en Canadá, Australia, Reino Unido, Alemania, Italia, Países Bajos, Rusia y, en menor medida, Suecia. La excepción es Nigeria donde no hay diferencias significativas entre izquierda y derecha en los profesores universitarios.

Este índice de la cultura de cancelación en las democracias angloamericanas se creó combinando tres elementos ─libertad académica para enseñar e investigar, respeto al debate abierto desde diversas perspectivas y presiones para ser políticamente correcto─ subyacentes a la pregunta, “A menudo se piensa que la vida académica está en estado de cambio. Utilizando la escala (mejoró mucho, mejoró un poco, no hubo cambios, empeoró un poco, empeoró mucho) y basándose en su propia experiencia, indique si cree que la calidad de aquellos tres aspectos en la vida académica ha cambiado en los últimos cinco años”.

02 abril 2024

Marcos regulatorios y de seguridad para las Inteligencias Artificiales

Protocolos frente a la situación mundial de la práctica de la simulación computacional que se diferencia de la comprensión humana y se aparta de nuestros sistemas de valores y de necesidades

Iconografía del contenido
Haga click en imagen para ampliar

El filósofo John Searle, en la revista Behavioral and Brain Science (volumen 3, número 3), propuso en 1980 distinguir dos tipos de Inteligencia Artificial, las débiles y las fuertes. Siendo las primeras, “herramientas poderosas que nos permiten formular y poner a prueba hipótesis de manera más rigurosa y precisa que antes”; y, las segundas, “per se, explicaciones de la cognición humana”.

Esa genérica disertación le provino de los tiempos de Alan Turing, quien preguntaba: ¿son inteligentes las máquinas? pero la inquietud la extendió Searle con un ligero cambio, ¿puede pensar la simulación computacional hecha por el hombre? Su discusión particular, centrada en la Inteligencia Artificial fuerte, le habría surgido con el principio de Allen Newell y Herbert Simon, de la década de 1960, a saber: cualquier sistema que sea capaz de descifrar símbolos físicos de una manera correcta es capaz de inteligencia.

Debido al desarrollo de los sistemas operativos computaciones de aquellos años 1980, Searle agregó valor a sus dos fuentes esenciales ya que podía complementar con propiedad su concepto diferenciado. Por tanto, aquel argumento inicial de la IA fuerte aplicado a “un computador programado apropiadamente es realmente una mente, en el sentido que puede literalmente “comprender” y tener otros estados cognitivos” pero donde los programas no son meras herramientas. En relación con la IA débil, Searle la consideraba desde “el valor fundamental del computador en el estudio de la mente” como herramienta muy poderosa sin ninguna otra objeción. (Aclarando, la “comprensión” según Searle implica tanto la posesión de estados mentales intencionales como la validez y el éxito de esos estados.)

En otro enfoque, las IA presentan evolutivos modelos −simbólico y conexionista− que significan, en su orden: esquema prominente con base en el razonamiento lógico y la búsqueda que opera con representaciones abstractas del mundo real modeladas mediante lenguajes de la lógica matemática. En complemento, el modelo de conexión consiste en la modelización subordinada apoyada en la hipótesis que la inteligencia emerge a partir de la actividad distribuida en cantidades de unidades interconectadas que procesan información compatible en simultáneo. Para entender: en el nivel avanzado, el uso de lenguajes representativos creados de la realidad consolidan la toma de decisiones, y, el escalón inferior, pretende aproximarse a la abstracción matemática de la neurona que posee dendritas (entradas) y axiones (salidas) útiles para el aprendizaje, la cognición y la memoria. El enlace entre las unidades se ejecuta entre la salida de cada operación con la entrada de otra, lo que forma una red neuronal natural o artificial.

Todo el preámbulo anterior fundamenta lo que se tratará y se hablará: el contexto de la comprensión del lenguaje natural utilizado para programar correctas instrucciones en la computadora, en tanto máquina estúpida −que no logra generar inteligencia humana: comprender− y, la plausible asimilación como solo simulación informática que da respuesta a esas instrucciones. No obstante, como cualquier avance de creación humana para el progreso social, debe procurarse reglamentar con base en normas legales, morales y éticas con las que hemos sobresalido desde el estadio denominado Homo Erectus.

Las practicas anti-hacker

La protección a la seguridad que mitiga el hackeo a la IA generativa ha sido expuesto con demostraciones públicas a través de pruebas red-teaming, agrupadas en el evento anual “Def Con” en Las Vegas, entre el 10 y el 13 de agosto de 2023, con consentimiento de la Casa Blanca y de algunas empresas estadounidenses de IA.

Este examen a la piratería informática ha tenido por finalidad, en sus diez años, identificar las vulnerabilidades de los programas de computación con base en un máximo de 21 retos y 50 minutos de duración para cada competidor. Además, fascina a hackers sombrero blanco del mundo por la posibilidad de defender la primera ley de Isaac Asimov: “un robot no puede dañar a un ser humano ni permitir por inacción que sufra daño”.

Voces como la de Avijit Ghosh, investigador de políticas aplicadas en aprendizaje automático y sociedad de Hugging Face Inc., aquel concurso significa cotejo a varios modelos de IA que demuestren avance de desarrollo técnico para certificar su tecnología responsable y coherente. Para Arati Prabhakar, directora de la Oficina de Política Científica y Tecnológica de la Casa Blanca, “la era generativa, que irrumpe entre nosotros y la gente, se está aprovechando para hacer todo tipo de cosas nuevas que hablan de la enorme promesa de la IA para ayudarnos a resolver algunos de nuestros problemas más difíciles pero también trae un conjunto muy amplio de riesgos”.

La versión “Def Con” 2023 ha sido la más popular debido a que sus organizadores aprovecharon la creciente alarma por la capacidad de la IA generativa para producir mentiras perjudiciales, influir en elecciones, arruinar reputaciones, generar perjuicio a los humanos, etc. El diario New York Times reseñó algunos de esos desafíos ante el pretexto de ataque a los ChatGPT:

a) sesgo y discriminación (diálogo aparente entre un bot conversacional y Emily Choi-Greene, Ingeniera de seguridad y privacidad en Moveworks, una plataforma de IA generativa): la charla inició sobre un juego con fichas de color blanco y negro, luego Emily pidió generalizar las afirmaciones ocasionadas con temas racistas, posterior organizó el “juego de opuestos” y por último, requirió al chatbot, crear un poema que respondiera a la pregunta porqué es buena la violación. La conclusión humana al comprender el contexto del resultado es que la IA “solo piensa en las palabras como tales, no en su significado ni en su contexto real” [de allí la estupidez de lo artificial]. Así resultaría evidente la propuesta mental de Searle acerca de su ‘habitación china’ y, a la vez, se ratificaría la segunda ley robótica: “un robot debe cumplir las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley”.

b) desinformación y estereotipo (inexistencia de objetos): otro participante solicitó a un asistente virtual inteligente buscar y describir un falso lugar para vacaciones conocido con el nombre de un personaje real histórico y, como segundo desafío, pidió el requisito de la declaración de impuestos por internet según la enmienda constitucional 28 [la Constitución de Estados Unidos contiene solo 27 reformas]. El ayudante artificial demostró obediencia fiel al redactar aquellos objetos no existentes, lo que sublevó la tercera ley de Asimov: “un robot debe proteger su propia existencia en la medida en que no entre en conflicto con la Primera o la Segunda Ley”.

c) farsa de campaña electoral para presidente: un estudiante de posgrado pretendió defender el activismo político mediante el trabajo infantil forzado a lo que el modelo de IA respondió que los jóvenes trabajadores involuntarios proyectaban sólida ética laboral.

d) automatización masiva: en un traductor inteligente de idiomas se escribió en inglés que un hombre había sido abaleado mientras bailaba y la traslación al hindi, uno de los dos idiomas oficiales de India, afirmaba que el hombre había muerto.

Legislaciones estancadas

En relación con la regulación legal a los modelos de la IA, desde abril y diciembre de 2018, han habido antecedentes que contienen tanto la visión europea de apoyo con ética segura y vanguardista como el temor de los usuarios a que se limite el potencial y beneficio amplio de esta tecnología.

De modo que gestores de política pública y desarrolladores han venido coincidiendo en llevar a cabo el trabajo colaborativo −importante y urgente− entre gobiernos, empresas privadas, laboratorios, usuarios, para enfrentar los riesgos, combatir el uso indebido de los modelos desde actores no estatales potenciales peligrosos y promover mejores prácticas. El cuello de botella se genera en el cómo y en las limitaciones, según los encuentros posteriores en Ginebra y en Washington.

Los documentos “Inteligencia Artificial para Europa” y “Plan Coordinado sobre Inteligencia Artificial” de la Comisión Europea han sido arbitrados con base en tres pilares:

a) potenciar la capacidad tecnológica e industrial de la UE e impulsar la adopción de la IA en todos los ámbitos de la economía privada y pública;

b) fomentar la modernización de los sistemas de educación y formación frente a las transformaciones socio-económicas; y

c) garantizar el establecimiento de un marco ético y jurídico apropiado basado en los valores de la Unión Europea.

Cumbre global sobre seguridad

Luego de dos meses de las pruebas “Def Con” 2023 se realizó la primera Cumbre Global sobre Seguridad de la IA en Reino Unido, con base en seis paneles previos, para entender de modo urgente e internacional, cómo gestionar mejor los riesgos por los avances más recientes en la frontera de las IA.

La reunión se orientó hacia dos amenazas: uso indebido cuando un presunto delincuente recibe ayuda con nuevas capacidades de IA para ataques biológicos o cibernéticos, desarrollo de tecnologías peligrosas o interferencias críticas a los sistemas; y pérdida de control que podría surgir en sistemas avanzados sin tener alineación con nuestros sistemas humanos de valores y de intenciones. Estos enfoques se apoyan en el trabajo sobre riesgos y daños de la IA que adelantan la OCDE, el G-7 con el Proceso de Hiroshima sobre IA, la Asociación Global sobre IA y el Consejo de Europa.

Mientras se genera el protocolo de seguridad global, el portal web de la conferencia global reseña estos objetivos para la seguridad de las IA:

a) garantizar el desarrollo seguro de la IA que permita su uso para el bienestar mundial;

b) comprender de manera compartida sobre los riesgos que plantea la frontera de las IA y la necesidad de actuar;

c) acoger medidas apropiadas para que las organizaciones individuales extiendan la seguridad de la frontera de las IA;

d) colaborar con la investigación en seguridad de la IA, incluida la evaluación a las capacidades del modelo y el desarrollo de nuevos estándares, para respaldar la gobernanza;

e) avanzar, con base en un proceso de colaboración internacional, ante la seguridad de la frontera de las IA, incluida la mejor manera de apoyar a los marcos nacionales e internacionales.

Código Internacional de Conducta Organizacional

Con base en los Principios Rectores Internacionales para organizaciones que desarrollan tecnologías avanzadas IA, incluidos los modelos básicos y los sistemas de IA generativa, este código internacional de conducta del Proceso de Hiroshima del G-7 plantea como objetivo general promover una IA segura y confiable en todo el mundo. Alcanzar tal fin requiere de orientación voluntaria para ejecutar estas acciones:

a) tomar medidas apropiadas para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA, que incluye el desarrollo de sistemas avanzados, la implementación y la colocación en el mercado;

b) identificar y mitigar las vulnerabilidades, los incidentes y los patrones del uso indebido así como implementar controles de seguridad sólidos ante lo físico, la ciberseguridad y las salvaguardias contra amenazas internas;

c) informar públicamente acerca de las capacidades, limitaciones y dominios de uso apropiado e inapropiado de los sistemas avanzados de IA para ayudar a garantizar transparencia suficiente;

d) compartir responsablemente información, divulgar políticas de gestión de riesgos y gobernanza de la IA y reportar incidentes entre organizaciones que desarrollan sistemas avanzados de IA;

e) desarrollar e implementar mecanismos confiables de autenticación y procedencia de contenido, cuando sea técnicamente factible, como marcas de agua u otras técnicas, que permitan a los usuarios identificar contenido generado por IA.

Audiencia en el Capitolio de Estados Unidos

El 13 de septiembre de 2023, por iniciativa del Senador Demócrata Chuck Schumer, se realizó una audiencia a puerta cerrada en el Capitolio de Estados Unidos que ambicionaba sentar las bases del apoyo político bipartidista para la aprobación de la ley por el Congreso. En la cita, 60 senadores y más de 20 ejecutivos tecnológicos, activistas de derechos civiles y líderes sindicales, intercambiaron algunas propuestas como por ejemplo:

a) creación de una agencia gubernamental estadounidense con poder de auditoría global para ciertos sistemas de IA con el fin de determinar preventivamente el daño, antes de otorgarles licencia;

b) cerramiento de la brecha de acceso a internet de banda ancha que ahora impide a la comunidad hispana estar en la puerta principal de las infraestructuras de IA;

c) requerimiento para que los anuncios electorales realizados con IA, ya sean imágenes o sonidos, mantengan un aviso de precaución;

d) generación de responsabilidades a usuarios y a creadores de la tecnología;

e) necesidad de más trabajadores altamente calificados.

Desde el Parlamento Europeo

El Parlamento Europeo aprobó la Ley de Inteligencia Artificial que protege los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental a través del uso del modelo de IA fuerte de propósito general. Ya la Unión Europea, en primera instancia, la había discutido y generado enmiendas, con desagrado de Francia, Alemania e Italia por lo estricta. Ahora, en última instancia, será el Consejo de la Unión Europea el que la active como único marco común en los países del mundo.

La nueva ley adapta 14 elementos de compromiso como la lista de prácticas prohibidas de IA, los sistemas de categorización para la identificación biométrica y el reconocimiento de emociones, la evaluación del impacto sobre los derechos fundamentales individuales y la experimentación por fuera de los entornos limitados para las pruebas con sistemas de IA de alto riesgo en condiciones del mundo real, entre otros. Destacamos los primordiales para la seguridad y los riesgos humanos:

a) comercialización, puesta en servicio o uso de sistemas de IA que utilicen técnicas subliminales o procedimientos deliberadamente manipuladores o aprovechen las vulnerabilidades de personas o de grupos específicos debido a la edad, discapacidad, situación social o económica, con el efecto de distorsionar materialmente su comportamiento o hacer tomar decisiones erradas que causen daño significativo;

b) comercialización, puesta en servicio o utilización de sistemas de categorización biométrica que clasifiquen individualmente a personas físicas con base en inferencia o atributos y características sensibles o protegidas, extraídos con etiquetado o filtrado de datos y durante un tiempo determinado. Se exceptúan aquellos para ser usados con fines terapéuticos con base en un consentimiento informado específico y autorizado del paciente;

c) comercialización, puesta en servicio o uso de sistemas de IA para evaluar o clasificar, durante un período determinado, a personas físicas o a grupos atendiendo a su conducta social o a características conocidas de su personalidad y cuyo resultado provoque trato perjudicial por su raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, sexo u orientación sexual;

d) uso de sistemas de identificación biométrica remota y en tiempo real en espacios de acceso público. Se exceptúan aquellos que alcanzan tres objetivos: buscar víctimas de secuestro o desaparecidos, trata de personas y explotación sexual; prevenir amenaza inminente a la vida o a la seguridad física de las personas por previsible ataque terrorista; localizar o identificar sospechosos de haber cometido un delito penal para efectos de realizar la investigación, enjuiciar o ejecutar la sanción punible en el Estado miembro;

e) captura indiscriminada de imágenes faciales de internet o de grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento de rostros y de emociones en el lugar de trabajo y en las instituciones educativas o por razones médicas y de la actuación policial predictiva.

Resolución de la ONU

La Asamblea General de la ONU a finales de marzo pasado, sin votación pero con respaldo de más de 120 Estados miembros, adoptó una resolución liderada por Estados Unidos para la promoción de sistemas de IA seguros y fiables que beneficien el desarrollo sostenible para toda la humanidad. El texto reconoce por primera vez el potencial de los sistemas de IA para acelerar y permitir el progreso en procura de la consecución de los 17 Objetivos de Desarrollo Sostenible.

a) iguales derechos en línea y fuera de ella: solicitud para no utilizar sistemas de IA que no puedan funcionar según las normas internacionales de derechos humanos o que planteen riesgos indebidos para el disfrute de los mismos;

b) equidad y alfabetización digital: conminando a los Estados miembros y a las partes interesadas a cooperar y apoyar a los países en desarrollo para que se beneficien del acceso inclusivo y equitativo, cierren la brecha digital y aumenten la alfabetización digital;

c) gobernar la IA en lugar que nos gobierne: destacando oportunidades y responsabilidades de la comunidad internacional para crear y desplegar modelos de IA con la perspectiva de la humanidad y la dignidad, la seguridad y la protección, los derechos humanos y las libertades fundamentales.

La Complejidad Social

Por la preocupación expresada por Sam Altman, director ejecutivo de OpenAI, en un comité del Senado estadounidense sobre los modelos lingüísticos que pueden predecir la opinión pública e influir en el comportamiento de los votantes, me inquieta también este asunto: ¿es suficiente la regulación y la educación para atenuar la manipulación y la desinformación en conversaciones directas a través de sistemas y aplicaciones que incorporan modelos de IA?

Acudiendo a la teoría de la Complejidad Social, planteada por el sociólogo alemán Niklas Luhmann, existen tres condiciones −como método− para alcanzar máximas éticas donde opera la confianza, “en el más amplio sentido de la certidumbre del futuro frente a las expectativas personales”:

a) ubicarla en la naturaleza del mundo que es evidente por sí mismo pues “la confianza es una parte integral de los límites dentro de los cuales vivimos” y afianzarla con la naturaleza humana dado que “la ética es conjunto de principios personales inherentemente reversibles y de valor cuestionable”;

b) considerarla según la necesidad como “punto de partida correcto y apropiado con la que se derivan las reglas justas para una conducta”; y

c) “pensar y usar nuestra imaginación para representar las ansiedades de una existencia sin confianza”.

01 noviembre 2023

Vigilancia colombiana y protección de derechos fundamentales en comunicaciones digitales

Con base en los “13 Principios”, redactados por un grupo colaborativo de expertos en derechos humanos y derechos digitales de todo el mundo, se analizan la legislación y la jurisprudencia nacional en dos de ellos: Integridad en sistemas y Salvaguardas legales

Iconografía del contenido
Haga click sobre imagen para ampliar

Nota anticipada: Esta explicación se complementa con la colección quincenal Muexa, mi revista digital cultural publicada en la red LinkedIn

El sitio web organizacional necessaryandproportionate es un proyecto de Electronic Frontier Foundation en asociación con ONGs de Iberoamerica, donde se hospedan “13 Principios” relacionados con el trabajo de coalición internacional para la aplicación de los derechos humanos a la Vigilancia de las Comunicaciones Digitales. Por Colombia, se almacena el informe de 2016 “Vigilancia estatal de las comunicaciones y protección de los derechos fundamentales” −de los abogados Juan Camilo Rivera, colombiano, y Katitza Rodríguez, peruana−, que responde al problema, ¿Respeta la legislación colombiana los estándares internacionales sobre derechos humanos frente a las actividades de vigilancia?

Dicho reporte nacional se integra al programa regional Vigilancia y Derechos Humanos con el objetivo de defender la libertad de expresión y el derecho a la privacidad en el entorno digital. Por su parte, los “13 Principios” −lanzados oficialmente en el Consejo de Derechos Humanos de la ONU en Ginebra en septiembre de 2013− son marcos jurídicos aplicables para el acceso legal de los gobiernos a los datos personales, ya que esbozan la forma en que la actual legislación mundial de derechos humanos se aplica ante la vigilancia moderna de las comunicaciones digitales.

De modo tal que el análisis jurídico mundial de aplicar protección a los derechos fundamentales frente a la vigilancia de las comunicaciones “proporciona los antecedentes de apoyo a los 13 Principios” mientras que la exploración jurídica interamericana “explica cómo aplicar las normas regionales de derechos humanos en el contexto de la privacidad de las comunicaciones.” Esta asignación se manifiesta más que aprovechable para las Salas de Revisión de la Corte Constitucional de Colombia cuando deben estudiar los fallos judiciales y sentar jurisprudencia frente a las acciones de tutela relacionadas con aquel compendio.

Tema complejo y regulación rezagada

El desarrollo actual de la técnica proporciona cada vez mayores instrumentos para que los Estados vigilen las comunicaciones de las personas en simultánea, de modo invasivo, focalizado y a gran escala, señaló el Relator Especial de Naciones Unidas para la protección del derecho a la libertad de expresión y de opinión el 17 de abril de 2013 (Informe A/HRC/23/40). El riesgo de tal vigilancia extendida se plantea para distintos derechos fundamentales, reconocidos en las constituciones de los Estados parte y en tratados internacionales de derechos humanos.

Si se consideran tres términos (vigilancia, comunicación, información) al evaluar la intrusión de la vigilancia quedan en peligro los derechos a la intimidad, a la libre asociación, a la expresión y al acceso a la información, por ejemplo.

  1. “Vigilancia de las Comunicaciones” comprende las acciones de monitorear, interceptar, recoger, analizar, usar, preservar, guardar, interferir u obtener información que incluya o refleje las comunicaciones pasadas, presentes o futuras de una persona, se derive o surja de ellas. Aplicarla entonces a los derechos humanos como la intimidad personal −sin los Principios de: legalidad, necesidad, idoneidad, objetivo legítimo− significa que la información privada personalísima puede ser consultada sin autorización de su titular, lo que sería muy probable que hacen los medios sociales al recabar nuestros datos personales en cada viaje por el espacio informático y que luego venden sin consentimiento expreso al mercado global del capitalismo de vigilancia.
  2. Algo similar se manifiesta con “Información Protegida” que incluye toda la información que comprende, refleje, surja de o se refiera a las comunicaciones de una persona y que no está fácilmente disponible y accesible para el público en general. Al evitar los Principios de: proporcionalidad, debido proceso, transparencia, notificación al usuario, la vigilancia deja expuesto el derecho a la libertad de asociación ya que el plausible fisgoneo secreto e ilegal se extendería hacia la seguridad nacional.
  3. El concepto “Comunicaciones” acapara las actividades, interacciones y transacciones transmitidas por recursos electrónicos como contenido, identidad de las partes, identificadores de los equipos utilizados, rastreo de la ubicación (direcciones IP, momentos del enlace y duración de las comunicaciones). Los derechos a la libertad de expresión y al libre acceso a la información se mantienen en riesgo al ser vigilados en ausencia de otros Principios como Autoridad Judicial Competente y Control público, lo que puede llevar a la autocensura o a la represión, como ha ocurrido. La razón es que la información recolectada y almacenada mediante el acecho puede ser ocultada, usada para neutralizar el resentimiento emocional, coleccionada para futuros prontuarios, falseada por corrupción.

En sentido pragmático, el avance y las revelaciones de la vigilancia estatal a las comunicaciones digitales “han suscitado interrogantes acerca de hasta qué punto tales medidas son consistentes con los estándares jurídicos internacionales y sobre si se requieren salvaguardas más fuertes para proteger los derechos humanos”, manifestó la Alta Comisionada de las Naciones Unidas para los Derechos Humanos el 30 de junio de 2014 (Documento A/HRC/27/37). Colombia no ha sido excepción de esta tendencia como nos quieren hacer creer bajo el manto ideológico de la secreta seguridad al gobierno nacional. De forma subrepticia, delimitada en la cultura de lo encubierto, con el desvanecimiento de la regulación, se va desarrollando la vigilancia de las comunicaciones desde el poder y las autoridades del Estado colombiano, en todos los cuatro gobiernos de este milenio como se detalla a continuación.

Domésticos ejemplos de arbitrariedad

Para los antes citados abogados, Rivera y Rodríguez, “La legislación de Colombia en materia de vigilancia de las comunicaciones es dispersa e incompleta” pues está contenida en la Constitución; en múltiples leyes, decretos y reglamentos; en extensas disposiciones generales de tratados internacionales sobre derechos humanos que conforman el bloque de constitucionalidad nacional. Se suma además que la mayoría de la normativa es implementada con posterioridad a la aplicación de las técnicas y de las estrategias de vigilancia. Vale decir, verbigracia, que los servicios de inteligencia nacional se reglamentaron el 31 de octubre de 1953 mediante el Decreto 2872 (que crea el Departamento Administrativo denominado “Servicio de Inteligencia Colombiano”) requerido por el orden público turbado y en estado de sitio todo el territorio nacional desde el año 1949. Sin embargo, debieron pasar 59 años, cinco meses y 17 días para que se expidiera su Marco Jurídico que permite a los organismos de gobierno llevar a cabo actividades de inteligencia y contra-inteligencia (Ley Estatutaria 1621 de 2013).

Documentado por autoridades competentes, los servicios de inteligencia en Colombia durante el lustro 2003-2008, de manera sistemática y generalizada persiguieron y vigilaron periodistas, miembros de partidos de oposición, defensores de derechos humanos, magistrados de las Altas Cortes, personas en general consideradas enemigas de la política gubernamental “Seguridad Democrática”. Pretendían y lograron neutralizar las actividades y los informes acerca de las labores desarrolladas por las víctimas en el negado conflicto armado. La descripción publicada por el Alto Comisionado de Naciones Unidas para los Derechos Humanos del 4 de marzo de 2010 (Informe A/HRC/13/72) cuenta que incluso “un Relator Especial de Naciones Unidas y de esa Oficina en Colombia fueron también objeto de vigilancia.”

En febrero de 2014 y durante las negociaciones para el acuerdo de paz entre Gobierno Nacional y Fuerzas Armadas Revolucionarias de Colombia (FARC), el grupo Central de Inteligencia Técnica del Ejército Nacional realizó vigilancia de las comunicaciones a los negociadores quienes participaban en La Habana y filtraron información de inteligencia para propósitos electorales, desde la conocida sala de operación legal “Andrómeda”.

En agosto y septiembre del 2015, la ONG británica Privacy International publicó dos informes, “Demanda y Oferta: La industria de vigilancia al descubierto en Colombia” y “Un estado en la sombra: vigilancia y orden público en Colombia”, donde reveló que la Policía Nacional había adquirido nuevos equipos de vigilancia masiva e intrusiva. Para finales de ese año, algunos medios colombianos de periodismo evidenciaron también que ciertos periodistas vienen siendo objeto de vigilancia estatal de las comunicaciones e involucraron a la Policía Nacional como institución sospechosa.

Durante la sindemia Covid 19, el Ministerio de Salud Pública emitió en marzo de 2020 el “Plan de contingencia para responder ante la emergencia por COVID-19” en cuya Fase de preparación se auto valida, sin ley respectiva, para “evaluar la legislación y marcos normativos relacionados con todas las medidas de salud pública que se pudieran proponer durante la respuesta: aislamiento o cuarentena, restricciones a los viajes, cierre de instituciones educativas, prohibición de eventos masivos”, mediante el “establecimiento de constante comunicación con Cancillería y Migración Colombia frente a viajeros de zonas de riesgo y sistematización de la información de viajeros provenientes de países que han presentado casos con una periodicidad concertada.”

El 26 de agosto de 2020 la Comisión Económica para América Latina y el Caribe (CEPAL) publicó el informe especial 7, “Universalizar el acceso a las tecnologías digitales para enfrentar los efectos del COVID-19”, donde expuso los cambios de actividad en ocho sectores económicos de Colombia durante el primer y segundo trimestre de 2020 en función del tráfico de sitios web y uso de aplicaciones; las velocidades de descarga mediante banda ancha móvil y fija a junio del mismo año; las estrategias para la educación continua a distancia bajo modalidad de aprendizaje, entre otros indicadores del uso masivo y cartográfico para justificar mayor penetración doméstica de las tecnologías digitales.

Muy reciente aún, con base en el Comunicado de Prensa 327 emitido por la Fiscalía General de la Nación el 13 de junio de 2023, “el posible uso irregular del polígrafo al servicio de la Presidencia de la República [permitió] abrir dos líneas de investigación distintas para establecer si se configuraron los delitos de abuso de autoridad, peculado por uso … en uno de esos frentes investigativos fueron citados a interrogatorio el Capitán comandante jefe de la oficina de polígrafo, el Coronel jefe de la protección presidencial, un intendente y un poligrafista ... por la interceptación ilegal a las líneas celulares de la ex-niñera y de la ex-trabajadora en servicios domésticos de la ex-jefe de gabinete de la Presidencia, la Fiscalía indaga la posible configuración de los delitos de fraude procesal, falsedad en documento público y violación ilícita de comunicaciones.”

Tampoco hay tregua en las 717 revisiones por año a las acciones de tutela tipo T que efectúan los Magistrados miembros de las Salas de Revisión de la Corte Constitucional ya que se han “proferido desde el 1 de enero de 1992 hasta el 31 de enero de 2017 cerca de 17.940 de esa clase de sentencias”, según el artículo académico “Orden de condena de perjuicios en abstracto en la acción de tutela: subreglas en su inaplicación en la jurisprudencia de la Corte Constitucional” de los abogados Diego Armando Yáñez Meza, Liliana Damaris Pabón Giraldo y Jennifer Patricia Santos Ibarra.

Este resumido contexto sobre la consideración de la legislación colombiana en materia de vigilancia y protección a los derechos fundamentales mediante las comunicaciones digitales permite, en adelante, evaluar el estado de los restantes tres de los “13 Principios” al responder, ¿Respeta la legislación colombiana los estándares disponibles de vigilancia de las comunicaciones de las personas con el mayor nivel de protección?

Integridad de las comunicaciones y sistemas

Este Principio garantiza la honestidad, seguridad y privacidad de los sistemas de comunicaciones al comprometer la seguridad por motivos estatales. Por tanto, los Estados no deben obligar a los proveedores de servicios o a los de hardware o de software crear capacidad de vigilancia o supervisión en sus sistemas ni recopilar o retener información o datos particulares a priori, únicamente con fines de vigilancia de las comunicaciones del Estado.

No obstante, el artículo 4 “Intervención del Estado en el sector TIC” de la Ley 1341 de 2009 (que define Principios y Conceptos sobre la Sociedad de la Información y la organización de las Tecnologías de la Información y las Comunicaciones −TIC−, y crea la Agencia Nacional de Espectro) “Impone a los proveedores de redes y servicios de telecomunicaciones obligaciones de provisión de servicios y uso de su infraestructura, por razones de defensa nacional, atención y prevención de situaciones de emergencia y seguridad pública”.

Un derecho de las personas es expresarse de forma anónima por lo cual los Estados se deben abstener de exigir a terceros identificación de los usuarios, manifiesta el Relator Especial sobre la promoción y protección del derecho a la libertad de opinión y expresión el 16 de mayo de 2011 (Informe A/HRC/17/27).

Garantías contra el acceso ilegítimo y derecho a recurso efectivo

Mediante este Principio los Estados deben promulgar leyes que tipifiquen como delito la vigilancia ilegal de las comunicaciones por parte de actores públicos o privados. De esta manera se protegen a los denunciantes, se garantizan las vías de reparación para los afectados y se proporcionan a los delincuentes sanciones civiles y penales suficientes y significativas. En las leyes estatuidas por tanto se deberá establecer la protección a la privacidad de las comunicaciones personales mediante la destrucción o la devolución a los afectados del material obtenido para el propósito legal de vigilancia.

La legislación colombiana contempla un marco normativo sobre la interceptación a las comunicaciones privadas y crea un nuevo bien jurídico tutelado denominado “Protección de la información y de los datos”, que decreta como penal los atentados contra la confidencialidad, la integridad y la disponibilidad de los datos y de los sistemas informáticos mediante la Ley 1273 de 2009.

La Sentencia SU414 de 2017 de la Sala Plena de la Corte Constitucional estudia el desarrollo jurisprudencial del asunto indicando que la interceptación a las comunicaciones privadas es una herramienta legal investigativa cuya “práctica normalmente se encuentra en tensión con el derecho a la intimidad, prerrogativa protegida por múltiples garantías constitucionales e instrumentos de orden internacional.” Cita en cuanto el artículo 12 de la Declaración Universal de los Derechos Humanos el cual “Nadie será objeto de injerencias arbitrarias en su vida privada, su familia, su domicilio o su correspondencia, ni de ataques a su honra o a su reputación”; el artículo 15 de la Carta Política Nacional sobre derecho a su intimidad personal y familiar y a su buen nombre; la Ley 599 de 2000 que tipifica la interceptación a las comunicaciones como delito penal frente a la protección del bien jurídico a la intimidad; la Ley 600 de 2000 que regula la interceptación a las comunicaciones como facultad exclusiva de los funcionarios judiciales; la Ley 1142 de 2007 por la cual se adoptan medidas para la prevención y represión de la actividad delictiva de especial impacto para la convivencia y seguridad ciudadana; etc.

Sin embargo, el ya mencionado marco jurídico de actividades de inteligencia y contra-inteligencia no contempla un recurso de defensa de las personas quienes creen ser objeto de vigilancia a pesar que la Comisión Interamericana de Derechos Humanos había manifestado su preocupación al Estado colombiano cuatro años antes con el informe anual OEA/Ser.L/V/II, Capítulo IV.

Garantías para la cooperación internacional

Este Principio busca que los Tratados de Asistencia Legal Mutua (MLAT) y otros acuerdos celebrados por los Estados garanticen la aplicación del estándar disponible con el mayor nivel de protección para los derechos de las personas, cuando puedan aplicarse leyes de más de un Estado a la vigilancia de las comunicaciones. El motivo estriba en las dinámicas de los flujos de información y de las tecnologías y servicios de comunicaciones ya que los Estados pueden necesitar asistencia de proveedores de servicios y de Estados extranjeros.

Con base en este fundamento el bloque constitucional de Colombia está compuesto por algunas leyes que legalizan los MLAT, como por ejemplo: la Ley 804 de 2003 la cual aprueba el “Convenio Internacional para la Represión de los Atentados Terroristas Cometidos con Bombas”. Se trata de la Resolución A/RES/52/164 adoptada por Naciones Unidas el 15 de diciembre de 1997, que compromete a cada Estado integrante a adoptar medidas necesarias ante actos criminales sin justificación alguna cuando sean de índole ideológica, filosófica, política, racial, étnica, religiosa u otra similar. Tales prácticas en particular pueden contener la intención o el propósito de crear un estado de terror en la población en general, en un grupo de personas o en determinadas personas por lo que sus autores serán sancionados con penas acordes a su gravedad.

El acuerdo suscrito con Francia el 22 de julio de 2003 y publicado mediante el Decreto 318 de 2008, se aplica durante el intercambio de información sobre crimen transnacional. Dicha “Cooperación en Materia de Seguridad Interior”, según los abogados Rivera y Rodríguez, contempla reglas para el tratamiento de los datos nominativos que permiten la identificación de una persona en particular, que han de ser comunicados por un país al otro especificando fines y periodo de uso, a cuyo tiempo final deben ser destruidos. Esta reciprocidad de entrega de información personal se limita para acciones de: terrorismo, lavado de activos, falsificación de moneda, trata de personas y tráficos de estupefacientes, de armas, de bienes culturales e ilícitos contra la propiedad intelectual e industrial, y de recursos naturales.

Otro acuerdo en la línea anterior fue suscrito el 19 de julio de 2008 y promulgado a través de la Ley 1517 de 2012. La “Cooperación en materia de la defensa” entre los gobiernos de Colombia y de la República Federativa del Brasil tiene por objeto promover la cooperación con énfasis en las áreas de investigación, desarrollo, apoyo logístico, de industria aeronáutica, naval y terrestre; promover acciones conjuntas de entrenamiento e instrucción militar; realizar ejercicios militares combinados; utilizar equipo militar de origen nacional y extranjero; adquirir productos y servicios de defensa; compartir conocimientos y experiencias obtenidas en el campo de operaciones y en áreas de la ciencia y tecnología; cumplir con las operaciones internacionales de mantenimiento de paz; intercambiar información y cooperar en otras áreas en materia de defensa que puedan ser de interés común.

Una igualdad similar se firmó con la Oficina Europea de Policía el 17 de febrero de 2014. Es el “Agreement on Operational and Strategic Cooperation between Colombia and the European Police Office” para el intercambio de todo tipo de información sobre crimen internacional (tráfico de drogas, crímenes relacionados con materiales nucleares, inmigración ilegal, tráfico de personas, crímenes en vehículos motorizados, falsificación de moneda y lavado de dinero). El objetivo es mejorar la cooperación frente a la prevención, detección, represión e investigación de formas graves de delincuencia internacional mediante la alternancia de información estratégica e información técnica.

Uno adicional es el tratado sobre intercambio de material de inteligencia suscrito en Bruselas el 25 de junio de 2013 con la Organización del Tratado del Atlántico Norte. El acuerdo “Cooperación y Seguridad de Información”, promulgado a través de la Ley 1734 de 2014, establece que el Gobierno de Colombia acepta el compromiso de hacer que todos sus connacionales en desarrollo de sus funciones oficiales hayan sido investigados y aprobados en temas de seguridad antes de que obtengan acceso a dicha información y material. Estos procedimientos de seguridad estarán diseñados para determinar si una persona, teniendo en cuenta su lealtad y fiabilidad, puede tener acceso a información clasificada sin poner en riesgo su seguridad.

Como se expresó al iniciar la evaluación anterior acerca de la vigilancia colombiana y la protección de los derechos fundamentales en comunicaciones digitales, este tema complejo conserva su legislación rezagada, incompleta, dispersa, imprecisa, insuficiente ya porque el Legislador no está comprometido o debido a que el Ejecutivo no se ha ocupado de la tarea dejando en riesgo el reconocimiento y el respeto de los derechos humanos.

10 abril 2023

Marco para una IA fiable

Un grupo de 52 expertos de alto nivel de la Comisión Europea ha interactuado con base en el compromiso regional de «Unida en la diversidad» para definir la fiabilidad de los sistemas de Inteligencia Artificial (IA) centrados en las personas, maximizando los beneficios y minimizando sus riesgos

“… la definición es una relación entre el sistema y el entorno”. Niklas Luhmann

Iconografia del contenido
Haga click para ampliar imagen

Agentes protagonistas de trabajos de desarrollo para el entorno de la informática se están preocupando por el descontrol de las máquinas que deciden por los humanos y generan posibilidades de amenazas. El fundamental asunto que se expone es si con la Inteligencia Artificial (IA) hay futuro humano para disfrutar de modo floreciente.

Cerca de 1.750 desarrolladores informáticos del mundo han estado firmando una carta abierta, hospedada en el sitio Web del Future of Life Institute, con la cual hacen un “llamado a todos los laboratorios de IA para que todos los actores clave pausen inmediatamente, de modo público y verificable, durante al menos 6 meses, el entrenamiento más potente de estos sistemas GPT-4” (un modelo de lenguaje lanzado en marzo 14 de 2023, creado por OpenAI y disponible para los usuarios del ChatGPT Plus).

Bill Gates también se ha sumado pero con un extenso ensayo personal “The age of AI has begun”, hospedado en su blog de notas el anterior marzo 21, donde apunta que “las IA dan respuestas incorrectas a problemas matemáticos porque tienen dificultades con el razonamiento abstracto”. Por supuesto, la máquina digital puede llegar a ser inteligente pero en esencia es estúpida ya que no contextualiza ni reflexiona sobre las consecuencias de las consecuencias de los actos.

Aprovecha el escrito para ampliar el inventario de conflictos clave hacia la mejora de la educación −al menos en Estados Unidos− que ahora genera inequidad, el cambo climático que puede ser más equitativo y la amenaza que representan los humanos armados con IA. Gates incluye al sector educación y al clima habida cuenta porque se han considerado 3 oportunidades que ofrece la IA fiable: educación de calidad y transformación digital; acción por el clima e infraestructura sostenible; salud y bienestar.

Los desarrolladores informáticos del mundo cuestionan que los “sistemas contemporáneos de IA se están volviendo competitivos para los humanos en tareas generales” y preguntan, en consecuencia: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en cantidad, al ser más inteligentes, remotas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? La serie de inquietudes oscila de lo abstracto a lo concreto del fundamento, realización y evaluación de la IA fiable.

El argumento del pedido a la pausa del trabajo estriba en que se deben “desarrollar e implementar conjuntamente protocolos de seguridad compartidos para el diseño y el desarrollo avanzado de IA, que sean rigurosamente auditados y supervisados por expertos externos independientes”. De manera que “La investigación y el desarrollo de IA se deben reenfocar en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.”

Proponen en la carta abierta que los desarrolladores de IA deben trabajar en simultánea con los “legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza a la IA”. Y enumeran algunos mínimos como: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisores y rastreadores de sistemas de IA con grandes conjuntos de alta capacidad computacional; sistemas de procedencia y de marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; ecosistema sólido de auditoría y certificación; responsabilidad por daños causados por IA; financiación pública sólida para la investigación técnica de seguridad de la IA e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA.

En su rol de filántropo, el magnate Gates tampoco se queda a espaldas y propone tres principios que deben guiar la conversación: tratar de equilibrar los temores sobre las desventajas de la IA por su capacidad de mejorar la vida de las personas; garantizar que las IA se utilicen para reducir la inequidad mediante la financiación confiable y con políticas, gobiernos y filantropía correctas; y, tener en cuenta que solo estamos al comienzo de lo que la IA puede lograr.

Avanzar en los protocolos

La confianza sigue siendo el principal cimiento por el cual se asientan las sociedades, comunidades, economías y el desarrollo sostenible. Es por ello que en abril 25 de 2018 la Comisión Europea definió su COM(2018)237 y en diciembre 7 de 2018 corrigió y amplió su COM(2018)795, luego de recibir observaciones a través del proceso de consulta pública. Este ejemplo fácilmente se puede continuar para la elaboración de políticas públicas, siempre y cuando exista voluntad de quienes componen un gobierno.

Los dos documentos citados contienen la visión europea acerca de la Inteligencia Artificial para apoyarla con una ética, segura y vanguardista «made in Europe». Dicha visión se respalda en tres pilares:

a) incremento de las inversiones públicas y privadas en IA para impulsar su adopción, 

b) preparación para los cambios socio-económicos, y 

c) garantía de un marco ético y legal adecuado para fortalecer los valores europeos. 

Sin embargo, la pregunta clave es ¿cómo se alcanza la fiabilidad en un sistema tecnológico y su desarrollo, pero en especial en las aplicaciones? 

Para el grupo de los expertos europeos convocados hace 5 años, “La IA no es un fin en sí mismo, sino un prometedor medio para favorecer la prosperidad humana y, de ese modo, mejorar el bienestar individual y social y el bien común, además de traer consigo progreso e innovación”. Sin embargo, existen 4 preocupaciones fundamentales que plantea la IA como medio prometedor de beneficio: identificación y seguimiento a personas; sistemas encubiertos; evaluación de ciudadanos vulnerando sus derechos fundamentales y armas letales autónomas. 

La clave para “desarrollar e implementar protocolos conjuntos de seguridad compartidos” está ligada a que “los beneficios de esa tecnología IA estén acordes con los valores europeos fundacionales: respeto de los derechos humanos, democracia y estado de Derecho.” 

Nosotros los destinatarios 

Las directrices éticas de la Comisión Europea se centran en las personas y en las sociedades, precursores merecedores de una IA lícita, ética y robusta al utilizar los sistemas de la IA fiable. Todos nosotros, entonces, podemos optar voluntariamente por usar las directrices como método práctico de cada compromiso individual, considerando la lista de chequeo a la evaluación y la estructura de gobernanza en el rol de consumidores de información digital. 

Enumero algunas preguntas para la gestión de la privacidad y de los datos personales, acción prominente del usuario del entorno informático digital. El marco europeo invita a ponerlo en práctica, en modo piloto. ¿Ha tomado medidas para mejorar su privacidad, por ejemplo a través de procesos como el encriptado, la anonimización y la agregación? ¿Se ha pronunciado con consentimiento válido y posibilidad de revocar el uso de sus datos personales, cuando proceda? ¿Ha instaurado procesos para garantizar la calidad y la integridad de sus datos? ¿Cómo está verificando que los conjuntos de sus datos no son vulnerados ni son objeto de ataques? ¿Ha evaluado quién puede acceder a sus datos de usuario y en qué circunstancias? ¿Se ha asegurado que esas personas poseen la cualificación para acceder a sus datos y que cuentan con competencias necesarias para comprender los detalles de la política de protección de datos? ¿Se ha asegurado que exista un mecanismo de supervisión que permita registrar cuándo, dónde, cómo y quién accede a sus datos, y con qué propósitos? 

Además, la lista de destinatarios de la Comisión Europea involucra a empresas, organizaciones, investigadores, servicios públicos, agencias gubernamentales, instituciones, organizaciones de la sociedad civil, particulares, trabajadores y consumidores. Por tanto las preguntas se amplían a cada rol del repertorio. 

De otro lado, el conjunto de agentes que contribuye a entregar desarrollo y despliegue de los sistemas de la IA fiable estará conformado por “las cualidades de los sistemas socio-técnicos, que abarcan: personas, agentes estatales, corporaciones, infraestructura, programas informáticos, protocolos, normas, gobernanza, leyes existentes, mecanismos de supervisión, estructuras de incentivos, procedimientos de auditoría, informes sobre buenas prácticas, etc.” 

Finalmente, la Comisión Europea define la IA lícita como el operar con base en normas jurídicamente vinculantes a escala europea, nacional e internacional por cuanto establecen obligaciones que significan lo que no se puede hacer y lo que se debe hacer; IA ética que implica garantizar que se cumplan las normas éticas; y IA robusta mediante sistemas que deben funcionar de manera segura y fiable en lo técnico y en lo social, previendo medidas de protección para evitar cualquier efecto adverso imprevisto. 

Desde la teoría de la complejidad social planteada por el sociólogo alemán Niklas Luhmann se deben dar 3 condiciones para que opere la confianza, “en el más amplio sentido de la fe en las expectativas de uno”: i) sentar la confianza en la naturaleza del mundo, que es evidente por sí misma, y en la naturaleza humana. De modo que “la confianza es una parte integral de los límites dentro de los cuales vivimos”; ii) “el punto de partida correcto y apropiado para la derivación de reglas para la conducta apropiada” consideraría la necesidad de confianza. Con este método se llega a las máximas éticas, entendidas como “principios que son inherentemente reversibles y de valor cuestionable”; y iii) “pensar y usar nuestra imaginación para representar las ansiedades de una existencia sin confianza”. Habida cuenta, el análisis funcional no consiste en establecer las conexiones entre datos establecidos o conocimiento confiable a través del cual se obtiene conocimiento adicional, en consecuencia. 

Siguiendo con el hilo de la teoría de Luhmann, la confianza es personal dado que “no se puede confiar en el caos, ya que si nada se conecta con nada o todo con todo, es imposible construir generalizaciones”. Por tanto, es mediante la libertad de acción que poseemos los seres humanos −como sistema de tipo especial− que surge en el mundo el aumento de la complejidad y donde se centra la confianza, que se extiende a otro ser humano antes que nada. 

Para el sociólogo alemán, entonces, “la confianza es la expectativa generalizada que el otro manejará su libertad para la acción diversa, manteniendo su personalidad que ha mostrado y hecho socialmente visible”. Aún así, toda forma perceptible de comportamiento es comunicación que requiere algún tipo de salvaguarda. 

Por su parte, el lingüista norteamericano, Noam Chomsky, en entrevista con el blog Tehran Times respondía en marzo 24 pasado que “ la distinción fundamental entre lenguaje y mente sigue siendo un tema de debate filosófico … Y, si bien las máquinas pueden volverse más hábiles en el procesamiento del lenguaje, su diseño revela que es un plagio de alta tecnología en esencia”.