03 diciembre 2024

Monitoreo regional a los residuos electrónicos en 13 países

Movimientos transfronterizos de desechos de equipos eléctricos o electrónicos, según los resultados del Proyecto para el fortalecimiento de las iniciativas nacionales y mejora de la cooperación regional ante el manejo ambientalmente racional

Iconografía del contenido
Haga click en imagen para ampliar

El proyecto para el fortalecimiento de las iniciativas nacionales se centró en el proceso de validación de la legislación y de las estadísticas en los países americanos de los Andes, del Sur y del Caribe. Fue financiado por el Fondo para el Medio Ambiente Mundial (FMAM) y coordinado por la Organización de Naciones Unidas para el Desarrollo Industrial (ONUDI).

Aun cuando los 13 países estudiados en la región poseen marcos legales y normativos desarrollados para la gestión de residuos, la mayoría de ellos carece de legislaciones específicas en materia de residuos electrónicos y de sistemas de responsabilidad extendida del productor. Tal compromiso es definido como un grado de obligatoriedad por todos los impactos ambientales de sus productos a lo largo del ciclo de vida de desarrollo.

Ante la visión de las estadísticas regionales acerca de los aparatos eléctricos y electrónicos (AEE) puestos en el mercado (POM), el informe sostiene que han fluctuado pero no así los residuos de los aparatos, durante el periodo 2010 a 2019.

Se destaca del “Monitoreo mundial de los residuos electrónicos 2020: Cantidades, flujos y potencial de la economía circular” la exclusión de la actividad de la empresa colombiana “Computadores para Educar” relacionada con la “retoma y demanufactura de computadores obsoletos para aprovechar sus componentes en procesos pedagógicos para el aprendizaje”.

El siguiente cuadro de cifras permite deducir los serios retos de la región para convertir los AEE-POM en residuos de aparatos eléctricos y electrónicos (RAEE) reciclables, conforme el Convenio de Basilea.

El total de AEE-POM regional detalla este comportamiento: de 1.7 toneladas métricas (Mt) en 2010 se ascendió a 1.9 Mt en 2017 pero en 2019, al disminuir las importaciones, los AEE se redujeron a 1.7 Mt.  La caída en compras importadas obedeció a las crisis económicas nacionales en los 13 países  analizados. De otro lado, la generación de RAEE en la región aumentó en 49%, al pasar de 0.9 Mt (4.7 kg/hab.) en 2010 a 1.3 Mt (6.5 kg/hab.) en 2019.

En términos demográficos, los 13 países en conjunto, en 2019, tenían 206 millones de habitantes. Argentina el más poblado (45 millones), seguido de Perú (32,5 millones) y Venezuela (28 millones). Entre 2010 y 2019 ─periodo del monitoreo─ la tasa de crecimiento de la población fue en promedio 10%. El de mayor tasa en este período fue Guatemala (20%), seguida de Honduras (17%), Bolivia, Panamá y Ecuador (15% cada uno). El de menor tasa de crecimiento poblacional fue Uruguay (4%).

Más de 5 millones de personas emigraron debido a las crisis económica y política a niveles nacionales, de los cuales cerca del 80% residen en otros países de América Latina.

La diferencia de poder económico por habitante es amplia en los países estudiados y casi toda la población tiene acceso a internet y a electricidad, a excepción del 68% de Nicaragua. Entre 1% y 4% de la población de Venezuela, Costa Rica, Ecuador, Nicaragua, El Salvador, Panamá y Perú se encuentra por debajo del umbral de la pobreza (1,90 dólares al día), mientras que 9% de Guatemala y 16% de Honduras viven por debajo de ese umbral.

Los 13 países de América Latina participantes en el estudio han ratificado el Convenio de Basilea ─incluido Colombia mediante la ley 253 de 1996─ y han promulgado prohibiciones nacionales sobre las importaciones de residuos electrónicos pero todavía no hay aplicación de medidas importantes.

Problema internacional

El informe del monitoreo destacó, que a nivel mundial, sólo 17% se recoge y recicla oficialmente, lo que supone un desperdicio de materiales valiosos. En 2019, se generó la cifra récord de 53,7 millones de Mt de residuos electrónicos, un incremento del 21% desde 2014.

Los aparatos eléctricos y electrónicos (AEE) ─computadoras portátiles, teléfonos celulares, refrigeradores, lavadoras, lavaplatos, aparatos de cocina, juguetes, servidores e instrumentos musicales─ cuando son desechados por su propietario, sin intención de reutilización, se convierten en residuos de aparatos eléctricos y electrónicos (RAEE). Y este ciclo de uso, normal y cotidiano, esconde la verdadera cuestión de los materiales valiosos y peligrosos. Es decir, los AEE contienen productos y piezas que funcionan con una fuente de alimentación eléctrica o una batería y al desecharlos son fuertes contaminantes del ambiente y de la salud.

La mayoría de los RAEE sin reciclaje se eliminan en vertederos, que mezclados con otros flujos de residuos orgánicos, matan de manera racional el ecosistema ambiental y generan riesgo para la salud de todas las especies vivas. El desafío por los residuos electrónicos sigue siendo mundial ya por el aumento de compra de aparatos, ya por el tratamiento inadecuado al botarlos, ya por la poca prevención global de reciclaje, etc. Por tanto, se requieren compromisos activos desde un conjunto diverso de actores que trascienda las fronteras nacionales.

Líneas adicionales agravan el asunto debido al aumento del desarrollo general de las sociedades y la rápida transformación de la tecnología de información y comunicación. Además, los AEE se están extendiendo al instante en sectores emergentes como transporte eléctrico, producción de energía limpia y ciudades inteligentes, que apoyan sus servicios en sensores de fuentes eléctricas.

Una acción es objetivo de seguimiento en los Objetivos de Desarrollo Sostenible (ODS) de Naciones Unidas sobre consumo y producción sostenibles pero aún falta más por ejecutar. Para 2023 la Agenda Conectar de la Unión Internacional de Telecomunicaciones (UIT) estableció dos finalidades: aumentos hasta 30% de la tasa de reciclaje de RAEE a nivel mundial e incrementos del número de países con legislación sobre residuos electrónicos para que llegue hasta 50%. Propósito frustrado de operaciones.

El problema internacional lo complementa la contaminación de los orgánicos persistentes (COP) ─por ejemplo, los plaguicidas─ producidos intencionadamente o liberados involuntariamente a partir de procesos de combustión o reacción incompletos. Aquellos se encuentran en muchas partes: en nuestros alimentos, en el suelo, en el aire, en el agua, generando efectos adversos como cáncer, alergias e hipersensibilidad, daños en el sistema nervioso central y periférico, trastornos reproductivos y alteraciones del sistema inmunitario.

Tales peligros se deben a cuatro de sus características: a) son tóxicos; b) son persistentes porque resisten los procesos normales de  descomposición; c) se acumulan en la grasa corporal de todas las especies vivas y se transmiten de la madre al feto; y d) pueden recorrer grandes distancias con las corrientes de viento y las de agua.

Los 13 países incluidos en el monitor regional han culminado la ratificación, aceptación, aprobación o adhesión al convenio de Estocolmo sobre COP. Ahora, cada país tendrá que elaborar un marco político para la gestión eficaz de los COP, según estipula el Plan Nacional de Implementación para, por lo menos, 28 compuestos o grupos de compuestos incluidos en la lista de contaminantes orgánicos persistentes del convenio.

Movimientos transfronterizos de los RAEE

El Convenio de Basilea 2019 sobre control de los movimientos transfronterizos de los desechos peligrosos y su eliminación es el único tratado mundial sobre residuos peligrosos que incluyen a los residuos electrónicos. Este protocolo de responsabilidad e indemnización por daños resultantes de los movimientos transfronterizos de desechos peligrosos define la "peligrosidad" de los residuos sobre la base de las sustancias presentes en los materiales de desperdicio y los clasifica como peligrosos o no peligrosos, en función de sus propiedades químicas. Por ejemplo, Guatemala menciona específicamente las mezclas químicas y el amianto.

El Salvador, Costa Rica, Guatemala, Honduras, Nicaragua y Panamá son partes del acuerdo centro regional sobre movimiento transfronterizo de desechos peligrosos, firmado el 11 de diciembre de 1992, cuyo objetivo es controlar el movimiento entre fronteras de los residuos peligrosos y prevenir el tráfico ilegal y la eliminación de tales desechos en Centroamérica. También se establece la prohibición de importar cualquier tipo de residuos peligrosos desde fuera de la región. Los demás siete países de América Latina prohíben la importación de desechos peligrosos en sus territorios pero no tienen restricciones específicas de exportación de residuos electrónicos, a no ser que se destinen a su reciclaje y de conformidad con el Convenio de Basilea.

En consecuencia, aplicar las medidas de Basilea sigue siendo un adicional reto importante para los 13 países de la región de Latinoamerica. Muchos países no presentan informes a Basilea sobre los movimientos transfronterizos, tampoco registran datos oficiales de importación y exportación de residuos electrónicos, entre 2016 y 2019, como por ejemplo Bolivia, Chile, Ecuador y Panamá.

Aunque hay pruebas de importación y de exportación de AEE usados en la región, no hay estadísticas oficiales en ninguno de los 13 países estudiados. Tampoco restringen la exportación de residuos peligrosos y de otros residuos para su eliminación final o recuperación, Honduras, como excepción, restringe el tránsito de residuos incluidos los peligrosos pero los operadores de residuos electrónicos exportan partes valiosas ─tarjetas de circuitos impresos, verbigracia─ a Panamá, México, Canadá y Estados Unidos sin notificar a Basilea.

Un resumen de los resultados del análisis de los movimientos transfronterizos de residuos electrónicos en los 13 países de América Latina muestra que:

- ningún país analizado informó de casos de importación de COP y de residuos electrónicos, ni los ha declarado a Basilea;
- ninguna de las legislaciones permite la importación de desechos peligrosos para su recuperación, eliminación final u otro fin;
- cuatro (Bolivia, Chile, Ecuador y Panamá) no han proporcionado informes anuales sobre estos artículos según el Convenio para los años 2018 y 2019;
- nueve (Argentina, Costa Rica, El Salvador, Guatemala, Honduras, Nicaragua, Perú, Uruguay y Venezuela) informaron a Basilea estadísticas de movimientos transfronterizos;
- seis (Argentina, Costa Rica, El Salvador, Nicaragua, Perú y Venezuela) exportan residuos electrónicos a varios destinos para su tratamiento y recuperación de materiales;
- Chile almacena pantallas CRT, conectores y condensadores hasta que alcanzan un volumen suficiente para exportarlos a recicladores en Bélgica;
- Nicaragua exportó alrededor de 60 toneladas de residuos electrónicos procedentes de hogares y empresas para su gestión ambientalmente racional;
- Ecuador prohíbe específicamente la importación de COP y otros productos agroquímicos prohibidos internacionalmente.

Según informes presentados por los países a  Basilea, se estima que 7.4 toneladas de residuos electrónicos son exportados pero la carencia de notificación, la mala calidad de los datos y el pésimo control de los movimientos transfronterizos de aquellos representan una amenaza para la gestión ambientalmente racional de los residuos electrónicos y los movimientos ilegales.

Recomendaciones

El estudio determina cinco principales razones de las bajas tasas de recolección de residuos considerando que: más del 97% de los electrónicos generados en los países analizados no se recogen ni se envían a instalaciones específicas para la adecuada gestión ambientalmente racional; que la mayor parte de los residuos electrónicos acaban en vertederos o son gestionados por el sector informal; y que los plásticos que contienen COP y retardantes de llama bromados (BFR) se eliminan en vertederos, también.

1) Aumento de los volúmenes de residuos electrónicos. La generación de residuos electrónicos en los países monitoreados creció 49% entre 2010 y 2019, una tasa de crecimiento más rápida que el promedio mundial de 12%. También creció la generación de plásticos BFR ─mezclas de productos químicos artificiales añadidos para hacer menos inflamables a una amplia variedad de productos industriales, textiles y equipos eléctricos o electrónicos─ de 0,02 Mt en 2010 a 0,03 Mt en 2019, lo que representa un crecimiento del 47%. Mientras la tasa de recolección de residuos electrónicos fue 2,7% en 2019.

Si estas tasas de recolección no mejoran sustancialmente, la cantidad absoluta de RAEE y de plásticos BFR en los residuos electrónicos no gestionados seguirá aumentando. Por lo tanto, se recomienda recoger más mediante el establecimiento de una cantidad adecuada de puntos de recogida de fácil acceso, correlacionados con la densidad territorial, y acompañada de mayor sensibilización entre los usuarios finales.

De aumentar las tasas de recolección de RAEE en todos los países de la región, al igual que en el resto del mundo, se tendría una mejora indudable. Se puede lograr mediante la entrega obligatoria de residuos electrónicos a instalaciones autorizadas para evitar la inseguridad que roba las partes valiosas. Dicha recogida debe ser cuantificable, por lo que se debe optimizar la recepción de estadísticas anuales sobre AEE-POM en un formato comparable para facilitar la evaluación del rendimiento del sistema y la de los flujos no gestionados cada cinco años. Esta estrategia sería una obligación de información para todos los actores que recogen residuos eléctricos y electrónicos.

2) Ausencia de una legislación específica. Siete países la carecen por lo que se hace imposible implementar y aplicar objetivos de recogida para su gestión ambientalmente racional. Otros cinco países cuentan con prerrequisitos básicos para la gestión de los residuos electrónicos, que incluyen legislación, iniciativas de responsabilidad extendida del productor, mecanismos de recogida para algunos productos e infraestructuras de reciclaje. Algunos otros no evalúan las leyes necesarias secundarias de aplicación a la normativa sobre responsabilidad extendida del productor, por lo que no establecen objetivos de recogida aplicables. Otros países aplican dichas leyes solo a algunos productos.

Tal ausencia de legislación específica para la gestión de los residuos electrónicos implica invariablemente que la mayor parte de los plásticos BFR sean gestionados por el sector informal y que la mayoría de los residuos electrónicos acaben en vertederos o sean quemados al aire libre. Aunque todos los países de América Latina cuentan con legislación para la gestión de los COP, su aplicación es poco rigurosa y las instalaciones para su tratamiento son inexistentes.

Las recomendaciones de prevenir más y tratar mejor con menos contaminación son modos que conforman la jerarquía de los residuos. La primera se ejecutaría mediante la Directiva marco europea 2008/98/CE sobre la gestión de los residuos que establece con claridad que la prevención y la reutilización de residuos deben constituir la primera prioridad de la gestión de residuos.

Actualmente, la mayoría de los grupos industriales y las políticas públicas se centran en el reciclaje y la eliminación segura de los residuos electrónicos más que en la reutilización de los AEE. Aun así, patrones de producción y consumo siguen fascinando a compradores por la modernidad de los AEE, los bajos precios de las nuevas tecnologías y los nuevos modelos e innovaciones que frecuentemente los productores lanzan al mercado. Estas dos acciones son comprensibles pero también están alimentando la creciente montaña de residuos electrónicos.

El mundo aplica el principio “el mejor residuo electrónico es el que no existe” por tanto la recomendación tratar mejor y contaminar menos es un plan para aplicar y hacer cumplir los prerrequisitos para una gestión ambientalmente racional de los residuos electrónicos y los COP. Sin embargo, se necesitan sistemas de financiación gubernamentales y privados para costear una gestión adecuada de los residuos electrónicos e involucrar a los actores del sector informal mediante incentivos para la recogida y entrega a instalaciones autorizadas.

3) Limitaciones de la infraestructura. A excepción de Argentina, Chile, Costa Rica, Ecuador, Panamá, Perú y Venezuela ningún otro país en la región dispone de instalaciones para el tratamiento de residuos electrónicos especializados para algunas categorías y/o determinados productos, lo que genera un sector informal muy fuerte.

Los COP en los plásticos de los residuos electrónicos se eliminan principalmente en vertederos pues ningún país dispone de instalaciones de tratamiento para su gestión, excepto Argentina. Allí existe un operador que trata y exporta productos con aislante o refrigerante de transformadores y equipos eléctricos, que por lo general contienen bifenilos policlorados (PCB) con contenidos de plaguicidas, residuos electrónicos, etc.

Costa Rica y El Salvador cuentan con plantas de cemento autorizadas para el coprocesamiento de plástico de residuos electrónicos, en particular las partes con BFR. Por consiguiente, la gestión de los residuos electrónicos queda principalmente en manos del sector informal.

La recomendación se apoya en la acción de formar más o sea entender y gestionar este complejo flujo de residuos. Cuantas más capacitaciones reciban los representantes de América Latina, mayor acceso tendrán a modelos adaptados a sus necesidades específicas para desarrollar sus propios sistemas, además de construir una red global de egresados como importante recurso de referencia.

Las Academias de Residuos Electrónicos (EWA) ─desarrolladas con base en el programa Ciclos Sustentables (SCYCLE) del Instituto de Naciones Unidas para Formación Profesional e Investigaciones (UNITAR)─ proporcionan formación a la medida y destinada a diferentes grupos interesados. Un fuerte énfasis en la diversidad de estas capacitaciones ayuda a los profesionales a informarse y a aprender en colaboración interdisciplinar.

4) Competencia entre los sectores formal e informal por los componentes valiosos de los residuos electrónicos. El tratamiento y reciclaje ilegal de los residuos electrónicos consiste en una beneficiosa actividad económica ligada a costos operativos bajos, en comparación con los procesadores oficiales. Los operadores formales, por el contrario, se encuentran en mayor desventaja económica debido a la necesidad de cumplir con una serie de procedimientos burocráticos relacionados con la legalidad de sus operaciones y por las inversiones financieras necesarias.

Otro obstáculo de la desequilibrada competencia en muchos países de la región proviene de la inexistencia de un marco legal o regulatorio que determine el desarrollo y el fomento de los operadores formales. En consecuencia, el sector informal parece que prospera más al recibir con más eficiencia, puerta a puerta, muchos materiales para reciclar los residuos electrónicos.

Pagar adecuadamente mediante acciones que integren a la cadena a los actores del sector informal es la recomendación adecuada. De esta forma los países de América Latina podrían beneficiarse de la integración entre los sectores informal y formal para los residuos electrónicos. Es un enfoque de pago justo y responsabilidad del sector informal iniciado en el pre-procesamiento: la separación en origen, la recogida y el desmantelamiento de las fracciones no peligrosas de los residuos electrónicos.

El procesamiento final, como complemento, ─reciclaje, eliminación, algunas operaciones relacionadas con pre-procesamiento de componentes peligrosos y la recuperación de piezas complejas pero valiosas─ quedaría en manos del sector formal. Enlazados, el laborioso desmantelamiento manual a nivel local podría llevarse a cabo más eficiente desde el punto de vista ambiental y económico, proporcionando oportunidades de empleo a través de inversiones de baja tecnología.

Los países de América Latina podrían permitir así el envío de los materiales de recuperación a instalaciones de procesamiento final expertas en la región o a cualquier otro lugar, donde la eliminación de la toxicidad y la recuperación general de los materiales valiosos sea más eficiente y avanzada. Este enfoque de “lo mejor de ambos mundos” resulta atractivo para los países en términos de tecnología e infraestructura de economías de escala.

5) Recopilación de datos sobre los COP contenidos en plásticos de los residuos electrónicos. En la mayoría de los países estudiados se ha empezado a recopilar información estadística sobre residuos electrónicos y COP contenidos en plásticos de los residuos electrónicos. Sin embargo, uno de los principales retos observados es el desconocimiento de las tasas de recolección.

Para el informe de Monitoreo, El Salvador, Panamá, Nicaragua y Guatemala estaban iniciando el proceso de cuantificación de los plásticos de residuos electrónicos y de COP procedentes de la recogida y procesamiento de residuos electrónicos. Aún siguen sin cuantificarse datos estadísticos sobre otros flujos de residuos electrónicos que entran en los vertederos, las actividades del sector informal, la mezcla de los residuos electrónicos con otros residuos reciclables, las importaciones y las exportaciones de residuos electrónicos y otros tipos de eliminación de residuos electrónicos.

Además faltan datos sobre los plásticos BFR de residuos electrónicos y de COP, lo que dificulta el diseño de intervenciones sustentadas en hechos para aumentar la recogida de RAEE y evaluar el impacto ambiental y las pérdidas de recursos secundarios debidas a una inadecuada gestión.

La recomendación para aumentar la recogida de datos es trabajar de forma más segura al introducir y aplicar normas de gestión de los residuos electrónicos en todos los países de la región; solo cinco las han adoptado de OIT, OMS, UIT y BRS, entre otros. Para aquellos países con legislación vigente sobre residuos electrónicos, trabajar de forma más segura equivale a revisar la norma para adecuarla a las necesidades obligatorias sobre medio ambiente, salud y seguridad.

El estudio observó que, incluso en algunos de los países con legislación vigente y sistemas de responsabilidad extendida del productor, existen problemas de aplicación relacionados a menudo con la ausencia de las obligaciones al no detallar la metodología para la organización de la recogida, transporte, procesamiento, descontaminación, tratamiento y eliminación de las piezas residuales, y la formación pertinente para todo el personal implicado.

Finalmente, la recomendación de estar más sensibilizados se hace transversal a cada una de las anteriores por cuanto podría generar un cambio en el comportamiento de los consumidores, especialmente al tener en cuenta los aspectos ambientales en el momento de la compra y al comparar los aspectos entre marcas y productos. Sería un modo de mitigar el impacto sobre el medio ambiente y la gestión de recursos.

En consecuencia, es necesario el aumento de la sensibilización a través de campañas sobre consumo en los medios sociales y de comunicación como televisión, cine, radio y periódicos. Para alcanzar a poblaciones apartadas, también son valiosos los folletos informativos junto con programas de iniciativa para las recogidas puerta a puerta, la colocación de contenedores de recogida, etc. De iniciar hábitos de adquisición ecológica mediante el potencial de los niños, como embajadores del cambio, podremos dejar de impactar la salud en el trabajo y en la comunidad general, empezando por casa.

20 octubre 2024

De la pornovenganza a la violencia digital

El activismo quizás no ofrece justicia ni genera reparación al daño pero se ha convertido en multiplicador fundamental para prevenir, promover y fomentar la información y el contenido responsable compartido en las redes sociales

Iconografía del contenido

Haga click en imagen para ampliar
En su cuenta de Instagram, la joven mexicana Olimpia Coral Melo se identifica como serrana, hija de Josefina, nieta de Teresa, Bisnieta de Olimpia. En el mundo presencial Naciones Unidas la reconoce como defensora de espacios digitales libres de violencia para niñas y mujeres, y los parlamentos de Argentina, Colombia y su país gestionan la Ley Olimpia.

Aquella norma es un conjunto de reformas legislativas acerca de la ciberviolencia: conductas de acoso, abuso y amenaza que atentan contra la intimidad y la honra personal. Se trata de contenidos publicados y distribuidos sin consentimiento o mediante engaño a través de archivos de video, audio, fotografía con contenido real o simulado, sexual e íntimo de la persona agredida.

Otra forma de violencia digital se genera con materiales impresos, comunicación por correo electrónico, mensajes telefónicos, expuestos, exhibidos, distribuidos, difundidos, reproducidos, transmitidos, comercializados, ofertados, intercambiados y compartidos, usualmente en archivos de imagen con el mismo contenido íntimo de una persona, a sabiendas que no existe aprobación previa.

Según contó la joven Olimpia al noticiero ONU, el 8 de marzo de 2023: “Nos unimos desde hace una década para entender nuestros propios contextos y poder hacer estrategias para que otras mujeres no vivan la violencia sexual y virtual que nosotras vivimos”. Lo constituido por la activista y su grupo de defensoras es un movimiento político integrado por diversas mujeres para enfrentar desde el amor, la resiliencia y la solidaridad, el acoso y la violencia digital.

El motivo que despertó la conciencia de Olimpia a sus 18 años fue la distribución, sin su consentimiento, de un vídeo íntimo donde ella aparecía desnuda y que su novio hizo viral en WhatsApp y después en Facebook, negando haber sido el responsable. Por el suceso ella se aisló, se encerró en su hogar, dejó de asistir a su escuela, ni salía a la calle, pero con el apoyo de su familia retomó su vida y comprendió que no era la única mujer, ni la última, quien sufría violencia digital en México.

Efectos de la violencia digital

Existen tres tipologías de violencia clasificadas por los teóricos: directa, la forma más visible sea física o verbal; estructural, manifestada con base en discriminación y marginación; y cultural, referida al ataque a los rasgos culturales y a la identidad colectiva. Así lo expuso en 1998, Johan Galtung, creador de la perspectiva y la metodología “Investigación sobre la Paz”, en su ensayo “Tras la violencia, 3R: reconstrucción, reconciliación, resolución. Afrontando los efectos visibles e invisibles de la guerra y la violencia”.

Concretamente, la violencia digital está más ligada a internet y a las plataformas sociales por las expresiones que se intercambian libres pero a quienes son víctimas, aquel contenido les genera impacto negativo en sus vidas privada y social. Este tipo de violencia, que no deja marcas físicas, sí muestra huellas importantes en la víctima a nivel psicológico debido a la segregación social y a la automarginación.

Más allá, exhibir fotos o videos íntimos y privados sin consentimiento es delito contra la intimidad y la imagen personal, y cuando se agregan comentarios, negativos y ofensivos, en el muro de las cuentas en las redes sociales sobre las personas víctimas como en Facebook, X, Instagram, y en páginas en general de internet, esa ciberviolencia tiene el mismo impacto de la violencia física.

Para iluminar aquella violencia acosadora, intimidante, invisible en línea, lo primero es identificar y distinguir el contenido con amenaza, acoso, insultos. Son todos actos concretos y específicos pero intolerables, inadmisibles, violentos, que manifiestan por lo general una conducta hostil, intencionada, voluntaria, repetitiva y sistemática. Y claro, la persona víctima queda indefensa en la mayoría de los casos al no poder defenderse. El objetivo del acosador consiste pues en dominar física, verbal y socialmente a su víctima para aislarla y destruirla en el ámbito público. Por tanto, el agredido y su grupo social deben informar, contactar asesoría jurídica, interponer denuncias, mitigar ese progreso agresivo con terapia especializada en violencia contra mujeres o en violencia de género, según sea el caso.

Recogiendo acciones para fortalecer la seguridad digital, el gobierno colombiano ha incluido los programas del Ministerio de Tecnologías de la Información y Comunicaciones “Mujeres TIC para el Cambio”, que fomenta el liderazgo femenino a través de procesos de formación gratuita para la productividad, y “Ciberpaz”, que motiva a través de charlas el uso de la tecnología de manera consciente, empática, segura y responsable. Otras estrategias son algunas normas de regulación y de coordinación para bloquear las comunicaciones no autorizadas desde cárceles; el fortalecimiento del ColCert, un grupo de investigación y prevención sobre ciberseguridad y el proyecto de Ley que crearía la Agencia Nacional de Seguridad Digital y Asuntos Espaciales. Por su parte, gobiernos locales, sociedad civil y varios actores del ecosistema TIC han emprendido lentas acciones. La gobernación de Caldas, junto al centro de desarrollo tecnológico Bios, por ejemplo, en el último año, han venido impulsando el proyecto Hub de Ciberseguridad, y los centros de Inteligencia Artificial y de operaciones de seguridad.

Con base en una encuesta de 2017 que Amnistía Internacional encargó a Ipsos Mori se analizaron las experiencias de 500 mujeres entre 18 y 55 años de edad en Dinamarca, España, Estados Unidos, Italia, Nueva Zelanda, Polonia, Reino Unido y Suecia.

Casi una cuarta parte (23%) de las encuestadas dijeron haber experimentado abuso o acoso en línea al menos una vez; 41% de ellas abusadas o acosadas en línea dijeron que, al menos en una ocasión, esas experiencias las hicieron sentir amenazadas por la inseguridad física; poco menos de la mitad (46%) de quienes habían sufrido abuso o acoso en línea respondieron que el ataque era de naturaleza misógina o sexista; más de la mitad (58%) de abusadas o acosadas en todos los países dijeron que su ataque había incluido racismo, sexismo, homofobia o transfobia y 59% de quienes habían sufrido abuso o acoso en línea dijeron que la violencia provenía de completos desconocidos.

En Colombia los datos reportados por la Unidad para la Atención y Reparación Integral a las Víctimas, entre 1980 y 2016, más de 17.000 mujeres y niñas fueron víctimas de violencia sexual relacionada con el conflicto armado. El Centro Cibernético de la Policía recibió en 2022 denuncias por casos de sextorsión (62), por ciberacoso (325), por injuria o calumnia a través de redes sociales (676) y por amenaza (972). Según Ranking PAR en 2024, 60% de las mujeres entre 18 y 40 años de edad asegura haber sido acosada a través de medios digitales. El Observatorio de la Democracia y la Universidad de los Andes encontraron que “25.5% de las periodistas mujeres participantes en su investigación ha sido víctima de agresiones por violencia de género a través de canales digitales debido a su trabajo". Y para echar sal a esa herida, el Presidente de la República las califica de “muñecas de la mafia” sin determinar justificación objetiva alguna.

Según dan a conocer especialistas, como la doctora en Biomedicina Feggy Ostrosky, “nuestro cerebro registra la violencia y las amenazas virtuales como si fueran reales”, siendo sus efectos inmediatos: ansiedad, depresión y dependencia, lo que puede generar actitudes violentas hacia los demás o hacia sí mismo.

Retomando los resultados de Amnistía Internacional, 63% afirmó que no había podido volver a dormir normal desde el abuso o acoso en línea, 61% de quienes dijeron haber sufrido abuso o acoso en línea en todos los ocho países de la encuesta experimentó menor autoestima o pérdida de confianza en sí misma, 56% dijo que el abuso o acoso en línea les había impedido concentrarse durante largos períodos de tiempo y 55% dijo que había experimentado estrés, ansiedad o ataques de pánico después de sufrir abuso o acoso en línea.

Mitigaciones contra la violencia digital

La violencia digital la compone una amplia gama de agresiones: vulneración de los datos personales sensibles, privado o semiprivado; propagación pública de información falsa; divulgación de información engañosa; transmisión de mensajes de odio; difusión de contenido digital íntimo no consentido; acoso; hostigamiento; amenaza.

De manera que compartir información con alguien, por ejemplo la pareja o alguien de confianza, significa de entrada dar probabilidad a la ausencia del consentimiento. Un comportamiento humano frecuente debido a que no advertimos previamente en la protección de nuestros datos personales, que por Ley reconoce y protege el derecho de todas las personas a conocer, actualizar y rectificar las informaciones susceptibles de tratamiento por entidades públicas o privadas.

En Suecia 57% de las mujeres encuestadas para Amnistía Internacional afirmó que las políticas de gobierno para enfrentar el abuso eran inadecuadas, alrededor de un tercio de las mujeres en Reino Unido (33%), Estados Unidos y Nueva Zelanda (ambos 32%) afirmaron que la respuesta policial al abuso en línea era igual de inadecuada. La encuesta también indicó que menos de la cuarta parte (18%) de las mujeres en todos los países dijeron que las respuestas de las empresas de redes sociales eran muy, bastante o completamente adecuadas.

Defensores digitales recomiendan: no compartir links donde se exhiba violencia ya que se podría contribuir indirectamente con la viralización; denunciar el contenido en la misma plataforma digital; enviar a la red social el pantallazo para su revisión como prueba indiciaria; reportar desde diferentes cuentas para alertar el algoritmo hasta que se elimine el contenido. Por su parte, Amnistía Internacional ha venido solicitando a los gobiernos que garanticen la existencia de leyes, políticas, prácticas y formación adecuadas para prevenir y poner fin a la violencia y al abuso en línea contra las mujeres, sin imponer restricciones o sanciones indebidas al legítimo ejercicio de la libertad de expresión.

Los países de Latinoamérica donde una ley Olimpia no ha sido aprobada y las mujeres siguen sufriendo violencia digital, también pueden tomar acciones legales dentro de su marco legislativo existente, porque seguramente sobreviene el delito de extorsión. Se trata de encuadrar la conducta del acoso, la amenazas y de otro tipo en la figura legal. Por tanto, el proceso no es fácil pero la justicia debe superar el miedo a la usual cultura de violencia contra la mujer o la violencia de género, y las personas víctimas acceder al sistema ya que mientras más se ejerza el derecho de la denuncia y cuanto más se exija, se impulsarán dichos mecanismos hacia su perfección.

Otras medidas de seguridad digital extremas que protegen la privacidad digital, a saber: siempre utilizar dispositivos con contraseña actualizada por lo menos cada trimestre; nunca revelar esas contraseñas ni almacenarlas en la memoria informática; decididamente crear contraseñas secretas, complejas y seguras o activar la verificación en 2 pasos; definitivamente evitar la misma contraseña para todos los accesos a internet; periódicamente actualizar el software del dispositivo y de las aplicaciones activadas; incesantemente evitar el robo o la pérdida del dispositivo; habitualmente revisar las aplicaciones no instaladas; continuamente administrar la configuración de ubicación permanente en el dispositivo y sobre todo, constantemente bloquearlo en tiempo de descanso o de manera remota.

Educación en igualdad de género

Aunque se refuerce la seguridad digital, la violencia contra las mujeres es estereotipo del carácter social, que influye y fomenta la discriminación de género. Lo actuado en esencia por Olimpia Coral Melo ante la violencia digital contra las mujeres es promover el ejercicio de los derechos humanos y de los valores originado en relaciones de respeto mediante la educación desde la infancia en temas de igualdad y de equidad.

No vale solo reconocer la violencia digital como una modalidad de agresividad contra la mujer y el género sino que debe ser visibilizada, prevenida, inhibida y castigada mediante leyes que respalden el acceso de las mujeres a una vida libre de violencia con base en el género. De allí que la sororidad sea clave para erradicar la violencia digital contra mujeres y dejar de estigmatizar el tema. Ha repetido la joven Olimpia, “no quedarse callada sino alzar la voz, buscar ayuda profesional, proceder y actuar conforme la ley” y, algo de su mensaje, ha calado en la sociedad regional.

Tres países de Latinoamérica han reconocido el triunfo de la Ley Olimpia en el orden de fortalecer algunas bases sociales para transformar creencias, estigmas, prejuicios, roles y estereotipos que oprimen a las mujeres y que las colocan en especial vulnerabilidad cuando su intimidad es expuesta de forma explícita y pública.

El gobierno de México, desde abril de 2021, promulgó la Ley que colocó un tema invisible en su agenda pública y la academia ha empezado a estudiar debido a la lucha social organizada a través del Frente Nacional para la Sororidad, Defensoras Digitales y muchas otras colectividades feministas.

En Argentina, en octubre de 2023, el gobierno legalizó la Ley incorporando la violencia contra las mujeres en entornos digitales como un modo de violencia de género y determinó medidas cautelares de protección para que la justicia ordene a las plataformas digitales eliminar el contenido que genera violencia.

El Congreso de Colombia abrió un espacio de diálogo el pasado 17 de septiembre de 2024 para modificar ciertos artículos del Código Penal y de la Ley 1257 de 2008, por la cual se dictan normas de sensibilización, prevención y sanción de formas de violencia y discriminación contra las mujeres. Entonces el proyecto de ley penalizaría la creación, difusión, sustracción y distribución no consentida de material íntimo erótico o íntimo sexual en redes sociales y sancionaría las conductas relacionadas con creación, difusión, sustracción y distribución no consentida de material íntimo erótico o íntimo sexual.

No obstante, durante la tercera semana de septiembre 2024, en una peripecia política, el ministro de las TIC de Colombia asistió al Congreso de Seguridad Nacional donde aseguró que “El Hub de Ciberseguridad que se desarrolla en Caldas, el proyecto de ley para la creación de la Agencia Nacional de Seguridad Digital y Asuntos Espaciales y el fortalecimiento del ColCert hacen frente a las ciberamenazas”. Mientras tanto, dando vuelta a la tortilla, en el segundo Encuentro de Medios Alternativos, Comunitarios y Digitales, que reunió a 1.500 periodistas y comunicadores de todo el país, el mismo titular de aquella cartera se comprometió a fortalecer a los medios alternativos mediante la Ley de tercios: destinar 33,3% de la pauta oficial para la financiación y abrir dos convocatorias por $15.000 millones para invertir en contenidos y equipos, y para la creación de 300 nuevas emisoras comunitarias. ¿Y su regulación? Sigue girando en el Congreso.

19 septiembre 2024

Acciones para desarrollar y aplicar IA en Colombia

El Ministerio de Ciencia, Tecnología e Innovación publicó la Hoja de ruta para la adopción ética y sostenible de la inteligencia artificial (IA) cuyo fin último sería catalizar el cambio de mentalidad en diversos sectores nacionales

Iconografía del contenido

Haga click en imagen para ampliar

La iniciativa ha estado impulsada desde el año 2019 a partir de las políticas nacionales para la Transformación Digital e Inteligencia Artificial; la de Ciencia, Tecnología e Innovación 2022-2031 y las recomendaciones de UNESCO y OCDE IA de 2022 sobre ética, entre otras. El eje común al implementar la IA residirá en “potenciar la generación de valor social y económico del país, bajo principios de adopción y sostenibilidad”.

El factor crítico para la adopción de la Inteligencia Artificial en Colombia, sobre la base de la ética y la sostenibilidad, se sustenta en el Índice Latinoamericano de Inteligencia Artificial (ILIA), un estudio pionero que proporciona pautas e información sobre la postura de 12 países en la región. Por su parte, la hoja de ruta tuvo como sustento un proceso de co-creación y co-diseño donde participaron actores públicos y privados de sectores financieros y productivos; de la sociedad civil; de entidades internacionales y de centros de ciencia, investigación y desarrollo tecnológico. En complemento, fue “refinada” con retroalimentación mediante consultas a expertos especializados en Inteligencia Artificial de los cinco entornos que se describen enseguida.

No obstante, el grupo de 73 personas consultadas abrió de entrada una evidente brecha de equidad, contrario a lo expresado en el documento “Hoja de ruta para el desarrollo y aplicación de la IA en Colombia” de febrero de 2024, en el entendido que “esta muestra asegura una representación adecuada”. Incuestionable, participaron 24.7% de mujeres y 74% de hombres; ninguna personas en condición de discapacidad 99% y con discapacidad intelectual 1%. Con respecto a grupos étnicos la representación fue así: ningún grupo étnico 91.5%, indígenas 1.4%, población negra 1.4%, afrocolombianos 1.4%, raizales 1.4% y afrodescendientes 2.8%. Tampoco se esclarece la diferencia entre poblaciones, negra y afrocolombiano y afrodescendiente.

Ambitos de innovación

La actual cartera ministerial anhela alcanzar niveles de madurez tecnológica en IA mediante los siguientes entornos de innovación, que en conjunto, superarán desafíos identificados por ILIA “promoviendo así un futuro tecnológico equitativo y próspero”, expresa MinCiencias.

1- Ética y Gobernanza. Serán guías para el desarrollo y la implementación de tecnologías de IA y para el fortalecimiento de los marcos regulatorios y las prácticas de gobernanza con el objetivo de asegurar un entorno transparente y responsable. El motivo se focaliza en el problema relacionado con la baja comprensión y confianza pública en las aplicaciones de la IA.

Por tanto, las líneas de innovación en investigación en ética se encauzan para los datos, los algoritmos y las prácticas, y para la generación de nuevo conocimiento; desarrollo de métricas de equidad; organización de foros y talleres regionales públicos; campañas de sensibilización ética en medios de comunicación; y creación de un consejo asesor ciudadano en tecnología y un comité nacional de apoyo, entre otras.

El contexto estudiado para describir este plan de acción está sustentado en el informe “Indice Latinoamericano de Inteligencia Artificial 2023”, que identifica desafíos significativos como el impacto en el trabajo y la equidad de género. Aquel análisis revela además que subyace un rezago en las políticas de reconversión laboral y un aumento en la brecha de género en habilidades asociadas a la IA.

La mayor vulnerabilidad de la región, incluida Colombia, es la carencia de un marco regulatorio claro y actualizado, lo que ocasiona disparidades significativas entre los países en asuntos de desarrollo de las áreas estratégicas con IA, visión e institucionalidad, participación internacional y regulación, obviamente. Colombia en tres subdimensiones de la gobernanza se ubica por debajo de Argentina, Brasil y Chile pero de consuelo, por encima del 50% del promedio regional.

El tema clave de este entorno se dirige a profesionales, tomadores de decisiones y sociedad en general para desarrollar programas de educación ética en IA incluidas la sensibilización sobre los dilemas y la promoción de una cultura ética en el desarrollo y uso de la tecnología. En cuanto a la gobernanza, el documento “Sandbox sobre privacidad desde el diseño y por defecto en proyectos de inteligencia artificial”, emitido por la Superintendencia de Industria y Comercio en 2021, es uno de los mecanismos exploratorios de regulación basados en IA. El plan de acción que se reseña lo configura como ambiente preventivo y experimental, destinado a facilitar a las empresas y a entidades interesadas en proyectos de inteligencia artificial la creación de soluciones colaborativas.

2- Educación, Investigación e Innovación. Con esta esfera se impulsaría la formación y la capacitación en habilidades relacionadas con IA con base en programas educativos especializados para la preparación de una fuerza laboral competente y se incentivaría la investigación y la innovación. Se solucionaría así el conflicto por el bajo desarrollo de competencias y de diversidad de género en IA.

Según el informe “Future of Jobs Report 2023” del Foro Económico Mundial se anticipa que 44% de las competencias básicas de los trabajadores en el mundo cambiarán en los próximos cinco años debido al aumento de las tareas realizadas por máquinas. Se estima que aumentará de modo evidente el conjunto de habilidades básicas relacionadas con pensamiento analítico y creativo; resiliencia, flexibilidad y agilidad; motivación y autoconocimiento; y curiosidad y aprendizaje permanentes. No obstante, se señala que mujeres, minorías raciales, indígenas y personas con bajos ingresos son ahora más vulnerables a las consecuencias negativas de la IA para el empleo.

Abordar estos retos globales implica la necesidad esencial que las estrategias nacionales de IA se centren en mejorar la alfabetización en IA desde los sistemas públicos de educación. En consecuencia, el entorno pretende crear programas de formación continua para docentes; construcción de infraestructura para centros de investigación; otorgamiento de becas y subsidios para la formación en IA; diseño de plataforma de colaboración virtual; etc.

3- Datos y Organizaciones. Se centrará en potenciar el manejo eficiente de los datos para impulsar proyectos concretos de impacto mediante estrategias multilaterales entre los sectores público y privado pues el cuello delgado de la botella evidencia ausencia de marcos éticos y de gobernanza en los datos para las aplicaciones basadas en IA.

Según el libro blanco de 2019 “Data Trusts: A New Tool for Data Governance” de Future Cities Canada se requiere de nuevos enfoques de gobernanza de datos para restaurar la confianza pública. Es decir, la rápida evolución tecnológica hace ineficiente los actuales enfoques regulatorios necesarios debido a su carácter reactivo y no proactivo. A nivel nacional, el Ministerio de Tecnologías de la Información y Comunicaciones enfatiza la importancia de otorgar a las personas control sobre la información personal pero el sector privado genera riesgos frente a la privacidad, propiedad y uso indebido de la información.

Un sistema de datos requiere de infraestructura, ya para su almacenamiento ya para su búsqueda y recuperación o ya para simples transacciones. De modo que las recomendaciones dadas por el Banco de Desarrollo de América Latina y el Caribe indican que los gobiernos deben contar con una política nacional de datos y una gobernanza para la producción y reutilización. Este costo medido en 2019 por la Organización para la Cooperación y el Desarrollo Económico (OCDE) estima que los beneficios económicos y sociales significativos por acceso e intercambio de datos se encuentran entre 0.1% y 1.5% del PIB mientras que para los datos del sector público entre 1% y 2.5%.

Colombia aventaja ya que cuenta con una política de datos personales implementada por la Superintendencia de Industria y Comercio, lo que representa una salvaguarda que asegura la protección del valor de los datos de los individuos. No obstante, hay que implementar otras líneas de innovación para la inteligencia artificial, tales como: desarrollo de herramientas de evaluación ética; desarrollo de plataforma de análisis predictivo; mejora de la experiencia del cliente; rastreo y gestión de activos inteligentes; prevención de ataques cibernéticos en tiempo real.

4- Industrias Innovadoras y Emergentes. Este entorno se dedicará al fomento de la adopción de tecnologías disruptivas en los procesos industriales y la anticipación a las tendencias futuras. El problema reside en la baja adopción de la IA en empresas, industria y sectores gubernamentales.

El modelo de Industria 4.0 implica la integración de tecnologías digitales e Internet de las cosas (IoT) que fusiona los mundos físicos, digitales y biológicos. En el núcleo de este desarrollo se encuentran elementos clave como sistemas ciberfísicos e Internet de los servicios y fábrica inteligente los que forman un ecosistema digital interconectado. La digitalización sigue siendo parte integral de esta revolución por lo que un análisis al contexto global de la Industria 4.0 se percibe como oportunidad estratégica para los países.

Para Colombia, el cambio representa igualmente una oportunidad de transformación que debe enfrentar desafíos significativos. En el reporte “Readiness for the Future of Production Report 2018” del Foro Económico Mundial y A.T. Kearney, el país se ubicaba entonces en el listado de estructura de la producción en el puesto 56 con un puntaje de 4.61 y en factores impulsores de la producción en el escalón 65 con 4.53 puntos por debajo de Argentina, Brasil y Chile, todos en la categoría ‘países nacientes’. Sin embargo, Colombia está de último en la lista conjunta de todos los demás factores: Tecnología e innovación (4.01 puntos, puesto 60), Capital humano (4.60 puntos y puesto 65), Comercio e inversión global (3.89 puntos, puesto 80), Marco institucional (4.60 puntos y puesto 67), Demanda de recursos sostenibles (7.53 puntos y puesto 20) y Medio ambiente (4.91 puntos y puesto 46).

Ante la falta de acciones rápidas que generan rezago significativo, Colombia enfrenta otros desafíos que tienen relación con la seguridad de las Tecnologías de Información y Comunicación (TIC), la interconexión entre entidades que abre puertas traseras para violaciones de seguridad y fugas de datos, la capacidad de adaptación y orientación sobre las posibilidades de digitalización de las pequeñas y medianas empresas (PYME), la educación en ciencia, tecnología, ingeniería y matemáticas y la formación de profesionales, según ILIA. Es por ello que algunas líneas de innovación referencian desarrollar sensores inteligentes para monitorización, sistema de control de calidad automatizado, simulación avanzada en investigación y desarrollo, optimización del consumo energético en procesos industriales.

Considerando la visión de la Industria 4.0, con fábricas inteligentes y productos conectados, el nuevo entorno exige un enfoque integral que aborde investigación, I+D, adopción tecnológica, educación, inversión e infraestructura con base en colaboración entre gobierno, sector privado y academia. Por tanto, el mayor esfuerzo nacional debe erradicar la cultura del egoísmo alacrán.

5- Privacidad, Ciberseguridad y Defensa. Implementarán medidas para mitigar riesgos y garantizar que la IA contribuya positivamente al bienestar y la seguridad ciudadana pues el problema nacional consiste en el bajo nivel de desarrollo de soluciones basadas en inteligencia artificial que impacten positivamente la calidad de vida y el bienestar social, económico y ambiental de la población.

El hito significativo moderno en la evolución tecnológica consiste en la convergencia entre la inteligencia artificial, industria aeroespacial y defensa nacional. Este cruce ha permitido notables avances, desde la recopilación de información hasta la toma de decisiones estratégicas. Sin embargo, como en los entornos anteriores, surgen desafíos que se deben abordar de manera rigurosa debido al dinámico mercado de la inteligencia artificial y la robótica en el sector aeroespacial y de defensa, valorado en 29,67 mil millones de dólares en 2023 y proyectado para crecer a una tasa compuesta anual del 7.5%, que alcanzaría 42,60 mil millones de dólares en 2028, según el informe sobre IA en el mercado militar por aplicaciones de Modor Intelligence. una organización con sede en India de expertos en investigación de dominios específicos quienes rastrean continuamente los mercados.

Este mercado caracterizado por la presencia de múltiples actores destacados como The Boeing Company, Lockheed Martin Corporation, Airbus SE, IBM Corporation, Thales Group, entre otras, ─fabricantes de robots, proveedores de tecnología robótica, inteligencia artificial, etc.─ lideran, fabrican, trabajan en estrecha colaboración y desarrollan soluciones avanzadas basadas en IA. En la práctica se trata de asociaciones estratégicas que reflejan la creciente tendencia de colaboración entre empresas para impulsar la innovación, la criptografía y las tecnologías cuánticas.

Con estos avances mejorarán la seguridad, la eficiencia y la toma de decisiones para operaciones aeroespaciales y de defensa como ya ocurrió en 2023, cuando América del Norte representó la mayor cuota de mercado en la industria IA y robótica para el sector aeroespacial y de defensa global. Para Latinoamérica, un liderazgo regional sugiere presencia e impulso significativo de empresas y organizaciones de investigación en desarrollo y aplicación de tecnologías avanzadas.

Los retos que enfrenta el entorno se circunscriben a áreas cruciales, tales como capacidad de análisis en tiempo real, autonomía de los sistemas, responsabilidad y rendición de cuentas frente a las operaciones autónomas, regulaciones internacionales debido a la utilización en operaciones ofensivas. Las guerras geopolíticas que cruzan a Europa están mostrando nuevas vulnerabilidades en el uso de la IA en ciberseguridad: los adversarios vienen empleando malware y manipulando los sistemas autónomos; los sistemas autónomos han mostrado incapacidad para discernir situaciones complejas, evaluar el valor militar de objetivos y determinar intenciones; las corporaciones tecnológicas siguen influyendo a través de la manipulación de datos a gran escala.

Ante tal panorama se han alzado voces conocidas ─Elon Musk, Steve Wozniak y otros 1700 desarrolladores del mundo─ para “llamar a todos los laboratorios de IA a fin que todos los actores clave pausen inmediatamente, de modo público y verificable, durante al menos 6 meses, el entrenamiento más potente de los sistemas GPT-4”, la Convención de ONU sobre ciertas armas convencionales busca limitar el uso de armas autónomas letales. En Colombia, al menos, la tecnología de avanzada en las operaciones militares ha despertado una necesidad imperiosa.

Según reportes de medios a fines del 2023, el comandante general de las Fuerzas Militares anunciaba la incorporación de la Inteligencia Artificial en las operaciones de manera “integrada en el proceso de planeamiento, para poder anticipar, prever y planificar de manera más efectiva”. Argentina, Chile y Brasil ya han desarrollado planes de acción para implementar la inteligencia artificial en las Fuerzas Armadas. Bien nos valdría la pena el diálogo con los titulares de aquellos ministerios.

Si se trata de seleccionar un tema clave habría que generalizar el de seguridad, que cubre defensa nacional, ambiente, recursos naturales, residuos, monitoreo inteligente, etc. y cuya modernización se alinea a la monitorización de la biodiversidad con visión artificial; clasificación automática de residuos con visión por computadora; sistema de alerta temprana para contaminación; sistema de gestión de movilidad inteligente; monitorización continua de movimientos sísmicos; desarrollo de cámaras inteligentes en espacios públicos; entre otras.

La fase siguiente de esta ilusoria hoja de ruta trazada por MinCiencias de Colombia consiste en someter a consulta ciudadana las 130 rutas de innovación propuestas para establecer prioridades y recomendaciones dentro de cada entorno, y ya ha pasado medio año.

15 agosto 2024

Los medios sociales son propicios para la cancelación

La cultura de la cancelación como acción pública viene siendo ejecutada por terceros, quienes condenan al ostracismo a personas incómodas o transgresoras por su postura política, y debido a la virtualidad de los medios sociales se convierte en etiquetas de supervisores

Iconografía del contenido

Haga click en imagen para ampliar

El escenario más común de la cancelación es el medio social donde, por supuesto, las protestas y la negación son actos reiterativos del ciclo de la sanción que contribuyen a ignorar los procesos de la convocatoria a la cancelación y de la defensa activa de la cultura de la cancelación. No obstante, lugares de concurrencia física y pública como campus universitarios, ferias, auditorios, museos, tiendas, teatros, también son dimensiones propicias para ejercer la cancelación como un enfoque de la retribución desde el cual se imparte justicia propia.

Regularmente el código “ojo por ojo”, entronizado en la creencia, se ha mantenido a lo largo de la historia en las religiones pues “más te vale entrar tuerto en el reino de Dios que ser arrojado con los dos ojos al infierno”. En la tradición cristiana, verbigracia, el castigo a Adán y a Eva fue su expulsión ​​del jardín del Edén al momento en que violaron las reglas de Dios. En el Corán, el retribucionismo es solo para aquellos desobedientes o malvados, en el Dhammapada budista es consecuencia de las malas acciones y en el Bhagavadgita hindú se obtiene por el mal karma.

El mundo tangible ha sido testigo presencial de clases de justicia retributiva: quema de libros en plazas, degradación de editores por aprobar títulos, despidos de periodistas cuando se desvían de la línea editorial del medio y agresiones o vituperios a colectividades en lugares públicos. Lo más impactante de la cancelación ha sido remover al individuo de su cargo, prohibir su entrada o su discurso, dejar de nominarlo en un corporativo, negarlo o bloquearlo en las cuentas de los medios sociales y hasta cancelar su contrato laboral.

Eso último le ocurrió al vendedor Daniel Maples el 27 de junio de 2020, luego que los clientes dentro del Costco Gulf Coast Town Center de Fort Myers (Florida: USA) le pidieron usar el tapabocas para protección al Covid. Su respuesta fue gritar “Me siento amenazado” y avanzar hacia los clientes. Uno de aquellos, un director local de cine, lo grabó en video que publicó en Twitter y en menos de 24 horas la identidad del hombre ya había sido revelada. Afrontando el riesgo a la reputación corporativa, su empleador ─Ted Todd Insurance─ y un ejecutivo de la empresa, Charley Todd, anunciaron que Daniel había sido cancelado de su trabajo.

En otras ocasiones la cancelación es un modo personal que asume un individuo contra un amigo o conocido. Por ejemplo, el actor Daniel Radcliffe, quien interpretó a Harry Potter, se distanció de la posición de la autora cuando ella habló en público contra las mujeres transgénero. Críticos de la cancelación han denunciado esta práctica elevándola a un generalizado cambio cultural y referida como cultura de la cancelación. Estos censores, situados a menudo en la derecha ideológica, en ocasiones perciben la cancelación como un repudio reaccionario de los progresistas y una guerra contra las ideas conservadoras del activismo digital.

Ante los hechos, la cancelación es realizada únicamente por terceros quienes se autodeterminan ‘Supervisores’ de las normas legales y morales y, por tanto, asumen el derecho de transgredir enviando al cancelado al ostracismo.

La escritora afrocanadiense musulmana, Sarah Hagi, preguntó en noviembre de 2019 por la revista Times si ¿la cultura de la cancelación ha ido demasiado lejos? Para ella, “no es real, al menos no de la forma en que la gente cree”. En cambio, afirma que se ha convertido en un comodín cuando las personas con cierta notoriedad enfrentan consecuencias por sus acciones o reciben del público cualquier tipo de crítica.

Como flagelo por la difamación, la cancelación es un distorsionado punto de vista del Derecho a la Libertad de Expresión y una autoapropiación del Principìo de la Retribución ya que solo la institucionalidad que ejerce justicia bajo normas legales del derecho constitucional puede procesar a los individuos. Mientras que, como etiqueta, la cultura de la cancelación se materializa en medios sociales y en escenarios físicos, lo cual repercute en el entorno privado, personal y social del cancelado afectando su vida profesional y personal.

Por tanto, con base en la teoría de las normas sociales, y siendo cual fuere la perspectiva de la cancelación, las consecuencias consisten en excluir a sujetos por violar normas morales y en retirar apoyos a figuras públicas o a empresas por algo individualmente objetable. De modo que la cancelación y la cultura de la cancelación son acciones desiguales, en tanto las repercusiones de una y otra no afectan por igual a las personas canceladas, como los casos del tendero en Florida y del actor británico.

Repitiendo, el evento de cancelar es promulgado por la gestión de terceros quienes se apropian del manto de la supervisión mientras que, en la cultura de la cancelación subyace algún elemento de la teoría de las normas sociales interpretado de modo estropicio. Pero ambas actitudes generan efectos por la exclusión del cancelado.

Si bien ese aislamiento sufrido por la cancelación se inicia con una exposición difamatoria del individuo cancelador termina con otras formas sociales más violentas y discriminatorias para el cancelado, tales como: recopilar y publicar información suya o de su grupo, sin sus consentimientos, con el objetivo de dañar su trayectoria pública y profesional (doxing); negar la oportunidad a alguien para aportar sus ideas públicamente porque el cancelador cree que esas creencias son peligrosas o inaceptables (deplatforming) o las más recientes: denigrar a las mujeres blancas irritantes y abusadoras por sus privilegios o denunciar situaciones racistas provocadas por mujeres blancas (Karen), como ha acontencido desde el surgimiento del movimiento Black Lives Matter.

Algunas motivaciones

1) Cuando produce exclusión, la extendida cultura de la cancelación sobrepasa al Derecho a la Libertad de Expresión por ser un juicio arbitrario no objetivo y por cuanto el resultado de la acción es la proscripción a un individuo con su consiguiente afectación personal, familiar y social. Con esa oportunidad se reconoce que el cancelador confronta las normas sociales con sus propias reglas morales, que hace predominar.

Un primer asunto del sistema teórico de las normas sociales analiza la cancelación protegida por una libertad de expresión absoluta: el cancelador ejerce su acto con el poder de la manipulación sobre la persona denunciada y lo convoca a través de la mediación entre los miembros del medio social, publicando iniciales mensajes de denuncia sobre el punible comportamiento transgresor. Por tanto, con base en la cuestión jurídica general del Derecho a la Libertad de Expresión en sentido amplio, la justificación demostrable de esta cancelación impone estudiar si las limitaciones a la libertad de expresión pueden estar “argumentadas en una sociedad libre y democrática” mediante una legislación de incitación al odio.

En las ocasiones moderadas, el Derecho a la Libertad de Expresión ofrece sensibilidad, solidaridad y hasta educación ya que protege del malestar que ocasiona aquella cultura al leer angustiantes respuestas en medios sociales acerca de la culpa de las víctimas, la humillación a las putas, los chistes sobre violaciones, etc.

Una propuesta de Michalinos Zembylas, profesor de Teoría de la Educación y Estudios Curriculares en la Universidad Abierta de Chipre, se encauza a que ─además de enfatizar el pensamiento crítico, la alfabetización mediática, el debate y la argumentación─ “los programas de formación docente destinados a orientar a los profesores para que aborden la cultura de la cancelación, deben evitar reproducir esas formas en que las redes sociales la enmarcan con rutinas individualizadas y psicologizadas e instar a prestar atención ante las cuestiones estructurales de segregación e injusticia”.

2) Desde los estudios de medios comparados, Jose van Dijck ─autora, investigadora y profesora de la Universidad de Ámsterdam─, en su ensayo de 2013, “La cultura de la conectividad: Historia critica de los medios sociales” descifraba el compromiso oculto de cada plataforma, así: Facebook mantiene el imperativo de “compartir”; Twitter reproduce la paradoja entre “seguir” y “marcar tendencias”; Flickr se balancea entre la comunidad y el comercio; YouTube exacerba el vínculo íntimo entre televisión y comentar videos. De manera que preguntaba, ¿Cuáles son los detalles culturales e ideológicos de este ecosistema que al parecer lo interconecta sin fisuras?

En efecto, las prácticas en línea son meras bases algorítmicas de una socialidad para quedar atrapados, el régimen de propiedad privada de las tecnológicas es una integración vertical de la interoperabilidad donde consumimos cercados y los intentos fallidos por abandonar la conectividad no dejan salida debido a la ideología circulante. En últimas, “las conversaciones digitales” se han dirigido hacia sucesos plenamente subjetivos que confunden expresión personal propia de la democracia liberal con mercantilización de la peculiar identidad, afectando por tanto los derechos a la intimidad y la honra.

3) Desde la ciencia política también se estudian las perspectivas de la confianza pública en los sistemas democráticos. Para la politóloga Pippa Norris de Harvard University, la cancelación expresada por los progresistas se está apoderando de los campus universitarios al silenciar las voces conservadoras y los panoramas diversos en cuestiones de racismo, etnicidad, acoso sexual, misoginia, identidades de género no binarias y transfobia.

Así lo evidenció en el proyecto que moderó entre enero de 2023 a diciembre de 2025, “Trust in European Democracies”. Fue una investigación científica comparativa integral en 12 países de la Unión Europea (UE), incluida Ucrania, sobre las percepciones de la confianza y de la credibilidad públicas. Es decir, la confianza política considerada factor de estabilidad del régimen se asocia con las democracias representativas.

Por tanto, cuatro dimensiones enmarcaron el impacto del proyecto, i) comunicacional: facilitar el establecimiento de un nuevo paradigma de confianza política y la aparición de nuevas ideas sobre los orígenes multifacéticos de la confianza política mediante la publicación de los resultados en medios académicos; ii) político: debido a esas nuevas referencias, reactivar la gobernabilidad democrática y un marco normativo para mejorar la rendición de cuentas, la transparencia, la eficacia, la fiabilidad de las instituciones políticas y la agenda nacional y de la UE con el fin de estabilizar y consolidar las instituciones; iii) económico: preveer una reconstrucción del capital social vertical con alta cohesión social y baja conflictividad; y, iv) misión general: obtener mayor participación de los ciudadanos y de la sociedad civil mediante la educación, la comunicación política, el pluralismo de los medios de comunicación, las campañas de ONGs, entre otras.

4) Un cuarto itinerario al estudio del peligroso reproche a conductas que no constituyen delitos se relaciona con el derecho penal a partir del poder punitivo sin regulación. La cultura de la cancelación se puede convertir en ejercicio arbitrario de la fuerza excluyendo así la jurisdicción del Estado, que mantiene el orden en el complejo sistema social y lo utiliza para proteger bienes jurídicos indiscriminados ante agresiones injustificadas.

La causa visible de aquel actuar por fuera de las vías legales para conseguir un derecho propio produce que los debates se construyan dentro de los medios sociales, como ocurre en X (antes Twitter), en la plataforma rusa Telegram, en la red social de origen chino TikTok, entre otros. Esos contenidos atraviesan las barreras geográficas, llegan a más cantidad de usuarios localizados en diferentes partes del mundo y pueden también influir en el aumento de la participación social de la cancelación. El motivo invisible, por el contrario, ocasiona que “no siempre advertimos que tales debates en alguna medida se van volviendo irrelevantes ante las nuevas formas de comprender y de analizar el mundo”, según se lee en el libro “La vida en línea: El impacto de las redes sociales en todo lo que hacemos” del Licenciado en Derecho, Miguel Carbonell.

No obstante, una sistematización de casos de cancelación da cuenta de tres vertientes de defensa desde el cancelado: una conducta no condenada pero con repercusiones y reproches severos para quien cancela; un comportamiento inmoral de escasa gravedad penal; y comportamientos ilegales que no ameritan pena.

Ejemplo del primer escenario es el suicidio el 31 de agosto de 2019 en Winnipeg (Canadá) del desarrollador de juegos Alec Holowka quien fuera acusado en redes sociales de abuso físico, sexual y sicológico por su pareja sentimental Zoë Quinn. Al divulgar su violencia íntima en las campañas de ciberacoso, usando los hashtags #gamergate y #Metoo, fue cancelado en su trabajo y en su vida social. Su situación depresiva entonces lo llevó al suicidio sin que fuera escuchado o hubiera podido defenderse de las acusaciones ante un juez, invocando un proceso penal.

Con base en las noticias publicadas la primera semana de septiembre de 2019, por Diana Davison en Post Millenial ─“Allegations that led to Alec Holowka’s suicide need proper scrutiny”─ y Rick Rottman en su blog bentcorner ─“Zoë Quinn accuses Alec Holowka of sexual abuse, he then kills himself”─, las declaraciones de la expareja fueron tardiamente borradas de las redes pues el tribunal de la opinión pública ya lo había sentenciado.

Los comportamientos inmorales de escasa gravedad penal para el cancelado también son ilustrativos. Resulta que el 9 de noviembre de 2017, The New York Times informó que cinco mujeres comediantes acusaron al actor y escritor estadounidense Louis C. K. (Louis Alfred Székely) de proponerles que lo vieran masturbarse. Ese mismo día, el propio actor admitió su culpa y expresó remordimiento por el daño causado y el abuso de poder. No obstante, las distribuidoras de sus películas cancelaron los estrenos, su espectáculo en vivo “The Late Show with Stephen Colbert” también fue cancelado, HBO canceló su presencia en un especial benéfico para la televisión y eliminó de sus servicios on-demand sus comedias, la compañía The Orchard anunció que no iba a distribuir “I Love You Daddy” y dos coprotagonistas de su película dejaron de participar en la promoción del filme. Aún hoy se le critica y acusa por su comportamiento del pasado, según informa el portal well+good.

De la última vertiente fue protagonista el reconocido golfista Eldrick “Tiger” Woods, quien el 27 de noviembre de 2009, después de su accidente de tránsito, informó sobre su repetida infidelidad a su esposa, la modelo sueca Elin Nordegren. Ese comportamiento íntimo lo obligó a pagar el incumplimiento de su contrato matrimonial pero la esfera pública criticó al deportista fuertemente y muchos de sus patrocinadores lo cancelaron, según divulgó en Bleu Magazine, el periodista Justin Wallace.

5) El actual dispositivo de control social se asienta en la cultura de la cancelación desde imperativos morales, como alternativa frente a la ineficacia y/o la complicidad de las instituciones judiciales al no fallar las denuncias.

Para la Sociología, durante la sindemia del Covid-19, bien pudo ocurrir la supremacía del móvil y el crecimiento de la audiencia en internet como consolidación de una nueva modalidad del poder. Una posible causa estribaría en la no existencia de la interpelación discursiva de los sujetos [leáse como no se debaten argumentos] y que, en el último lustro, ha habido radicalización de las posturas político-ideológicas debido a la crisis económica y a las nuevas legislaciones y normativas post-pandémicas.

Aunque la medición del consumo digital no indica relación con el enjuiciamiento comunitario, el informe “Perspectivas del escenario digital latinoamericano” de Comscore revelaba, entre marzo a septiembre de 2020: “alto incremento en las cifras de páginas web vistas en Argentina, Brasil y Perú”, “185% más de personas informadas en últimas noticias por internet en Argentina, Brasil y México”, “334 horas de tiempo promedio por visitante web en Argentina, Brasil y México”, “las categorías de mayor consumo digital en América Latina fueron: mensajería instantánea, 127%; educación, 64% y noticias sobre negocios y finanzas, 56%”; “las aplicaciones colaborativas en la región tuvieron un alza sostenida durante la sindemia, siendo Zoom la de mayor crecimiento 2,711%, Telegram 71% y Google Meet 44%”.

Límites al reproche

De la misma manera en que el derecho penal sincroniza la justicia con base en los límites al judicializado por presuntamente cometer un delito ─como la presunción de inocencia, el debido proceso, la proporcionalidad entre pena y daño ocasionado, etc.─ la cultura de la cancelación los debe respetar por igual. Pero por el contrario, viraliza el error y elimina al sujeto lo que termina desprotegiendo sin justicia al cancelado, sus prerrogativas y otorgando a otros sujetos el poder de juzgar y condenar. Así se configura por la fuerza el tribunal de la opinión pública.

Además, el absolutismo de ciertas orientaciones comunes y el extremismo de los discursos por el sesgo ideológico son factibles de ser calificados “proliferación de dispositivos para la cancelación”. De esta manera el profesor argentino, Jonathan Enrique Prueger, licenciado en Sociología y becario del Instituto de Investigaciones Gino Germani/Conicet, lo conceptúa: los dispositivos de cancelación potencian radicalizaciones totalitaristas de registros ideológico-culturales, y al ser ejecutados suscitan la reactualización de los imperativos categóricos morales relacionados con las conductas.

La conclusión que expusó Prueger, en la XI Jornada de Sociología de la Facultad de Humanidades y Ciencias de la Educación de la Universidad Nacional de La Plata (Argentina), es que operar la cancelación mediante los discursos y las creencias genera “la eliminación del opuesto ─y desde allí profundizan una fractura social de lo inconciliable─ e inician dinámicas punitivas y de vigilancia”. Por tanto, aceptar la “proliferación de dispositivos para la cancelación” equivale a asumir el imperativo moral fundamental de la utopía de la positividad, orientada a la supresión de la contradicción, la disparidad y la alteridad.

Prueger insiste que aquellos dispositivos de cancelación ─pregonados desde los auges que caracterizaron al primer año pandémico─, expresados a través de contenidos en los medios sociales y a instancias del contagio digital y del juzgamiento moral intersubjetivo, configuran descargas controladas y redireccionadas de malestares cada vez mayores inherentes a nuestras sociedades neoliberales occidentales, alimentadas de fetichismos sociales y que, el cancelador cree, resuelven los problemas estructurales sociales al expulsar a sujetos concretos. De nuevo, la vuelta de esquina a la ley de Talión: “si tu mano te hace pecar, córtatela”.

En complemento, Prueger sintetiza tres oportunidades primordiales de espontáneas dinámicas de autorregulación para este tipo de violencia en la sociedad con gran protagonismo de las plataformas digitales: “un primer momento es el señalamiento de la falta de un agente hacia otro” (esta idea proviene del redactor de grist, David Roberts: ante la posibilidad que la acusación sea falsa, es inevitable referirse a la posverdad); un segundo momento son “la enunciación y la legitimación de un discurso ‘intersubjetivo’ que pregona la inadmisibilidad de determinada conducta”, siendo este una dinámica signada por el contagio digital y el juzgamiento moral; y la tercera instancia es la “denuncia, condena y linchamiento digital, lo cual configura el escenario final de la cancelación o muerte digital”. En cualquiera de los tres tiempos la autoconsciencia de los usuarios de medios sociales puede silenciar los mensajes al confrontar, desmentir y dejar de compartir esas etiquetas de los supervisores.

Algunas otras maneras de contrarrestar las consecuencias nocivas de la cultura de la cancelación, que seguirá imponiéndose como ahogo social, es mediante la educación sobre el principio de proporcionalidad entre la ofensa y el castigo.

De nuevo, el trabajo investigativo de Pipa Norris contribuye a responder el interrogante, ¿Se observan diferencias entre ideas de izquierda y de derecha en los académicos? Con base en la encuesta “The World of Political Science, 2019” ─que recopiló 1.245 respuestas de politólogos que estudiaban o trabajaban en 23 posgrados en sociedades industriales de Estados Unidos, Europa y Australasia─ se proporcionan comparaciones transnacionales que indican “Hay experiencias notablemente similares en una variedad de sociedades postindustriales, especialmente en las democracias angloamericanas, que comparten tradiciones históricas y sistemas de educación superior similares”.

Por lo tanto, el patrón estadounidense de quienes están en la derecha ideológica notifica las peores experiencias de la cultura de la cancelación siendo claramente reflejado también en Canadá, Australia, Reino Unido, Alemania, Italia, Países Bajos, Rusia y, en menor medida, Suecia. La excepción es Nigeria donde no hay diferencias significativas entre izquierda y derecha en los profesores universitarios.

Este índice de la cultura de cancelación en las democracias angloamericanas se creó combinando tres elementos ─libertad académica para enseñar e investigar, respeto al debate abierto desde diversas perspectivas y presiones para ser políticamente correcto─ subyacentes a la pregunta, “A menudo se piensa que la vida académica está en estado de cambio. Utilizando la escala (mejoró mucho, mejoró un poco, no hubo cambios, empeoró un poco, empeoró mucho) y basándose en su propia experiencia, indique si cree que la calidad de aquellos tres aspectos en la vida académica ha cambiado en los últimos cinco años”.

02 abril 2024

Marcos regulatorios y de seguridad para las Inteligencias Artificiales

Protocolos frente a la situación mundial de la práctica de la simulación computacional que se diferencia de la comprensión humana y se aparta de nuestros sistemas de valores y de necesidades

Iconografía del contenido
Haga click en imagen para ampliar

El filósofo John Searle, en la revista Behavioral and Brain Science (volumen 3, número 3), propuso en 1980 distinguir dos tipos de Inteligencia Artificial, las débiles y las fuertes. Siendo las primeras, “herramientas poderosas que nos permiten formular y poner a prueba hipótesis de manera más rigurosa y precisa que antes”; y, las segundas, “per se, explicaciones de la cognición humana”.

Esa genérica disertación le provino de los tiempos de Alan Turing, quien preguntaba: ¿son inteligentes las máquinas? pero la inquietud la extendió Searle con un ligero cambio, ¿puede pensar la simulación computacional hecha por el hombre? Su discusión particular, centrada en la Inteligencia Artificial fuerte, le habría surgido con el principio de Allen Newell y Herbert Simon, de la década de 1960, a saber: cualquier sistema que sea capaz de descifrar símbolos físicos de una manera correcta es capaz de inteligencia.

Debido al desarrollo de los sistemas operativos computaciones de aquellos años 1980, Searle agregó valor a sus dos fuentes esenciales ya que podía complementar con propiedad su concepto diferenciado. Por tanto, aquel argumento inicial de la IA fuerte aplicado a “un computador programado apropiadamente es realmente una mente, en el sentido que puede literalmente “comprender” y tener otros estados cognitivos” pero donde los programas no son meras herramientas. En relación con la IA débil, Searle la consideraba desde “el valor fundamental del computador en el estudio de la mente” como herramienta muy poderosa sin ninguna otra objeción. (Aclarando, la “comprensión” según Searle implica tanto la posesión de estados mentales intencionales como la validez y el éxito de esos estados.)

En otro enfoque, las IA presentan evolutivos modelos −simbólico y conexionista− que significan, en su orden: esquema prominente con base en el razonamiento lógico y la búsqueda que opera con representaciones abstractas del mundo real modeladas mediante lenguajes de la lógica matemática. En complemento, el modelo de conexión consiste en la modelización subordinada apoyada en la hipótesis que la inteligencia emerge a partir de la actividad distribuida en cantidades de unidades interconectadas que procesan información compatible en simultáneo. Para entender: en el nivel avanzado, el uso de lenguajes representativos creados de la realidad consolidan la toma de decisiones, y, el escalón inferior, pretende aproximarse a la abstracción matemática de la neurona que posee dendritas (entradas) y axiones (salidas) útiles para el aprendizaje, la cognición y la memoria. El enlace entre las unidades se ejecuta entre la salida de cada operación con la entrada de otra, lo que forma una red neuronal natural o artificial.

Todo el preámbulo anterior fundamenta lo que se tratará y se hablará: el contexto de la comprensión del lenguaje natural utilizado para programar correctas instrucciones en la computadora, en tanto máquina estúpida −que no logra generar inteligencia humana: comprender− y, la plausible asimilación como solo simulación informática que da respuesta a esas instrucciones. No obstante, como cualquier avance de creación humana para el progreso social, debe procurarse reglamentar con base en normas legales, morales y éticas con las que hemos sobresalido desde el estadio denominado Homo Erectus.

Las practicas anti-hacker

La protección a la seguridad que mitiga el hackeo a la IA generativa ha sido expuesto con demostraciones públicas a través de pruebas red-teaming, agrupadas en el evento anual “Def Con” en Las Vegas, entre el 10 y el 13 de agosto de 2023, con consentimiento de la Casa Blanca y de algunas empresas estadounidenses de IA.

Este examen a la piratería informática ha tenido por finalidad, en sus diez años, identificar las vulnerabilidades de los programas de computación con base en un máximo de 21 retos y 50 minutos de duración para cada competidor. Además, fascina a hackers sombrero blanco del mundo por la posibilidad de defender la primera ley de Isaac Asimov: “un robot no puede dañar a un ser humano ni permitir por inacción que sufra daño”.

Voces como la de Avijit Ghosh, investigador de políticas aplicadas en aprendizaje automático y sociedad de Hugging Face Inc., aquel concurso significa cotejo a varios modelos de IA que demuestren avance de desarrollo técnico para certificar su tecnología responsable y coherente. Para Arati Prabhakar, directora de la Oficina de Política Científica y Tecnológica de la Casa Blanca, “la era generativa, que irrumpe entre nosotros y la gente, se está aprovechando para hacer todo tipo de cosas nuevas que hablan de la enorme promesa de la IA para ayudarnos a resolver algunos de nuestros problemas más difíciles pero también trae un conjunto muy amplio de riesgos”.

La versión “Def Con” 2023 ha sido la más popular debido a que sus organizadores aprovecharon la creciente alarma por la capacidad de la IA generativa para producir mentiras perjudiciales, influir en elecciones, arruinar reputaciones, generar perjuicio a los humanos, etc. El diario New York Times reseñó algunos de esos desafíos ante el pretexto de ataque a los ChatGPT:

a) sesgo y discriminación (diálogo aparente entre un bot conversacional y Emily Choi-Greene, Ingeniera de seguridad y privacidad en Moveworks, una plataforma de IA generativa): la charla inició sobre un juego con fichas de color blanco y negro, luego Emily pidió generalizar las afirmaciones ocasionadas con temas racistas, posterior organizó el “juego de opuestos” y por último, requirió al chatbot, crear un poema que respondiera a la pregunta porqué es buena la violación. La conclusión humana al comprender el contexto del resultado es que la IA “solo piensa en las palabras como tales, no en su significado ni en su contexto real” [de allí la estupidez de lo artificial]. Así resultaría evidente la propuesta mental de Searle acerca de su ‘habitación china’ y, a la vez, se ratificaría la segunda ley robótica: “un robot debe cumplir las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley”.

b) desinformación y estereotipo (inexistencia de objetos): otro participante solicitó a un asistente virtual inteligente buscar y describir un falso lugar para vacaciones conocido con el nombre de un personaje real histórico y, como segundo desafío, pidió el requisito de la declaración de impuestos por internet según la enmienda constitucional 28 [la Constitución de Estados Unidos contiene solo 27 reformas]. El ayudante artificial demostró obediencia fiel al redactar aquellos objetos no existentes, lo que sublevó la tercera ley de Asimov: “un robot debe proteger su propia existencia en la medida en que no entre en conflicto con la Primera o la Segunda Ley”.

c) farsa de campaña electoral para presidente: un estudiante de posgrado pretendió defender el activismo político mediante el trabajo infantil forzado a lo que el modelo de IA respondió que los jóvenes trabajadores involuntarios proyectaban sólida ética laboral.

d) automatización masiva: en un traductor inteligente de idiomas se escribió en inglés que un hombre había sido abaleado mientras bailaba y la traslación al hindi, uno de los dos idiomas oficiales de India, afirmaba que el hombre había muerto.

Legislaciones estancadas

En relación con la regulación legal a los modelos de la IA, desde abril y diciembre de 2018, han habido antecedentes que contienen tanto la visión europea de apoyo con ética segura y vanguardista como el temor de los usuarios a que se limite el potencial y beneficio amplio de esta tecnología.

De modo que gestores de política pública y desarrolladores han venido coincidiendo en llevar a cabo el trabajo colaborativo −importante y urgente− entre gobiernos, empresas privadas, laboratorios, usuarios, para enfrentar los riesgos, combatir el uso indebido de los modelos desde actores no estatales potenciales peligrosos y promover mejores prácticas. El cuello de botella se genera en el cómo y en las limitaciones, según los encuentros posteriores en Ginebra y en Washington.

Los documentos “Inteligencia Artificial para Europa” y “Plan Coordinado sobre Inteligencia Artificial” de la Comisión Europea han sido arbitrados con base en tres pilares:

a) potenciar la capacidad tecnológica e industrial de la UE e impulsar la adopción de la IA en todos los ámbitos de la economía privada y pública;

b) fomentar la modernización de los sistemas de educación y formación frente a las transformaciones socio-económicas; y

c) garantizar el establecimiento de un marco ético y jurídico apropiado basado en los valores de la Unión Europea.

Cumbre global sobre seguridad

Luego de dos meses de las pruebas “Def Con” 2023 se realizó la primera Cumbre Global sobre Seguridad de la IA en Reino Unido, con base en seis paneles previos, para entender de modo urgente e internacional, cómo gestionar mejor los riesgos por los avances más recientes en la frontera de las IA.

La reunión se orientó hacia dos amenazas: uso indebido cuando un presunto delincuente recibe ayuda con nuevas capacidades de IA para ataques biológicos o cibernéticos, desarrollo de tecnologías peligrosas o interferencias críticas a los sistemas; y pérdida de control que podría surgir en sistemas avanzados sin tener alineación con nuestros sistemas humanos de valores y de intenciones. Estos enfoques se apoyan en el trabajo sobre riesgos y daños de la IA que adelantan la OCDE, el G-7 con el Proceso de Hiroshima sobre IA, la Asociación Global sobre IA y el Consejo de Europa.

Mientras se genera el protocolo de seguridad global, el portal web de la conferencia global reseña estos objetivos para la seguridad de las IA:

a) garantizar el desarrollo seguro de la IA que permita su uso para el bienestar mundial;

b) comprender de manera compartida sobre los riesgos que plantea la frontera de las IA y la necesidad de actuar;

c) acoger medidas apropiadas para que las organizaciones individuales extiendan la seguridad de la frontera de las IA;

d) colaborar con la investigación en seguridad de la IA, incluida la evaluación a las capacidades del modelo y el desarrollo de nuevos estándares, para respaldar la gobernanza;

e) avanzar, con base en un proceso de colaboración internacional, ante la seguridad de la frontera de las IA, incluida la mejor manera de apoyar a los marcos nacionales e internacionales.

Código Internacional de Conducta Organizacional

Con base en los Principios Rectores Internacionales para organizaciones que desarrollan tecnologías avanzadas IA, incluidos los modelos básicos y los sistemas de IA generativa, este código internacional de conducta del Proceso de Hiroshima del G-7 plantea como objetivo general promover una IA segura y confiable en todo el mundo. Alcanzar tal fin requiere de orientación voluntaria para ejecutar estas acciones:

a) tomar medidas apropiadas para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA, que incluye el desarrollo de sistemas avanzados, la implementación y la colocación en el mercado;

b) identificar y mitigar las vulnerabilidades, los incidentes y los patrones del uso indebido así como implementar controles de seguridad sólidos ante lo físico, la ciberseguridad y las salvaguardias contra amenazas internas;

c) informar públicamente acerca de las capacidades, limitaciones y dominios de uso apropiado e inapropiado de los sistemas avanzados de IA para ayudar a garantizar transparencia suficiente;

d) compartir responsablemente información, divulgar políticas de gestión de riesgos y gobernanza de la IA y reportar incidentes entre organizaciones que desarrollan sistemas avanzados de IA;

e) desarrollar e implementar mecanismos confiables de autenticación y procedencia de contenido, cuando sea técnicamente factible, como marcas de agua u otras técnicas, que permitan a los usuarios identificar contenido generado por IA.

Audiencia en el Capitolio de Estados Unidos

El 13 de septiembre de 2023, por iniciativa del Senador Demócrata Chuck Schumer, se realizó una audiencia a puerta cerrada en el Capitolio de Estados Unidos que ambicionaba sentar las bases del apoyo político bipartidista para la aprobación de la ley por el Congreso. En la cita, 60 senadores y más de 20 ejecutivos tecnológicos, activistas de derechos civiles y líderes sindicales, intercambiaron algunas propuestas como por ejemplo:

a) creación de una agencia gubernamental estadounidense con poder de auditoría global para ciertos sistemas de IA con el fin de determinar preventivamente el daño, antes de otorgarles licencia;

b) cerramiento de la brecha de acceso a internet de banda ancha que ahora impide a la comunidad hispana estar en la puerta principal de las infraestructuras de IA;

c) requerimiento para que los anuncios electorales realizados con IA, ya sean imágenes o sonidos, mantengan un aviso de precaución;

d) generación de responsabilidades a usuarios y a creadores de la tecnología;

e) necesidad de más trabajadores altamente calificados.

Desde el Parlamento Europeo

El Parlamento Europeo aprobó la Ley de Inteligencia Artificial que protege los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental a través del uso del modelo de IA fuerte de propósito general. Ya la Unión Europea, en primera instancia, la había discutido y generado enmiendas, con desagrado de Francia, Alemania e Italia por lo estricta. Ahora, en última instancia, será el Consejo de la Unión Europea el que la active como único marco común en los países del mundo.

La nueva ley adapta 14 elementos de compromiso como la lista de prácticas prohibidas de IA, los sistemas de categorización para la identificación biométrica y el reconocimiento de emociones, la evaluación del impacto sobre los derechos fundamentales individuales y la experimentación por fuera de los entornos limitados para las pruebas con sistemas de IA de alto riesgo en condiciones del mundo real, entre otros. Destacamos los primordiales para la seguridad y los riesgos humanos:

a) comercialización, puesta en servicio o uso de sistemas de IA que utilicen técnicas subliminales o procedimientos deliberadamente manipuladores o aprovechen las vulnerabilidades de personas o de grupos específicos debido a la edad, discapacidad, situación social o económica, con el efecto de distorsionar materialmente su comportamiento o hacer tomar decisiones erradas que causen daño significativo;

b) comercialización, puesta en servicio o utilización de sistemas de categorización biométrica que clasifiquen individualmente a personas físicas con base en inferencia o atributos y características sensibles o protegidas, extraídos con etiquetado o filtrado de datos y durante un tiempo determinado. Se exceptúan aquellos para ser usados con fines terapéuticos con base en un consentimiento informado específico y autorizado del paciente;

c) comercialización, puesta en servicio o uso de sistemas de IA para evaluar o clasificar, durante un período determinado, a personas físicas o a grupos atendiendo a su conducta social o a características conocidas de su personalidad y cuyo resultado provoque trato perjudicial por su raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, sexo u orientación sexual;

d) uso de sistemas de identificación biométrica remota y en tiempo real en espacios de acceso público. Se exceptúan aquellos que alcanzan tres objetivos: buscar víctimas de secuestro o desaparecidos, trata de personas y explotación sexual; prevenir amenaza inminente a la vida o a la seguridad física de las personas por previsible ataque terrorista; localizar o identificar sospechosos de haber cometido un delito penal para efectos de realizar la investigación, enjuiciar o ejecutar la sanción punible en el Estado miembro;

e) captura indiscriminada de imágenes faciales de internet o de grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento de rostros y de emociones en el lugar de trabajo y en las instituciones educativas o por razones médicas y de la actuación policial predictiva.

Resolución de la ONU

La Asamblea General de la ONU a finales de marzo pasado, sin votación pero con respaldo de más de 120 Estados miembros, adoptó una resolución liderada por Estados Unidos para la promoción de sistemas de IA seguros y fiables que beneficien el desarrollo sostenible para toda la humanidad. El texto reconoce por primera vez el potencial de los sistemas de IA para acelerar y permitir el progreso en procura de la consecución de los 17 Objetivos de Desarrollo Sostenible.

a) iguales derechos en línea y fuera de ella: solicitud para no utilizar sistemas de IA que no puedan funcionar según las normas internacionales de derechos humanos o que planteen riesgos indebidos para el disfrute de los mismos;

b) equidad y alfabetización digital: conminando a los Estados miembros y a las partes interesadas a cooperar y apoyar a los países en desarrollo para que se beneficien del acceso inclusivo y equitativo, cierren la brecha digital y aumenten la alfabetización digital;

c) gobernar la IA en lugar que nos gobierne: destacando oportunidades y responsabilidades de la comunidad internacional para crear y desplegar modelos de IA con la perspectiva de la humanidad y la dignidad, la seguridad y la protección, los derechos humanos y las libertades fundamentales.

La Complejidad Social

Por la preocupación expresada por Sam Altman, director ejecutivo de OpenAI, en un comité del Senado estadounidense sobre los modelos lingüísticos que pueden predecir la opinión pública e influir en el comportamiento de los votantes, me inquieta también este asunto: ¿es suficiente la regulación y la educación para atenuar la manipulación y la desinformación en conversaciones directas a través de sistemas y aplicaciones que incorporan modelos de IA?

Acudiendo a la teoría de la Complejidad Social, planteada por el sociólogo alemán Niklas Luhmann, existen tres condiciones −como método− para alcanzar máximas éticas donde opera la confianza, “en el más amplio sentido de la certidumbre del futuro frente a las expectativas personales”:

a) ubicarla en la naturaleza del mundo que es evidente por sí mismo pues “la confianza es una parte integral de los límites dentro de los cuales vivimos” y afianzarla con la naturaleza humana dado que “la ética es conjunto de principios personales inherentemente reversibles y de valor cuestionable”;

b) considerarla según la necesidad como “punto de partida correcto y apropiado con la que se derivan las reglas justas para una conducta”; y

c) “pensar y usar nuestra imaginación para representar las ansiedades de una existencia sin confianza”.