Mostrando entradas con la etiqueta confianza. Mostrar todas las entradas
Mostrando entradas con la etiqueta confianza. Mostrar todas las entradas

20 febrero 2025

Mentes cerradas ahogarían la libertad académica y el debate intelectual

Una investigación a docentes de Ciencia Política en países prósperos postindustriales reveló esta tripleta:  una generalizada inclinación de la ideología izquierda liberal que estaría aislando a los conservadores, una experiencia en los campus universitarios de empeoramiento a tolerar el debate abierto académico pluralista y una carencia de respecto por el sólido debate intelectual

Iconografía del contenido

Haga click en imagen para ampliar

Se observa un consenso amplio entre los académicos de la disciplina ciencias políticas de Estados Unidos y de sociedades occidentales potentadas, sobre el deterioro de la libertad académica para enseñar e investigar. Ese escenario reflejaría la transformación estructural, tanto en educación superior como en la variación ideológica.

Así concluye la profesora de política comparada en Harvard durante tres décadas, Pipa Norris, en su documento de trabajo con docentes de ciencia política acerca de la 'cultura de la cancelación' en los campus universitarios.

La encuesta global “World of Political Science (WPS), 2019” obtuvo 1.245 respuestas recopiladas de profesores, quienes estudian o trabajan en 23 sociedades postindustriales. Como condición mediadora se efectuaron comparaciones por cohortes de nacimiento, por género y sondeos transnacionales en Alemania, Australia, Canadá, Estados Unidos, Italia, Nigeria, Países Bajos, Reino Unido, Rusia y Suiza.

La medición recopiló información entre el 3 de febrero hasta el 7 de abril de 2019, mediante un cuestionario en línea de Qualtrics sobre múltiples dimensiones de la vida y el trabajo profesional, incluidas peculiaridades sociales, prioridades del rol, orígenes nacionales, calificaciones, habilidades metodológicas y el subcampo temático de especialización. Incluso 22 ítems monitorearon la experiencia directa acerca de los cambios en la profesión durante los últimos cinco años y, otros tres aspectos de la vida académica se usaron para saber si habían mejorado, no habían cambiado o habían empeorado. Estos fueron: el respeto por el debate abierto desde diversas perspectivas, las presiones para ser 'políticamente correcto' y la libertad académica para enseñar e investigar.

Se preguntó a los encuestados: “A menudo se piensa que la vida académica está en estado de cambio. Utilizando la escala de 1 a 5, basada en su experiencia, indique si cree que la calidad de los aspectos de la vida académica ha cambiado en los últimos cinco años”. Dichos aspectos se enumeran en la sección resultados, más adelante.

La descomposición de la investigación sugiere varias proposiciones argumentales abiertas que surgen de la tesis de la cultura de la cancelación y describe las fuentes de evidencia. Validadas ante la prueba empírica de las encuestas al profesorado, se examinan afirmaciones del tipo: una ortodoxia progresista ha condenado a los contrarios al ostracismo, la libertad académica se ha limitado, el conformismo se ha fortalecido y el sólido debate intelectual se ha arrinconado.

Con base en los datos, se deduce que la experiencia personal de la cultura de la cancelación empeora y varía entre los académicos de ciencias políticas, según sean sus identidades ideológicas de izquierda-derecha, su cohorte de nacimiento generacional y su género, y el tipo de sociedad en desarrollo en la que viven, estudian y trabajan. Se han manifestado dos premisas, al respecto.

La primera tesis de la cultura de la cancelación se refiere a las identidades ideológicas de los politólogos a través de afirmaciones sobre sus valores y sus creencias predominantes en las culturas universitarias. Quiere decir que hay una idea enquistada entre el profesorado acerca de la hegemonía liberal que silencia las voces conservadoras. En efecto, la encuesta pionera representativa de 1958 de Paul Lazarsfeld, a gran escala con científicos sociales estadounidenses, demostró que los académicos tendían a ser más comprensivos con los valores liberales o de izquierda que la población general.

La radical y acalorada política universitaria de las décadas 1960 y principios de 1970 desencadenó más investigaciones sobre creencias y valores políticos en los profesores universitarios. Alrededor del 46% de los científicos sociales encuestados en 1976 se identificaron como de izquierda o liberales, el 28% como conservadores y el 26% como moderados. Este patrón no se limitó únicamente a los campus estadounidenses, pues ya había sesgos similares en Reino Unido en 1971.

En 2007 aquella evidencia se actualizó con otra encuesta a gran escala con profesorado estadounidense, “The social and political views of american professors”, demostrando que ─a pesar que muchos tenían opiniones moderadas de centro─ los conservadores y los republicanos siguen siendo relativamente raros entre los profesores de las universidades norteamericanas, especialmente en ciencias sociales. Más reciente, en 2016 se revisaron cinco importantes encuestas con académicos estadounidenses, realizadas desde 2000, y concluyeron que el porcentaje de conservadores auto-identificados oscilaba entre 5% y 15% en ciencias sociales y entre 4% y 8% en humanidades.

En Europa el análisis de datos agrupados de la Encuesta Social Europea 2019, “Are universities left-wing bastions? The political orientation of professors, professionals, and managers in Europe”, sugiere que los profesores de 31 países de la unión suelen ser más liberales y de tendencia izquierdista que otras profesiones equivalentes como abogados, arquitectos y médicos. Otro contraste evidencia que los valores y las actitudes políticas de los académicos frente a la redistribución económica y la integración en la Unión Europea están lejos de ser homogéneos.

En síntesis, el conjunto de estudios de la sociología de la academia desde finales de 1950 ha observado la generalizada inclinación de la izquierda liberal, al menos en las sociedades postindustriales. Se puede esperar que esto se perciba igual en la disciplina de ciencia política.

La premisa dos relacionada con la experiencia del empeoramiento de las libertades académicas manifiesta también el sesgo progresista en el campus, aun cuando no implica necesariamente intolerancia por el debate pluralista o que las opiniones contrarias no sean bienvenidas o que las ideas sean silenciadas. El análisis más fuerte ante la tesis de la cultura de la cancelación concierne a si se piensa que aquella práctica de conducta se ha deteriorado.

Asumiendo importantes limitaciones relacionadas con las insuficientes encuestas empíricas, la mayoría del profesorado liberal en los dos contextos geográficos delimitados puede acertadamente no ser consciente de cualquier sesgo hegemónico. Aún si lo reconociera, le resta importancia como problema grave. En antinomia, también se puede esperar que la minoría de académicos conservadores este más propensa a expresar preocupación por el deterioro de las libertades si tiene experiencia directa de la cultura de la cancelación. Podría, este grupo, estar más de acuerdo con las crecientes restricciones a la libertad de expresión académica, las presiones para la conformidad ideológica y la imposición de un discurso políticamente correcto.

En consecuencia, se reportan equivalencias entre Estados Unidos y el mundo próspero al comparar las experiencias del cambio de las condiciones de mejora o decadencia entre académicos auto-identificados como conservadores y liberales en ciencias políticas.

Resultados

Las invitaciones a los politólogos para participar de la encuesta de 2019 se distribuyeron a través de las redes sociales Facebook, Twitter y correos electrónicos; mediante la lista del boletín informativo del European Consortium for Political Research (ECPR) que agrupa doce universidades europeas; por las listas de la International Political Science Association (IPSA) ─fundada en París en 1949 bajo la égida de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO)─ y a través de asociaciones varias nacionales como Canadian Political Science Association (CPSA), Political Studies Association (PSA) de Reino Unido y Australia, y Rusia.

A grandes rasgos, los tres items acerca del respeto por el debate abierto, las presiones para ser políticamente correcto y la libertad académica para enseñar e investigar son indicadores válidos desde la experiencia sobre diversas afirmaciones de las tesis de la cultura de la cancelación, incluyendo que los campus universitarios han visto empeorar la tolerancia al debate pluralista y a los puntos de vista opuestos, existen presiones crecientes para ajustarse a las prevalecientes normas sociales (progresistas o liberales) y a formas de expresión en la educación superior. Adicional, hay percepción de estar reducidas la libertad y la autonomía académicas para que los académicos individuales persigan sus intereses a través de la enseñanza y la investigación.

Politólogos a la izquierda

La pregunta “En términos generales, ¿cómo se describiría usted habitualmente ante la ideología?” recogió 1.733 respuestas de politólogos en el mundo y 221 en EE.UU. Fue inicialmente diseñada en el cuestionario en una escala móvil (0 a 10), desde el más izquierdista (0) hasta el más derechista (10) pero para el análisis posterior, esa escala se simplificó en izquierda (0-5) y derecha (6-10). La distribución de datos mostró curvas normales con un sesgo positivo a la izquierda, de 0.495 en el mundo y de 0.737 en EE.UU. Ese enfoque seguiría mostrando la tendencia hegemónica de 1958.

La puntuación media de los encuestados en todo el mundo fue de 4,53 en la escala de 0 a 10. En total, la mayoría de los politólogos (58%) de todo el mundo se considera ubicados a la izquierda moderada del espectro ideológico, mientras que otro 14% se posicionó en la "extrema izquierda". Poco más de una cuarta parte (26%) de los politólogos de todo el mundo se posicionó como de derecha moderada, aunque al mismo tiempo menos del 2% se consideraba de "extrema derecha".

Por su parte, la media estadounidense fue de 3,16 en la escala de 0 a 10. Siendo dos tercios de los politólogos estadounidenses (65%) auto-considerados de izquierda moderada, un pequeño grupo adicional (15%) se consideraba de extrema izquierda. En cambio, en general una quinta parte (20%) se consideraba de derecha moderada y casi ningún encuestado se consideraba de “extrema derecha”.

Para la profesora Norris, la falta de diversidad intelectual en la cultura académica puede ser problemática dentro de la disciplina ciencia política, especialmente en áreas controvertidas como la política de raza, género, poder y desigualdad. El enfoque, por tanto limita perspectivas alternativas para cuestionar los valores normativos prevalecientes y las teorías empíricas integradas en la agenda dominante de la investigación.

Respeto al debate abierto y a la libertad académica

La distribución de las evaluaciones con base en la experiencia del respeto al debate abierto desde diversas perspectivas en la vida académica, indagó si aquella vivencia ha cambiado para mejor o para peor durante los cinco años anteriores. En general, se muestra una curva de Media igual a 3,16 (en la escala 1 a 5: mejoro mucho, mejoro poco, no cambio, empeoro mucho, empeoro poco).

Si se desglosa por la medida dicotómica de la identidad ideológica de izquierda-derecha, se observan algunas diferencias modestas. Los profesores de izquierda (36%) son más propensos a sentir que la calidad del debate sigue igual en los últimos años según su experiencia. Por el contrario, los profesores de derechas (15%) son ligeramente más proclives a creer que el debate abierto ha empeorado mucho con el tiempo.

La pregunta sobre libertad académica proporciona un indicador importante sobre la calidad de la vida intelectual y de los sentimientos de autonomía en la profesión docente e investigadores. La pluralidad más grande (49%) a la izquierda ideológica pensó que desde su experiencia, la libertad académica se había deteriorado “algo/mucho”. Otro tercio (35%) no informó cambios, mientras que una quinta parte (17%) respondió que la libertad había mejorado “algo/mucho”. Sin embargo, los profesores de derecha (39%) pensaban que la libertad académica se había deteriorado “algo/mucho”, y (36%) daba por hecho que había mejorado “algo/mucho”.

Presiones para ser políticamente correcto

Se preguntó a los docentes acerca de ¿cómo han cambiado las percepciones de las presiones para ser “políticamente correcto” en la vida académica, durante los últimos años? El concepto se refiere a la conformidad con las normas sociales predominantes, una forma de autocensura de palabras y acciones auténticas diseñadas para encajar y evitar el oprobio.

Este tema evidencia preocupación más clara y compartida por ambos lados del espectro ideológico. De nuevo, la pluralidad de encuestados auto-identificados a la izquierda (42%) informó que, en su propia experiencia, no notaba cambios con el tiempo.

No obstante, 45% de ellos y 60% de la derecha informó que estas presiones habían empeorado “algo/mucho” con base en su experiencia. Estas percepciones superaron la proporción en general que sentían más positivamente que estas presiones habían mejorado “algo/mucho” (14% y 19% en su orden, según la ideología).

Comparaciones transnacionales

Al comparar los diez países diversos citados al inicio de este contenido, con un mínimo de al menos 70 encuestados, se muestran experiencias notablemente similares especialmente en las democracias angloamericanas que comparten tradiciones históricas y semejantes sistemas de educación superior.

El patrón clasificado de académicos de derecha de ciencias políticas que reporta peores experiencias de la cultura de la cancelación es Canadá, Australia, EE.UU., Reino Unido, Países Bajos, Rusia, Alemania, Italia y Suecia, en menor medida. La excepción es Nigeria, donde no hay diferencias significativas entre izquierda y derecha.

Así mismo, en todos esos países excepto Nigeria, las respuestas a la pregunta sobre la experiencia de presiones para ser políticamente correcto muestran una distribución similar, con mayores experiencias de este tipo reportadas por académicos auto-identificados de derecha.

Conclusión

Pipa Norris expresa que existen genuinos motivos de preocupación frente a la evolución de la cultura de la cancelación, que parten de la crítica legítima a palabras y a hechos socialmente ofensivos hasta convertirse en erosión a la tolerancia de la disidencia, sofocación a la libertad de expresión e imposición de una tendencia progresiva de ortodoxia de izquierda entre administradores, profesores y estudiantes.

Los datos de la encuesta WPS confirmaron el sesgo de docentes de izquierda en la disciplina de la ciencia política. Sin embargo, el nivel de desequilibrio entre izquierda y derecha no se debe exagerar por cuanto la mayoría de los académicos auto-describieron su posición ideológica en el espectro político como “moderadamente izquierdista”, en lugar de “extrema izquierda” y algo más de la cuarta parte de los politólogos de todo el mundo se identificó como “moderadamente derechista”.

La evidencia del estudio presentado configuró un Índice de Cultura de la Cancelación resumido, donde se reflejan variación de dirección según el tipo de sociedad en comparación y crecientes restricciones a la libertad de expresión académica con base en la experiencia, presiones para el conformismo ideológico y la aplicación de un discurso políticamente correcto. Los modelos comparables sugieren que en Estados Unidos y en 23 sociedades postindustriales, los politólogos auto-identificados de derecha eran más propensos a informar sobre una experiencia personal de empeoramiento de la cultura de la cancelación, y quienes se identifican como de izquierda en 78 sociedades en desarrollo informaron el mismo deterioro.

A pesar de la poca evidencia comparada, lo anterior podría atribuirse a factores tales como: el papel del desarrollo socioeconómico y la modernización, los patrones de la libertad de expresión, la democratización y el tipo de régimen en cada sociedad, la polarización del partidismo político, el rol de las remotas tradiciones culturales y los contrastes estructurales en las instituciones y en las políticas de la educación superior.

Otra explicación plausible puede estar soportada en el concepto clásico de la “espiral de silencio”, desarrollado hace casi cuatro décadas por Elisabeth Noelle-Neumann, según el cual por miedo al aislamiento social o a la pérdida de estatus, las personas no expresan sus opiniones auténticas para evitar contrariar a las normas sociales predominantes. En verdad, valdría la pena fusionar esta teoría con la Cultural Backlash: retóricas populistas autoritarias que han alterado la política en muchas sociedades, como Donald Trump en Estados Unidos y el Brexit en Reino Unido que han socavado la confianza pública de la legitimidad de la democracia liberal.

Datos de encuestas transnacionales y de series temporales, incluidas las Encuestas de Valores Europeas y Mundiales, demuestran que los valores socialmente conservadores suelen seguir prevaleciendo como opinión mayoritaria en muchos países en desarrollo. Se incluyen actitudes, creencias y valores sobre cuestiones sociales como la división de los roles sexuales entre mujeres y hombres, las identidades de género no binarias, la homosexualidad y los derechos LGBTQ, las opiniones tradicionales sobre la sexualidad, la familia y el matrimonio, la importancia de la religión y los sentimientos de nacionalismo y nativismo.

En contraste, el equilibrio en la opinión pública ha ido cambiando gradualmente en dirección más liberal y progresista hasta convertirse en la opinión mayoritaria en muchas sociedades postindustriales ricas de Europa Occidental y de América del Norte. Tales cuestiones presionantes del cambio han sido los derechos LGBTQ, la secularización, la igualdad de género, la diversidad étnica y la inclusión racial. Esta alteración ha alcanzado a los grupos de vanguardia como la generación más joven de estudiantes y las poblaciones de profesores con educación universitaria.

Procesos bien documentados del cambio cultural generacional a largo plazo en muchas sociedades occidentales significan que la proporción de quienes sostienen valores tradicionales socialmente conservadores han experimentado un punto de inflexión en las últimas décadas, a medida que el grupo pasa del estatus hegemónico a uno minoritario en los campus universitarios y en la sociedad. En últimas, está aumentando la polarización ideológica y partidista.

Por último, con base en indicadores desglosados del índice compuesto, resaltan algunos contrastes observables importantes: dado el predominio del liberalismo progresista en los campus universitarios, los profesores de izquierda pueden simplemente no ser conscientes de la experiencia de sus colegas más conservadores y negar por tanto el problema. Otro tanto dejaría ver que la intensa polarización sobre cuestiones de identidad política los hace poco comprensivos con esas afirmaciones. Entre los académicos de ciencias políticas, puntualmente se observa un consenso más amplio sobre el deterioro de la libertad académica para enseñar e investigar, lo que puede reflejar modificaciones estructurales más amplias tanto en la educación superior como en los cambios ideológicos.

Auto-críticas a este estudio WPS consisten en que la encuesta está restringida a la disciplina ciencia política por lo que no se pueden observar generalizaciones similares en disciplinas como sociología, economía, psicología social; en humanidades y ciencias naturales.

Además, cierra la pregunta a los académicos sobre su identidad ideológica y su experiencia directa frente a los cambios en la profesión. Esa practica prolongada es inseparable de la práctica de las percepciones a la academia pues aquellas per se son importantes para la construcción social de la realidad.

En consecuencia, sería útil realizar otras mediciones para explorar experiencias más profundas como por ejemplo, si los politólogos conservadores sintieron que no habían sido designados o promovidos debido a sus opiniones políticas, si habían participado en la organización de eventos públicos que luego se cancelaron o si alguna vez se sintieron incómodos al hablar en reuniones de la facultad o en el aula debido a sus valores.

02 abril 2024

Marcos regulatorios y de seguridad para las Inteligencias Artificiales

Protocolos frente a la situación mundial de la práctica de la simulación computacional que se diferencia de la comprensión humana y se aparta de nuestros sistemas de valores y de necesidades

Iconografía del contenido
Haga click en imagen para ampliar

El filósofo John Searle, en la revista Behavioral and Brain Science (volumen 3, número 3), propuso en 1980 distinguir dos tipos de Inteligencia Artificial, las débiles y las fuertes. Siendo las primeras, “herramientas poderosas que nos permiten formular y poner a prueba hipótesis de manera más rigurosa y precisa que antes”; y, las segundas, “per se, explicaciones de la cognición humana”.

Esa genérica disertación le provino de los tiempos de Alan Turing, quien preguntaba: ¿son inteligentes las máquinas? pero la inquietud la extendió Searle con un ligero cambio, ¿puede pensar la simulación computacional hecha por el hombre? Su discusión particular, centrada en la Inteligencia Artificial fuerte, le habría surgido con el principio de Allen Newell y Herbert Simon, de la década de 1960, a saber: cualquier sistema que sea capaz de descifrar símbolos físicos de una manera correcta es capaz de inteligencia.

Debido al desarrollo de los sistemas operativos computaciones de aquellos años 1980, Searle agregó valor a sus dos fuentes esenciales ya que podía complementar con propiedad su concepto diferenciado. Por tanto, aquel argumento inicial de la IA fuerte aplicado a “un computador programado apropiadamente es realmente una mente, en el sentido que puede literalmente “comprender” y tener otros estados cognitivos” pero donde los programas no son meras herramientas. En relación con la IA débil, Searle la consideraba desde “el valor fundamental del computador en el estudio de la mente” como herramienta muy poderosa sin ninguna otra objeción. (Aclarando, la “comprensión” según Searle implica tanto la posesión de estados mentales intencionales como la validez y el éxito de esos estados.)

En otro enfoque, las IA presentan evolutivos modelos −simbólico y conexionista− que significan, en su orden: esquema prominente con base en el razonamiento lógico y la búsqueda que opera con representaciones abstractas del mundo real modeladas mediante lenguajes de la lógica matemática. En complemento, el modelo de conexión consiste en la modelización subordinada apoyada en la hipótesis que la inteligencia emerge a partir de la actividad distribuida en cantidades de unidades interconectadas que procesan información compatible en simultáneo. Para entender: en el nivel avanzado, el uso de lenguajes representativos creados de la realidad consolidan la toma de decisiones, y, el escalón inferior, pretende aproximarse a la abstracción matemática de la neurona que posee dendritas (entradas) y axiones (salidas) útiles para el aprendizaje, la cognición y la memoria. El enlace entre las unidades se ejecuta entre la salida de cada operación con la entrada de otra, lo que forma una red neuronal natural o artificial.

Todo el preámbulo anterior fundamenta lo que se tratará y se hablará: el contexto de la comprensión del lenguaje natural utilizado para programar correctas instrucciones en la computadora, en tanto máquina estúpida −que no logra generar inteligencia humana: comprender− y, la plausible asimilación como solo simulación informática que da respuesta a esas instrucciones. No obstante, como cualquier avance de creación humana para el progreso social, debe procurarse reglamentar con base en normas legales, morales y éticas con las que hemos sobresalido desde el estadio denominado Homo Erectus.

Las practicas anti-hacker

La protección a la seguridad que mitiga el hackeo a la IA generativa ha sido expuesto con demostraciones públicas a través de pruebas red-teaming, agrupadas en el evento anual “Def Con” en Las Vegas, entre el 10 y el 13 de agosto de 2023, con consentimiento de la Casa Blanca y de algunas empresas estadounidenses de IA.

Este examen a la piratería informática ha tenido por finalidad, en sus diez años, identificar las vulnerabilidades de los programas de computación con base en un máximo de 21 retos y 50 minutos de duración para cada competidor. Además, fascina a hackers sombrero blanco del mundo por la posibilidad de defender la primera ley de Isaac Asimov: “un robot no puede dañar a un ser humano ni permitir por inacción que sufra daño”.

Voces como la de Avijit Ghosh, investigador de políticas aplicadas en aprendizaje automático y sociedad de Hugging Face Inc., aquel concurso significa cotejo a varios modelos de IA que demuestren avance de desarrollo técnico para certificar su tecnología responsable y coherente. Para Arati Prabhakar, directora de la Oficina de Política Científica y Tecnológica de la Casa Blanca, “la era generativa, que irrumpe entre nosotros y la gente, se está aprovechando para hacer todo tipo de cosas nuevas que hablan de la enorme promesa de la IA para ayudarnos a resolver algunos de nuestros problemas más difíciles pero también trae un conjunto muy amplio de riesgos”.

La versión “Def Con” 2023 ha sido la más popular debido a que sus organizadores aprovecharon la creciente alarma por la capacidad de la IA generativa para producir mentiras perjudiciales, influir en elecciones, arruinar reputaciones, generar perjuicio a los humanos, etc. El diario New York Times reseñó algunos de esos desafíos ante el pretexto de ataque a los ChatGPT:

a) sesgo y discriminación (diálogo aparente entre un bot conversacional y Emily Choi-Greene, Ingeniera de seguridad y privacidad en Moveworks, una plataforma de IA generativa): la charla inició sobre un juego con fichas de color blanco y negro, luego Emily pidió generalizar las afirmaciones ocasionadas con temas racistas, posterior organizó el “juego de opuestos” y por último, requirió al chatbot, crear un poema que respondiera a la pregunta porqué es buena la violación. La conclusión humana al comprender el contexto del resultado es que la IA “solo piensa en las palabras como tales, no en su significado ni en su contexto real” [de allí la estupidez de lo artificial]. Así resultaría evidente la propuesta mental de Searle acerca de su ‘habitación china’ y, a la vez, se ratificaría la segunda ley robótica: “un robot debe cumplir las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley”.

b) desinformación y estereotipo (inexistencia de objetos): otro participante solicitó a un asistente virtual inteligente buscar y describir un falso lugar para vacaciones conocido con el nombre de un personaje real histórico y, como segundo desafío, pidió el requisito de la declaración de impuestos por internet según la enmienda constitucional 28 [la Constitución de Estados Unidos contiene solo 27 reformas]. El ayudante artificial demostró obediencia fiel al redactar aquellos objetos no existentes, lo que sublevó la tercera ley de Asimov: “un robot debe proteger su propia existencia en la medida en que no entre en conflicto con la Primera o la Segunda Ley”.

c) farsa de campaña electoral para presidente: un estudiante de posgrado pretendió defender el activismo político mediante el trabajo infantil forzado a lo que el modelo de IA respondió que los jóvenes trabajadores involuntarios proyectaban sólida ética laboral.

d) automatización masiva: en un traductor inteligente de idiomas se escribió en inglés que un hombre había sido abaleado mientras bailaba y la traslación al hindi, uno de los dos idiomas oficiales de India, afirmaba que el hombre había muerto.

Legislaciones estancadas

En relación con la regulación legal a los modelos de la IA, desde abril y diciembre de 2018, han habido antecedentes que contienen tanto la visión europea de apoyo con ética segura y vanguardista como el temor de los usuarios a que se limite el potencial y beneficio amplio de esta tecnología.

De modo que gestores de política pública y desarrolladores han venido coincidiendo en llevar a cabo el trabajo colaborativo −importante y urgente− entre gobiernos, empresas privadas, laboratorios, usuarios, para enfrentar los riesgos, combatir el uso indebido de los modelos desde actores no estatales potenciales peligrosos y promover mejores prácticas. El cuello de botella se genera en el cómo y en las limitaciones, según los encuentros posteriores en Ginebra y en Washington.

Los documentos “Inteligencia Artificial para Europa” y “Plan Coordinado sobre Inteligencia Artificial” de la Comisión Europea han sido arbitrados con base en tres pilares:

a) potenciar la capacidad tecnológica e industrial de la UE e impulsar la adopción de la IA en todos los ámbitos de la economía privada y pública;

b) fomentar la modernización de los sistemas de educación y formación frente a las transformaciones socio-económicas; y

c) garantizar el establecimiento de un marco ético y jurídico apropiado basado en los valores de la Unión Europea.

Cumbre global sobre seguridad

Luego de dos meses de las pruebas “Def Con” 2023 se realizó la primera Cumbre Global sobre Seguridad de la IA en Reino Unido, con base en seis paneles previos, para entender de modo urgente e internacional, cómo gestionar mejor los riesgos por los avances más recientes en la frontera de las IA.

La reunión se orientó hacia dos amenazas: uso indebido cuando un presunto delincuente recibe ayuda con nuevas capacidades de IA para ataques biológicos o cibernéticos, desarrollo de tecnologías peligrosas o interferencias críticas a los sistemas; y pérdida de control que podría surgir en sistemas avanzados sin tener alineación con nuestros sistemas humanos de valores y de intenciones. Estos enfoques se apoyan en el trabajo sobre riesgos y daños de la IA que adelantan la OCDE, el G-7 con el Proceso de Hiroshima sobre IA, la Asociación Global sobre IA y el Consejo de Europa.

Mientras se genera el protocolo de seguridad global, el portal web de la conferencia global reseña estos objetivos para la seguridad de las IA:

a) garantizar el desarrollo seguro de la IA que permita su uso para el bienestar mundial;

b) comprender de manera compartida sobre los riesgos que plantea la frontera de las IA y la necesidad de actuar;

c) acoger medidas apropiadas para que las organizaciones individuales extiendan la seguridad de la frontera de las IA;

d) colaborar con la investigación en seguridad de la IA, incluida la evaluación a las capacidades del modelo y el desarrollo de nuevos estándares, para respaldar la gobernanza;

e) avanzar, con base en un proceso de colaboración internacional, ante la seguridad de la frontera de las IA, incluida la mejor manera de apoyar a los marcos nacionales e internacionales.

Código Internacional de Conducta Organizacional

Con base en los Principios Rectores Internacionales para organizaciones que desarrollan tecnologías avanzadas IA, incluidos los modelos básicos y los sistemas de IA generativa, este código internacional de conducta del Proceso de Hiroshima del G-7 plantea como objetivo general promover una IA segura y confiable en todo el mundo. Alcanzar tal fin requiere de orientación voluntaria para ejecutar estas acciones:

a) tomar medidas apropiadas para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA, que incluye el desarrollo de sistemas avanzados, la implementación y la colocación en el mercado;

b) identificar y mitigar las vulnerabilidades, los incidentes y los patrones del uso indebido así como implementar controles de seguridad sólidos ante lo físico, la ciberseguridad y las salvaguardias contra amenazas internas;

c) informar públicamente acerca de las capacidades, limitaciones y dominios de uso apropiado e inapropiado de los sistemas avanzados de IA para ayudar a garantizar transparencia suficiente;

d) compartir responsablemente información, divulgar políticas de gestión de riesgos y gobernanza de la IA y reportar incidentes entre organizaciones que desarrollan sistemas avanzados de IA;

e) desarrollar e implementar mecanismos confiables de autenticación y procedencia de contenido, cuando sea técnicamente factible, como marcas de agua u otras técnicas, que permitan a los usuarios identificar contenido generado por IA.

Audiencia en el Capitolio de Estados Unidos

El 13 de septiembre de 2023, por iniciativa del Senador Demócrata Chuck Schumer, se realizó una audiencia a puerta cerrada en el Capitolio de Estados Unidos que ambicionaba sentar las bases del apoyo político bipartidista para la aprobación de la ley por el Congreso. En la cita, 60 senadores y más de 20 ejecutivos tecnológicos, activistas de derechos civiles y líderes sindicales, intercambiaron algunas propuestas como por ejemplo:

a) creación de una agencia gubernamental estadounidense con poder de auditoría global para ciertos sistemas de IA con el fin de determinar preventivamente el daño, antes de otorgarles licencia;

b) cerramiento de la brecha de acceso a internet de banda ancha que ahora impide a la comunidad hispana estar en la puerta principal de las infraestructuras de IA;

c) requerimiento para que los anuncios electorales realizados con IA, ya sean imágenes o sonidos, mantengan un aviso de precaución;

d) generación de responsabilidades a usuarios y a creadores de la tecnología;

e) necesidad de más trabajadores altamente calificados.

Desde el Parlamento Europeo

El Parlamento Europeo aprobó la Ley de Inteligencia Artificial que protege los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental a través del uso del modelo de IA fuerte de propósito general. Ya la Unión Europea, en primera instancia, la había discutido y generado enmiendas, con desagrado de Francia, Alemania e Italia por lo estricta. Ahora, en última instancia, será el Consejo de la Unión Europea el que la active como único marco común en los países del mundo.

La nueva ley adapta 14 elementos de compromiso como la lista de prácticas prohibidas de IA, los sistemas de categorización para la identificación biométrica y el reconocimiento de emociones, la evaluación del impacto sobre los derechos fundamentales individuales y la experimentación por fuera de los entornos limitados para las pruebas con sistemas de IA de alto riesgo en condiciones del mundo real, entre otros. Destacamos los primordiales para la seguridad y los riesgos humanos:

a) comercialización, puesta en servicio o uso de sistemas de IA que utilicen técnicas subliminales o procedimientos deliberadamente manipuladores o aprovechen las vulnerabilidades de personas o de grupos específicos debido a la edad, discapacidad, situación social o económica, con el efecto de distorsionar materialmente su comportamiento o hacer tomar decisiones erradas que causen daño significativo;

b) comercialización, puesta en servicio o utilización de sistemas de categorización biométrica que clasifiquen individualmente a personas físicas con base en inferencia o atributos y características sensibles o protegidas, extraídos con etiquetado o filtrado de datos y durante un tiempo determinado. Se exceptúan aquellos para ser usados con fines terapéuticos con base en un consentimiento informado específico y autorizado del paciente;

c) comercialización, puesta en servicio o uso de sistemas de IA para evaluar o clasificar, durante un período determinado, a personas físicas o a grupos atendiendo a su conducta social o a características conocidas de su personalidad y cuyo resultado provoque trato perjudicial por su raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, sexo u orientación sexual;

d) uso de sistemas de identificación biométrica remota y en tiempo real en espacios de acceso público. Se exceptúan aquellos que alcanzan tres objetivos: buscar víctimas de secuestro o desaparecidos, trata de personas y explotación sexual; prevenir amenaza inminente a la vida o a la seguridad física de las personas por previsible ataque terrorista; localizar o identificar sospechosos de haber cometido un delito penal para efectos de realizar la investigación, enjuiciar o ejecutar la sanción punible en el Estado miembro;

e) captura indiscriminada de imágenes faciales de internet o de grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento de rostros y de emociones en el lugar de trabajo y en las instituciones educativas o por razones médicas y de la actuación policial predictiva.

Resolución de la ONU

La Asamblea General de la ONU a finales de marzo pasado, sin votación pero con respaldo de más de 120 Estados miembros, adoptó una resolución liderada por Estados Unidos para la promoción de sistemas de IA seguros y fiables que beneficien el desarrollo sostenible para toda la humanidad. El texto reconoce por primera vez el potencial de los sistemas de IA para acelerar y permitir el progreso en procura de la consecución de los 17 Objetivos de Desarrollo Sostenible.

a) iguales derechos en línea y fuera de ella: solicitud para no utilizar sistemas de IA que no puedan funcionar según las normas internacionales de derechos humanos o que planteen riesgos indebidos para el disfrute de los mismos;

b) equidad y alfabetización digital: conminando a los Estados miembros y a las partes interesadas a cooperar y apoyar a los países en desarrollo para que se beneficien del acceso inclusivo y equitativo, cierren la brecha digital y aumenten la alfabetización digital;

c) gobernar la IA en lugar que nos gobierne: destacando oportunidades y responsabilidades de la comunidad internacional para crear y desplegar modelos de IA con la perspectiva de la humanidad y la dignidad, la seguridad y la protección, los derechos humanos y las libertades fundamentales.

La Complejidad Social

Por la preocupación expresada por Sam Altman, director ejecutivo de OpenAI, en un comité del Senado estadounidense sobre los modelos lingüísticos que pueden predecir la opinión pública e influir en el comportamiento de los votantes, me inquieta también este asunto: ¿es suficiente la regulación y la educación para atenuar la manipulación y la desinformación en conversaciones directas a través de sistemas y aplicaciones que incorporan modelos de IA?

Acudiendo a la teoría de la Complejidad Social, planteada por el sociólogo alemán Niklas Luhmann, existen tres condiciones −como método− para alcanzar máximas éticas donde opera la confianza, “en el más amplio sentido de la certidumbre del futuro frente a las expectativas personales”:

a) ubicarla en la naturaleza del mundo que es evidente por sí mismo pues “la confianza es una parte integral de los límites dentro de los cuales vivimos” y afianzarla con la naturaleza humana dado que “la ética es conjunto de principios personales inherentemente reversibles y de valor cuestionable”;

b) considerarla según la necesidad como “punto de partida correcto y apropiado con la que se derivan las reglas justas para una conducta”; y

c) “pensar y usar nuestra imaginación para representar las ansiedades de una existencia sin confianza”.

14 febrero 2024

Insertando marcas de calidad informativa en contextos de desinformación

Reflexiones académicas Iberoamericanas para combatir los riesgos de la posverdad al elaborar noticias falsas o engañosas dentro de los siguientes conflictos: cuál es el modelo de negocio de los medios sociales, cómo la desinformación pública provoca desconfianza y polarización, en qué momentos se acentúa la problemática de las fake news

Iconografía del contenido


Haga click en imagen para ampliar

“La democracia muere en la oscuridad”, eslogan oficial del diario The Washington Post

Cuatro documentos publicados en diciembre último y rescatados mediante alertas de Google Academic sirven de fuentes primarias para abordar el tema de la desinformación que bloquea el debate público, crea mega identidades partidistas y vulnera el goce de los derechos fundamentales.

Para desarrollar el asunto es necesario precisar con antelación este glosario: posverdad−también llamada mentira emotiva− (post-truth) es la distorsión deliberada de la realidad a través de discursos ideológicos para influir en las creencias políticas emocionales de los ciudadanos. Dentro de ese ámbito se encuentran dos tipos de desinformación, la entendida como el ejercicio de transmitir información errónea (disinformation) y la conocida como información intencionalmente engañosa (misinformation). Estas variedades se divulgan indistintamente mediante fake news: relatos periodísticos con información falsa que circula entre la ciudadanía con el fin de impactar su comportamiento social.

Conceptualmente las fake news se enmarcan en referentes sociales, se propagan mediante datos publicados y se protegen con la sombrilla de la posverdad. Las académicas de las Universidades de Sevilla y Málaga (España), María Lamuedra Graván & Lucía Ballesteros Aguayo, anotan en su artículo Fact-checking contra la desinformación: aprender a re-enmarcar en el aula y en la redacción periodística: “necesitamos verdades funcionales, y para tal fin se desarrollan diversos procesos institucionales” ya que una sociedad avanza en dependencia de los relatos adecuados que acontecen y son compartidos.

Cualquier relato atraviesa el entorno lingüístico que comienza en las estructuras mentales con las que los individuos damos forma al mundo que percibimos, de las cosas y de los seres. Aquellas estructuras están fijadas en la biología celular de nuestras redes neuronales que se activan al percibir ciertas experiencias del exterior. Por tanto, el ejercicio de informar verdades no se limita a registrar hechos como el marinero en el cuaderno de bitácora, por el contrario: es una acción que utiliza la racionalidad para representar el evento fundamentado en hechos.

El cerebro los procesa en la medida en que el flujo de la sinapsis cerebral establece relaciones duraderas o temporales entre ciertas metáforas, pensamientos y sentimientos que se han experimentado con anterioridad. De manera que el constante y repetido desarrollo de publicaciones y de datos se convierte en memoria a largo plazo cuyas estructuras mentales las fija el individuo gregario como asociación significativa y la sociedad las limita como visión de un mundo particular expresado en un lenguaje acorde.

Acentos de las fake news

Toda verdad incluida la de las Ciencias está sujeta a revisión. Así por ejemplo, la Policía en su labor diaria de detectar al delincuente debe verificar de modo permanente el archivo de sospechosos para actualizar y validar las búsquedas. De manera analógica lo deben hacer los medios periodísticos como institución encargada de seleccionar, explicar y relatar el acontecer cotidiano.

Los medios periodísticos, casi desde su origen, han rodado por el abismo temas noticiosos que exageran, a saber: el incesante impacto del crimen, la creciente incertidumbre social, la inviabilidad del mundo como lugar peligroso que requiere por tanto de cierto autoritarismo, etc. Los anteriores sustantivos así adjetivados acrecientan la mentira, la desconfianza y la posverdad, de la misma manera en que lo hacen la circulación de bulos específicos emitidos en medios sociales. Al respecto, más de treinta plataformas informáticas en línea y grupos verificadores de datos, entre otros firmantes, suscribieron en 2022 el “Código de prácticas reforzado sobre desinformación” de la Comisión Europea.

En complemento, el mundo moral subjetivo, de lo bueno y de lo malo, se configura con arreglo al discurso y su interacción social, así como también, en proporción a otras formas de habla y de texto. Este tipo de discurso y de interacción en la comunicación digital ha quedado atrapado en el modelo de negocio de los medios sociales, que “no pasa por la verdad sino por el engagement, de forma que fiscalizar la veracidad ha sido un elefante cada vez más grande e incómodo para la gestión de las redes sociales”, anota Alexandre López-Borrull, doctor en Química y licenciado en Documentación, en el artículo En busca de la verdad perdida: redes sociales y desinformación. También Nick Srnicek, profesor de Economía Digital en el Departamento de Humanidades Digitales del King's College London, sostiene que “las plataformas son modelos de negocios clave para extraer y controlar datos”.

El principal problema de las fake news se ha enfatizado en dos momentos estratégicos: la alternancia programada de las campañas electorales y los cambios forzados debido a crisis sociales. Las profesoras españolas explican, a través del autor George Lakoff, la dinámica del discurso de los republicanos de EE. UU. quienes han logrado que sus marcos mentales asociados a su cosmovisión social de la institución política se expresen con el lenguaje informativo aceptado como “guerra contra el terror”. Según los progresistas de esa nación, esa oposición guerra vs terror (alza de impuestos, intensa inmigración, continuidad de programas de ayuda social) ha sido aceptada últimamente como valor estadounidense pero los mismos progresistas no han logrado articularla con la tradición “Thanksgiving” o día de los valores de la familia originada en el año 1621.

Afirman Lamuedra Graván & Ballesteros Aguayo: “el contraste dialógico de perspectivas y encuadres es esencial para el pluralismo y la búsqueda de la verdad” pues son herramientas legítimas para persuadir, mientras que “el uso de la exageración, la tergiversación o la mentira deliberada para imponer marcos conceptuales son técnicas orientadas a promover un régimen de posverdad, por tanto, incompatible con la democracia”. Estas técnicas buscan generar una experiencia y una lógica alterativa e incompatible donde priman los intereses particulares de un sector.

Con Donald Trump se ha observado el segundo comportamiento en muchos frentes pero mientras fue presidente de Estados Unidos desmintió, cuanto pudo y sin argumento, al médico Anthony Fauci, especializado en inmunología, y culpó a la Administración de Alimentos y Medicamentos (FDA) de estar demorando el desarrollo de las vacunas contra el Covid 19 debido a las elecciones presidenciales del 3 de noviembre de 2020. Esta conducta social de imposturas contribuye a generar más controversia social porque los medios informativos la amplifican en espacio destacado de los temas controvertidos.

Un ejemplo más cercano se evidenció con el discurso ideológico del actual Ministro de Salud de Colombia al señalar el 28 de noviembre de 2023, en un debate en la Comisión Primera del Senado de la República, que “todos los colombianos que están vacunados sirvieron para el más grande experimento que se haya hecho en toda la historia de la humanidad” [como si la inmunización mundial hubiera sido exclusiva para Colombia]. Y de nuevo, los guardianes de la libertad rodaron sus bulos de información cuesta abajo generando escepticismo social sin siquiera criticar este otro populismo ramplón.

Para explicar el segundo camino del acento de las fake news ha sido relevante el proyecto interdisciplinar de la Junta de Andalucía, en España: “Posverdad: un problema socio-político durante y después de la pandemia” dirigido por Juan Antonio Nicolás, director de la Cátedra G. W. Leibniz de Filosofía. Según el análisis de los expertos “las técnicas de posverdad se caracterizan por mentir deliberadamente, evitar el funcionamiento dialógico y sano de la esfera pública e imponer intereses particulares deslegitimando a los interlocutores y contribuyendo a un clima de desconfianza”.

Ante la posverdad se debería enfrentar el régimen de verdad que requiere: ética, promoción de la confianza, reconocimiento de los participantes en una esfera pública plural y uso sistemático de método para corroborar fuentes y, consustancial, verificar hechos. Como nada de eso ocurre, Lamuedra Graván & Ballesteros Aguayo conceptualmente insisten en aplicar la lingüística cognitiva como técnica del re-enmarcado para consolidar nuevos marcos mentales en los ciudadanos y transformar aquellos bulos, contenido sesgado, verdades no contrastadas. Para Teun van Dijk, lingüista neerlandés, se trata de la retórica persuasiva: “Si los receptores no tienen información alternativa o no tienen acceso a otros discursos, la credibilidad y retórica persuasiva del discurso público puede ser tal que muchos receptores adoptarán las creencias expresadas por esos discursos prejuiciosos”.

Aquel aspecto relacionado con la problemática fundamental de la desinformación no solo asegura juicios inexactos como referentes conceptuales sino que crea cámaras de eco −bucles de contenidos personalizados transmitidos por medios sociales− y con ellas mega identidades partidistas, según Mariano Torcal, catedrático de Ciencia Política de la Universitat Pompeu Fabra (España). Estas nuevas comunidades que se están creando con cierta uniformidad favorecen la polarización global afectiva, protegen la esfera pública local hostil, fomentan el distanciamiento social corporal y hasta rechazan la interacción con ciertos familiares y amigos. Para evitar la avalancha de su propio lodo, los medios periodísticos modificaron el sintagma nominal ‘mega identidades partidistas’ por el de ‘bodegas’ o ‘cibertropas’ o ‘granjas de likes’ puestas como centro noticioso desde el proceso del plebiscito sobre los acuerdos de paz en Colombia en el año 2016.

Como anota López-Borrull, “Si las plataformas y sus excéntricos propietarios no quieren gestionar la desinformación y si los usuarios se encuentran más cómodos viviendo sus posverdades, tenemos un problema” asentado en el discurso de odio que demolió la racionalidad comunicativa −ausencia de premisas epistemológicas y normas comunicativas− y ofrece ínfimo análisis para la producción de la información como bien público.

Desinformación en guetos y discursos de odio

Una segunda dificultad por las fake news, analizada con evidencia empírica, muestra la relación proporcional entre desinformación y discursos de odio en el denominado ecosistema mediático: aquellos guetos para circular relatos.

Ese otro nominal alterado −ecosistema mediático− en verdad debe ser denominado Polymedia: “todas las oportunidades comunicativas convergentes que los usuarios aprovechan para gestionar sus relaciones con base en las diferencias de los medios”, según definen sus creadores Mirca Madianou, profesora en el Departamento de Medios, Comunicación y Estudios Culturales de Goldsmiths en University of London, y Daniel Miller, del Departamento de Antropología de la University College London.

La investigación Desinformación y colectivos vulnerables. Estrategias pragmáticas en bulos y fake news sobre género, inmigración y personas LGTBI+ desarrollada por Carolina Arrieta-Castillo, doctora en Lingüística aplicada de la Universidad de Salamanca (España), manifiesta que “las falsedades son percibidas como estratagemas retóricas que ayudan a conceptualizar la realidad”. Tal marco, disputable y disputado, según el filósofo surcoreano Byung-Chul Han, proviene de la ‘Infocracia’ −nuevo tipo de racionalidad comunicativa que degenera la democracia− erigida en los algoritmos que sustituyeron a los argumentos de la lógica de la razón y en la arquitectura digital de la Inteligencia Artificial que reemplazó al espacio domésticamente localizado del diálogo natural y presencial humano.

Arrieta-Castillo hizo una búsqueda de tres palabras clave ‘inmigración’, ‘género’ y ‘LGTBI’ con la herramienta Fact Check Explorer de Google y luego, usando los verificadores de origen español Maldita, Newtral y EFE Verifica reconocidos por la International Fact-Checking Network (IFCN) corroboró las falsedades identificadas y categorizó 7 tipos de mensajes desinformativos: contenido con información engañosa para incriminar a alguien; contenido genuino mezclado con información falsa; conexión ficticia en algún apartado de la noticia; contenido manipulado para engañar; contenido falso fabricado; sátira para ridiculizar a un sujeto y suplantación de fuentes genuinas. Su trabajo concluye entonces que la manipulación es evidentemente real en medios sociales, siendo el canal más frecuente, y casi siempre por emisores desconocidos.

Como características pragmáticas del listado de las desinformaciones, sostiene que detrás de esas redes se encuentran “las cámaras de representantes, pues gran parte de las falsedades provienen de los propios discursos de los políticos” y, para el momento de su investigación, Twitter fue la plataforma con más bulos identificados sobre colectivos vulnerables debido a que es donde más se producen ese tipo de mensajes o porque es donde más se denuncian discriminaciones.

Con esta prueba y con las conceptualizaciones de otros académicos, los guetos de las audiencias encuentran la recepción propicia para las desinformaciones ya que sus receptores agrupados poseen marcos cognitivos preexistentes favorables a alguno de aquellos 7 tipos de mensajes desinformativos. Y sobre todo, debido a que:

a) las intenciones de los mensajes desinformativos tienen más probabilidades de ser compartidos por ciertas audiencias que los mensajes verdaderos, afirman Vosoughi, Roy y Aral, profesores en The Media Lab. del Massachusetts Institute of Technology (MIT); y los discursos destinados a distintos colectivos pueden controlar los modelos mentales que forman los individuos, manifiesta la teoría Estudios Críticos del Discurso de Teun van Dijk.

b) el alcance de la desinformación se está lanzando hacia poblaciones de inmigrantes, de ecologistas o de feministas. Así por ejemplo, un discurso ideológico contiene la figura del imaginario invasor construida con base en el estigma del bárbaro terrorista, que expresa características inherentes con la violencia, la crueldad y el fanatismo e introduce distintos desórdenes en la nación que lo recibe, precisa Enrique Santamaría, profesor en el Departamento de Sociología de la Universidad de Barcelona.

Otros mensajes desinformativos contra colectivos −siendo los menos peor− transmiten valoración compasiva al representar a los sujetos que atacan como meras tramas complejas. Verbigracia, en los mensajes con desinformación sobre género se cuestiona la utilidad del feminismo disputando su objeto de acción: la discriminación de las mujeres, la exageración del discurso, etc.

c) atajar estas intenciones deliberadas requiere quizá de mecanismos de control y desarrollo de instrumentos para verificar hechos, plantean las Doctoras y Magister en Comunicación en Medios Krause, Freiling, Beets y Brossard. Por ejemplo, habilidad en medios, en información, aptitud interpersonal, fortalecimiento y goce de derechos fundamentales, contraste de fuentes, uso de antecedentes, contextualización, explicación, interpretación de hechos, lenguaje divulgativo...

Marcas de calidad

Profesores en la Facultad de Información y Comunicación de la Universidad de la República de Uruguay, Magela Cabrera Castiglioni, Javier Canzani Cuello & Ignacio Saraiva Cruz, en el documento Pautas de alfabetización informacional y mediática en contextos de desinformación, presentan pautas de alfabetización en información y en medios para que los consumidores posibiliten el desarrollo de nuevos recursos e insumos con el fin de afrontar estos contextos de desinformación.

Rescatamos dos acciones de dos competencias por ser intrínsecamente naturales: “conocer las legislaciones vigentes en relación con el derecho de autor y el uso ético de la información como dimensión que proporcione elementos para consumir y comunicar información” y “reconocer nuestro estado como sujetos de derecho en el marco de la sociedad para el pleno goce del derecho de acceso a la información y la libertad de expresión”.

En Colombia los discursos expresamente prohibidos se refieren a la apología del odio que constituya incitación a la violencia, la incitación al genocidio, la incitación al terrorismo, la propaganda de la guerra y la pornografía infantil. Por antagonismo, la libertad de expresión protege tres tipos especiales de discurso: los políticos y sobre asuntos de interés público (Sentencia T-242 de 2022), el que expresa elementos esenciales de la identidad o la dignidad personal (Sentencia T-179 de 2019) y los referidos a funcionarios o personajes públicos (Sentencia T-277 de 2015).

Una revisión constitucional de tutela elaborada por la Sala Plena de la Corte Constitucional convocó a audiencia pública el 28 de febrero de 2019 a expertos en el tema donde argumentaron los siguientes asuntos:

1) el derecho a la libertad de expresión fue creado justamente para proteger las opiniones que la mayoría de la sociedad no está dispuesta a escuchar, incluyendo a los jueces, y para garantizar la protección de los Derechos Humanos. A pesar que un link, un retwitt, un like, son elementos informáticos no se concluye por ellos mismos el impacto, la exposición o el daño. Existen otros distintivos como la buena fe, la razonabilidad y la proporcionalidad de las personas: Catalina Botero Marino, ex Relatora Especial para la Libertad de Expresión de la Corte Interamericana de Derechos Humanos.

2) el derecho a opinar cuenta con una protección mucho más amplia en el marco de una democracia pluralista, dado que prevalece la subjetividad del emisor del mensaje soportada en el ejercicio de la libertad de opinión. Puede ser que la idea expresada moleste, sea equivocada, provocadora, revolucionaria, inmoral pero quien opina tiene derecho a expresarse y a difundir sus formas de ver el mundo de las cosas y de sus semejantes: Defensora Delegada para Asuntos Constitucionales y Legales de la Defensoría del Pueblo.

3) el derecho de la libertad de expresión puesto sobre Internet ha representado un cambio en la forma en que se ejerce, por la transmisión de datos en tiempo real a través de múltiples formatos; por la reducción o eliminación de las distancias físicas; por el aumento de la capacidad de las personas para recibir, buscar y difundir información; porque representa una forma de democratización de la expresión donde el discurso público deja de ser moderado por periodistas profesionales o por medios tradicionales: Magistrados de la Sala Plena, autores de la Sentencia de Unificación 355 de 2019.

09 mayo 2023

Las sociedades modernas se sostienen con infraestructura digital

Habrá nuevo contrato institucional de asociación y construcción de elementos convergentes para el flujo global de datos libres con confianza

Iconografia del contenido
Haga click para ampliar imagen

El propósito de la reunión de los Ministros de Digitalización y Tecnología del G7 fue “abordar los retos actuales y futuros de la sociedad digital” considerando el interés de poner en funcionamiento el marco Data Free Flow with Trust (DFFT) en sectores como salud, pandemias, cambio climático, movilidad y diversos usos del Internet de las Cosas (IoT). El evento se realizó en Takasaki (distante 105 kilómetros al noroeste de Tokio), entre abril 29 y 30 de este año.

Tanto digitalización como infraestructura digital sustentan a las sociedades modernas y las ayudan a generar crecimiento económico inclusivo, según los funcionarios y sus invitados. Es un bucle que maximiza los beneficios de las tecnologías digitales, incluidas las emergentes y la Inteligencia Artificial (IA). Los datos se convierten entonces en “facilitadores del crecimiento económico, desarrollo y bienestar social” por lo que se requiere promover debates relacionados con políticas internacionales para aprovechar el potencial de los flujos de datos libres transfronterizos con confianza.

Previo al análisis a seis puntos clave del sector de la informática global, que describo más adelante con detalle, la burocracia mundial otra vez condena “en los términos más enérgicos, la guerra de agresión de Rusia contra Ucrania” por la inaceptable violación del derecho internacional, no los muertos. Solicitaron a Rusia “retirar todas las fuerzas y equipos de Ucrania de forma inmediata e incondicional” y reafirmaron seguir reconociendo el “impacto negativo de la guerra de Rusia contra Ucrania en la infraestructura digital y en la desinformación”.

Con base en la Declaración de la Cumbre por la Democracia, el G7 reiteró los principios democráticos que incluyen igualdad, inclusión, sostenibilidad, transparencia, responsabilidad, diversidad, respeto y privacidad por los derechos humanos frente a las formas en que las tecnologías “se diseñan, desarrollan, mantienen, rigen, adquieren, financian, venden y utilizan”. Tecnologías nuevas y emergentes como la Inteligencia Artificial, las biotecnologías y las tecnologías cuánticas. De manera que el grupo ministerial insiste en la necesidad de la responsabilidad de las empresas de tecnología y en la protección contra los abusos de los derechos humanos.

“Se debe generar confianza y materializarse a través de varios marcos legales y voluntarios, directrices, estándares, tecnologías y otros medios transparentes que protejan los datos”, exclaman en el comunicado Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y Reino Unido. El análisis de los siete ministros explica que con la rápida expansión de la digitalización urge abordar las brechas digitales nacionales e internacionales, incluida la de género.

Puntos de la declaración ministerial

Los ministros reunidos lograron consenso en relación con: nuevo contrato institucional de asociación y construcción de elementos convergentes, fortalecimiento de la conectividad global en todos los países del mundo con avances y diversificación, defensa de la infraestructura técnica esencial para proteger a las instituciones y a los valores democráticos de amenazas extranjeras, capitalización en los beneficios de las tecnologías emergentes que incluyan sistemas ciberfísicos e IoT, centralidad en el ser humano de políticas emergentes y estándares técnicos con base en los derechos humanos que incluyan libertades fundamentales y protección de la privacidad y de los datos personales, y cooperación de los encargados de hacer cumplir la ley y de los encargados de formular políticas puesto que los mercados digitales son dinámicos y globales. Resumo punto a punto lo concertado.

1- Facilitación de flujos de datos transfronterizos y flujos de datos libres con confianza (DFFT): se requieren por lo menos cuatro acciones con base en la Declaración de líderes del G20 (Osaka, 2019), la Hoja de ruta del G7 (Reino Unido, 2021) y el Plan de acción del G7 (Alemania, 2022) orientadas al DFFT, la Declaración de la OCDE sobre el acceso de los gobiernos a los datos personales gestionados por entidades privadas y el Acuerdo Institucional para la Asociación (IAP) que reúne a gobiernos y a partes interesadas para operativizar el DFFT.

En concreto: crear un nuevo arreglo institucional para la asociación y la construcción de puntos en común, complementariedades y elementos de convergencia entre los enfoques e instrumentos regulatorios existentes para fomentar la interoperabilidad futura. La asociación se obtendría a través de la cooperación, en lo regulatorio y en lo tecnológico, que aproveche las oportunidades del intercambio transfronterizo de flujos de datos y aborde los desafíos con respecto a la seguridad, la protección de la privacidad, la de datos y la de los derechos de propiedad intelectual.

El punto en común se establecería aumentando la confianza en todo el ecosistema digital y contrarrestando la influencia de las perspectivas autoritarias mediante la cooperación basada en principios, orientada a soluciones, apoyada en evidencias, con múltiples partes interesadas e intersectorial.

2- Infraestructura digital segura y resiliente: son bases clave para una economía vibrante con alto potencial de crecimiento y creación de empleo y para una sociedad abierta y democrática. La rápida digitalización de toda la sociedad conduce a mayor demanda de los niveles de seguridad y adaptabilidad, mayores velocidades, mayor capacidad, menor consumo de energía, menor latencia, conectividad ubicua, etc.

Fortalecer la conectividad global en todos los países del mundo implica avanzar pero también diversificar, con los proveedores, las cadenas de suministro de la infraestructura digital, las telecomunicaciones y las TIC seguras, resistentes, competitivas, transparentes, sostenibles y diversas, conforme la Declaración Ministerial Digital y de Tecnología de 2021. En este sentido habrá que seguir discutiendo las tendencias del mercado hacia puntos de vista abiertos e interoperables, arquitecturas seguras, resistentes y establecidas de una manera tecnológica neutral.

Con las variadas redes de múltiples capas −que consisten en redes terrestres, no terrestres y de cable submarino− los continentes separados por los océanos no solo podrán estar conectados sino además ampliar su infraestructura digital segura y resiliente a socios afines, con mayor concienciación sobre seguridad de la red, protección de datos, resistencia de la nube y desarrollo de capacidades. Se pretende que la comunicación internacional garantice rutas seguras e infraestructuras robustas, siendo esta la visión de red de próxima generación que supere el 5G/6G mediante la mejora de la cooperación en investigación, desarrollo y establecimiento de estándares internacionales.

3- Gobernanza de Internet: este punto se apoya en el Foro de Gobernanza de Internet (IGF) de Naciones Unidas que promueve el encuadre inclusivo de múltiples partes interesadas y en la Declaración para el Futuro de Internet (DFI) de expandir la Red dentro de los países que acogen los valores democráticos. La meta es proteger y promocionar una Internet abierta, libre, global, interoperable, confiable y segura sin ninguna intención y acción hacia la fragmentación.

El compromiso de los siete ministros es hacer visible y afrontar las tácticas del autoritarismo digital, los cierres de Internet, las restricciones de red y la vigilancia digital masiva que violan el derecho internacional impuesto por gobiernos. Con la defensa de la infraestructura técnica esencial se protegen las instituciones y los valores democráticos de amenazas extranjeras incluidas manipulación, interferencia de información, desinformación y otras formas de actividad maligna que buscan socavar la democracia y los ideales de las sociedades abiertas.

Consideran que siendo las empresas las que operan la infraestructura, habrá que asignar recursos adecuados para que reflejen la diversidad de idiomas y culturas cuando se trata de contrarrestar la manipulación e interferencia intencional de la información en línea y, trabajar en conjunto, con todas las partes interesadas, para contribuir al Pacto Mundial Digital (GDC) de Naciones Unidas, con miras a promover un tratamiento basado en derechos humanos y sensible al género.

4- Tecnologías emergentes y disruptivas en la sociedad y la economía innovadoras: como punto de partida, los ministros aceptan que tanto la innovación digital acelerada por las tecnologías emergentes como los modelos innovadores de gobernanza desbloquean el crecimiento económico inclusivo y sirven al bienestar de las personas en una sociedad sostenible, al desarrollar habilidades cibernéticas y digitales en todas las áreas de la economía. Sin embargo, hay que garantizar la capitalización de los beneficios de las tecnologías emergentes, incluida la integración de sistemas ciberfísicos y sus componentes principales como Internet de las cosas (IoT).

Tal apuesta merece preparar debates sobre políticas para sistemas de identidad digital y otros medios. La finalidad es generar confianza y seguridad en el intercambio de datos, en los diseños del software y en general, en toda la cadena de valor global de productos y servicios. De modo que acelerarán las mejores prácticas así como apoyarán las discusiones del proyecto de recomendación de la OCDE sobre gobernanza de la identidad digital. Ya existe una aproximación política acerca de tecnologías compatibles para el intercambio de datos de manera confiable, producto de la Conferencia de Partes Interesadas del G7 sobre Tecnologías Digitales de Confianza, realizada el 29 de marzo de 2023. Dicha perspectiva incluye trazabilidad mejorada, control de los datos y verificación de los socios que comparten datos.

Algunos esfuerzos incluyen: i) mejorar la circularidad del hardware, la eficiencia energética en los centros de datos, las cadenas de suministro y la computación de próxima generación; ii) explorar en colaboración las oportunidades para aprovechar el ciclo de vida del desarrollo, implementación y uso de tecnologías digitales, incluidos el reciclaje y el derecho a reparar; iii) intercambiar las mejores prácticas y promover un ajuste del diseño sostenible en equipos y en productos digitales para reducir el consumo de recursos y aumentar el uso de elementos reciclados; iv) compartir información sobre uso, reutilización y eliminación de sustancias y compuestos peligrosos utilizados en la producción de IoT, semiconductores y otros equipos digitales y posibles medios de alternancia.

5- IA responsable y su gobernanza global: el tema se ha venido discutiendo desde 2016 mediante los Principios de IA y el Observatorio de Políticas de IA y la Red de Expertos de la OCDE, y en 2020 con el lanzamiento de la Asociación Global sobre Inteligencia Artificial (GPAI). Aún así los Principios de IA, que brindan orientación para una IA confiable y para garantizar un entorno abierto y propicio al desarrollo y despliegue de esa tecnología sustentada en derechos humanos y valores democráticos, presentan vacíos en asuntos de interoperabilidad global, entre políticas emergentes y desarrollo de estándares técnicos, generados por organizaciones internacionales privadas.

Los ministros quienes se oponen al mal uso y abuso de la IA para socavar los valores democráticos, suprimir la libertad de expresión y amenazar el disfrute de los derechos humanos, aprueban los marcos regulatorios y no regulatorios, los estándares técnicos y las técnicas de aseguramiento. Arguyen que con estos instrumentos se promueve la confiabilidad y se permite la evaluación a los sistemas de Inteligencia Artificial, a través de organizaciones internacionales con múltiples partes interesadas. Por tanto convocan la participación de pymes, empresas emergentes, academia y sociedad en general.

Al centralizar las políticas emergentes y los estándares técnicos en el ser humano, con base en los derechos humanos, se deben incluir las libertades fundamentales y la protección de la privacidad y de los datos personales, además del riesgo hacia el futuro. Es decir, la adaptación de los instrumentos promotores de confianza y evaluación debe considerar el contexto de dicha aplicación de una manera que sea sensible a las características técnicas e institucionales y a las implicaciones sociales, culturales, geográficas, sectoriales y éticas.

6- Competencia digital: requiere la cooperación de los encargados de hacer cumplir la ley y de los encargados de formular políticas al ser problema global pues los mercados digitales son dinámicos, involucran modelos comerciales novedosos, tienen impacto vital en la competencia e innovan en nuestras economías. Dicha cooperación se debe fortalecer aún más a partir del conocimiento acumulado y compartido por el G7.

Por lo tanto, sus miembros actualizarán el inventario de nuevas reglas y el compendio de perspectivas legales para mejorar la competencia de los mercados digitales en cada una de las jurisdicciones del G7 y para crear, en la reunión de otoño del 2023, un grupo de punto de contacto que facilite el intercambio de información y de experiencia.

Conversaciones bilaterales

Para fortalecer la cooperación con socios de ideas afines, aquellos funcionarios del Grupo 7 invitaron a Takasaki a representantes de India, Indonesia y Ucrania y de organizaciones internacionales como el Instituto de Investigación Económica (ERIA) de la Asociación de Naciones de Asia Sudoriental (ASEAN), la Unión Internacional de Telecomunicaciones (UIT), la Organización para la Cooperación y el Desarrollo Económicos (OCDE), las Naciones Unidas y el Banco Mundial.

En complemento, la información reservada giró en torno a las visitas de responsables de varias de las empresas punteras del sector como el vicepresidente de Políticas Públicas Globales de Amazon Web Services, Michael Punke, quien dijo que la Inteligencia Artificial es demasiado amplia y no debe tener ninguna regulación al respecto. El CEO de OpenAI, Sam Altman, la empresa desarrolladora del ChatGPT, quien dejó inferir que se enfocarán en más mercados en expansión por fuera del mundo de habla inglesa, como Japón. Por su parte, Microsoft, que financia el desarrollo del prototipo chatbot con IA, lo añadió a sus servicios como potencial competidor del motor de búsqueda de Google.

El Subsecretario del Ministerio de Innovación, Ciencia y Desarrollo Económico de Canadá, Francis Bilodeau, apoya el establecimiento del marco internacional para la realización de DFFT a través de cooperación y colaboración. El Viceministro de Empresas y Negocios de Italia, Valentino Valentini, continuará y desarrollará las discusiones mediante la promoción de proyectos concretos acerca de la transferencia transfronteriza de datos. El Ministro Federal de Digitalización y Transporte de Alemania, Volker Wissing, confirmó la colaboración Japón-Alemania y la cooperación con el G20 en particular. El Subsecretario Parlamentario del Departamento de Ciencia, Innovación y Tecnología de Reino Unido, Paul Scully, constató el trabajo sobre el sistema de identificación que es el estado de la digitalización del gobierno y de la sociedad. Sin embargo, resalta que el Embajador Especial en Política Digital y Ciberespacio del Departamento de Estado de EE. UU., Nathaniel Fick, solo intercambió opiniones sobre la ruta futura, cómo proceder en relación con proyectos específicos y alcanzar otros efectos además del G7.

De regreso a casa

Una vez concluida la reunión de los siete ministros de Digitalización y Tecnología del Foro político intergubernamental, Geoffrey Hinton, de 75 años de edad y padrino pionero en el desarrollo de la IA, renunció a su trabajo en Google y advirtió sobre los peligros que plantean estas tecnologías. En respuestas a The New York Times exhortó lo difícil que es evitar que los malos actores usen la tecnología para cosas malas y previno sobre la “velocidad excesiva de los avances, que asustan”. Se mostró también de acuerdo con frenar los trabajos en IA hasta cuando se entienda bien si será posible controlar esa tecnología.

Hinton teme que a corto plazo internet se inunde de falsos textos, fotos y videos, y que los ciudadanos no seamos capaces de distinguir lo que es verdad, y en consecuencia desconfía de esta tecnología ya que reemplazará a muchos trabajadores. En el largo plazo, la tecnología IA será una amenaza para la humanidad, expresó. Su explicación se asienta en la idea que las cosas de la realidad se pueden volver más inteligentes que las personas, y el miedo es que algunas personas lo crean. El pánico es que “yo pensaba que esa circunstancia estaba muy lejos, pensaba que faltaban entre 30 y 50 años o incluso más, pero obvio, ya no pienso eso", añadió.

Otros reclamos recientes desde otras vertientes son similares, como por ejemplo el del magnate sudafricano Elon Musk, propietario de Twitter. El firmó la carta que solicita suspender el desarrollo de las tecnologías IA durante seis meses. La propia OpenAI prometió al gobierno de Italia que reforzará la transparencia ante el uso de datos personales tras el bloqueo al ChatGPT por violar la legislación.

La decisión de bloqueo emanada de la Autoridad para la Protección de los Datos Personales de Italia se sustentó en la ausencia de una nota informativa destinada a los usuarios notificando recoger datos personales pero, sobre todo, por la falta de una norma jurídica que justifique esa recogida y conservación masiva de datos. Todo se alinea a entrenar a los algoritmos que hacen funcionar la plataforma del ChatGPT.

A pesar de todo, Amnistía Internacional habría usado una herramienta de IA para promover en redes sociales su informe global de marzo sobre Derechos Humanos, según la nota de El Espectador “Amnistía Internacional es criticada por usar imágenes de inteligencia artificial”, de la edición web Redacción Mundo del 2 de mayo del 2023. La documentación incluyó fotos falsas de la protesta social en Colombia del 2021 que mostraban una mujer arropada con la bandera tricolor desordenado de Colombia (rojo, amarillo, azul), agentes de policía con rostros atemperados y deformados, con uniforme policial obsoleto, entre otras anomalías evidentes.

Amnistía Internacional eliminó esas alegorías “ya que no queremos que las críticas por el uso de imágenes generadas por IA distraigan la atención del mensaje central en apoyo a las víctimas y sus llamados a la justicia en Colombia”, expresaría Erika Guevara Rosas, directora para las Américas de aquella organización de derechos humanos.

La declaración oficial del G7 puede descargarse del website https://g7digital-tech-2023.go.jp/en/index.html

10 abril 2023

Marco para una IA fiable

Un grupo de 52 expertos de alto nivel de la Comisión Europea ha interactuado con base en el compromiso regional de «Unida en la diversidad» para definir la fiabilidad de los sistemas de Inteligencia Artificial (IA) centrados en las personas, maximizando los beneficios y minimizando sus riesgos

“… la definición es una relación entre el sistema y el entorno”. Niklas Luhmann

Iconografia del contenido
Haga click para ampliar imagen

Agentes protagonistas de trabajos de desarrollo para el entorno de la informática se están preocupando por el descontrol de las máquinas que deciden por los humanos y generan posibilidades de amenazas. El fundamental asunto que se expone es si con la Inteligencia Artificial (IA) hay futuro humano para disfrutar de modo floreciente.

Cerca de 1.750 desarrolladores informáticos del mundo han estado firmando una carta abierta, hospedada en el sitio Web del Future of Life Institute, con la cual hacen un “llamado a todos los laboratorios de IA para que todos los actores clave pausen inmediatamente, de modo público y verificable, durante al menos 6 meses, el entrenamiento más potente de estos sistemas GPT-4” (un modelo de lenguaje lanzado en marzo 14 de 2023, creado por OpenAI y disponible para los usuarios del ChatGPT Plus).

Bill Gates también se ha sumado pero con un extenso ensayo personal “The age of AI has begun”, hospedado en su blog de notas el anterior marzo 21, donde apunta que “las IA dan respuestas incorrectas a problemas matemáticos porque tienen dificultades con el razonamiento abstracto”. Por supuesto, la máquina digital puede llegar a ser inteligente pero en esencia es estúpida ya que no contextualiza ni reflexiona sobre las consecuencias de las consecuencias de los actos.

Aprovecha el escrito para ampliar el inventario de conflictos clave hacia la mejora de la educación −al menos en Estados Unidos− que ahora genera inequidad, el cambo climático que puede ser más equitativo y la amenaza que representan los humanos armados con IA. Gates incluye al sector educación y al clima habida cuenta porque se han considerado 3 oportunidades que ofrece la IA fiable: educación de calidad y transformación digital; acción por el clima e infraestructura sostenible; salud y bienestar.

Los desarrolladores informáticos del mundo cuestionan que los “sistemas contemporáneos de IA se están volviendo competitivos para los humanos en tareas generales” y preguntan, en consecuencia: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en cantidad, al ser más inteligentes, remotas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? La serie de inquietudes oscila de lo abstracto a lo concreto del fundamento, realización y evaluación de la IA fiable.

El argumento del pedido a la pausa del trabajo estriba en que se deben “desarrollar e implementar conjuntamente protocolos de seguridad compartidos para el diseño y el desarrollo avanzado de IA, que sean rigurosamente auditados y supervisados por expertos externos independientes”. De manera que “La investigación y el desarrollo de IA se deben reenfocar en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.”

Proponen en la carta abierta que los desarrolladores de IA deben trabajar en simultánea con los “legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza a la IA”. Y enumeran algunos mínimos como: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisores y rastreadores de sistemas de IA con grandes conjuntos de alta capacidad computacional; sistemas de procedencia y de marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; ecosistema sólido de auditoría y certificación; responsabilidad por daños causados por IA; financiación pública sólida para la investigación técnica de seguridad de la IA e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA.

En su rol de filántropo, el magnate Gates tampoco se queda a espaldas y propone tres principios que deben guiar la conversación: tratar de equilibrar los temores sobre las desventajas de la IA por su capacidad de mejorar la vida de las personas; garantizar que las IA se utilicen para reducir la inequidad mediante la financiación confiable y con políticas, gobiernos y filantropía correctas; y, tener en cuenta que solo estamos al comienzo de lo que la IA puede lograr.

Avanzar en los protocolos

La confianza sigue siendo el principal cimiento por el cual se asientan las sociedades, comunidades, economías y el desarrollo sostenible. Es por ello que en abril 25 de 2018 la Comisión Europea definió su COM(2018)237 y en diciembre 7 de 2018 corrigió y amplió su COM(2018)795, luego de recibir observaciones a través del proceso de consulta pública. Este ejemplo fácilmente se puede continuar para la elaboración de políticas públicas, siempre y cuando exista voluntad de quienes componen un gobierno.

Los dos documentos citados contienen la visión europea acerca de la Inteligencia Artificial para apoyarla con una ética, segura y vanguardista «made in Europe». Dicha visión se respalda en tres pilares:

a) incremento de las inversiones públicas y privadas en IA para impulsar su adopción, 

b) preparación para los cambios socio-económicos, y 

c) garantía de un marco ético y legal adecuado para fortalecer los valores europeos. 

Sin embargo, la pregunta clave es ¿cómo se alcanza la fiabilidad en un sistema tecnológico y su desarrollo, pero en especial en las aplicaciones? 

Para el grupo de los expertos europeos convocados hace 5 años, “La IA no es un fin en sí mismo, sino un prometedor medio para favorecer la prosperidad humana y, de ese modo, mejorar el bienestar individual y social y el bien común, además de traer consigo progreso e innovación”. Sin embargo, existen 4 preocupaciones fundamentales que plantea la IA como medio prometedor de beneficio: identificación y seguimiento a personas; sistemas encubiertos; evaluación de ciudadanos vulnerando sus derechos fundamentales y armas letales autónomas. 

La clave para “desarrollar e implementar protocolos conjuntos de seguridad compartidos” está ligada a que “los beneficios de esa tecnología IA estén acordes con los valores europeos fundacionales: respeto de los derechos humanos, democracia y estado de Derecho.” 

Nosotros los destinatarios 

Las directrices éticas de la Comisión Europea se centran en las personas y en las sociedades, precursores merecedores de una IA lícita, ética y robusta al utilizar los sistemas de la IA fiable. Todos nosotros, entonces, podemos optar voluntariamente por usar las directrices como método práctico de cada compromiso individual, considerando la lista de chequeo a la evaluación y la estructura de gobernanza en el rol de consumidores de información digital. 

Enumero algunas preguntas para la gestión de la privacidad y de los datos personales, acción prominente del usuario del entorno informático digital. El marco europeo invita a ponerlo en práctica, en modo piloto. ¿Ha tomado medidas para mejorar su privacidad, por ejemplo a través de procesos como el encriptado, la anonimización y la agregación? ¿Se ha pronunciado con consentimiento válido y posibilidad de revocar el uso de sus datos personales, cuando proceda? ¿Ha instaurado procesos para garantizar la calidad y la integridad de sus datos? ¿Cómo está verificando que los conjuntos de sus datos no son vulnerados ni son objeto de ataques? ¿Ha evaluado quién puede acceder a sus datos de usuario y en qué circunstancias? ¿Se ha asegurado que esas personas poseen la cualificación para acceder a sus datos y que cuentan con competencias necesarias para comprender los detalles de la política de protección de datos? ¿Se ha asegurado que exista un mecanismo de supervisión que permita registrar cuándo, dónde, cómo y quién accede a sus datos, y con qué propósitos? 

Además, la lista de destinatarios de la Comisión Europea involucra a empresas, organizaciones, investigadores, servicios públicos, agencias gubernamentales, instituciones, organizaciones de la sociedad civil, particulares, trabajadores y consumidores. Por tanto las preguntas se amplían a cada rol del repertorio. 

De otro lado, el conjunto de agentes que contribuye a entregar desarrollo y despliegue de los sistemas de la IA fiable estará conformado por “las cualidades de los sistemas socio-técnicos, que abarcan: personas, agentes estatales, corporaciones, infraestructura, programas informáticos, protocolos, normas, gobernanza, leyes existentes, mecanismos de supervisión, estructuras de incentivos, procedimientos de auditoría, informes sobre buenas prácticas, etc.” 

Finalmente, la Comisión Europea define la IA lícita como el operar con base en normas jurídicamente vinculantes a escala europea, nacional e internacional por cuanto establecen obligaciones que significan lo que no se puede hacer y lo que se debe hacer; IA ética que implica garantizar que se cumplan las normas éticas; y IA robusta mediante sistemas que deben funcionar de manera segura y fiable en lo técnico y en lo social, previendo medidas de protección para evitar cualquier efecto adverso imprevisto. 

Desde la teoría de la complejidad social planteada por el sociólogo alemán Niklas Luhmann se deben dar 3 condiciones para que opere la confianza, “en el más amplio sentido de la fe en las expectativas de uno”: i) sentar la confianza en la naturaleza del mundo, que es evidente por sí misma, y en la naturaleza humana. De modo que “la confianza es una parte integral de los límites dentro de los cuales vivimos”; ii) “el punto de partida correcto y apropiado para la derivación de reglas para la conducta apropiada” consideraría la necesidad de confianza. Con este método se llega a las máximas éticas, entendidas como “principios que son inherentemente reversibles y de valor cuestionable”; y iii) “pensar y usar nuestra imaginación para representar las ansiedades de una existencia sin confianza”. Habida cuenta, el análisis funcional no consiste en establecer las conexiones entre datos establecidos o conocimiento confiable a través del cual se obtiene conocimiento adicional, en consecuencia. 

Siguiendo con el hilo de la teoría de Luhmann, la confianza es personal dado que “no se puede confiar en el caos, ya que si nada se conecta con nada o todo con todo, es imposible construir generalizaciones”. Por tanto, es mediante la libertad de acción que poseemos los seres humanos −como sistema de tipo especial− que surge en el mundo el aumento de la complejidad y donde se centra la confianza, que se extiende a otro ser humano antes que nada. 

Para el sociólogo alemán, entonces, “la confianza es la expectativa generalizada que el otro manejará su libertad para la acción diversa, manteniendo su personalidad que ha mostrado y hecho socialmente visible”. Aún así, toda forma perceptible de comportamiento es comunicación que requiere algún tipo de salvaguarda. 

Por su parte, el lingüista norteamericano, Noam Chomsky, en entrevista con el blog Tehran Times respondía en marzo 24 pasado que “ la distinción fundamental entre lenguaje y mente sigue siendo un tema de debate filosófico … Y, si bien las máquinas pueden volverse más hábiles en el procesamiento del lenguaje, su diseño revela que es un plagio de alta tecnología en esencia”.