La XXI Cátedra de Pensamiento Cristiano habla de IA en La Seu d’Urgell

La nueva edición de la Cátedra de Pensamiento Cristiano se celebró el sábado 4 de mayo, presidida por el Arzobispo de Urgell, y con la asistencia de más de 80 personas, entre los que había muchos equipos de pastoral de parroquias, laicos comprometidos, seglares interesados en esta temática, sacerdotes, en el Seminario Diocesano de La Seu d’Urgell. El tema de este año ha sido «Inteligencia Artificial: Luces y sombras», con las ponencias de la Dra. Rosa Maria Alsina, profesora asociada de La Salle; el dr. Ricardo Mejía, Secretario de la Facultad de Filosofía del Ateneo Universitario San Paciano; y el Dr. Francesc Torralba, Director de la Cátedra de Pensamiento Cristiano y Doctor en Filosofía y Teología por la Universidad de Barcelona.

En su intervención durante el discurso de bienvenida el Arzobispo y Copríncipe, Mons. Joan-Enric Vives, dio la bienvenida a los asistentes y ponentes, destacando la reciente peregrinación a Roma con los seminaristas del Seminario Mayor Interdiocesano. En el marco del 750 aniversario de la muerte de Santo Tomás de Aquino, relacionó las “cuestiones Quodlibetales” con el tema de la 21ª Cátedra de Pensamiento Cristiano: la Inteligencia Artificial (IA), que es una realidad presente en la vida cotidiana, pese al gran desconcierto y analfabetismo que hay en su entorno. Aunque reconoce que la Jornada no va a dar un conocimiento experto en la materia, destaca la importancia de tomar conciencia y entender esta nueva realidad. Mons. Vives puso el énfasis en las «luces» de la IA, cómo se ha visto durante la pandemia del COVID-19 con los avances en vacunas y la lucha contra el aislamiento de aquellas personas que o bien estaban hospitalizadas o familiares que no convivían en el propio núcleo familiar. Sin embargo, llamó a la prudencia, ya que, como toda tecnología emergente, la IA tiene sombras tanto técnicas como antropológicas, siendo crucial que actúe de forma responsable y respetuosa con los valores fundamentales. En este sentido, el Arzobispo citó los valores del mensaje por la Jornada Mundial de la Paz 2024 del Papa Francisco como guía: «inclusión, transparencia, seguridad, equidad, privacidad y responsabilidad». Concluyó la bienvenida destacando la necesidad de establecer organismos mundiales que velen por la paz y tengan capacidad de agencia para concretar una legislación que salvaguarde los derechos humanos fundamentales ante esta transformación.

Tras el acto inaugural se ofrecieron perspectivas esenciales sobre la inteligencia artificial permitiendo una comprensión holística; no sólo desde una perspectiva tecnológica, sino también social y ética.

¿De qué hablamos cuando hablamos de inteligencia artificial? Estado de la cuestión”, a cargo de la Dra. Rosa Maria Alsina, ofreció un análisis profundo sobre los conceptos fundamentales y los últimos desarrollos en el campo de la IA estableciendo una base teórica sólida desglosando las diversas definiciones de la IA y su evolución en el tiempo, los principales componentes y paradigmas, incluyendo las redes neuronales, el aprendizaje automático y el aprendizaje profundo. Alsina puso de manifiesto que los algoritmos de la inteligencia artificial (IA) no tienen conciencia ni libre albedrío, sino que operan según modelos de lenguaje y patrones aprendidos de los datos, distanciándose notablemente de la comprensión humana y del libre albedrío. Estos algoritmos, pese a las mejoras constantes, no son conscientes ni tienen pensamiento propio; simplemente generan respuestas basadas en los datos con los que se han entrenado. En respuesta a la creciente preocupación ética y social en torno a la IA, destacada también por el Papa Francisco y nombrada en el inicio por el Arzobispo, Alsina también pidió la creación de organismos éticos y una regulación legislativa para supervisarla y establecer límites claros en relación a la libertad y la percepción de la realidad. Sin embargo, reconociendo la importancia de la IA para mejorar la vida cotidiana, para Alsina es crucial entender sus límites y posibilidades para fomentar un uso responsable y esto sólo se puede hacer impulsando un diálogo público amplio y una legislación que reconozca su potencialidad y marque un camino hacia un uso más ético y responsable de la tecnología.

Después de una pausa, la Cátedra continuó con la ponencia del Dr. Ricard Mejía, «Implicaciones sociales, económicas y políticas de la inteligencia artificial» donde habló de la profunda transformación social y económica que hemos sufrido a raíz de las nuevas tecnologías con especial atención a la IA. Para Mejía, debemos prestar especial atención a la IA ahora que las nuevas generaciones son nativos digitales que experimentan su socialización en el ámbito virtual, nos encontramos con que hoy en día las redes socializan, culturizan y politizan los seres humanos, exigiendo más responsabilidad ética y política a través del nuevo ámbito virtual. Respecto a las consecuencias sociopolíticas de la IA para los sistemas políticos, y en especial al democrático, Mejía expone que la IA no es neutral sino que tiene un carácter ambivalente y polivalente pues “existe una dimensión política en la producción y el uso del llamada IA”, como dice el Papa Francisco, por lo que requiere de un enfoque crítico y el fomento de una conciencia y una formación ética sobre su uso y también sobre aquellos que son diseñadores ya que de ello depende los escenarios a los que nos enfrentamos. A través de la dicotomía si la IA nos hace más libres o más esclavos, explicó cómo, por un lado, es una oportunidad para considerar un sistema político participativo y discrepante con el régimen en el poder siendo un espacio revolucionario digital en contraposición con un espacio público ultra controlado; pero también puede adentrarnos en lo que se llama “neuropolítica” donde la IA es una herramienta que sirve a los intereses políticos de regímenes populistas y autoritarios influyendo en la ciudadana mediante el uso de técnicas de manipulación emocional.

Esta posibilidad la relaciona con el caso de “Neuralink”, desarrollado por Elon Musk, donde la simbiosis hombre-máquina desencadena no sólo preocupaciones éticas sobre el abuso, la privacidad y la seguridad, sino consideraciones sobre la pérdida de autonomía personal de usuario (neurohacking o brain hacking). A método de conclusión, Mejía abogó por un realismo teórico y práctico de la IA pero sin olvidar nuestra vulnerabilidad y lanzó al aire la pregunta sobre hacia dónde queremos dirigir la IA; hacia un escenario utópico donde la IA nos sirve para crear una sociedad más democrática, justa y equitativa, o bien hacia un escenario distópico que implica una visión antihumanista de ruptura que lleva al escenario trágico de una sociedad de la vigilancia.

Después de la comida, el Dr. Francesc Torralba siguió con la última ponencia: “Ética de la inteligencia artificial a la luz del Evangelio” haciendo un discernimiento ético donde los textos del Evangelio inspiran cómo abordar y afrontar la nueva realidad que es la cuestión de la IA. Vivimos una disrupción tecnológica exponencial, nos encontramos en una situación histórica donde existe un desarrollo tecnológico vertiginoso (nanotecnologías, robótica, biotecnologías…) que afecta a diferentes ámbitos de nuestra vida (social, educativo, sanitario, etc.), por el que es imprescindible hacer una reflexión sobre cómo se reubican los actores y procesos habituales en cada uno de estos ámbitos. En los últimos años, explica Torralba, nos encontramos en una situación de asincronía difícil de resolver, donde existe un desajuste entre el ritmo de desarrollo tecnológico y el ritmo de la reflexión ética y de la articulación jurídica en un marco legislativo produciéndose vacíos legales y situaciones de incertidumbre tanto a nivel regional como a nivel global. Ante esta situación, donde la sociedad se polariza entre tecnofóbicos y tecnofílicos, Torralba propuso una solución en que las nuevas tecnologías se reflejen en cinco principios éticos basados ​​en el Evangelio: (1) equidad en la implementación y en los algoritmos por no generar discriminaciones, (2) deben servir y favorecer a los grupos más vulnerables, (3) su uso debe preservar la intimidad de las personas pues es un derecho fundamental, (4) debe haber transparencia respecto a los criterios que regulan los algoritmos, y (5) deben ser veraces para que podamos discernir la verdad de la mentira.

La Jornada concluyó con un turno de diálogo y preguntas de los asistentes y el resumen-clausura del Arzobispo de Urgell agradeciendo a los ponentes sus propuestas y aportaciones, y a los presentes, la asistencia.

Compartir