El papa Francisco y la inteligencia artificial
SESIÓN DEL G7 SOBRE INTELIGENCIA ARTIFICIAL
Borgo Egnazia (Apulia - Italia) Viernes, 14 de junio de 2024
https://www.vatican.va/content/francesco/es/speeches/2024/june/documents/20240614-g7-intelligenza-artificiale.html#_ftn15
La irrupción de la inteligencia artificial en el ámbito educativo es un acontecimiento ambivalente: por una parte, entusiasma por las posibilidades que ofrece; por otra, provoca temor ante consecuencias que pueden enturbiar el proceso de enseñanza y aprendizaje. Todos, por una parte, somos entusiastas cuando imaginamos los progresos que se pueden derivar de la inteligencia artificial, pero, al mismo tiempo, nos da miedo cuando constatamos los peligros inherentes a su uso.
Nos hallamos ante una auténtica revolución en el ámbito del conocimiento y la gestión de procesos humanos de todo tipo, que contribuirá a profundas y complejas transformaciones. La inteligencia artificial podría permitir una gran economía en el acceso y la extensión del saber, el progreso exponencial de la investigación científica y la posibilidad de delegar a las máquinas los trabajos penosos para el ser humano; pero, al mismo tiempo, podría traer consigo una mayor divergencia entre sectores sociales o naciones dominantes y avanzadas frente a otras explotadas o excluidas, poniendo en peligro la convivencia social e internacional y propiciando desigualdades injustas.
Es preciso partir de la constatación de que la inteligencia artificial es sobre todo un instrumento y que los beneficios o los daños que esta conlleve dependerán de su uso. Es un hecho histórico que la humanidad ha pervertido sus propios fines y procesos en no pocas ocasiones, transformándose en enemiga de sí misma y del planeta. Es además una herramienta en desarrollo, extremadamente compleja y potencialmente muy poderosa, ya que puede adaptarse de forma autónoma a la tarea que se le asigne y, si se diseña de esa manera, podría resolver determinados supuestos independientemente del ser humano.
La IA puede procesar datos, resolver problemas y situaciones complicadas por medio de algoritmos; lleva a cabo resoluciones técnicas entre varias posibilidades de manera eficiente, se basa en criterios programados y definidos o en inferencias estadísticas.
Por su parte, el ser humano, además, puede deliberar de manera consciente, elegir y tomar decisiones de manera responsable. En tales decisiones se pone en juego a sí mismo, para bien o para mal, adquiere nuevos conocimientos y experiencias que condicionan su pensamiento y su comportamiento en el futuro, sin dejar de ser responsable de ellos. En ello no siempre busca la eficiencia, ya que puede dar importancia y valor a otros aspectos, como el estético, el sentimental o emocional, el moral, el religioso, el pedagógico, etc. Su referente es la prudencia.
En el manejo de la IA, el ser humano pone también en juego el vínculo entre la libertad y la responsabilidad, lo que hace que esté bajo la referencia de la ética. Condenaríamos a la humanidad a un futuro sin esperanza si a las personas renunciaran a la capacidad de decidir por sí mismas, pasando a depender de las resoluciones de las máquinas. Necesitamos garantizar y proteger un espacio de control significativo del ser humano sobre el proceso de resolución y procesamiento de datos utilizado por los programas de inteligencia artificial. Está en juego la misma dignidad humana.
Así, en los conflictos armados, por ejemplo, es urgente replantearse el desarrollo y la utilización de dispositivos como las llamadas “armas autónomas letales” para prohibir su uso, empezando sin dilación por un compromiso efectivo y concreto para introducir un control humano basado en la moral. Ninguna máquina debería elegir jamás poner en riesgo o acabar con la vida de ningún ser humano.
Hay que añadir, además, que el buen uso de las formas avanzadas de inteligencia artificial, dada su complejidad extraordinaria, no estará plenamente bajo el control ni de los usuarios ni de los programadores que definieron sus objetivos iniciales en el momento de elaborarlos, ya que es muy probable que, en un futuro no lejano, los programas de inteligencias artificiales puedan comunicarse directamente entre sí, para mejorar su rendimiento. Esta tendencia a la sofisticación corre el riesgo de acelerarse notablemente con la introducción de los ordenadores cuánticos que no operan con circuitos binarios (semiconductores o microchips), sino según las leyes, bastante articuladas, de la física cuántica. De este modo, un instrumento complejo que el hombre habrá dejado de controlar con sabiduría condicionará y modelará aún más su existencia. Ello también se extiende a la difícil tarea de gobernar o de tomar decisiones que afecten a la salud de las personas a gran escala, por ejemplo.
Vivimos una condición de ulterioridad respecto a nuestro ser biológico; somos seres inclinados hacia el fuera-de-nosotros, es más, radicalmente abiertos al más allá. De aquí se origina nuestra apertura a los otros y a Dios; de aquí nace el potencial creativo de nuestra inteligencia en términos de cultura y de belleza; de aquí, por último, se origina nuestra capacidad técnica. La tecnología es así una huella de nuestra ulterioridad.
Solamente si se garantiza su vocación al servicio de lo humano, los instrumentos tecnológicos revelarán no sólo la grandeza y la dignidad única del ser humano, sino también el mandato que este último ha recibido de “cultivar y cuidar” el planeta y todos sus habitantes (cf. Gn 2,15).
Desde siempre la reflexión humana habla a este propósito de sabiduría, la phronesis de la filosofía griega y, al menos en parte, la sabiduría de la Sagrada Escritura. Frente a los prodigios de las máquinas, que “parecen saber elegir” de manera independiente, debemos tener bien claro que al ser humano le corresponde siempre la decisión, incluso con los tonos dramáticos y urgentes con que a veces ésta se presenta en nuestra vida.
Básicamente, la inteligencia artificial es una herramienta diseñada para resolver un problema y funciona mediante un encadenamiento lógico de operaciones algebraicas, realizado en base a categorías de datos, que se comparan para descubrir correlaciones y mejorar su valor estadístico mediante un proceso de autoaprendizaje basado en la búsqueda de datos adicionales y la automodificación de sus procedimientos de cálculo.
La inteligencia artificial está diseñada de este modo para resolver problemas específicos, pero para quienes la utilizan surge la tentación de obtener, a partir de las soluciones puntuales que propone, deducciones generales, incluso de orden antropológico. Un buen ejemplo es el uso de programas diseñados para ayudar a los magistrados en las decisiones relativas a la concesión de prisión domiciliaria a presos que están cumpliendo una condena en una institución penitenciaria. En este caso, se pide a la inteligencia artificial que prevea la probabilidad de reincidencia del delito cometido por un condenado a partir de categorías prefijadas (tipo de delito, comportamiento en prisión, evaluación psicológica y otros) lo que permite a la inteligencia artificial tener acceso a categorías de datos relacionados con la vida privada de la persona detenida (origen étnico, nivel educativo, línea de crédito, etc.). El uso de tal metodología —que a veces corre el riesgo de “delegar de facto en una máquina la última palabra” sobre el destino de una persona— puede llevar implícitamente la referencia a los prejuicios inherentes a las categorías de datos utilizados por la inteligencia artificial.
El ser humano está siempre en evolución y es capaz de sorprender con sus acciones, algo que la máquina no puede tener en cuenta.
Hay que evidenciar también que aplicaciones análogas a ésta de la que estamos hablando se multiplicarán gracias al hecho de que los programas de inteligencia artificial estarán cada vez más dotados de la capacidad de interactuar directamente con los seres humanos (chatbots), sosteniendo conversaciones y estableciendo relaciones de cercanía con ellos, con frecuencia muy agradables y tranquilizadoras, en cuanto tales programas de inteligencia artificial están diseñados para aprender a responder, de forma personalizada, a las necesidades físicas y psicológicas de los seres humanos.
Olvidar que la inteligencia artificial no es otro ser humano y que no puede proponer principios generales, es a veces un gran error que parte de la profunda necesidad de los seres humanos de encontrar una forma estable de compañía, o bien de un presupuesto subconsciente, es decir, de la creencia de que las observaciones obtenidas mediante un mecanismo de cálculo estén dotadas de las cualidades de certeza indiscutible y de universalidad indudable.
Esta suposición es, sin embargo, descabellada, como demuestra el examen de los límites intrínsecos del cálculo mismo. La inteligencia artificial usa operaciones algebraicas que se realizan según una secuencia lógica (por ejemplo, si el valor de X es superior al de Y, multiplica X por Y; si no divide X por Y). Este método de cálculo —denominado algoritmo— no está dotado ni de objetividad ni de neutralidad
No hay que olvidar, además, que los algoritmos diseñados para resolver problemas muy complejos son sofisticados de tal manera que hacen muy difícil a los propios programadores la comprensión exacta de cómo estos sean capaces de alcanzar sus resultados.
(EDUCACIÓN…)
Finalmente, me gustaría señalar un último ámbito en el que emerge claramente la complejidad del mecanismo de la llamada inteligencia artificial generativa (Generative Artificial Inteligence). Nadie duda de que hoy en día están a disposición magníficos instrumentos de acceso al conocimiento que permiten incluso el autoaprendizaje (self-learning) y la autotutoría (self-tutoring) en una gran cantidad de campos. Están a la orden del día aplicaciones fácilmente accesibles en línea para componer un texto o producir una imagen sobre cualquier tema o materia. Esto atrae de forma especial a los estudiantes que, cuando deben preparar los trabajos e investigaciones, hacen un uso desmedido de aquellas pasando por alto su propio aprendizaje y su reflexión personal.
Por otra parte, la denominada inteligencia artificial generativa, en sentido estricto, no es propiamente “generativa” (tampoco es propiamente “inteligencia”). En realidad, lo que esta hace es buscar información en los macrodatos (big data) y confeccionarla en el estilo que se le ha pedido. No desarrolla conceptos o análisis nuevos. Repite lo que encuentra, dándole una forma atractiva. Y cuanto más repetida encuentra una noción o una hipótesis, más la considera legítima y válida. Más que “generativa”, se la podría llamar “reforzadora”, en el sentido de que reordena los contenidos existentes, contribuyendo a consolidarlos, muchas veces sin controlar si tienen errores o prejuicios.
De este modo, no sólo se corre el riesgo de legitimar la difusión de noticias falsas y robustecer la ventaja de una cultura dominante, sino de minar también el proceso educativo en ciernes (in nuce). La educación, que debería dar a los estudiantes la posibilidad de una reflexión auténtica, corre el riesgo de reducirse a una repetición de nociones, que se considerarán cada vez más incontestables, simplemente a causa de ser continuamente presentadas.
A lo que ya hemos dicho se añade una observación más general. La época de innovación tecnológica que estamos atravesando, en efecto, se acompaña de una particular e inédita coyuntura social, en la que cada vez es más difícil encontrar puntos de encuentro sobre los grandes temas de la vida social. Incluso en comunidades caracterizadas por una cierta continuidad cultural, se crean con frecuencia encendidos debates y choques que hacen difícil llegar a acuerdos y soluciones políticas compartidas, orientadas a la búsqueda de lo que es bueno y justo. Además de la complejidad de las legítimas visiones que caracterizan a la familia humana, emerge un factor que parece acomunar estas distintas instancias. Se registra una pérdida o al menos un oscurecimiento del sentido de lo humano y una aparente insignificancia del concepto de dignidad humana. Pareciera que se está perdiendo el valor y el profundo significado de una de las categorías fundamentales de Occidente: la categoría de persona humana.
Y es así que en esta época en la que los programas de inteligencia artificial cuestionan al ser humano y su actuar, precisamente la debilidad del ethos vinculada a la percepción del valor y de la dignidad de la persona humana corre el riesgo de ser el mayor daño (vulnus) en la implementación y el desarrollo de estos sistemas. No debemos olvidar que ninguna innovación es neutral. La tecnología nace con un propósito y, en su impacto en la sociedad humana, representa siempre una forma de orden en las relaciones sociales y una disposición de poder, que habilita a alguien a realizar determinadas acciones impidiéndoselo a otros. Esta dimensión de poder que es constitutiva de la tecnología incluye siempre, de una manera más o menos explícita, la visión del mundo de quien la ha realizado o desarrollado.
Esto vale también para los programas de inteligencia artificial. Con el fin de que estos instrumentos sean para la construcción del bien y de un futuro mejor, deben estar siempre ordenados al bien de todo ser humano. Deben contener una inspiración ética.
La decisión ética, de hecho, es aquella que tiene en cuenta no sólo los resultados de una acción, sino también los valores en juego y los deberes que se derivan de esos valores.
La forma de moderación ética de los algoritmos y de los programas de inteligencia artificial recibe el nombre de “algorética”. (Nota 1).
No podemos… ocultar el riesgo concreto, porque es inherente a su mecanismo fundamental, de que la inteligencia artificial limite la visión del mundo a realidades que pueden expresarse en números y encerradas en categorías preestablecidas, eliminando la aportación de otras formas de verdad e imponiendo modelos antropológicos, socioeconómicos y culturales uniformes. El paradigma tecnológico encarnado por la inteligencia artificial corre el riesgo de dar paso a un paradigma mucho más peligroso, que ya he identificado con el nombre de “paradigma tecnocrático”.
(POLÍTICA)
…Urge la acción política, como recuerda la encíclica Fratelli tutti. Ciertamente «para muchos la política hoy es una mala palabra, y no se puede ignorar que detrás de este hecho están a menudo los errores, la corrupción, la ineficiencia de algunos políticos. A esto se añaden las estrategias que buscan debilitarla, reemplazarla por la economía o dominarla con alguna ideología. Pero ¿puede funcionar el mundo sin política? ¿Puede haber un camino eficaz hacia la fraternidad universal y la paz social sin una buena política?»
Nuestra respuesta a estas últimas preguntas es: ¡no! ¡La política sirve! Quiero reiterar en esta ocasión que «ante tantas formas mezquinas e inmediatistas de política [...], la grandeza política se muestra cuando, en momentos difíciles, se obra por grandes principios y pensando en el bien común a largo plazo. Al poder político le cuesta mucho asumir este deber en un proyecto de nación y más aún en un proyecto común para la humanidad presente y futura».
Mi reflexión sobre los efectos de la inteligencia artificial en el futuro de la humanidad nos lleva así a la consideración de la importancia de la “sana política” para mirar con esperanza y confianza nuestro futuro. Como he dicho en otra ocasión, «la sociedad mundial tiene serias fallas estructurales que no se resuelven con parches o soluciones rápidas meramente ocasionales. Hay cosas que deben ser cambiadas con replanteos de fondo y transformaciones importantes. Sólo una sana política podría liderarlo, convocando a los más diversos sectores y a los saberes más variados. De esa manera, una economía integrada en un proyecto político, social, cultural y popular que busque el bien común puede “abrir camino a oportunidades diferentes, que no implican detener la creatividad humana y su sueño de progreso, sino orientar esa energía con cauces nuevos” (Laudato si’, 191)» (Nota 2).
Este es precisamente el caso de la inteligencia artificial. Corresponde a cada uno hacer un buen uso de ella, y corresponde a la política crear las condiciones para que ese buen uso sea posible y fructífero.
NOTAS
1.- Este término es del papa Francisco: Cf. Discurso a los participantes en el Congreso “Promoting Digital Child Dignity – From Concept to Action” (14 noviembre 2019); Discurso a los participantes en la Plenaria de la Pontificia Academia para la Vida (28 febrero 2020): (…) “Parecería difícil encontrar una única jerarquía de valores. Pero en el análisis ético podemos recurrir además a otros tipos de instrumentos. Si nos cuesta definir un solo conjunto de valores globales, podemos encontrar principios compartidos con los cuales afrontar y disminuir eventuales dilemas y conflictos de la vida. Por esta razón ha nacido la Rome Call. En el término “algorética” se condensa una serie de principios que se revelan como una plataforma global y plural capaz de encontrar el apoyo de las culturas, las religiones, las organizaciones internacionales y las grandes empresas protagonistas de este desarrollo.”




