P. Alberto Carrara, LC, doctor en filosofía y especialista en neurobioética Foto: Universidad Católica de Valencia

¿Debe ponerse un freno a la IA? ¿Dónde están los límites?

Print Friendly, PDF & Email

Entrevista al P. Alberto Carrara, LC, doctor en filosofía y especialista en neurobioética en el Ateneo Pontificio Regina Apostolorum de Roma

Share this Entry
Print Friendly, PDF & Email

(ZENIT Noticias – Observatorio de Bioética de la Universidad Católica de Valencia / Roma, 22.10.2023).- El médico, biotecnólogo y sacerdote italiano Alberto Carrara participó en el Congreso Interuniversitario Nuevas Fronteras en Neuroética organizado por el Observatorio de Bioética de la Universidad Católica de Valencia (UCV). Carrara es profesor de la Facultad de Filosofía en el Ateneo Pontificio Regina Apostolorum (UPRA) y ha sido confirmado como miembro correspondiente de la Pontificia Academia para la Vida para un nuevo quinquenio (2023-2028).

Pregunta: En el Vaticano lidera el equipo multidisciplinario de la Santa Sede en las investigaciones y análisis de temas sobre el desarrollo de la ética robótica, ética en los algoritmos de la inteligencia artificial, neurociencia y realidad aumentada, entre otros. El desarrollo de la inteligencia artificial va muy rápido y hay científicos que están pidiendo un alto. ¿Dónde hay que parar, si es que debe ponerse el freno?

En primer lugar, efectivamente, vivimos en esta cuarta revolución industrial tanto de las biotecnologías como de todo el desarrollo computacional. ¿El alto? Digamos que es para pensar dónde y cómo queremos que se desarrolle, para qué finalidad.

La inteligencia artificial es un hecho, ya se está desarrollando, es el progreso y nos va a ayudar en múltiples campos. Piensen, por ejemplo, en su aplicación como paradigma para predicción de enfermedades, es decir, para ayudar al médico, al clínico experto… Puede ser una herramienta muy útil que auxilie al especialista humano.

Pregunta: Entonces, ¿no hay que frenar el desarrollo, sino encauzarlo para que no haya una inteligencia artificial que autónomamente pueda tomar algunas decisiones, incluso en contra del propio ser humano?

Efectivamente, la inteligencia artificial está alcanzando esta autonomía y por eso tenemos que reflexionar bien, no para parar, sino para entender mejor qué se está desarrollando y cómo podríamos implantar en ese desarrollo valores y criterios éticos para que siempre sea en función del bien, del desarrollo integral de la persona humana, de todas las personas.

 

 

Pregunta: Sin embargo, sin una reflexión explícita sobre qué es el ser humano, sobre qué es la persona, ¿es posible llegar a un acuerdo ético?

La Declaración de la UNESCO de 2005 establece 17 principios muy interesantes. El primero, la dignidad de la persona. Afirmaciones como la integridad, la autonomía, etcétera, son valores y principios muy buenos, pero esos principios después hay que concretarlos. Y sobre el tema de la dignidad, efectivamente, si yo tengo miles de visiones sobre qué es la persona humana, ¿cuál es después el criterio, la aplicación de esa dignidad? Pierde ciertamente, contenido.

Pregunta: También pasa que tantas veces la ideología, por mucha evidencia científica que haya, no la reconoce. Un caso claro es la vida humana. Así, en el ámbito de la fecundación in vitro ya hay programas de inteligencia artificial, algoritmos que deciden cuáles son los mejores embriones.

Efectivamente es una aplicación mala que sigue una línea de visión, no sobre el ser humano, por eso sustituye algo que no es humano -un algoritmo- para quitar también esos riesgos éticos que pueden surgir en el mismo biólogo. En consecuencia, es una aplicación que va contra una visión de la dignidad de la persona humana fundada, digamos, en un realismo y también en una filosofía cristiana.

Hoy en día nadie duda de que en el momento de la fecundación se crea un ser humano único, irrepetible, porque la biología y la genética lo afirman, pero los debates de bioética han cambiado ese concepto de ser humano al tema de si es persona o no; esa es la fractura que se dio en la modernidad: no distinguir, separar, romper la continuidad que hay entre el ser humano y la persona.

Pregunta: ¿Y esa fractura la puede hacer más grande la inteligencia artificial?

No, porque la inteligencia artificial no es autónoma; somos nosotros quienes decidimos acerca de cómo la vamos a aplicar. Por eso la preocupación de muchos es cuánta autonomía se le da en base a cómo está construida, a qué finalidad tenga.

Pregunta: ¿Y puede llegar a ser totalmente autónoma en contra de la voluntad de sus diseñadores, o eso es muy de película de ciencia ficción?

Puede ser autónoma dentro de su ámbito de autonomía. De hecho, ya lo es. Yo vine de Roma a Valencia en avión, que es el paradigma más aplicativo, digamos, en el tiempo y en el uso, de una cierta autonomía de la inteligencia artificial, porque la mayoría del tiempo son los algoritmos los que controlan todo. Entonces, ¿se van a sustituir los pilotos humanos? Eso es lo que la sociedad y los expertos tendrán que decidir.

Porque puede ser que la inteligencia artificial alcance una autonomía tal que podría permitir sustituir completamente al ser humano en algunos ámbitos como el vuelo.

Pregunta: Ha centrado su conferencia en una neuropsiquiatra de origen alemán, Alma Pontius. ¿En qué consiste el modelo médico clínico de euroética que inauguró? ¿Por qué lo considera valioso?

La neuroética empieza justo con esta autora, Alma Pontius, porque en 1973 es la primera que acuña ese término. Ella es médico, clínico, psiquiatra, neuropsiquiatra y por más de seis décadas hizo descubrimientos en el ámbito de la neurociencia, muy valiosos en el ámbito del neurodesarrollo.

Estudió bastante todo el tema de cómo nuestro sistema nervioso, sobre todo el cerebro, se va desarrollando desde nuestro nacimiento en base al entorno, al ambiente también. Entonces ella notó que hay factores endógenos y también factores extrínsecos que van modulando ese sistema, que es muy complejo, así como la vulnerabilidad de los niños y adolescentes debida a la plasticidad de este órgano.

Pregunta: ¿Y por qué habló de neuroética? Porque había una praxis social en Estados Unidos de una mejora motora del ser humano o de los niños recién nacidos que iba en contra del desarrollo real biológico de estos seres vulnerables. Analizando estas praxis, se da cuenta y pone el énfasis en una reflexión ética que tenga como base las neurociencias, es decir, los datos que tenemos sobre cómo estamos constituidos desde la perspectiva neural.

Después se da cuenta de que también en el ámbito social hay praxis cognitivas que no se compaginan bien con el desarrollo neurobiológico y puso la atención en esos problemas que se volvían neuropsiquiátricos. Es decir, percibe que no es lo mismo y no puede ser indiferente interactuar en un cerebro altamente plástico, como el de un niño o un adolescente, que con el de un adulto, así como que, efectivamente, el ambiente, también lo que escogemos, puede afectar de una manera positiva o negativa.

Pregunta: Entonces, este paradigma puede servir en la actualidad en todo el tema del uso o abuso de psicofármacos en personas completamente sanas con la finalidad de mejorar algunas funciones mentales ¿no?

Se están utilizando tecnologías invasivas o no invasivas, electrodos, chips neurales, etcétera, que interfieren en nuestro cerebro en sujetos completamente sanos. No estamos hablando de patologías, sino de potenciar, mejorar, no ir más allá de límites humanos que tenemos. Pero algunos autores dicen que sería un deber moral añadir funciones que el ser humano no tiene ahora.

Pregunta: ¿Y cuál es su opinión al respecto?

No, no lo es. La verdadera humanización efectivamente es un potenciamiento, pero esta mejora empieza con el sujeto que toma conciencia de lo que quiere mejorar y por qué lo quiere mejorar. Todo lo demás son intervenciones externas. Por ejemplo, un grado de atención podrá mejorar un aspecto de la memoria, pero el aprendizaje no es simplemente la retención de datos, sino tomar conciencia de estos datos para poder integrarlos, asumirlos, hacerlos propios. Y todo eso no lo hace la tecnología o los fármacos, lo hace la persona.

Pregunta: Todavía hay mucho por conocer acerca de cómo está construido y funciona nuestro cerebro, pero también el ser humano se nos ha revelado como un misterio. ¿Habrá cuestiones que escapen a tantos estudios, aunque sean necesarios?

No, claro que no. En la ciencia pasa siempre así, ¿no? Cuando yo descubro algo, estoy abriendo otras ventanas, múltiples ventanas. Por eso un descubrimiento, si bien da datos importantes, después abre muchas más preguntas. Y esa es también la fascinación de la ciencia: saber que el progreso científico abre muchas más preguntas a partir de soluciones a preguntas anteriores.

Creo que la ciencia necesita seguir ahondando más en cómo está constituido y funciona nuestro sistema nervioso, nuestro cerebro en particular, pero más que ir a soluciones reduccionistas o funcionalistas, abrirse a la complejidad del hombre.

Share this Entry

Valentina di Giorgio

Apoya ZENIT

Si este artículo le ha gustado puede apoyar a ZENIT con una donación

@media only screen and (max-width: 600px) { .printfriendly { display: none !important; } }