Trevor Sutton
(ZENIT Noticias – Instituto Acton / Lansing, Michigan, 24.03.2024).- La inteligencia artificial (IA) es para los pájaros. O al menos eso es lo que parece sugerir el preámbulo del «Anteproyecto para una Declaración de Derechos de la IA». Elaborada en octubre de 2022 bajo los auspicios de la Oficina de Política Científica y Tecnológica de la Casa Blanca, esta declaración comienza con una acusación contra la inteligencia artificial (IA): «Entre los grandes retos que se plantean hoy a la democracia está el uso de la tecnología, los datos y los sistemas automatizados de formas que amenazan los derechos del público estadounidense».
Mientras tanto, el público estadounidense ya utiliza la IA a diario. Aunque pueda parecer futurista y compleja, la IA es esencialmente una máquina capaz de realizar una tarea que de otro modo requeriría inteligencia humana. Productos de consumo corriente como Siri, Alexa y Google son ejemplos de IA. La IA se utiliza para ingresar un cheque con una aplicación bancaria o para enviar un mensaje de texto mediante la función de voz a texto. Sin embargo, la IA va más allá de estos productos de consumo ordinarios e incluye innovaciones como el reconocimiento facial, los chips informáticos implantados en el cerebro y la IA generativa creadora de contenidos.
Según esta Carta de Derechos de la IA, ésta plantea muchas amenazas a la sociedad, entre las que se incluyen los prejuicios latentes, las violaciones de la privacidad y las violaciones contra la humanidad como resultado de la transmisión de información falsa. Tras declarar la independencia estadounidense de la IA, la declaración propone formas de mitigar estas amenazas mediante el diseño y el uso responsables de esta tecnología. Esto incluye propuestas de sistemas seguros y eficaces, protecciones contra la discriminación algorítmica y alternativas y salvaguardas humanas.
La Unión Europea está aplicando una política similar. La Comisión Europea pretende regular esta tecnología mediante la Ley de IA, una propuesta para categorizar diversos sistemas de IA. La Ley de IA establecería varias categorías de IA que irían desde riesgo inaceptable, alto riesgo, riesgo limitado o riesgo mínimo. Prohibiría los sistemas de IA que plantean riesgos inaceptables, como los sistemas de puntuación social y el reconocimiento facial. Regularía estrictamente los sistemas de IA de alto riesgo, como la cirugía asistida por robots y la verificación informática de documentos de viaje. Y los sistemas de IA de riesgo limitado o mínimo, desde los chatbots a los filtros de spam, tendrían una regulación mínima o nula. Aunque lleva años en preparación, la Ley de Inteligencia Artificial no entrará en vigor hasta 2025 como muy pronto.
Este cúmulo de nuevas políticas que pretenden regular la IA es el resultado de los grandes avances de esta tecnología. Hace más de seis décadas, los informáticos empezaron a concebir ideas para transferir la inteligencia humana a las máquinas. Ahora este campo incipiente ha alcanzado nuevas cotas, especialmente con una nueva clase de IA conocida como IA generativa.
La IA generativa utiliza el aprendizaje automático para crear nuevos contenidos como texto, imágenes, vídeos y sonidos. Algunos ejemplos populares de aplicaciones de IA generativa son ChatGPT, Bard de Google, Dall-E y Murf. A medida que más personas utilizan aplicaciones de IA generativa, esta tecnología está ahora en todas partes: en el trabajo, en la escuela, en casa y en la iglesia.
La IA generativa utiliza el aprendizaje automático para crear nuevos contenidos como texto, imágenes, vídeos y sonidos.
Sin embargo, este artículo no defiende que la inteligencia artificial sea cosa de pájaros. Tratar la IA como un albatros que hay que prohibir no es un camino sostenible para la sociedad. Más bien, este artículo explorará cómo el aumento de la IA -y de la IA generativa en particular- pone en juego la necesidad de que los seres humanos construyan disciplinas, habilidades y comunidades compensatorias. Un florecimiento humano sólido debe contrarrestar el auge del aprendizaje automático.
Gorriones, búhos y superordenadores
Nick Bostrom, director del Instituto del Futuro de la Humanidad de la Universidad de Oxford, ofrece una parábola ornitológica en su libro “Superinteligencia: Caminos, peligros, estrategias”. La parábola inacabada de Bostrom sobre los gorriones dice así: varios gorriones se afanaban en construir sus nidos. Tras días de largo y agotador trabajo, empezaron a lamentarse de lo pequeños y débiles que eran. Entonces, uno de ellos tuvo una idea: «¿Y si tuviéramos un búho que nos ayudara a construir nuestros nidos?». Esta idea generó entusiasmo sobre otras formas en que un búho podría ser útil a los gorriones. Podría cuidar de los jóvenes y los ancianos. Podría dar consejos. Podría protegernos del gato del vecindario.
Con gran entusiasmo, se embarcaron en la búsqueda de una lechuza abandonada o de un huevo de lechuza sin eclosionar. Pero un gorrión huraño llamado Scronkfinkle les advirtió de que los búhos bebés se convierten en búhos grandes. Argumentó que primero deberían aprender el arte de domesticar búhos antes de traer un búho a su nido. Varios otros se opusieron a esta advertencia alegando que simplemente encontrar un huevo de búho sería trabajo más que suficiente. Estos gorriones decidieron que empezarían por conseguir una cría de lechuza y que después se plantearían el reto de domarla. Con un entusiasmo desenfrenado, se aventuraron a buscar una cría de búho.
Mientras tanto, sólo quedaban unos pocos gorriones en el nido para comenzar la tarea de averiguar cómo podrían los gorriones domesticar a un búho.
Como la mayoría de las parábolas, esta historia va más allá de los gorriones y los búhos. Bostrom ofrece esta parábola inacabada como una forma de reflexionar sobre los riesgos de introducir entre nosotros superinteligencias como la IA. La humanidad son los gorriones; el aprendizaje automático es el búho.
¿Cómo termina la parábola? A falta de una conclusión, hay que adivinar qué les ocurre a los gorriones. El final más espantoso -y poco imaginativo- de la parábola es que el búho sale del cascarón y se come a todos los gorriones. Para nuestra sociedad tecnológica, se trata de la noción de un inminente apocalipsis de la inteligencia artificial.
¿Podría haber otro final posible para esta parábola? Supongamos que termina así: el búho nace y no se come a los gorriones. Al vivir con los gorriones, el búho empieza a actuar y pensar como un gorrión. En lugar de comerse a los gorriones, el búho aprende el arte de los gorriones de construir nidos y recolectar alimentos. A medida que más habilidades y prácticas pasan de los gorriones al búho, los primeros se debilitan y el segundo se fortalece. El único cambio perceptible es que los gorriones olvidan el tacto de las ramitas, el aire y la elevación del vuelo. La aventura de evitar a los depredadores desaparece para los gorriones. El arte y la técnica de hacer nidos pasa de los gorriones al dominio de los búhos.
Un final menos obvio, aunque trágico, de esta parábola es que el búho da lugar a gorriones más débiles, con capacidades disminuidas y disciplina, destreza y comunidad atrofiadas. La IA generativa nos hará lo mismo a menos que la acompañemos de un florecimiento humano robusto.
¿Es la IA generativa una amenaza para la humanidad?
Al igual que en esta parábola, la IA generativa es como un joven búho ansioso y dispuesto a servirnos. Aplicaciones de consumo como ChatGPT y el de Google ofrecen beneficios inmediatos. Sin embargo, estos potentes dispositivos pueden ser perjudiciales para los usuarios humanos.
El beneficio más inmediato de la IA generativa es su capacidad para completar tareas que requieren mucho tiempo. Las aplicaciones de IA generativa pueden crear un itinerario de viaje detallado a partir de una serie de indicaciones proporcionadas por un usuario. O un propietario puede utilizar estas aplicaciones para redactar un correo electrónico dirigido a un contratista solicitándole un presupuesto para un proyecto doméstico. La IA generativa puede escribir y depurar programas informáticos, crear discursos comerciales y traducir textos a diferentes idiomas. Éstos son sólo algunos de los beneficios inmediatos de esta tecnología emergente.
¿Cómo funciona la IA generativa? La IA generativa forma parte de un nuevo campo de la IA conocido como grandes modelos lingüísticos. Basándose en iteraciones anteriores de la IA, este nuevo paradigma utiliza algo llamado «modelos base». Cantidades masivas de datos sirven de base para el aprendizaje automático. La IA generativa es un superordenador alimentado con terabytes de datos en forma de palabras, lenguaje y texto, de ahí el «gran» de los modelos de lenguaje de gran tamaño. Mientras que los búhos se alimentan de gusanos y ratones, los grandes modelos lingüísticos se alimentan de datos lingüísticos extraídos de Internet.
El ordenador toma todos estos datos, los analiza y los organiza en categorías y conexiones denominadas redes neuronales. El superordenador utiliza estas redes neuronales para resolver problemas lingüísticos como la clasificación de textos, la respuesta a preguntas, el resumen de documentos y la generación de textos. La IA generativa funciona como un autocompletado o chatbot muy sofisticado. Esta tecnología utiliza el aprendizaje automático para «chatear» respuestas convincentes a nuestras preguntas o peticiones.
Esta descripción básica de la IA generativa nos permite abordar la cuestión central de este artículo: ¿Cómo puede suponer una amenaza para la humanidad? Como los gorriones de la fábula, la IA generativa puede debilitar la disciplina, la habilidad y la comunidad humanas. Esta tecnología emergente tiene el poder de socavar el florecimiento humano. Cuanto más dependan los humanos de esta tecnología, mayor será el riesgo de atrofia. Sin contrapesos, la IA generativa debilitará la capacidad humana para componer literatura, poesía, música y programas informáticos. Esta tecnología puede mermar las habilidades hermenéuticas humanas, como la interpretación literaria o la toma de decisiones judiciales. A medida que aumenta la dependencia humana de estos dispositivos, puede disminuir la capacidad humana sin ayuda para componer, interpretar y pensar.
Por ejemplo, ChatGPT puede crear una revisión bibliográfica que resuma libros y artículos sobre un tema concreto. Con la velocidad de un búho, esta aplicación de IA generativa puede leer, digerir y regurgitar una gran cantidad de información sobre un tema determinado. Esta tecnología supera la velocidad de lectura humana. A medida que los humanos descarguemos el trabajo de revisión bibliográfica a los superordenadores, nuestras habilidades y capacidades en este sentido se irán atrofiando. Leer grandes cantidades de texto, organizarlo por temas y resumir los puntos principales se convertirá en una práctica anticuada. En este sentido, la IA generativa puede capacitar a los humanos para alcanzar nuevas cotas de conocimiento al liberarlos de tareas monótonas. Por otro lado, la velocidad similar a la de un búho de esta tecnología no incluye necesariamente la sabiduría o la verdad. Puede empujarnos a un futuro de «posverdad» en el que estemos inundados de hechos e información pero carezcamos de guías sobre lo que es verdadero o sabio.
La pérdida de la capacidad humana para realizar este tipo de trabajo entraña otros peligros furtivos. Los humanos dependerán de estas herramientas para componer, interpretar y traducir. Los humanos seguirán siendo capaces de componer, pero sólo con la ayuda de la IA de Google. Los humanos seguirán siendo capaces de interpretar, pero sólo con ChatGPT para hacer el trabajo pesado. Los humanos seguirán siendo capaces de traducir, pero sólo con la ayuda de Google Translate. Estos potentes dispositivos nos hacen al mismo tiempo más listos y más tontos, más fuertes y más débiles, más humanos y menos humanos. Podremos elevarnos a nuevas alturas, pero sólo con la ayuda de estas herramientas. Pero, como el hombre pájaro Ícaro, todo se vendrá abajo si nuestras herramientas artificiales nos fallan.
Sin embargo, la IA generativa no es la única que plantea esta amenaza a la humanidad. Forma parte de una larga serie de dispositivos que erosionan las habilidades, la disciplina y la comunidad humanas. Antes de la IA generativa, las aplicaciones de los teléfonos inteligentes, por ejemplo, ya nos ayudaban a navegar por las carreteras y aumentaban nuestra visión del cielo nocturno. Aunque esta tecnología ha proporcionado beneficios inmediatos a viajeros y observadores de estrellas, también ha incapacitado nuestra capacidad para determinar los puntos cardinales o encontrar la Estrella Polar en medio de un mar de estrellas. Por otra parte, mucho antes de la inteligencia artificial generativa o las aplicaciones para teléfonos, el pan Wonder Bread producido en masa liberó a la humanidad del trabajo de hornear sin parar. Este desarrollo fue lo mejor desde el pan rebanado, pero supuso un profundo enfriamiento del hogar y de la práctica de la panadería. A medida que la sociedad progresa con superordenadores, teléfonos inteligentes y otros avances tecnológicos, retrocedemos a un estado en el que no podemos escribir ni pensar, navegar ni hornear nuestro propio pan, sin la ayuda de dispositivos.
Dispositivos, objetos focales y contrapesos
Mucho antes de la llegada de la IA generativa, Albert Borgmann ya escribía sobre los dispositivos tecnológicos. Borgmann es un estudioso de la filosofía de la tecnología recientemente fallecido. En su libro “Technology and the Character of Contemporary Life”, Borgmann sostenía que la tecnología ha moldeado la vida contemporánea en torno a su peculiar patrón. Borgmann sugería que el patrón de la tecnología se vuelve particularmente dañino cuando no hay medios por los que se pueda «podar los excesos de la tecnología y restringirla a un papel de apoyo».
Borgmann distingue entre «cosas focales» y «dispositivos». Una cosa focal requiere concentración, habilidad, compromiso corporal y social, y contexto. Según Borgmann, un objeto focal es «inseparable de su contexto, es decir, de su mundo, y de nuestro comercio con el objeto y su mundo, es decir, de nuestro compromiso». La experiencia de una cosa es siempre y también un compromiso corporal y social con el mundo de la cosa. Al suscitar un compromiso múltiple, una cosa proporciona necesariamente más de una mercancía».
Una estufa de leña es un elemento central: requiere habilidad y compromiso corporal para cortar leña, sazonar la madera y encender el fuego. Esta cosa existe en un contexto de bosque, hogar, familia y comunidad. Conlleva compromiso social y concentración, ya que varias personas contribuyen al proceso y se convierte en un punto central del hogar.
Un artefacto contrasta claramente con un elemento central. Los aparatos no exigen habilidad, fuerza ni atención. Proporcionan bienes para disfrutar sin estorbos ni contexto. La falta de estorbos hace que su consumo sea irreflexivo y desechable. Los dispositivos tecnológicos producen una mercancía sin imponernos ninguna carga. Son rápidos, fáciles, infalibles y seguros. Un horno o un sistema de calefacción central son aparatos. Estos aparatos proporcionan calor sin que el receptor lo pida. El ChatGPT también es un ejemplo de dispositivo. Este dispositivo proporciona una mercancía -resúmenes, ensayos, respuestas- sin ninguna habilidad, preparación o exigencia por parte del usuario.
Las cosas requieren la participación humana activa y cualificada; los dispositivos no requieren atención, compromiso ni contexto. Las cosas requieren práctica; los dispositivos invitan al consumo. Las cosas constituyen una realidad dominante; los dispositivos procuran una realidad desechable. Aunque los dispositivos tecnológicos liberan ostensiblemente a la humanidad del trabajo, la pobreza y el sufrimiento, esta liberación viene acompañada de desconexión, distracción, mercantilización y aislamiento. El paso de las cosas a los dispositivos -o de la creatividad humana a la inteligencia artificial generativa- no carece de consecuencias.
Mientras que aparatos como ChatGPT y el Bard de Google no exigen nuestras habilidades, fuerza o atención, las cosas focales sí lo hacen. Los objetos focales, como los libros, los violines, los pinceles y las cañas de pescar con mosca, exigen nuestras habilidades, nuestra fuerza y nuestra atención. Las cosas focales son entidades concretas, tangibles y atractivas que requieren una práctica para prosperar en su interior: «Patrocina la disciplina y la habilidad que se ejercitan en una unidad de logro y disfrute, de la mente, el cuerpo y el mundo, de mí mismo y de los demás, y en una unión social».
Las cosas focales están relacionadas con las prácticas focales. Borgmann sostiene que el culto colectivo, la comunión en la mesa, la lectura en voz alta y la música en directo son algunas de las prácticas focales que los seres humanos pueden seguir. Atender a estas prácticas fomentará la disciplina y la habilidad, la fuerza y la atención, el compromiso y la comunidad.
El florecimiento humano y los dispositivos generativos de IA pueden coexistir con la ayuda de cosas y prácticas focales. Las recetas de chatbot necesitan el contrapeso de la conversación humana y la cultura de la mesa. Los resúmenes de “Los hermanos Karamazov” elaborados sin esfuerzo por la IA deben ir acompañados del esfuerzo humano de escuchar a Dostoievski leído en voz alta. Las imágenes generadas artificialmente que son una quimera de la realidad necesitan la misma atención que ver obras de arte humanas o aventurarse al aire libre. Vivir bien en un mundo de chatbots y de IA generativa requiere cosas y prácticas focales. Los seres humanos tendrán que dedicarse a disciplinas, habilidades y comunidades compensatorias. Un florecimiento humano sólido debe contrarrestar el auge del aprendizaje automático y la generación.
Una historia de pájaros con un final diferente
Invitar a la inteligencia artificial no tiene por qué acabar en tragedia. La novela “Watership Down”, de Richard Adams, nos ayuda a imaginar cómo pueden coexistir la superinteligencia y el florecimiento. La novela narra la historia de un intrépido grupo de conejos desplazados de su madriguera. Mientras se embarcan en una aventura de supervivencia, estos conejos reclutan la ayuda de una gaviota llamada Kehaar.
Cuando los conejos conocen a Kehaar, éste se está recuperando de una herida. Le dan de comer y lo llevan a su improvisada madriguera. Mientras el pájaro se recupera y se prepara para partir, una coneja llamada Hazel tiene una idea: ¿Y si el pájaro pudiera buscar otras madrigueras y conejos? Hazel comparte su plan con los demás conejos, diciendo: «¡El pájaro irá a buscarnos!». A uno de los otros conejos, Blackberry, le encanta la idea y les dice a los demás: «¡Qué idea tan maravillosa! Ese pájaro puede averiguar en un día lo que nosotros no podríamos descubrir en mil!».
Los dispositivos no exigen habilidad, fuerza ni atención.
Los conejos ponen en práctica su plan de forma inteligente. Le insinúan al pájaro que tienen un predicamento -una madriguera de conejos machos sin ninguna hembra- y que necesitan ayuda. Kehaar ofrece su poder de vuelo para ayudar a los conejos a buscar otras madrigueras. Y así, los conejos se asocian con este pájaro en su aventura de supervivencia.
La ayuda de este pájaro no debilita a los conejos ni merma sus habilidades. Esta banda de conejos florece en medio de una aventura que requiere disciplina, habilidad y comunidad. El poder del pájaro no crea una existencia sin esfuerzo para los conejos. Las cosas y prácticas necesarias para que los conejos prosperen equilibran la superinteligencia del pájaro. Aunque emplean la ayuda del pájaro, los conejos continúan su aventura de supervivencia, que fomenta la disciplina y la habilidad, la fuerza y la atención, el compromiso y la comunidad.
La IA no es sólo para los pájaros. Rechazar esta tecnología por miedo o por el deseo de preservar el statu quo es insostenible. Sin embargo, esta tecnología puede ir en contra del florecimiento humano y dejarnos más débiles, más tontos y más dependientes. Para prosperar en un mundo de chatbots tendremos que vivir como conejos, no como gorriones. Los gorriones de la parábola inacabada buscaban un búho que trabajara para ellos. Los conejos de Watership Down buscaron una gaviota para que trabajara con ellos en su aventura de disciplina, habilidad y comunidad. Son historias similares con finales muy diferentes.
¿Cómo acabará nuestra historia cuando introduzcamos la inteligencia artificial en nuestros nidos y madrigueras, hogares y escuelas, iglesias y comunidades? Todo depende de lo bien que cultivemos las disciplinas, las habilidades y las comunidades mientras nos aventuramos en este nuevo y valiente mundo.
- Trevor Sutton es pastor principal en la Iglesia Luterana de San Lucas en Lansing, Michigan, y candidato a doctorado en el Seminario Concordia, San Luis. También enseña en el programa de humanidades digitales de posgrado en la Universidad Concordia de Ann Arbor. Sutton ha escrito varios libros, incluyendo «Redeeming Technology» (coescrito con Brian Smith, M.D.) y «Authentic Christianity» (coescrito con Gene Edward Veith Jr.), y sus escritos sobre tecnología han aparecido en el Washington Post, Religion News Service, Christian Century y otros medios. Traducción deloriginal en lengua inglesarealizada por el director editorial de ZENIT.
Gracias por leer nuestros contenidos. Si deseas recibir el mail diario con las noticias de ZENIT puedes suscribirte gratuitamente a través de este enlace.