Más Platón y menos Chat GPT

Sobre Inteligencia Artificial y filosofía

DISCLAIMER

El presente ensayo representa algunas ideas tentativas sobre la inteligencia artificial y la humanidad. Lo presento al solo efecto de provocar la discusión sobre el tema. No ha sido preparado con la ayuda de ChatGPT ni otra de sus variantes. Ningún artefacto o programa electrónico ha sido dañado en el proceso de escribirlo.

I. CHATGPT

Con el auge de la herramienta lingüística ChatGPT de la empresa OpenAI, la inteligencia artificial ha ganado espacio público como nunca antes. Numerosos artículos en la prensa, redes sociales, blogs y papers académicos han comenzado a indagar los beneficios y contras de esta herramienta, que es solo una muestra de los reales alcances de la inteligencia artificial. 

Cuando digo que es una muestra de algo mas complejo, me gustaría hacer un paralelismo con el Timeo de Platon donde se muestra al tiempo como imagen móvil de la eternidad. 

El Timeo es un diálogo donde Platón adopta la forma narrativa del mito para exponer la formación del cosmos. 

Timeo inicia su relato afirmando que el Demiurgo, dios supremo, actúa sobre el caos primordial y ordena el universo según la inteligencia, tomando como modelo el mundo eterno de las ideas. Mientras que este es inmutable, el universo está en perpetuo devenir. Al poner los astros en movimiento el Demiurgo crea el tiempo, que se mide según números, como imagen móvil de la eternidad. El orden que le impone al universo es eterno, pero mientras exista el tiempo. (1)

Y así como en la filosofía de Platón, el universo es una copia material imperfecta de un mundo inteligible perfecto, me atrevo a decir que los denominados grandes modelos lingüísticos (LLM) basados en inteligencia artificial, entre ellos el más conocido ChatGPT, son una muestra o imagen de otro mundo que es la Singularidad.

II. SINGULARIDAD

Probablemente reconozca la palabra. La Singularidad es un hipotético punto futuro en el tiempo en el que el crecimiento tecnológico se vuelve incontrolable e irreversible, dando lugar a cambios imprevisibles en la civilización humana.

La singularidad ha saltado a la fama en las dos últimas décadas en gran parte gracias a dos pensadores. El primero es el científico y escritor de ciencia ficción Vernor Vinge, que escribió en 1993 que "Dentro de treinta años, dispondremos de los medios tecnológicos para crear una inteligencia sobrehumana. Poco después, la era humana habrá terminado".

El otro profeta destacado de la Singularidad es Ray Kurzweil. En su libro La Singularidad está cerca, Kurzweil coincide básicamente con Vinge, pero cree que este último ha sido demasiado optimista en su visión del progreso tecnológico. Kurzweil cree que para el año 2045 experimentaremos la mayor singularidad tecnológica de la historia de la humanidad: del tipo que podría, en pocos años, derribar los institutos y pilares de la sociedad y cambiar por completo la forma en que nos vemos como seres humanos. Al igual que Vinge, Kurzweil cree que llegaremos a la Singularidad creando una inteligencia artificial (IA) sobrehumana. Una IA de ese nivel podría concebir ideas que ningún ser humano ha pensado en el pasado, e inventará herramientas tecnológicas que serán más sofisticadas y avanzadas que todo lo que tenemos hoy. (2)

 

III. DEFINICIÓN DE INTELIGENCIA ARTIFICIAL

En su forma más simple, la inteligencia artificial es un campo que combina la informática y conjuntos de datos sólidos para permitir la resolución de problemas. También abarca subcampos de aprendizaje automático ( machine learning ) y aprendizaje profundo ( deep learning ), que se mencionan con frecuencia junto con la inteligencia artificial. Estas disciplinas están compuestas por algoritmos de IA que buscan crear sistemas expertos que hagan predicciones o clasificaciones basadas en datos de entrada. (3)

La idea de una máquina que piensa se remonta a la antigua Grecia. (4) Pero desde el advenimiento de la computación electrónica, los eventos e hitos importantes en la evolución de la inteligencia artificial incluyen los siguientes:

La primera de las definiciones se la debemos a John McCarthy, que ofrece la siguiente definición: "Es la ciencia y la ingeniería de hacer máquinas inteligentes, especialmente programas de computadora inteligentes. Está relacionado con la tarea similar de usar computadoras para comprender la inteligencia humana, pero la IA no tiene que limitarse a métodos que son biológicamente observables”. (5)

Stuart Russell y Peter Norvig luego procedieron a publicar Inteligencia artificial: un enfoque moderno, convirtiéndose en uno de los principales libros de texto en el estudio de la IA. En él, profundizan en cuatro posibles objetivos o definiciones de la IA, que diferencia los sistemas informáticos sobre la base de la racionalidad y el pensamiento frente a la actuación:

Enfoque humano: Sistemas que piensan como humanos. Sistemas que actúan como humanos Enfoque ideal: Sistemas que piensan racionalmente. Sistemas que actúan racionalmente. (6)

Técnicamente, el término inteligencia artificial se refiere a un modelo creado para resolver un problema específico o prestar un servicio concreto. Lo que impulsa cosas como ChatGPT es la inteligencia artificial. Aprende a chatear mejor, pero no puede aprender otras tareas. En cambio, el término inteligencia artificial general se refiere a un software capaz de aprender cualquier tarea o tema. La AGI aún no existe: en el sector informático se debate intensamente cómo crearla y si es posible. (7)

No quisiera terminar este capítulo sin nombrar algunas contribuciones que me parecen importantes a la hora de hacernos una idea del desarrollo de la inteligencia artificial.

Por un lado las investigaciones de Alan Turing, a menudo considerado el padre de informática moderna al descubrir el cifrado de las máquinas alemanas Enigma durante la segunda guerra mundial y detallando un procedimiento conocido como la prueba de Turing, que forma la base de la inteligencia artificial.

La prueba de Turing es un método de investigación en inteligencia artificial (IA) para determinar si una computadora es capaz o no de pensar como un ser humano. La prueba lleva el nombre de Alan Turing, el fundador de la Prueba de Turing y un científico informático, criptoanalista, matemático y biólogo teórico inglés.

Turing propuso que se puede decir que una computadora posee inteligencia artificial si puede imitar las respuestas humanas en condiciones específicas. La prueba de Turing original requiere tres terminales, cada uno de los cuales está físicamente separado de los otros dos. Una terminal es operada por una computadora, mientras que las otras dos son operadas por humanos.

Durante la prueba, uno de los humanos funciona como interrogador, mientras que el segundo humano y la computadora funcionan como encuestados. El interrogador interroga a los encuestados dentro de un área temática específica, utilizando un formato y contexto específicos. Después de un período de tiempo predeterminado o una cantidad de preguntas, se le pide al interrogador que decida qué encuestado era humano y cuál era una computadora.

La prueba se repite muchas veces. Si el interrogador toma la determinación correcta en la mitad de las ejecuciones de la prueba o menos, se considera que la computadora tiene inteligencia artificial porque el interrogador la considera "tan humana" como el encuestado humano. (8)

Por otra parte, las ideas de Isaac Asimov, el autor de ciencia ficción, creador de las tres leyes de la robótica. Las reglas se introdujeron en su cuento de 1942 "Runaround”, incluido en la colección de 1950 I, Robot. Aunque no son leyes científicas. Son instrucciones que en sus historias, los robots debían tener para evitar un mal funcionamiento. Sin embargo estas leyes fueron tomadas como una contribución a la ciencia moderna.

La primera ley es que un robot no dañará a un humano, ni por inacción permitirá que un humano sufra daño. La segunda ley es que un robot debe obedecer cualquier instrucción que le dé un ser humano, y la tercera ley es que un robot debe evitar acciones o situaciones que puedan causarle daño a sí mismo.

Para la antología tributo de 1986, Amigos de la Fundación, Harry Harrison escribió una historia titulada "La Cuarta Ley de la Robótica". Esta Cuarta Ley establece: "Un robot debe reproducirse. Siempre que dicha reproducción no interfiera con la Primera o la Segunda o la Tercera Ley". (9)

 

IV. LA IMPRENTA

Hace quinientos años, el conocimiento humano estaba limitado por una tasa de alfabetización ínfima. Los libros, escritos a mano por un reducido número de eruditos, eran escasos y de difícil acceso al público en general. Pero la imprenta de tipos móviles de Gutenberg provocó una explosión de información cuando apareció en escena en 1450. 50 años después de la primera Biblia impresa de Gutenberg, surgieron más de 1.000 imprentas en toda Europa. Más de diez millones de ejemplares de libros entraron en circulación, los periódicos empezaron a utilizar los tipos móviles y un número cada vez mayor de personas aprendía a leer. Gutenberg hizo posible la producción en masa del pensamiento abstracto y la humanidad se hizo más inteligente. Esto desencadenó el Renacimiento, el método científico y, finalmente, el pensamiento moderno de la Ilustración.

Le tomó a la imprenta de Gutemberg, 50 años para que Europa tuviera más de 1000 imprentas. ChatGPT alcanzó los 100 millones de usuarios en menos de tres meses. (TikTok tardó nueve meses e Instagram, treinta).

Al igual que la imprenta, ChatGPT aumentará el volumen neto del conocimiento humano. No es descabellado pensar que pronto podría escribir guías de viaje, enciclopedias, trabajos académicos e incluso novelas de ficción. (10)

 

V. DEBATE ETICO-FILOSÓFICO

Pero toda esta revolución que está sucediendo en la actualidad con el crecimiento de la inteligencia artificial, nos lleva también a un debate ético-filosófico sobre el futuro. No solo de la tecnología en particular, sino también de la humanidad en su conjunto como especie.

En estos últimos años he tenido el placer de leer muchos papers académicos y libros sobre el tema. Mi paso por la universidad al hacer un Master en Tecnología y Derecho en la Vrije Universiteit Amsterdam, me ha permitido acceder a documentos en la biblioteca (online) que de otra forma me hubiera tomado mas tiempo investigar donde se encontraban.

De los autores  que tratan sobre el tema y que he leído, me quedo con tres recomendados: Human compatible: Artificial intelligence and the problem of control de Stuart Russel; Superintelligence: Paths, Dangers, Strategies de Nick Bostrom y Life 3.0 de Max Tegmark.

Según Stuart Russel, necesitamos varios avances en software antes de que la IA supere la inteligencia humana, ya que  hemos estado operando bajo una concepción equivocada de la inteligencia. La IA hará que la vida sea menos segura para todos y la automatización masiva liberará el potencial de la humanidad o lo debilitará. (11)

Por otra parte, Max Tegmark propone que la IA podría representar el futuro de la vida, pero es un tema controvertido. La creación de IA a nivel humano podría dar como resultado que una máquina superinteligente se apodere del mundo. Sostiene el autor que los investigadores de IA están deliberando sobre el significado de la conciencia y la subjetividad de la experiencia de la IA. (12)

Mi favorito, el libro del  filósofo de Oxford Nick Bostrom, con su obra de 2014,  Superinteligencia: Caminos, peligros, estrategias, que fue un bestseller sorpresa del New York Times, tras las recomendaciones de lectura obligada de Bill Gates y Elon Musk, de Tesla. Bostrom cree que la superinteligencia es un resultado potencial de los avances en inteligencia artificial.

Bostrom llegó a estas cuestiones a través del movimiento transhumanista, que tiende a considerar la era digital como un potencial sin precedentes para optimizar nuestras capacidades físicas y mentales y trascender los límites de nuestra mortalidad.

En su libro argumenta que una vez que la IA supere a la inteligencia humana, marcará el amanecer de una nueva era en la que los humanos se llevarán la peor parte. Una superinteligencia funcional, explica Bostrom, podría generar espontáneamente objetivos como la autoconservación y la mejora cognitiva. Se trata de la idea de la "autosuperación recursiva", es decir, cuando un programa puede ajustarse a sí mismo para mejorar su propia inteligencia. (13)

La realidad es que la especie más inteligente de la Tierra siempre ha sido la más poderosa. Desde siempre, hemos sido nosotros. Si seguimos esta línea de pensamiento, una vez que la IA supere a la inteligencia humana aunque sea por una pizca, se acabó la fiesta. Nuestros pequeños cerebros serán superados en todos los planos de la competición. En una entrevista de 2015, Bostrom dijo que este avance tecnológico podría traer la aniquilación. A medida que avanzamos hacia lo inevitable, no solo hay poco que podamos hacer, sino que es imposible que el final del juego no nos sorprenda por completo.

El problema es que una inteligencia artificial que aprende rápidamente no ve la inteligencia humana como un hito. La IA no tiene motivos para dejar de progresar. Dado el ritmo de avance exponencial que ya muestra la tecnología, es probable que cualquier IA pase sólo un breve periodo de tiempo en un nivel de inteligencia equivalente al humano antes de dispararse más allá, hacia un nivel de inteligencia superior al humano.

Según Bostrom, esto supondría una amenaza existencial.

En una ultima entrevista de Bostrom de marzo de 2023 se refiere al tema haciendo hincapié en las etapas de desarrollo de la inteligencia artificial desde el nivel uno que seria en si misma la etapa de creación, pasando al estado actual que seria el de “machine learning” y pensando en el futuro en que la IA podría hacer todo lo que el ser humano realiza en la actualidad y llama a esta etapa: Superinteligencia.

Ahora bien, esta ultima etapa no es medible en tiempos humanos, sino en “machine times”, dice Bostrom.

Lo importante es el uso que el ser humano le va a dar. Para bien o para mal. Ese es el desafío actual para ir preparando el futuro. Y un tema que no debemos olvidar es que a medida que esa inteligencia va evolucionando empiezan a a parecer los temas referido al status moral de esa entidad e incluso los temas referentes a la personalidad jurídica de la misma. (14)

¿Necesitamos dar a los robots y a las entidades de IA una especie de personalidad jurídica en una sociedad robotizada en la que los sistemas de IA y los robots autónomos realizan cada vez más actividades con efectos jurídicos?

Según Hoven van Genderen,  aunque un sistema autónomo o robot, incluso con inteligencia independiente y capacidad emocional para desenvolverse en nuestra sociedad, no necesitaría tener un estatuto jurídico similar al de los derechos y obligaciones de las personas físicas y jurídicas del derecho positivo. Sin embargo, el cambio es inminente. La aceleración de los procesos de innovación a veces van más rápidos que la legislación. Aunque un sistema autónomo supere la prueba de Turing, esto no crearía ninguna responsabilidad legal per se. 

Pero tenemos que tener en cuenta que todavía tenemos que controlar los avances y no acabar con la idea "posthumana", bastante pesimista, descrita por Yuval Noah Harari en su libro Homo Deus. En este relato, la ciencia avanzará en la dirección de que todos los organismos son algoritmos, la vida es procesamiento de datos, la inteligencia se separará de la conciencia y los algoritmos hiperinteligentes nos conocerán mejor que nosotros mismos. Esto significa que los algoritmos superinteligentes decidirán cómo se desarrollará nuestra vida, o lo que nos quede de existencia, sin ninguna influencia humana. (15)

 

La Escuela de Atenas - Rafael Sanzio - Platón sosteniendo el Timeo y Aristoteles su Ética a Nicómaco

VI. CONCLUSION

La inteligencia artificial y la filosofía tienen más en común de lo que suele tener una ciencia con la filosofía de esa ciencia. Esto se debe a que la inteligencia artificial a nivel humano requiere dotar a un programa informático de algunas actitudes filosóficas, especialmente epistemológicas. (16)

Y es por eso que he comenzado este paper con la cita del Timeo de Platón, que es un diálogo escrito por Platón en torno al año 360 a. C.  y es considerado por muchos como el más influyente en toda la filosofía y ciencia posteriores. Profundiza esencialmente en tres problemas el cosmogónico, sobre el origen del universo, el físico, sobre la estructura de la materia y el antropológico, sobre la naturaleza humana.

Cabe esperar que surja una materia académica denominada filosofía de la inteligencia artificial, análoga a los campos ya existentes de la filosofía de la física y la filosofía de la biología. Por analogía, será un estudio filosófico de los métodos de búsqueda de la IA y se propondrá aclarar los problemas filosóficos planteados.

La IA necesita muchas ideas que hasta ahora sólo han estudiado los filósofos. Para esa  inteligencia se requiere la  capacidad de aprendizaje de las experiencias humanas, se necesita una visión general del mundo en la que organizar los hechos. 

Hoy en día, el trabajo de la IA no requiere ninguna filosofía, porque el sistema que se desarrolla no tiene que operar de forma independiente en el mundo y tener una visión del mundo. El diseñador del programa hace la filosofía de antemano y construye una representación restringida en el programa. Pero si debemos pensar en el futuro, en el  momento de la Superinteligencia que define Bostrom acertadamente, y ahí es donde, a mi entender,  el campo de la filosofía y de la ética nos pueden ayudar a encontrar respuestas.

Es mi posición al respecto, que los avances en tecnología y es en específico en el campo de la inteligencia artificial deben ir acompañados de un debate amplio en el que distintos sectores de la sociedad aporten sus perspectivas para de esta forma llegar a un resultado que sea coherente con el desarrollo humano.

La IA no es solo patrimonio del ámbito científico y tecnológico. El campo de la normativa, la sociología y la filosofía pueden hacer inmensos aportes a este campo. No olvidemos que el futuro de la humanidad está en juego.

En la obra del artista Rafael, La escuela de Atenas, Platón está sosteniendo el Timeo, mientras que Aristóteles sostiene una copia de su Ética a Nicómaco, que los abogados hemos estudiado en la materia Filosofía del Derecho. 

La Escuela de Atenas representa el valor del pensamiento científico y la verdad natural, cuyo desarrollo es atribuido a la antigüedad clásica. La obra encarna el programa cultural del Renacimiento, pues vemos la presencia de los grandes pensadores y científicos del mundo clásico, e incluso del mismo Renacimiento.

Quizá en el futuro en alguna obra realizada por la IA,  la Escuela de Atenas podría sumar a alguno de los filósofos que den respuesta a los problemas filosóficos planteados a partir de la evolución de la inteligencia artificial. 

Sin entrar en otro tema jurídico como es la propiedad intelectual de esa obra futura generada por la IA, solo la imagino y sonrío.

 

 

REFERENCIAS

1. Timeo, 37c-39d. 47a. (Traducción de Mª. Ángeles Durán y Francisco Lisi, Diálogos, Vol. VI, Gredos, Madrid 1992, p. 182-185, 196). https://fundacionorotava.org/bachillerato/filosofia/platon/la-cosmologia-de-platon-en-el-timeo/

2.  Futurism- Singularity: Explain It to Me Like I'm 5-Years-Old 3. 3. 17 by Roey Tzezana; https://futurism.com/singularity-explain-it-to-me-like-im-5-years-old 

3. What is artificial intelligence (AI)? https://www.ibm.com/topics/artificial-intelligence#:~:text=At%20its%20simplest%20form%2C%20artificial,in%20conjunction%20with%20artificial%20intelligence.

4. Mecanismo de Anticitera, artefacto que algunos estudiosos consideran la computadora más antigua del mundo.

5.  McCarthy, John. What is Artificial Intelligence?. Computer Science Department. Stanford University. 2007 Nov 12. http://www-formal.stanford.edu/jmc/

6. Russell, Stuart J. (Stuart Jonathan), 1962-. (2010). Artificial intelligence : a modern approach. Upper Saddle River, N.J. :Prentice Hall.

7.  Artificial intelligence is as revolutionary as mobile phones and the Internet.y Bill Gates| March 21, 2023 - https://www.gatesnotes.com/The-Age-of-AI-Has-Begun The Age of AI has begun

8.  Turing Test By Benjamin St. GeorgeAlexander S. Gillis, Technical Writer and Editor - https://www.techtarget.com/searchenterpriseai/definition/Turing-test

9.  Britannica, The Editors of Encyclopaedia. "three laws of robotics". Encyclopedia Britannica, 17 May. 2022, https://www.britannica.com/topic/Three-Laws-of-Robotics. Accessed 30 March 2023.

10. The Rise of AI: ChatGPT does the opposite of the printing press and it’s making humanity dumber. March 6, 2023 10:45 AM Phil Rosen. https://philsnextstop.blog/2023/03/06/chatgpt-ai-artificial-intelligence-openai-revolution-tech-phil-rosen-2023-2/

11.  Russell, S. (2020). Human compatible: Artificial intelligence and the problem of control. Penguin.

12.  Tegmark, M. (2018). Life 3.0. Penguin Books.

13.  Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.

14.  GPT-4: Could Artificial Intelligence wipe out humans? | This World -https://www.youtube.com/watch?v=JVOiuIqxlrE - Mar 18, 2023

15. R. van den Hoven van Genderen (B), Faculty of Law, Center for Law and Internet, Vrije Universiteit Amsterdam, Amsterdam, The Netherlands. © Springer Nature Singapore Pte Ltd. 2019 1 M. Corrales et al. (eds.), Robotics, AI and the Future of Law, Perspectives in Law, Business and Innovation, https://doi.org/10.1007/978-981-13-2874-9_2

16.  What has AI in Common with Philosophy?

John McCarthy Computer Science Department Stanford University Stanford, CA 94305, U.S.A.- http://www-formal.stanford.edu/jmc/ 25 April 2006
𝙹𝙿 𝚁𝚘𝚜𝚜𝚒, 𝙻𝙻.𝙼.

𝙼𝚊𝚜𝚝𝚎𝚛 𝚘𝚏 𝙻𝚊𝚠𝚜 - 𝙸𝚗𝚝𝚎𝚛𝚗𝚊𝚝𝚒𝚘𝚗𝚊𝚕 𝚃𝚎𝚌𝚑𝚗𝚘𝚕𝚘𝚐𝚢 𝙻𝚊𝚠 - 𝚅𝚄 𝙰𝚖𝚜𝚝𝚎𝚛𝚍𝚊𝚖

𝙲𝚎𝚛𝚝𝚒𝚏𝚒𝚎𝚍 𝙻𝚎𝚐𝚊𝚕 𝙳𝚎𝚜𝚒𝚐𝚗𝚎𝚛

Anterior
Anterior

Siguiente
Siguiente