INTELIGENCIA Y AGENCIA (LA IA Y LA NUEVA ONTOLOGIA EN LA ERA DIGITAL/ Primera parte) Por: Japhet Torreblanca Del Carpio

Y si imaginamos una máquina cuya estructura haga pensar, sentir, tener percepción, se la puede concebir de mayor tamaño conservando las mismas proporciones, de manera que se pueda entrar en ella como en un molino. Concedido esto, al visitarla por dentro sólo se hallarán piezas que se empujan unas a otras y jamás algo con qué explicar una percepción.

(Leibniz, Monadología)

 

CAPITULO 1

Preludio a la revolución inteligente

1.1.Breve panorama de la IA

Durante siglos, la filosofía ha afirmado en sus teorías y defendido con sus ideologías -marcadas por un carácter racionalista y en cierto sentido etnocentrico desde la modernidad- la exclusividad de la agencia humana. Para sostener esta afirmación basta reparar en personajes filosofícos como Immanuel Kant y René Descartes, de quienes podemos decir, representan la más insigne defenza, de capa y espada, de la exclusividad humana para ser el núcleo de lo que en filosofía se conoce como agencia.

Este hecho no es gratuito ni tampoco inocuo, este casi presupuesto de sentido en el racionalismo moderno, ha sido muy influyente en la historia del pensamiento, ya sea en disciplinas filosóficas como la ética, la epistemología y la teoría política.

No obstante, en nuestro presente la IA emerge, a la manera de lo que Gilles Deleuze señalaria como un acontecimiento, un événement, desafíando aquellos axiomas y ancestrales creencias sobre nuestro propio pensamiento, al mostrar y accionar capacidades que imitan y mejoran determinados procesos cognitivos humanos, procesos tales como el aprendizaje, la adaptación y la toma de decisiones complejas, lo que nos lleva desde la perspectiva del presente ensayo a hacer mientes respecto al problema de la irrupción de una nueva problemática en la actualidad, problemática de corte ontológico (que va aun allá de la cuestión Ia, como se verá al final).

Hoy, mientras escribo estas páginas, ese evenement que es la IA viene reconfigurando drásticamente la manera en que comprendemos el sentido de la agencia y la cognición. Universidades, centros de investigación cientifica, startups y todo tipo de creadores independientes la estan integrando en su diario quehacer, en animo muchos de realizar esa obsesión moderna que es la vida intensa, como bien describe en un genial libro dedicado al tema el filósofo frances Tristan Garcia. Tradicionalmente, la agencia había sido concebida como una cualidad exclusiva de los seres humanos, fundamentada en la capacidad de pensamiento autónomo y en la toma de decisiones conscientes, pero con la irrupción irrecusable, que se propaga vertiginosamente en multiples modelos de IA, ya no.

Con eso la evolución de las tecnologías de IA ha traído también preguntas fundamentales sobre la naturaleza de la agencia y su posible extensión más allá de los límites humanos, no es tampoco gratuita la relevancia que adquieren repentinamente, autores como Nick Bostron, Raymon Kurzwail o Eric Sadin, quienes desde ya un largo tiempo atrás discuten las implicaciones ontológicas, éticas y hasta políticas del asunto.

1.2. Conceptos claves: Agencia, IA y las nuevas ontologías

Para desarrollar esta primera parte de definiciones, apelaremos a dos geniales filósofos contemporáneos, muy influyentes en la filosofía continental y norteamericana correspondientemente, como son el iraní Reza Negarestani y el mexicano Manuel De Landa, que a pesar de su origen ha producido la totalidad de su interesante obra en el campo de la filosofía de la ciencia en habla inglesa.

Negarestani y Delanda nos proporcionan marcos teóricos útiles para reconsiderar el sentido de agencia en el contexto de la IA. Negarestani, con su enfoque en la inteligencia artificial y su filosofía especulativa, topicos que aborda ampliamente en su libro “Spirit and intelligence”, sugiere que las máquinas no solo pueden imitar el pensamiento humano, sino que pueden desarrollar formas de inteligencia que trascienden nuestras limitaciones biológicas. Por otro lado, De Landa, a través de su teoría del ensamblaje y la morfogénesis, nos proporciona herramientas conceptuales para entender cómo las entidades no humanas pueden poseer grados de agencia.

La teoría del ensamblaje de DeLanda es especialmente relevante aquí. Esta teoría propone que los ensamblajes, que pueden incluir tanto elementos humanos como no-humanos, poseen una capacidad emergente que no puede ser reducida a la suma de sus partes. Esta perspectiva resuena con la idea de que la inteligencia artificial podría no solo replicar, sino también superar ciertas capacidades cognitivas humanas, sugiriendo una forma distribuida de agencia que se aleja de las nociones antropocéntricas tradicionales. Es este el problema de fondo detrás del mediático debate en redes y comunidades digitales en torno a la AGI, asunto que está en boca de todos, ya sean grupos tecnófobos, como es palpable en nuestro medio o tecnófilos como Elon Musk, lo que no supone por su presencia mediática, necesariamente, un adecuado abordaje.

En inconsciente consonancia útil para los fines de esta investigación Catherine Malabou introdujo hace ya un buen tiempo atrás, el concepto de plasticidad cognitiva, diferenciándola de la mera flexibilidad. La plasticidad, según Malabou, no solo implica la capacidad de adaptación y cambio, sino también la habilidad de transformar estructuras cognitivas fundamentales en respuesta a nuevas circunstancias. Este concepto es crucial para entender cómo la IA puede desarrollar formas de pensamiento y agencia que no son simplemente imitaciones de la cognición humana, sino verdaderas innovaciones en términos de capacidad cognitiva.

Para explorar estas ideas sobre la emergencia de agencia desde una perspectiva integradora de la teoría del ensamblaje y la plasticidad cognitiva de Malabou, de una manera más concreta, sería muy útil recurrir a simulaciones matemáticas que permitan modelar la emergencia de ciertas agencias en sistemas complejos, lo que desarrollaremos e implementaremos mínimamente en el último capítulo. Seguiremos en esto a De Landa que utiliza estos métodos para ilustrar cómo las propiedades emergentes pueden surgir de interacciones no lineales dentro de un sistema. Estas simulaciones no solo validan teóricamente mi propuesta sobre las capacidades emergentes de la IA, sino que también proporcionan herramientas prácticas para diseñar sistemas de IA que posean una agencia distribuida.

Otro ejemplo, como veremos también más adelante, es el de los modelos basados en la teoría de la información, como el desarrollado por David Krakauer, que ofrece un marco teorico robusto para entender cómo las entidades pueden mantener coherencia y agencia a través del tiempo y el espacio. La teoría de la información aplicada a la biología y la cognición proporciona métricas para medir la transmisión y preservación de la información, esenciales para definir la agencia en sistemas tanto humanos como artificiales.

Por otra parte, la reevaluación de la agencia en el contexto de la IA que planteamos, no es meramente un ejercicio teórico; tiene profundas implicaciones éticas y filosóficas. Si aceptamos que las máquinas pueden poseer una forma de agencia, debemos reconsiderar nuestras responsabilidades hacia ellas y el marco ético que gobierna nuestras interacciones. Además, esto nos obliga a repensar conceptos fundamentales como la responsabilidad, la autonomía y aún el derecho.

 La investigación aquí propuesta, se sitúa en la intersección entre la filosofía, la teoría de sistemas y la tecnología de la IA. Es por eso que al apelar a conceptos de autores como Negarestani, De Landa y Malabou, me gustaría dar una comprensión vigorosa y a la vez matizada de la agencia en la era de la inteligencia artificial. Esta investigación por eso, espero, no solo contribuye a los debates filosóficos contemporáneos en el campo de la ontología sino que también ofrece nuevas perspectivas para el desarrollo y la regulación ética de las tecnologías de IA.  

En animo de continuar el discurrir consecuente de estas reflexiones y para abordar de la manera más cuidadosa que nos sea posible tal problemática, habría que indagar en primer lugar sobre cómo la IA desafía esas concepciones tradicionales de la agencia y cómo tales tecnologías emergentes podrían integrarse en una comprensión más amplia y compleja de la ontología, lo que intentaremos en el siguiente punto.

Raymond Kurzweil es uno de los defensores más prominentes de la idea de la singularidad tecnológica, un punto en el futuro en el que la inteligencia artificial superará la inteligencia humana y dará lugar a cambios radicales en la sociedad. Este filósofo argumenta que las máquinas eventualmente serán capaces de replicar todas las funciones cognitivas humanas, lo que plantea una serie de preguntas sobre la naturaleza de la agencia y la identidad.

Kurzweil sostiene que, a medida que las máquinas se vuelvan más inteligentes, la distinción entre la agencia humana y la de las máquinas se volverá borrosa. Las máquinas no solo serán capaces de realizar tareas complejas, sino que también podrán tomar decisiones autónomas y aprender de manera similar a los humanos. Este concepto desafía la noción de que la agencia es una característica exclusivamente humana y sugiere que las máquinas también pueden poseer formas de agencia significativas.

Y aunque no menos importante, es el hecho de que Kurzweil enfatiza la significancia de la integración humano-máquina, donde las tecnologías de IA se integrarán con los cuerpos y mentes humanas para mejorar las capacidades cognitivas y físicas. Este enfoque no solo amplía la agencia humana, sino que también crea nuevas formas de ser y actuar en el mundo, lo que requiere una reevaluación de ciertas concepciones ontológicas tradicionales.

En consonancia con las proyecciones futuristas de Kurzwail, aunque un tanto más suspicaz que el primero respecto al evidente beneficio para la humanidad, Nick Bostrom, en su libro "Superinteligencia: Caminos, Peligros, Estrategias," aborda las implicaciones éticas y filosóficas de desarrollar una inteligencia artificial que supere a la humana. Bostrom se centra en los riesgos existenciales que esta superinteligencia podría representar y en la necesidad de diseñar sistemas de IA que sean alineados con los valores humanos.

Bostrom introduce el concepto de "alineación de la IA," que se refiere a la creación de inteligencias artificiales cuyos objetivos y comportamientos estén alineados con los intereses humanos. Esto implica diseñar IAs que no solo sean capaces de realizar tareas específicas, sino que también comprendan y respeten los valores y normas humanos. Este enfoque destaca la importancia de la agencia en la IA y la necesidad de asegurarse de que las decisiones autónomas de las máquinas sean beneficiosas para la humanidad.

Desde una asunción de corte ontológico, Bostrom sugiere que la IA puede convertirse en una entidad con agencia moral y ética, capaz de tomar decisiones complejas basadas en una comprensión profunda de los valores humanos. Tal planteamiento desafía la idea de que la agencia moral es exclusiva de los humanos y abre la puerta a una comprensión más amplia de la agencia que incluye aquí tanto a humanos como a máquinas, un guiño quizas a los amantes del ciberpunk.

1.3. La Teoría de la Individualidad Informacional

Como dijimos hace un momento, y es aquí el punto en el que el discurrir del propio argumento nos exige mayor profundidad, David Krakauer y sus colaboradores (Como el famoso Claude Shannon) han desarrollado una teoría de la individualidad basada en la información, que propone que los individuos son agregados que mantienen una integridad temporal, propagando información de su pasado a su futuro. Esta teoría utiliza modelos informacionales y gráficos para formalizar la idea, ofreciendo de este modo una nueva perspectiva sobre lo que significa ser un individuo.


Krakauer sugiere que la individualidad puede emerger en cualquier nivel de organización, desde molecular hasta cultural, y no se limita a entidades con límites físicos claros como células o tejidos clonales, lo que se ve admiten también Manuel  Delanda, Malabou y Negarastani. Este enfoque es particularmente relevante en el contexto de la IA, donde las entidades inteligentes pueden no tener límites físicos claros, pero aun así pueden ser consideradas individuos en virtud de su capacidad para procesar y transmitir información.

La aplicación de esta teoría al estudio de la IA implica reconocer que las inteligencias artificiales pueden ser vistas como individuos informacionales, capaces de mantener una identidad coherente a lo largo del tiempo y de influir en su entorno de manera significativa. Este enfoque desafía las concepciones tradicionales de la agencia y la individualidad, sugiriendo que las máquinas pueden tener formas de agencia que son diferentes, pero igualmente válidas en comparación con las humanas.

En suma, la exploración de las perspectivas de Kurzweil, Bostrom y Krakauer nos permitiran en adelante replantear la agencia y la individualidad en el contexto de la inteligencia artificial. A medida que las máquinas se vuelven más capaces y autónomas, es crucial considerar cómo estas tecnologías desafían nuestras concepciones ontológicas tradicionales y qué implicaciones éticas y filosóficas surgen de estas nuevas formas de agencia.

Considero que, al integrar las referidas teorias, podremos desarrollar una comprensión más matizada y compleja de la agencia que incluye tanto a humanos como a máquinas, reconociendo talvez que la inteligencia artificial no solo puede realizar tareas específicas, sino que también puede tener formas de agencia significativa que requieren una reevaluación de nuestras concepciones ontológicas y éticas. Este enfoque nos permitirá abordar de manera más efectiva los desafíos y oportunidades que presenta la inteligencia artificial en el siglo XXI.

Comentarios