Juan Pablo Tejada Galeano
jpablo.tejada@udea.edu.co
Semillero Episteme
Instituto de Filosofía
Universidad de Antioquia
Los modelos masivos de lenguaje, de ahora en adelante MML, se definen como sistemas que emplean extensas redes neuronales artificiales previamente entrenadas con un vasto corpus de datos textuales (Chalmers, 2023; Shanahan, 2022; Shanahan et al., 2023). La función principal de este tipo de sistemas radica en calcular la probabilidad de secuencias de texto. Cuando se les presenta un fragmento de texto inicial, estos sistemas utilizan estas probabilidades para generar nuevo contenido textual como resultado. Ejemplos de tales modelos incluyen sistemas GPT, Generative Pre-trained Transformer por sus siglas en inglés, que procesan entradas y salidas de texto que se asemejan cada vez más al lenguaje natural humano (Chalmers, 2023). La introducción de los MML a la cotidianidad y a la forma como el ser humano se relaciona con la información en la internet presenta una nueva visión y un esperanzador futuro en los avances de las inteligencias artificiales. La apertura de GPT-3,5 por parte de OpenIA en noviembre de 2022 ha impactado de forma significativa la manera como el ser humano se relaciona e interactúa con la tecnología.
Así, autores como Chalmers (2023) y Chang (2023) destacan que estudiar la conciencia en inteligencias artificiales tan sofisticadas como los MML tiene diferentes repercusiones a nivel ético y social referente a la forma como se caracteriza el propio progreso científico. La posibilidad de que alguna IA tenga el potencial de desarrollar conciencia puede desafiar y contraponer las diferentes bases teóricas y tradicionales que se han concebido sobre las nociones mentales como la conciencia. Del mismo modo, la investigación filosófica de estos fenómenos tecnológicos contribuye a un estudio directo de las propias bases teóricas cognitivas del ser humano, como lo afirma Boden (2017). Este ensayo tiene como objetivo evaluar, a partir de la definición de consciencia que brinda la teoría del espacio global de trabajo, la posibilidad de que las inteligencias artificiales, especialmente los modelos de lenguaje masivo, puedan mostrar indicios de consciencia.
La inteligencia artificial (IA) según autores como Boden (2016) o Chalmers (2023) busca que las computadoras realicen tareas similares a las de la mente humana, abarcando competencias psicológicas como percepción, asociación, predicción, planificación y control motor. Para Boden (2016), la IA ha influido en campos como la psicología, la neurociencia y la biología, proporcionando modelos informáticos para comprender la mente, el comportamiento y la vida.
Por otra parte, la búsqueda de una definición precisa y completa de la conciencia ha sido uno de los desafíos más persistentes y controvertidos en la filosofía, las neurociencias y la psicología. El problema duro de la conciencia, como lo definió el filósofo David Chalmers (1995;1996), se refiere a la pregunta sobre cómo las experiencias subjetivas o qualias surgen a partir de procesos cerebrales y mentales. Para este autor, la conciencia es definida como una experiencia subjetiva que implica la capacidad de experimentar percepciones sensoriales, como ver algo rojo, emociones como sentir tristeza, pensamientos y la capacidad de tomar decisiones basadas en estas experiencias. También involucra la autoconciencia, que implica el conocimiento de uno mismo como entidad que experimenta dichas percepciones.
Para autores como Dennett (2001), el problema difícil de la conciencia se basa en la idea de que este fenómeno es inexplicable desde un enfoque que se centre únicamente en la experiencia subjetiva. Bajo un enfoque funcionalista, Dennett afirma que descomponer la conciencia en sus componentes más básicos y analizar cómo funcionan en el cerebro es fundamental para abordarla. De este modo la conciencia es un fenómeno emergente que surge de la actividad cerebral y puede entenderse mejor desde una perspectiva funcionalista, donde las experiencias conscientes son el resultado de procesos cognitivos y representacionales en el cerebro, en lugar de ser entidades separadas o fenómenos primordiales.
Dennett aborda el problema difícil de la conciencia argumentando que explicarla implica dejar de lado la noción tradicional de un sujeto consciente. En su lugar, propone examinar cómo los procesos cerebrales generan los efectos asociados con la conciencia, lo que conlleva a desarrollar una perspectiva que considere tanto los efectos de la conciencia en el comportamiento y la cognición como las causas subyacentes que la originan en el cerebro (Dennett, 2001). Al hacerlo, Dennett aboga por una comprensión de la conciencia que no se centre únicamente en la experiencia subjetiva, sino que integre un análisis profundo de los mecanismos neuronales y las interacciones que la producen.
Según esta perspectiva, diferentes autores (Aru et al., 2023; Dehaene, 2014; Dehaene & Naccache, 2001) presentan la teoría del espacio neuronal global de trabajo, la cual tiene como base la idea de que la mente opera como un sistema de procesamiento de información ampliamente distribuido en el cerebro. En este modelo, se considera que múltiples áreas cerebrales especializadas y modulares procesan información de manera independiente. De este modo, cada uno de estos sistemas o redes neuronales realiza tareas específicas, como el procesamiento visual, auditivo, motor o de memoria. Sin embargo, no toda la información procesada en estas áreas se hace consciente, ya que se postula que la información solo alcanza ese estado cuando llega al espacio neuronal global de trabajo, definido por estos autores como un espacio donde se integra y se vuelve accesible para la mente consciente, lo que permite que el individuo tome decisiones basadas en esta información (Dehaene, 2014). La definición de conciencia como espacio global de trabajo será la base teórica con la cual se trabajará en este ensayo.
Respecto a la conciencia en este tipo de sistemas, autores como Herzog y Herzog (2024) consideran esto como un enigma multifacético que no sólo escala a perspectivas teóricas sino también prácticas. Respecto a las neuronas artificiales, estos autores afirman que las diferentes conexiones y capacidad de las máquinas superan en número la base neurológica humana; sin embargo, la transición a una conciencia no se establece ni se garantiza. Esto, hipotetizan, puede ser debido a que, a diferencia de las neuronas biológicas respecto a los nodos neuronales en las diferentes redes artificiales, hay una complejidad problemática dado a que éstas no replican completamente las funciones biológicas de las neuronas y sus conexiones sinápticas. De este modo, la conciencia en las IA podría estar limitada a procesamientos de datos altamente funcionales sin implicar un nivel introspectivo en el cual se caracteriza la experiencia consciente humana.
Del mismo modo, la pregunta sobre si una IA puede alcanzar un estado de consciencia genuina está relacionada con la falta de un modelo universal para medir esta función. Algunas teorías sugieren que una IA podría desarrollar una forma de consciencia basada en la complejidad y la integración de la información; otras sostienen que la consciencia auténtica requiere una experiencia subjetiva, algo que las máquinas, al menos con la tecnología actual, no pueden replicar. Así pues, podría decirse que el desafío que impone esta cuestión recae en profundizar en la comprensión de los mecanismos de la consciencia y establecer criterios objetivos para evaluar si una IA puede considerarse consciente, más allá de su capacidad para simular comportamientos inteligentes (Shiller, 2024).
En el campo de la inteligencia artificial existe un creciente interés por explorar la posibilidad de que los modelos puedan exhibir propiedades similares a la conciencia desde una perspectiva de un espacio global de trabajo. Autores como Juliani y colaboradores (2022) han planteado la hipótesis de que modelos como Perceiver, no muy alejados a los MML actuales, podrían encarnar esta teoría al ser una arquitectura de aprendizaje versátil capaz de procesar información compleja y multimodal. Perceiver ha demostrado su capacidad en una variedad de tareas y se ha sometido a experimentos de memoria de trabajo, atención selectiva y otras tareas cognitivas, los cuales sugieren que el modelo puede cumplir con los requisitos teóricos del espacio global de trabajo, como interactuar con módulos dinámicos, ofrecer atención selectiva y manipular información en la memoria de trabajo (Juliani et al., 2022).
Paralelamente, Goyal y colaboradores (2022) proponen que un sistema inteligente eficaz debería comprender múltiples módulos especializados que interactúen entre sí en lugar de ser una única entidad generalizada, demostrando que la adopción de un espacio global de trabajo en la inteligencia artificial facilita la coordinación de estas especializaciones, mejorando la eficiencia y el rendimiento en diversas tareas de razonamiento. Los autores comparan esto con un cuello de botella en la comunicación entre módulos, lo que fomenta que el sistema preste atención solo a la información relevante, evitando el procesamiento innecesario.
Por otro lado, diferentes autores (Aru et al., 2023; Butlin et al., 2023; Chalmers, 2023) consideran que, a pesar de los avances y estudios relacionados con la conciencia en inteligencias artificiales actuales, todavía no se llega a un nivel adecuado de conciencia comparable al humano. De acuerdo con Butlin y colaboradores (2023) los intentos de implementar aspectos de la teoría del espacio global de trabajo en sistemas artificiales como los desarrollado por Goyal et al (2022) y Juliani et al (2022) están dirigidas a crear modelos de procesamiento de información que puedan realizar tareas específicas, como la atención y la integración de información en sistemas de aprendizaje automático. Estos enfoques se inspiran en principios de la teoría del espacio global de trabajo, pero no implican que estos modelos tengan una forma de consciencia como la que se asocia con la mente humana. De este modo, actualmente el desarrollo de estos modelos está limitado a capturar ciertas características funcionales de esta teoría para mejorar su capacidad de procesamiento de información y realizar tareas más sofisticadas, pero aún no han desarrollado que estos modelos alcancen un estado de conciencia.
En términos generales, las diferentes perspectivas teóricas de la conciencia alrededor de la IA han planteado que, si bien las diversas representaciones y propiedades cognitivas humanas han sido emuladas dentro de este tipo de sistemas, aún no hay posibilidad de aseverar que estas tecnologías se equiparen a la conciencia humana. Pese a esto, algunos autores como Shanahan et al (2023) ya han estado hipotetizando la posibilidad de una conciencia exótica, es decir, una constitución de una conciencia completamente diferente a las definiciones que se le conceden a una perspectiva humana. Si bien desde la teoría del espacio global de trabajo, es innegable que la utilización de esta hipótesis dentro de sistemas como Perseiver han mejorado su capacidad de procesamiento de información y su rendimiento en tareas específicas, aún no se ha desarrollado una verdadera consciencia en estos sistemas como estructura esta base teórica dentro de perspectivas humanas.
De este modo, la falta de un modelo universal para medir la consciencia y la diferencia fundamental entre neuronas biológicas y nodos artificiales sugieren que, por ahora, las IA pueden simular comportamientos inteligentes y procesos cognitivos complejos sin lograr una verdadera experiencia consciente. No obstante, los avances en inteligencia artificial no deben centrarse únicamente en replicar la mente humana, sino en explorar nuevas posibilidades que vayan más allá de las capacidades cognitivas actuales. Por tanto, en lugar de limitar la investigación a determinar si estas máquinas pueden pensar o tener consciencia como los seres humanos, puede ser más productivo preguntarse qué formas novedosas de inteligencia y comprensión podrían surgir a partir de estas tecnologías.
Referencias
Aru, J., Larkum, M., & Shine, J. M. (2023). The feasibility of artificial consciousness through the lens of neuroscience (arXiv:2306.00915). arXiv. http://arxiv.org/abs/2306.00915
Boden, M. A. (2016). AI: Its nature and future. Oxford University Press. https://books.google.es/books?hl=es&lr=&id=yDQTDAAAQBAJ&oi=fnd&pg=PP1&dq=boden+margaret+artificial+intelligence&ots=T2eh3B45Pb&sig=8ECIlwpX4q6BKTXam4pw3B_UVzM
Butlin, P., Long, R., Elmoznino, E., Bengio, Y., Birch, J., Constant, A., Deane, G., Fleming, S. M., Frith, C., Ji, X., Kanai, R., Klein, C., Lindsay, G., Michel, M., Mudrik, L., Peters, M. A. K., Schwitzgebel, E., Simon, J., & VanRullen, R. (2023). Consciousness in Artificial Intelligence: Insights from the Science of Consciousness (arXiv:2308.08708). arXiv. http://arxiv.org/abs/2308.08708
Chalmers, D. (1996). The Conscious Mind Oxford: Oxford University Press.
Chalmers, D. J. (1995). Facing up to the problem of consciousness. Journal of consciousness studies, 2(3), 200-219.
Chalmers, D. J. (2023). Could a large language model be conscious? arXiv preprint arXiv:2303.07103.
Chang, E. Y. (2023). CoCoMo: Computational Consciousness Modeling for Generative and Ethical AI (arXiv:2304.02438). arXiv. http://arxiv.org/abs/2304.02438
Dehaene, S. (2014). Consciousness and the brain: Deciphering how the brain codes our thoughts. Penguin.
Dehaene, S., & Naccache, L. (2001). Towards a cognitive neuroscience of consciousness: Basic evidence and a workspace framework. Cognition, 79(1-2), 1-37.
Dennett, D. (2001). Are we explaining consciousness yet? Cognition, 79(1-2), 221-237.
Dennett, D. C. (1989). The intentional stance. MIT press.
Goyal, A., Didolkar, A., Lamb, A., Badola, K., Ke, N. R., Rahaman, N., Binas, J., Blundell, C., Mozer, M., & Bengio, Y. (2022). Coordination Among Neural Modules Through a Shared Global Workspace (arXiv:2103.01197). arXiv. https://doi.org/10.48550/arXiv.2103.01197
Herzog, D. J., & Herzog, N. (2024). What is it like to be an AI bat?. Qeios.
Juliani, A., Kanai, R., & Sasai, S. S. (2022). The Perceiver Architecture is a Functional Global Workspace. Proceedings of the Annual Meeting of the Cognitive Science Society, 44(44). https://escholarship.org/uc/item/2g55b9xx
Shanahan, M. (2022). Talking About Large Language Models. arXiv preprint arXiv:2212.03551.
Shanahan, M., McDonell, K., & Reynolds, L. (2023). Role-Play with Large Language Models (arXiv:2305.16367). arXiv. https://doi.org/10.48550/arXiv.2305.16367
Shiller, D. (2024). Functionalism, integrity, and digital consciousness. Synthese, 203(2), 47.