Compartir
El ChatGPT ha despertado entusiasmo y temor desde su lanzamiento en noviembre de 2022. Su aparente dominio de la semántica y sintaxis —aunque no aún del contenido— de diferentes idiomas sorprende a los usuarios que esperan un simple chatbot. Algunas universidades prohibieron de inmediato a los estudiantes usar ChatGPT para escribir ensayos, ya que supera a la mayoría de los estudiantes humanos. Artículos de opinión en periódicos anunciaron el fin de la educación, no solo porque los estudiantes pueden usarlo para hacer tareas, sino también porque el ChatGPT puede proporcionar más información que muchos profesores. La inteligencia artificial parece haber conquistado otro dominio que, según la filosofía clásica, define la naturaleza humana: el logos. El pánico crece con esta nueva pérdida de territorio existencial. La imaginación apocalíptica de la historia humana se intensifica a medida que el colapso climático y la revuelta de los robots evocan el fin de los tiempos.
Los “tiempos finales” no eran ajenos a los modernos. De hecho, en el libro de Karl Löwith de 1949 titulado El sentido de la Historia, el filósofo demostró que la Filosofía de la Historia moderna, desde Hegel hasta Burckhardt, era una secularización de la escatología [1]. El telos de la historia es lo que hace que lo trascendente se vuelva inmanente, ya sea la segunda venida de Jesucristo o simplemente el devenir de Homo Deus. Esta imaginación bíblica o abrahámica del tiempo ofrece muchas reflexiones profundas sobre la existencia humana en general, pero también dificulta la comprensión de nuestro futuro.
En la década de 1960, Hans Blumenberg argumentó en contra de la tesis de secularización de Löwith, así como contra la afirmación de Carl Schmitt de que “todos los conceptos significativos de la teoría moderna del Estado son conceptos teológicos secularizados” [2]. Blumenberg sostuvo que la comprensión de lo moderno como la secularización o transposición de conceptos teológicos socava la legitimidad de lo moderno; un cierto significado de la modernidad permanece irreducible a la secularización de la teología [3]. Del mismo modo, lo novedoso y significativo de la inteligencia artificial es ocultado por la imaginación escatológica, por los estereotipos modernos de las máquinas y la propaganda industrial.
Esto no quiere decir que debamos negar el cambio climático y resistir a la inteligencia artificial. Al contrario, combatir el cambio climático debería ser nuestra máxima prioridad, al igual que desarrollar una relación productiva entre los humanos y la tecnología. Pero para lograr esto, debemos desarrollar una comprensión adecuada de la inteligencia artificial, más allá de una perspectiva meramente técnica. La invención del tren, el automóvil y posteriormente el avión también generó gran temor, tanto psicológico como económico, sin embargo, hoy en día pocas personas temen que estas máquinas escapen de nuestro control. Por el contrario: los automóviles y aviones forman parte de la vida diaria, a menudo simbolizando emoción y libertad. Entonces, ¿por qué existe tanto miedo en torno a la inteligencia artificial?
Para comprender esta nueva ola de tecnología con el ChatGPT a la vanguardia, podemos comenzar con el famoso experimento mental de la Habitación China de John Searle, realizado en 1980, que oculta el estereotipo más molesto de las máquinas computacionales bajo la apariencia de razonamiento lógico. En este experimento mental, Searle se imagina solo en una habitación, con la tarea de seguir instrucciones de acuerdo con un programa de procesamiento de símbolos escrito en inglés, para responder a entradas escritas en chino que se deslizan debajo de la puerta. Searle no entiende el chino en el experimento: “No sé nada de chino, ni escrito ni hablado, y… ni siquiera estoy seguro de poder reconocer la escritura china como tal, en contraste con la escritura japonesa o garabatos sin sentido” [4]. Sin embargo, argumenta que con el conjunto correcto de instrucciones y reglas, podría responder de una manera que haría que la persona fuera de la habitación creyera que él entiende el chino. En resumen, Searle sostiene que el hecho de que una máquina sea capaz de seguir instrucciones en chino no significa que la máquina comprenda el chino, que es una característica distintiva de la llamada IA fuerte (en contraposición a la IA débil). Comprender significa, en primer lugar, entender la semántica. Mientras que la sintaxis puede ser programada de forma rígida, el significado semántico cambia con la situación y las circunstancias. La Habitación China de Searle se aplica a una computadora que aún funciona como una máquina del siglo XVIII, como el Pato Digestor [«Digesting Duck»] o el Turco Mecánico [«MechNICl Turk»]. Sin embargo, este no es el tipo de máquina con la que estamos lidiando hoy en día. Noam Chomsky, Ian Roberts y Jeffrey Watumull tenían razón al afirmar que ChatGPT es “un motor estadístico pensado para el emparejamiento de patrones” [5]. Sin embargo, debemos reconocer que, aunque los patrones son una característica primaria de la información, el ChatGPT está haciendo más que simplemente emparejar patrones.
Combatir el cambio climático debería ser nuestra máxima prioridad, al igual que desarrollar una relación productiva entre los humanos y la tecnología. Pero para lograr esto, debemos desarrollar una comprensión adecuada de la inteligencia artificial, más allá de una perspectiva meramente técnica. La invención del tren, el automóvil y posteriormente el avión también generó gran temor, tanto psicológico como económico, sin embargo, hoy en día pocas personas temen que estas máquinas escapen de nuestro control. Por el contrario: los automóviles y aviones forman parte de la vida diaria, a menudo simbolizando emoción y libertad. Entonces, ¿por qué existe tanto miedo en torno a la inteligencia artificial?Una crítica sintáctica de este tipo se basa en una epistemología mecanicista que asume una causalidad lineal: una causa seguida de un efecto. Se puede invertir este proceso de causa y efecto para llegar a la causa última: el motor primordial, el origen de la primera causa y el destino final de todo razonamiento lineal. En contraste con la causalidad lineal y la filosofía mecanicista, el siglo XVIII presenció el surgimiento del pensamiento filosófico basado en el organismo, siendo la Crítica del Juicio de Immanuel Kant una de las contribuciones más significativas. Como he afirmado anteriormente, Kant impuso una nueva condición para la filosofía, a saber, que esta debe volverse orgánica; en otras palabras, lo orgánico marcó un nuevo comienzo para el pensamiento filosófico [6]. Hoy en día, es importante reconocer que la condición de filosofar establecida por Kant ha llegado a su fin después de la cibernética [7].
La cibernética, un término acuñado por Norbert Wiener alrededor de 1943, fue desarrollada por un grupo de científicos e ingenieros que asistieron a las «Conferencias Macy» sobre cibernética a fines de los años cuarenta y principios de los años cincuenta. La cibernética pretendía ser una ciencia universal capaz de unificar todas las disciplinas, una nueva adaptación del enciclopedismo del siglo XVIII, según Gilbert Simondon [8]. La cibernética utiliza el concepto de retroalimentación [feedback] para definir el funcionamiento de una nueva “máquina cibernética” distinta de las “máquinas mecánicas” del siglo XVII. Wiener afirmó en su influyente libro de 1948 que la cibernética había superado la oposición entre mecanismo y vitalismo representada por Newton y Bergson, porque las máquinas cibernéticas se basaban en una nueva forma no lineal de causalidad, o recursividad, en lugar de una causalidad lineal frágil e ineficaz, ya que esta última no sabe cómo regular su propio modo de operación. Imagina un reloj mecánico: cuando una de las ruedas falla, todo el reloj se detiene. Con este tipo de mecanismo lineal, no se puede lograr un aumento exponencial en la velocidad de razonamiento sin una actualización radical del hardware.
Si la oposición entre el mecanismo y el organismo caracteriza un gran debate de la filosofía moderna, determinando la dirección de su desarrollo, entonces el debate persiste hoy en día, cuando tantas afirmaciones que desacreditan la IA y ChatGPT asumen que las máquinas son solo mecanicistas y, por lo tanto, incapaces de comprender el significado semántico. Sería igualmente incorrecto afirmar que las máquinas son simplemente una imitación fallida de la comprensión humana en lo que respecta al significado semántico. El filósofo y científico cognitivo Brian Cantwell Smith ha criticado enérgicamente este pensamiento antropomórfico, defendiendo una intencionalidad maquínica. Para él, incluso si no se encuentra una intencionalidad humana en una máquina, sigue siendo una forma de intencionalidad; es semántica, aunque no en el sentido del lenguaje humano [9]. Esta separación entre la semántica antropomórfica y la semántica de la máquina es fundamental para repensar nuestras relaciones con las máquinas, pero solo como un primer paso.
El argumento de Searle ignora fundamentalmente la forma recursiva de cálculo realizada por las máquinas de hoy en día. Se podría argumentar que la informática [computer science] no debe confundirse con la cibernética, ya que esta última es una ciencia demasiado amplia. Sin embargo, también se puede pensar en la función recursiva de Gödel y su equivalencia con la Máquina de Turing y el cálculo lambda de Alonzo Church (una historia bien conocida en la historia de la computación). El término “recursividad” no solo pertenece a la cibernética; también pertenece al pensamiento post-mecanicista. El advenimiento de la cibernética solo anunció la posibilidad de realizar este pensamiento recursivo en máquinas cibernéticas.
La “inteligencia” que se encuentra en las máquinas hoy en día es una forma reflexiva de operación, como observaron acertadamente tanto Gotthard Günther como Gilbert Simondon. Para Günther, la cibernética es la realización de la lógica de Hegel, mientras que para Simondon, fue solo en la elaboración del juicio reflexivo en la Crítica del juicio donde Kant abordó la cibernética [10]. El “pensamiento reflexivo” suele asociarse con los seres humanos y no con las máquinas, porque las máquinas solo ejecutan instrucciones sin reflexionar sobre las propias instrucciones. Pero desde la introducción de la cibernética en la década de 1940, el término también puede describir el mecanismo de retroalimentación de las máquinas. El pensamiento reflexivo en las máquinas tiene un poder sorprendente sobre los seres humanos que no están preparados para aceptar su existencia, incluso como una forma preliminar y básica de reflexión, siendo puramente formal y, por lo tanto, insuficiente para tratar con el contenido. Aquí es donde podemos entender por qué ChatGPT puede ser considerado “no particularmente innovador” y “nada revolucionario” para científicos de la computación como Yann LeCun [11]. Solo al lidiar con el contenido las máquinas pueden avanzar hacia lo que se ha llamado la singularidad tecnológica. Hasta ahora, la singularidad sigue siendo un mito, engañoso y también perjudicial cuando se presenta como el futuro cercano. Incluso si asociamos la singularidad con un significado teológico o escatológico, no aporta nada al entendimiento de la inteligencia artificial o su futuro.
Las máquinas recursivas, y no las máquinas lineales, son clave para entender el desarrollo y la evolución de la inteligencia artificial. ¿Cómo se enfrentarán los seres humanos a este nuevo tipo de máquina? Simondon planteó una pregunta similar al preguntar: cuando la tecnología se vuelve reflexiva, ¿cuál será el papel de la filosofía? Brian Cantwell Smith ha argumentado que la IA se limita a la capacidad de cálculo y no al juicio, sin embargo, es difícil decir cuánto tiempo más puede mantenerse tal distinción [12]. Tal vez se haya perdido demasiado esfuerzo intelectual en hacer distinciones entre máquinas y humanos.
El "pensamiento reflexivo" suele asociarse con los seres humanos y no con las máquinas, pero desde la introducción de la cibernética en la década de 1940, el término también puede describir el mecanismo de retroalimentación de las máquinas. El pensamiento reflexivo en las máquinas tiene un poder sorprendente sobre los seres humanos que no están preparados para aceptar su existencia, incluso como una forma preliminar y básica de reflexión, siendo puramente formal y, por lo tanto, insuficiente para tratar con el contenido. Aquí es donde podemos entender por qué ChatGPT puede ser considerado "no particularmente innovador" y "nada revolucionario" para científicos de la computación como Yann LeCun.Los seres humanos no se sintieron perturbados cuando los animales domesticados, como los caballos y las vacas, los reemplazaron como proveedores de energía. En cambio, dieron la bienvenida al alivio de las tareas repetitivas y agotadoras. Lo mismo sucedió cuando las máquinas de vapor reemplazaron a los animales; eran aún más eficientes y requerían incluso menos atención humana. Simondon, en su libro de 1958, El modo de existencia de los objetos técnicos, observó acertadamente que el reemplazo de las máquinas termodinámicas por máquinas de información marca un momento crítico: el desplazamiento humano del centro de la producción. Los artesanos antes de la era industrial podían crear un entorno asociado en el que el cuerpo e inteligencia del artesano compensaban la falta de autonomía de sus herramientas simples. En la era de las máquinas de información, o máquinas cibernéticas, la propia máquina se convierte en el organizador de la información y el ser humano ya no está en el centro, aunque aún se consideren a sí mismos los comandantes de las máquinas y los organizadores de la información. Este es el momento en que el ser humano sufre por sus propias creencias estereotipadas sobre las máquinas: se identifican falsamente a sí mismos como el centro y, al hacerlo, enfrentan una frustración constante y una búsqueda de identidad llena de pánico.
La realidad que reside en la máquina está alienada de la realidad en la que opera el ser humano. El inevitable proceso de evolución tecnológica está impulsado por la introducción de la causalidad no lineal, lo que permite a las máquinas lidiar con la contingencia. Una máquina de aprendizaje es aquella que puede discernir eventos contingentes, como el ruido y el fallo. Puede distinguir las entradas desorganizadas de las necesarias. Y al interpretar los eventos contingentes, la máquina de aprendizaje mejora su modelo de toma de decisiones. Pero incluso aquí, la máquina necesita a los seres humanos para distinguir entre decisiones correctas y incorrectas a fin de seguir mejorando. En los países en desarrollo, un nuevo tipo de mano de obra barata emplea a seres humanos para indicar a las máquinas si los resultados son correctos, ya sea en escaneos de reconocimiento facial o en respuestas de ChatGPT. Esta nueva forma de trabajo, que explota a los trabajadores que trabajan invisiblemente detrás de las máquinas con las que interactuamos, a menudo se pasa por alto en las críticas generales al capitalismo que lamentan la insuficiente automatización. Esta es la debilidad de la crítica marxista actual a la tecnología.
Simondon planteó una pregunta clave en El modo de existencia de los objetos técnicos: cuando el ser humano deja de ser el organizador de la información, ¿qué papel puede desempeñar? ¿Puede el ser humano ser liberado del trabajo? Como sospechaba Hannah Arendt en La condición humana, publicado el mismo año que el libro de Simondon, tal liberación solo conduce al consumismo, dejando al artista como el “último hombre” capaz de crear [13]. El consumismo aquí se convierte en el límite de la acción humana. Arendt ve las máquinas desde la perspectiva de la realidad humana, como reemplazo del Homo faber, mientras que Simondon muestra que la incapacidad para lidiar e integrar la realidad técnica de las máquinas fomentará un antagonismo desafortunado entre el ser humano y la máquina, la cultura y la técnica. Este antagonismo no solo es fuente de temor, también se basa en una comprensión problemática de la tecnología moldeada por la propaganda industrial y el consumismo. Es a partir de esta negatividad que creció un humanismo primitivista que identifica al amor como último recurso del ser humano.
Han pasado más de sesenta años desde que Simondon planteó estas preguntas y siguen sin resolverse. Peor aún, han sido oscurecidas por el optimismo tecnológico, así como por el pesimismo cultural, siendo que el primero promueve una aceleración implacable y el último actúa como psicoterapia. Ambas tendencias se originan en una comprensión antropomórfica de las máquinas que afirma que deben imitar a los seres humanos (Simondon criticó ferozmente a la cibernética por mantener esta visión, aunque esto no fue totalmente justificado). Hoy en día, la expresión más irónica de esta visión de imitación [mimicry] se encuentra en el ámbito del arte, en los intentos de demostrar que una máquina puede hacer el trabajo de un Bach o un Picasso. Por un lado, el ser humano entra en pánico y pregunta repetidamente qué tipo de trabajos pueden evitar ser reemplazados por máquinas; por otro lado, la industria tecnológica trabaja conscientemente para reemplazar la intervención humana con la automatización de las máquinas. Los seres humanos viven dentro de la profecía autocumplida de reemplazo de la industria. Y de hecho, la industria constantemente reproduce el discurso del reemplazo al anunciar el fin de este o aquel trabajo como si hubiera llegado una revolución, mientras que la estructura social y nuestro imaginario social permanecen sin cambios.
El discurso del reemplazo no se ha transformado en el discurso de la liberación en las sociedades capitalistas ni en las llamadas sociedades comunistas. Para ser justos, algunos aceleracionistas se dan cuenta de esto y han buscado revivir la visión de Marx de la automatización completa. Si la física de la escuela secundaria fuera más popular, tendríamos un concepto más matizado de la aceleración, porque la aceleración no significa un aumento en la velocidad [speed], sino un aumento en la velocidad [velocity]. En lugar de elaborar una visión del futuro en la que la inteligencia artificial cumpla una función prostética, el discurso dominante la trata simplemente como un desafío a la inteligencia humana y un reemplazo del trabajo intelectual. Los seres humanos de hoy no logran soñar. Si el sueño del vuelo condujo a la invención del avión, ahora tenemos pesadillas cada vez más intensas con las máquinas. En última instancia, tanto el optimismo tecnológico (en forma de transhumanismo) como el pesimismo cultural se encuentran en su proyección de un fin apocalíptico.
Por un lado, el ser humano entra en pánico y pregunta repetidamente qué tipo de trabajos pueden evitar ser reemplazados por máquinas; por otro lado, la industria tecnológica trabaja conscientemente para reemplazar la intervención humana con la automatización de las máquinas. Los seres humanos viven dentro de la profecía autocumplida de reemplazo de la industria. Y de hecho, la industria constantemente reproduce el discurso del reemplazo al anunciar el fin de este o aquel trabajo como si hubiera llegado una revolución, mientras que la estructura social y nuestro imaginario social permanecen sin cambios.La creatividad humana debe tomar una dirección radicalmente diferente y elevar las relaciones entre humanos y máquinas por encima de la teoría económica del reemplazo y las fantasías de interactividad. Debe moverse hacia un análisis existencial. La naturaleza protésica de la tecnología debe ser afirmada más allá de su funcionalidad, ya que desde el comienzo de la humanidad, el acceso a la verdad siempre ha dependido de la invención y uso de herramientas. Este hecho permanece invisible para muchos, lo que hace que el conflicto entre la evolución de las máquinas y la existencia humana parezca originarse en una ideología arraigada profundamente en la cultura.
Vivimos en diversos bucles de retroalimentación positiva representados como cultura. Desde el inicio de la sociedad industrial moderna, el cuerpo humano ha sido subordinado a ritmos repetitivos y, en consecuencia, la mente humana se ha visto absorbida por las profecías de la industria. Ya sea el american dream o el chinese dream, el enorme potencial humano se ha visto suprimido en favor de una ideología consumista. En el pasado, la filosofía tenía la tarea de limitar la arrogancia producida por las máquinas y de liberar a los sujetos humanos de los bucles de retroalimentación en nombre de la verdad. Hoy en día, los filósofos de la tecnología están ansiosos por afirmar estos bucles de retroalimentación como el camino inevitable de la civilización. El ser humano ahora reconoce la centralidad de la tecnología al querer resolver todos los problemas como si fueran problemas técnicos. La velocidad y la eficiencia gobiernan toda la sociedad, como solían gobernar solo las disciplinas de ingeniería. El deseo de los educadores de realizar un cambio paradigmático en pocos años desacredita cualquier reflexión fundamental sobre la cuestión de la tecnología, y volvemos a caer en un bucle de retroalimentación. En consecuencia, las universidades continúan produciendo talento para la industria tecnológica, y este talento continúa desarrollando algoritmos más eficientes para explotar la privacidad de los usuarios y manipular la forma en que consumen. Para las universidades, debería ser más urgente abordar estas preguntas que considerar prohibir ChatGPT.
¿Puede el ser humano escapar de este ciclo de retroalimentación positiva, tan arraigado en la cultura contemporánea, de profecía autocumplida? En 1971, Gregory Bateson describió un ciclo de retroalimentación que atrapa a los alcohólicos: una copa de cerveza no me matará; vale, ya empecé, una segunda estará bien; bueno, ya van dos, ¿por qué no tres? Un alcohólico, si tiene suerte, puede salir de este ciclo de retroalimentación positiva al “tocar fondo”, sobreviviendo a una enfermedad mortal o un accidente automovilístico, por ejemplo [14]. Esos afortunados supervivientes desarrollan entonces una intimidad con lo divino. ¿Pueden los seres humanos, los alcohólicos modernos, con toda su inteligencia y creatividad colectiva, escapar de este destino de tocar fondo? En otras palabras, ¿puede el ser humano tomar un giro radical y orientar la creatividad en una dirección diferente?
¿No es precisamente esta oportunidad la que brindan las máquinas inteligentes de hoy en día? Como prótesis en lugar de seguidores de patrones mecánicos, las máquinas pueden liberar al ser humano de la repetición y ayudarnos a realizar el potencial humano. Cómo adquirir esta capacidad transformadora es, fundamentalmente, nuestra preocupación actual, no el debate sobre si una máquina puede pensar, lo cual es simplemente una expresión de crisis existencial e ilusión trascendental. Tal vez algunas premisas nuevas sobre las relaciones entre humanos y máquinas puedan liberar nuestra imaginación. Aquí hay tres (aunque ciertamente se pueden agregar más):
1) En lugar de suspender el desarrollo de la IA, suspendamos la estereotipación antropomórfica de las máquinas y desarrollemos una cultura adecuada de prótesis. La tecnología debería utilizarse para realizar el potencial de sus usuarios (aquí tendremos que entablar un diálogo con la teoría de las capacidades de Amartya Sen) en lugar de ser su competidora o reducirlos a patrones de consumo.
2) En lugar de mistificar las máquinas y la humanidad, comprendamos nuestra realidad técnica actual y su relación con diversas realidades humanas, para que esta realidad técnica pueda integrarse con ellas para mantener y reproducir la biodiversidad, la noodiversidad y la tecnodiversidad [15].
3) En lugar de repetir la visión apocalíptica de la historia (una visión expresada, en su forma más secular, en el fin de la historia de Kojève y Fukuyama), liberemos la razón de su camino fatal hacia un fin apocalíptico. Esta liberación abrirá un campo que nos permitirá experimentar con formas éticas de convivencia con las máquinas y otros seres no humanos.
Ninguna invención llega sin restricciones y problemáticas. Aunque estas restricciones son más conceptuales que técnicas, ignorar lo conceptual es precisamente lo que permite que el mal crezca, como resultado de una perversión en la que la forma prevalece sobre el fundamento [16]. Solo cuando nos alejemos del sesgo cultural y de la profecía autocumplida de la industria tecnológica podremos desarrollar una mayor comprensión de las posibilidades del futuro, que no pueden basarse únicamente en el análisis de datos y la extracción de patrones. Es muy probable que, antes de llegar allí, los profetas industriales de nuestro tiempo ya hayan comprendido que las máquinas pueden predecir el futuro mejor que ellos.
*Este artículo fue publicado en su versión originar en inglés en E-flux . La traducción es de Centro Marabunta.
NOTAS
[1] “Esta concepción occidental de la historia, que implica una dirección irreversible hacia un objetivo futuro, no es meramente occidental. Esencialmente, es una suposición hebrea y cristiana de que la historia está dirigida hacia un propósito último y gobernada por la providencia de una visión y voluntad supremas; en términos de Hegel, por el espíritu o la razón como «la esencia absolutamente poderosa».’” Karl Löwith, Meaning in History (University of Chicago Press, 1949), 54.
[2] Carl Schmitt, Political Theology: Four Chapters on the Concept of Sovereignty (University of Chicago Press, 2005), 36.
[3] Hans Blumenberg, “Progress Exposed as Fate,” en The Legitimacy of the Modern Age (MIT Press, 1985).
[4] John. R. Searle, “Minds, Brains, and Programs,” Behavioral and Brain Sciences 3, nº3 (1980): 418.
[5] Noam Chomsky, Ian Roberts, y Jeffrey Watumull, “The False Promise of ChatGPT,” New York Times, 8 de marzo, 2023
[6] Yuk Hui, Recursividad y contingencia , Caja Negra, 2022
[7] Ver Yuk Hui, “Philosophy after Automation,” Philosophy Today 65, nº 2 (2021).
[8] Gilbert Simondon, “Technics Learned by the Child and Technics Thought by the Adult”, en On the Mode of Existence of Technical Objects [1958] (Univocal, 2017).
[9] “Muchas personas han argumentado que la semántica de los sistemas computacionales es intrínsecamente derivada o atribuida, es decir, del tipo que tienen los libros y los signos, en el sentido de ser asignada por observadores externos o usuarios, en contraposición al pensamiento humano y el lenguaje, que se asume como original o auténtico. Dudo sobre la utilidad última (y precisión) de esta distinción y también sobre su aplicabilidad a las computadoras.” Brian Cantwell Smith, On the Origin of Objects (MIT Press, 1996), 10. Para una discusión extensa sobre el trabajo de Smith, ver Yuk Hui, “Digital Objects and Ontologies,” en On the Existence of Digital Objects (University of Minnesota Press, 2016).
[10] Gotthard Günther, Das Bewusstsein der Maschinen: eine Metaphysik der Kybernetik (Agis-Verlag, 1957); Gilbert Simondon, Sur la philosophie (PUF, 2016), 180.
[11] Citado en Tiernan Ray, “ChatGPT Is ‘Not Particularly Innovative,’ and ‘Nothing Revolutionary,’ Says Meta’s Chief AI Scientist,” ZDNET, 23 de enero, 2023
[12] Brian Cantwell Smith, The Promise of Artificial Intelligence: Reckoning and Judgment (MIT Press, 2019).Dedico más tiempo al argumento de Smith en el tercer capítulo de Art and Cosmotechnics (e-flux and University of Minnesota Press, 2021).
[13] Hannah Arendt, The Human Condition (University of Chicago Press, 1998), 127.
[14] Gregory Bateson, “The Cybernetics of ‘Self’: A Theory of Alcoholism,” es Steps to an Ecology of Mind (Jason Aronson, 1987).
[15] Ver Yuk Hui, “Para un pensamiento planetario” publicado en el blog de Caja Negra
[16] Ver la cuestión del «mal» en F. W. J. Schelling, Philosophical Investigations into the Essence of Human Freedom (SUNY Press, 2006).