EL ALGORITMO DE LA RAZA. NOTAS SOBRE ANTIRRACISMO Y BIG DATA

EL ALGORITMO DE LA RAZA. NOTAS SOBRE ANTIRRACISMO Y BIG DATA

Por Anyeli Marin Cisneros

La dictadura de las imágenes está ligada a la ficción de la raza. Aquí nace el principio de la dominación del ojo. Este texto propone una serie de comentarios acerca del racismo en el neoliberalismo y la era del big data. Formula algunas preguntas acerca del estatuto del cuerpo en relación con la biometría y la vigilancia digital. Se pregunta por un posible antirracismo tecnocientífico, como una tentativa ante la cuestión por el futuro de la raza.

Todo relato sobre la tecnología digital ha sido incesantemente planteado como una promesa del futuro. Por oposición, toda referencia a la colonialidad y al racismo, la esclavitud y la acumulación originaria, es imaginada en un tiempo pasado y se le atribuye a un ciclo cerrado y acabado. El espeso velo del tiempo lineal nos somete a la imposibilidad de comprender la hibridez de los ciclos y de las formas de poder superpuestas. ¿Cómo escribir sobre tecnología sin evocar sus promesas? ¿Qué relación hay entre racismo y digitalización? ¿Cuál es el tiempo de la raza?

EL TIEMPO DE LA RAZA

El gobierno chino acaba de incorporar gafas de reconocimiento facial al equipamiento básico del cuerpo policial de esa nación. Así, en 2018, Asia se pone a la vanguardia de la frenología tecnotrónica bajo nombres como “inferencia automatizada de la criminalidad con imágenes faciales”. La detección facial supone que además de determinar plenamente la identidad de las personas, también se puede tener información sobre la predisposición moral. Activistas de diversas partes del mundo comparten estrategias para burlar esta nueva avanzada de la hipervigilancia. Se proponen diseños analógicos y digitales para hackear y confundir el implacable panóptico. A su vez, grupos de activistas negrxs de los EEUU, denuncian la emergencia del racismo digital palpable en la programación de softwares para el reconocimiento de personas. Reclaman por tanto “justicia algorítmica” en el diseño de programas fiables en la lectura de la tez y los rasgos afros. Exigen ser ampliamente reconocibles por la visión artificial. Prevén que la inminente aplicación de estos softwares imperfectos en el sistema judicial perpetúe las injusticias raciales del sistema.

Contravigilancia o inclusión; anonimato o fiebre de archivo identitario; deserción de las categorías de raza o sobreidentificación minoritaria. La ambivalencia del racismo en la tecnología nos abre a un campo de problemas que comienzan por comprender las implicaciones del proceso actual de la digitalización del mundo.

Achille Mbembe plantea que la ficción de la raza y el racismo no solo comparten el pasado sino que proyectan un porvenir cifrado en la digitalización del presente. Por ello, queremos hablar de tecnología sin fijarla en el tiempo futuro. Hablar de exclusión, empobrecimiento, expoliación y tecnocolonialidad desmontando el aparataje que encubre este acelerado reordenamiento político y material, fundamentado en la fragilización de los cuerpos a través del orden digital. Es imprescindible entonces suspender momentáneamente la discusión en torno al “racismo” y poner en el centro del examen la noción de “raza”. Plegar el tiempo para interrogar las inscripciones de la supuesta diferencia abismal que fue tomando forma en los siglos coloniales y luego siguió codificando todos los aspectos de la realidad, desde el sexo hasta la macroeconomía. Es urgente interrogar la génesis de esa forma de poder y sus consecuencias en el presente, habitado por lógicas vertiginosas de segmentación étnica y fragmentaciones identitarias.

“Grupos de activistas negrxs de los EEUU, denuncian la emergencia del racismo digital palpable en la programación de softwares para el reconocimiento de personas. Reclaman por tanto “justicia algorítmica” en el diseño de programas fiables en la lectura de la tez y los rasgos afros. Exigen ser ampliamente reconocibles por la visión artificial. Prevén que la inminente aplicación de estos softwares imperfectos en el sistema judicial perpetúe las injusticias raciales del sistema.”

 

LA MIRADA CODIFICADA 

“Raza” es un invento moderno introducido como vector de división y estratificación de la fuerza de trabajo, tanto en la producción como en la reproducción sexual, en la Colonia. Tuvo un primer intento de legitimación en el siglo XVI, en un uso inédito hasta entonces de esa palabra, para referirse a los supuestos indios. Como se sabe, el delirio original es ibérico, un intento fallido, un primer atisbo, que aun así trajo gravísimas consecuencias. En ese entonces “raza” no estaba fijado al color de la piel ni a ninguna otra característica sensible (Quijano, 2017), pero sí a una duda sobre la existencia del alma. El alma era el índice de pertenencia a la raza humana. En el principio raza nos significaba a todos. Para que la noción de “raza” llegara a expresar lo que expresa hoy, debió ser cargada, modificada y transferida a una materialidad palpable.

En el siglo XVII “raza” se asienta con la fuerza de la legitimación que se otorga a sí mismo el sistema de creencias de la razón moderna. El significado de raza se transforma atravesando un vaivén sangriento, de dominación y resistencias, a lo largo del siglo. Las resonancias de la Arqueología del saber de Foucault son reveladoras. Efectivamente, la emergencia de la “raza” nos sitúa en un circuito de instituciones, vocabularios específicos y conceptos asociados al cuerpo humano subdividido en especies. Un proceso lento, en cámara de eco, entre la práctica colonial y la ciencia, entre las convenciones sociales y las leyes, que le van dando forma a la encarnación del delirio racial. Raza queda fijado al cuerpo negro como único “sujeto de raza” por mucho tiempo. He aquí el origen de una economía que se levantó a costa de subsidios raciales gracias a la transferencia de un vector de división a una corporalidad específica.

Desde entonces, la verificación de esa diferencia ha sido el motor del saber. Subdividiendo lo humano en partes, se ha buscado y rebuscado en la forma del cráneo o los rasgos de la cara, en la musculatura, en los dientes o en el tamaño de los genitales, en la psique o en la lubricidad del carácter. Hasta bien entrado los 2000 diversos laboratorios de punta concentraron tiempo y recursos a la caza de la diferencia racial en la secuencia genética. La gran noticia de la era del genoma es que no existen razas humanas. Pero acá está nuevo el eco del racismo, en la acusación o en la defensa, en el error o en la aclaratoria. Es el eco de la rabia y la vergüenza que supone para nosotros los “sujetos de raza” la obsesión blanca por la supuesta diferencia. La aplicación de leyes esclavistas marcó el paso de una economía de cultivo artesanal a una economía industrial de gran escala que desató una competencia feroz entre los imperios coloniales concentrando fuerzas en el Caribe, empujando desde allí la transformación de los modos de producción en el resto del continente hacia formatos de mayor y mejor extracción, perpetrando genocidios y secuestros masivos de personas para su explotación con un impacto incalculable.

Al ritmo de la intensificación industrial, “negro” va a pasar a significar “esclavo” y viceversa a partir de la rígida prohibición de emplear serviles blancos en el sistema de plantación, alrededor de 1660. Para no dejar lugar a dudas, las leyes para gestionar a la población esclavizada se denominaron Códigos negros. Estos atestiguan la imposición y documentan la puesta en práctica de una lógica de jerarquías y estratos humanos: la “raza”, esa obra fundamental de la racionalidad europea, que le dio forma a la economía libidinal, psíquica y estética que llamamos racismo.

Los Códigos negros o las leyes esclavistas fueron el conjunto de normas jurídicas coloniales, diseñadas en las metrópolis europeas, testadas en los laboratorios tropicales del sistema de plantación y corregidas violentamente en la marcha para administrar el tiempo de trabajo, la sexualidad, la reproducción, la penalidad y la movilidad de los esclavizados, naturalizando las jerarquías.

Los Códigos negros, también conocidos en el arcaico vocabulario del imperio español vigente hasta finales del siglo XIX como “reglamentos para la educación, trato y ocupación de los esclavos”, hoy pueden entenderse como el lenguaje originario del racismo contemporáneo. Estos códigos cumplieron la función de identificar, diferenciar y segregar ámbitos de la vida cotidiana, fijando determinados cuerpos a espacios y tiempos diferenciados. Para sustituir el hecho de que la población negra no tenía permitido recurrir a los tribunales, los códigos establecieron penas tarifadas, una determinada cantidad de latigazos según las faltas cometidas, de modo que el castigo no pasaba por la voluntad del amo, sino por la instrucción del sistema legal de las metrópolis. Las raciones de alimentos, la discreción por sexo y edad de los dormitorios, los horarios de trabajo y descanso, y en general el biorritmo calculado para someter, explotar y embrutecer el cuerpo sin destruirlo eran instruidos desde París o Madrid, como consta en los sellos y firmas de los legajos.

La sexualidad de los cuerpos esclavizados merecería una revisión aparte, centrada en la obsesiva instrucción sobre la gestión de la vida sexual, el maridaje y la reproducción, la lactancia y la menstruación. Desde 1660 el poder colonial vigiló con celo el estatuto de los nacimientos (se nacía libre o esclavo según el estatuto de la madre) como elemento importante de la nomenclatura del poder. Mientras “el amo entiende que el esclavo le pertenece hasta en la función de reproducción (…) Su margen de maniobra sexual estaba sujeto al margen de beneficio del amo. El goce no era una conquista, no era un proyecto, era un hurto. No era una prolongación en sí mismo, era lo que se deduce del Otro, el Otro siempre presente, mirón, invisible y represor” (Glissant, p. 281). Por un lado se estimulaba la reproducción de la clase esclava, pero por otro lado se temía a la resistencia desbordante, a través de lazos libidinales y sanguíneos que representaban una amenaza latente para el funcionamiento de los engranajes de la industria azucarera: las “herramientas vivas” deseantes y fértiles profundamente aliadas.

“Raza” en tanto escritura algorítmica, con su inherente función de manual de entrenamiento básico para el ojo racista, describió y estandarizó patrones para la dominación por efecto de la segregación. Lo primero fue romper alianzas entre grupos subalternos. Crear una división entre esclavos y serviles (1660-1663). Fijar la esclavitud al cuerpo negro y prohibir la esclavitud de los blancos (1670-1685). Impedir los matrimonios interraciales (1711-1724). Castigar con la servidumbre a las mujeres blancas que manifestaran su deseo por hombres negros (1691). Declarar la esclavitud desde el nacimiento para los hijos de las esclavas (1690-1700). Imputar duros códigos sociales de apartheid para debilitar a la comunidad negra libre (1730).

Los códigos franceses o los reglamentos españoles fueron modelos repetibles que consistían en anular el Común entre los subalternos, creando una enrevesada taxonomía de lo humano. Reescribieron normas para inventar diferencias en aspectos vitales y convertir ese índice diferenciador en una frontera constitutiva. Nos asomamos al vértigo del tiempo superpuesto de la raza: estos códigos legales y sociales del siglo XVII le dan forma a la gramática racista que seguimos discutiendo en el siglo XXI . Son la base del sistema de control migratorio contemporáneo y representan el punto de vista del que parte la vigilancia digital, la creación de algoritmos selectivos y las bases de datos biométricos en auge.

La identificación (del negro), la diferenciación (del negro como esclavo, del blanco como patrón), la segregación (de la vida civil) y la cualificación afectiva y sexual (del negro como peligro) dan cuenta de queel índice de “raza” funcionó como una partitura de la realidad. Como una coreografía para el afecto a partir del cercamiento y la exclusión para unos y el reparto de privilegios de nacimiento para otros. Desde mediados del siglo XVII, entre 1663 y 1680, las leyes de raza establecieron que “cualquier blanco” estaba autorizado —más tarde obligado— a matar a cualquier persona negra que hallase en su camino, fuera de la plantación. No se trataba solo de delatar, era su deber aniquilar a los fugitivos. Esta ley en particular da cuenta de la racialización del espacio público a partir del empoderamiento soberano de los blancos.

Se registra así el delineamiento progresivo de una subjetividad vigilante entrenada en ansiedades raciales: la población blanca se va convirtiendo en policía de la raza, una sensibilidad racista que es palpable hasta el día de hoy. Un sujeto vigilante que aún se siente autorizado a preguntar, consciente o inconscientemente, ¿qué hace este negro aquí?, ¿por qué se atreve a pensar?, ¿por qué estas personas están ocupando este lugar?

BIO- BIG DATA 

De modo que la emergencia de un racismo diagramático del orden social y estético no fue un accidente. Las definiciones de raza han sido inestables y cambiantes, transformándose al ritmo de las mutaciones de la biociencia a la genómica (Haraway, 266) y de todos modos, sus mutaciones han estado atravesadas insistentemente por la racialización del trabajo, la sexualidad, el espacio público y la relación jerarquizada con la técnica y la tecnología (sujetos de ciencia / objetos de estudio).

“Raza” y sus variaciones tecnodigitales son categorías que están en el centro de la industria de los sistemas sofisticados abocados a escrutar el cuerpo para extraer datos en sus mínimas divisiones genéticas y en sus máximas expresiones emotivas. Si la biotecnología está tamizada por lógicas de diferencia racial en lo pertinente a selección de embriones, de tejidos y de células y la gramática racial atraviesa el gran proyecto securitario y de vigilancia global, es porque “raza” fue y sigue siendo una tecnología de poder para extraer beneficios.

En adelante, estaremos inmersas en la fabricación de la memoria artificial a escala global, en el tiempo en que “la potenciación del Estado securitario trae aparejada una remodelación tecnológica del mundo y una exacerbación de los modos de asignación racial” (Mbembe, 2013, p. 59). En la obsesión de fronteras y vigilancia del capitalismo financiero, el cuerpo humano, sus rasgos y huellas, halos y temperaturas, rastros digitales y físicos están siendo tasados como datos biométricos que producen ganancias. Esta obsesión del capitalismo de datos enfatiza la falsa “necesidad de Estado” en el relevo de la información analógica a datos digitales. La digitalización de datos para la gestión del Estado, no es otra cosa que la exacerbación de los rasgos físicos y los orígenes de los ciudadanos, poniendo de relieve constantemente las procedencias étnicas y/o nacionales de los depositarios. A pesar de no interrogar directamente sobre “raza”, el escrutinio ronda permanentemente alrededor de esta noción, pasando y repasando por los múltiples sustitutos de la asignación racial.

Como puede suponerse a partir de las inversiones millonarias en tecnologías de reconocimiento facial, se pretende extraer una verdad interior, predictiva y calculable a partir de rasgos, desde la gestualidad hasta el timbre de la voz. La digitalización supone que el entrenamiento analógico del ojo racista está siendo perfeccionado gracias a la obtención de información invisible e inaudible para la percepción humana. La digitalización releva entonces el lugar que había adquirido la raza como mito y como prejuicio y la reviste de una nueva legitimidad, como un concepto duro, veraz y verificable. ¿Es posible seguir hablando de prejuicios raciales en este escenario? ¿No es suficiente la promesa del futuro racializado en todos los ámbitos que la tecnología le está ofreciendo al cuerpo en la era del big data? ¿No es evidente que entre el resurgimiento de nuevas formas de esclavitud en el Sur global y las tecnologías mortíferas en las fronteras de Europa existe un campo de relaciones e interdependencias que atraviesan el cuerpo? ¿Cuáles son los nuevos sujetos de raza del big data?

Hasta ahora, al menos dos categorías de sujetos se han revelado en este escenario y entre ellos existe una frontera racial: “la humanidad superflua, totalmente prescindible para el funcionamiento del capital” (Mbembe, 2016, p. 29) y los “sujetos de deuda” (Lazzarato, 2013) o vidas atadas al vínculo como deudor.

Las redes de dominación de raza interceptan nudos de poder entre la alta tecnología de guerra, el ojo digital de las fronteras o el flujo de datos. Tejen puntos de subjetivación entre pequeñas máquinas culturales como los emojis de color para la confesión de raza en las redes, con el diagrama de múltiples racismos que van de la pobre tropicalización de los gustos musicales a escala global, al flujo de capital sin necesidad de trabajadores; del jugoso negocio de la migración prohibida a la proliferación de divas, marcas y productos de belleza bajo subsidios publicitarios raciales.

“Esta obsesión del capitalismo de datos enfatiza la falsa “necesidad de Estado” en el relevo de la información analógica a datos digitales. La digitalización de datos para la gestión del Estado, no es otra cosa que la exacerbación de los rasgos físicos y los orígenes de los ciudadanos, poniendo de relieve constantemente las procedencias étnicas y/o nacionales de los depositarios. A pesar
de no interrogar directamente sobre “raza”, el escrutinio ronda permanentemente alrededor de esta noción, pasando y repasando por los múltiples sustitutos de la asignación racial.”

El cuerpo es la palanca que mueve distintos niveles de la compleja cadena de estas redes de dominación. Por esta razón, el cuerpo es invitado a indicar detalladamente cada diferencia, sometido a un cuestionario digital en progreso. El cuerpo sexuado, afectado, frágil alimentando un archivo infinito, alejado de su “derecho de opacidad”, obligado a decirlo todo. El cuerpo hurgado en sus capas más profundas, exiliado de su intimidad, pasando el túnel del delirio de raza. El cuerpo en el tiempo sin refugio.

EL ALGORITMO DE LA RAZA 

Los tecnólogos críticos, preocupados por la multiplicación de injusticias y el reparto masivo de pobreza que se avizora como legado del gobierno big data, nos explican que los nuevos algoritmos son secuencias de códigos diseñados para leer, organizar, filtrar y analizar la gran cantidad de datos que fluyen entre descomunales archivos informáticos del mundo. Lo que diferencia a estos algoritmos de otro tipo de secuencias de bits, es que estos son perversos y polimorfos, tal como Freud describía a los niños, entes juguetones y al mismo tiempo monstruosos cuya naturaleza radica en desbordar rápidamente su escritura original. Tienen la capacidad de ‘aprender’ de los humanos porque en cada interacción (en el uso de apps, búsquedas, descargas de archivos, patrones de navegación y preferencias), nutrimos con datos y entrenamos unos modelos matemáticos que expanden y fortalecen sus habilidades incorporando el conocimiento que acabamos de compartirles.

La preocupación surgida alrededor de estos está relacionada con su condición de fantasmas autónomos, que toman decisiones más allá de la voluntad de los usuarios. Una de las voces más importantes de este debate, la matemática Cathy O’Neil (2018), explica que la legitimación de la gobernanza propia del big data, ejecutada por algoritmos aprendices, pone en peligro la democracia como un pacto entre personas y aumenta la exclusión social, en buena medida, debido a la acumulación de información, inabarcable a escala humana.

En la segunda parte del siglo, sin embargo, es el signo monetario el que reclama su autonomía, y desde la decisión de Nixon, tras un proceso de desregulación monetaria, quedó firmemente establecido que la dinámica monetaria se autodefine de manera arbitraria: el dinero pasó de tener una significación referencial a tener otra autorreferencial. Esto era necesario para la automatización de la esfera monetaria, y para la sumisión de la vida social a esta esfera de abstracción.

Ese es el paisaje tecnoafectivo en el que el dato “raza” se desliza de una manera ambigua y resbaladiza. La misma Cathy O’Neil, aun cuando el enfoque de su investigación es la vocación especulativa de los usos hegemónicos del big data, pone en el centro de su argumentación una metáfora racial para llevarnos a entender las lógicas algorítmicas a las que estamos expuestas. Ella compara el funcionamiento del racismo y el de las “armas de destrucción matemáticas” indicando que tanto el racismo cotidiano como los algoritmos son modelos predictivos que se nutren de datos recogidos al azar, no verificados y alimentados por otros datos imperfectos, cuya procedencia se desconoce. Ambos modelos operan como bucles que se retroalimentan a sí mismos (p. 33). Investigadoras como Timnit Gebru, directora del departamento de Ética de Microsoft, y organizadora de la conferencia Black in AI, llama la atención sobre lo que ella llama “crisis de diversidad en de visión artificial”, diversidad de datos y de cabezas pensantes. Cuando se hace referencia a los peligros algorítmicos, el racismo es el ejemplo por excelencia. Tomemos esta reiteración como punto de partida para revisar por qué y cómo “raza” aparece en el discurso actual de la tecnología.

Un lunes cualquiera de enero de 2018, como para agitar las redes aún dormidas al inicio del año, los portales de noticias más leídos en las principales ciudades —al menos de España y América Latina—, reprodujeron casi textualmente una “gran” noticia tecnológica de los Estados Unidos: “Google ha eliminado su algoritmo racista”. ¿Sabíamos que Google tenía un algoritmo de imágenes humillantes para personas negras? ¿Era importante que ese titular le diera la vuelta al mundo? ¿Contribuía a alguna causa o respondía a demandas de activistas antirracistas tecnofílicos? Habían transcurrido dos años desde que no se hablaba de ese algoritmo en particular y ya era un tema olvidado. El titular tuvo el único efecto que podía tener: el motor de búsqueda de nuestra preferencia se saturó ese día y toda la semana siguiente, llenando los depósitos algorítmicos con el favor de los usuarios, quienes enseguida quisieron confirmar la voluntad descolonizadora de Google. Las navegaciones y búsquedas “aleatorias” se combinaron con incursiones y comentarios en las redes, likes, RT, descargas, a la caza de la injusticia o la justicia del algoritmo en cuestión. Así se puso en marcha lo que Benjamin Cadon describe como el riesgo de un “bestiario algorítmico” que se multiplica y retroalimenta entre la inteligencia humana y la artificial, entre los datos estimulados y la mente. En este caso, entre las pesquisas inducidas y los hallazgos preestablecidos (2018, p. 35).

Todas las grandes firmas tecnológicas cuentan con un kit de algoritmos que dejan ver las “ansiedades raciales” (Haraway) que hoy corre por la tecnología de datos. Como era de esperarse, todas tienen una serie de bits que parecen escritos por el Ku Klux Klan, como pequeñas máquinas taxonómicas, listas para segregar. 

El debate alrededor del riesgo de los algoritmos es también flujo de “habladurías” por parte de los falsos amigos del antirracismo.

Esta habladuría de los “sesgos” racistas, apenas rasca la superficie del problema. La línea argumentativa dominante circunscribe el fenómeno de los algoritmos racistas a un deslizamiento involuntario de los prejuicios sociales hacia la esfera digital. La injusticia humana filtrada hacia el lenguaje neutral de las matemáticas por la acción de una hueste de programadores ciegos ante sus propias tendencias excluyentes. Esto, que de hecho es así, representa apenas un comentario más sobre la ya socavada objetividad de la ciencia, pero ni explica ni cuestiona la reiteración del racismo en el mundo digital, ni señala la masividad, la insistencia del mismo y mucho menos visibiliza la fuerza con las que las lógicas de “raza” y racismo han reaparecido en la escena del capitalismo de datos y en la biotecnología. La preocupación por las matemáticas contaminadas por los prejuicios del hombre blanco expande y ramifica la invención de “raza” en nuevos racismos. Esconde y relativiza la normalización racial debajo de un suerte de mirada oblicua contingente, porque al fin y al cabo, los sesgos son solo sesgos y siempre podrán ser corregidos. Obtura el hecho de que el retorno del racismo face to face y la segregación en el espacio público, está siendo derivado también hacia los algoritmos (des)obedientes que excluyen, invisibilizan o humillan en un proceso en el que la responsabilidad y la voluntad humanas quedan eximidas.

Una excusa apaciguadora para criaturas cortazareanas del tipo tecno-esperanzas: conectadas al anhelo de que la injusticia sea corregida por programadores políticamente correctos; y en el mejor de los casos, a la espera de la irrupción de activistas por la probidad del código. El discurso del sesgo algorítmico nos conduce mansamente a la aceptación de tales “prejuicios” como un estado de cosas insalvables y posterga un debate sobre el hecho de que aún estemos hablando de “raza”. Como si fuera posible una tecnología imparcial pese a la historia moderna.

“Todas las grandes firmas tecnológicas cuentan con un kit de algoritmos que dejan ver las “ansiedades raciales” (Haraway) que hoy corre por la tecnología de datos. Como era de esperarse, todas tienen una serie de bits que parecen escritos por el Ku Klux Klan, como pequeñas máquinas taxonómicas, listas para segregar.”

DESCODIFICACIÓN, DESCOLONIZACIÓN Y RUPTURAS DEL ORDEN DE RAZA 

Lejos de colaborar con el rumor sobre los sesgos, el resurgimiento de raza nos abre a un campo de lucha que requiere de nuestra parte un ejercicio de descolonización radical de la mirada codificada. El antirracismo de la era del big data debe desmontar la permanencia de “raza” codificando la tecnología, como ha codificado la realidad en la Modernidad.

El capitalismo de datos discrimina para optimizar sus ganancias y lo hace siguiendo patrones de segregación probados por los Códigos negros: racializa el espacio público, el trabajo, el ocio, la sexualidad y la reproducción. Mueve y promueve las afinidades raciales con ayuda de la socialización virtual y la consignación de geolocalizaciones. De modo que el racismo, la islamofobia, los nacionalismos, el sexismo o la xenofobia no son fenómenos aislados del nuevo comportamiento del capitalismo, por el contrario, son piedras angulares en la economía de especulación, que necesita imágenes, rostros, hábitos y distinciones más o menos fijas.

La emergencia de las segmentaciones raciales en el mundo virtual es notoria por su ambigüedad (son especialmente interesantes las opciones de avatares identitarios en los videojuegos y el menú étnico de los portales de pornografía). Incluso pretendiendo combatir el racismo, denunciar su funcionamiento, visibilizar sus sutilezas, nos vemos obligadas a transitar por la mirada codificada de las descripciones rutinarias del racismo. Nos vemos obligadas a escuchar salir de nuestras bocas el relato racista aún cuando intentamos denunciarlo. Nos escuchamos hablar en el lenguaje de la raza, aún cuando sabemos que es una detestable ficción inventada por otros.

Sin desmantelar la embestida de “raza” como una noción que reorganiza relaciones a escala global y en sus correlatos locales, donde se recrean y contrarrestan las xenofobias territoriales, (piénsese en cualquier barrio pobre de España, Italia o Francia) pierde sentido hablar de racismo o pretender combatir el prejuicio.

Algunos activismos antirracistas apelan a la sobre-identificación racial, como elemento común para crear comunidad y como una fórmula colectiva de restitución de la pérdida y cura de las heridas coloniales. Algunos refutan el racismo, pero se refugian en la idea reconfortante de la raza como una fórmula de contradelirio que roza el sueño de la pureza y el lugar original. Aquí también “raza” adquiere un carácter de verdad donde la cosificación y el estigma se tuercen momentáneamente y se convierten en un llamamiento alegre que evoca linajes rotos o tierras anheladas.

Pero el capitalismo líquido estimula los posicionamientos identitarios a conciencia. El antirracismo, por tanto, está obligado a jugar en el terreno ambiguo de la identidad, pero sin dejar de producir subjetividad fuera de las redes de dominación de raza. Frente al racismo tecnodigital, el antirracismo debe enfrentarse a las promesas monstruosas de la tecnología genómica (las predicciones basadas en evidencia genética o la “puntuación de riesgo poligénico”, por ejemplo) y de la inteligencia artificial empática. El antirracismo debe aprender también a ser ambivalente y desembarazarse de la gramática de raza para reescribir otras nomenclaturas. En el horizonte de las resistencias posibles está el derecho de opacidad, único refugio para el desmontaje de “raza”, gesto absoluto frente a una exigencia, cada vez más asfixiante, de identificarnos exhaustivamente.

En la opacidad es posible la recodificación de la mirada, el entrelazamiento de nuevas alianzas y el éxodo hacia categorías inéditas que nos permita cabalgar lejos de las dolorosas encarnaciones raciales del siglo xvii y lejos de las promesas del futuro.

** Este texto forma parte del catálogo de la exposición The futch, comisariada por Neme Arranz y Marta Echaves, en la Sala de ARte Joven de Madrid en 2018. Resume una investigación en curso junto con Rebecca Close, acerca de flujos de imágenes, contagio y excesos virales.

Anyeli Marin Cisneros forma parte de la plataforma de investigación y acción artística Diásporas Críticas, que desarrolla proyectos, acciones poéticas y talleres de lectura bajo metodologías decoloniales y pedagogías críticas. En sus últimos proyectos exploran y responden a la manera en la que los nacionalismos intervienen el cuerpo y los sentidos, siguiendo nociones como “contagio” y “transmisión” en relación a los medios de comunicación y a los discursos médicos. Han organizado intervenciones, lecturas y programas públicos con museos, centros de arte, universidades y espacios autónomos.

TÍTULOS RELACIONADOS

LA ESFERIZACIÓN DE LA VIDA (ESAS VOCES Y SISTEMAS QUE BALIZAN NUESTRO CAMINO)

LA ESFERIZACIÓN DE LA VIDA (ESAS VOCES Y SISTEMAS QUE BALIZAN NUESTRO CAMINO)

Siri (Apple) versión 2020. 

 

Por Éric Sadin
Traducción: Margarita Martínez

Ella habla. Nos habla. Se dirige solo a nosotros. Su voz –que la mayor parte del tiempo tiene textura femenina– se pretende afable e inspira confianza. Solamente quiere nuestro bien, se preocupa por nuestros estados, nuestras necesidades, nuestros anhelos. Trabaja siempre para conocernos mejor, para capturar la naturaleza de nuestras inclinaciones, de nuestras angustias, de nuestras obsesiones. Como un ángel guardián, quiere orientarnos a la perfección, evitarnos esfuerzos y dificultades, traernos satisfacción y bienestar. Ella es un saber que se hace escuchar desde un objeto de metal: una palabra que se manifiesta vía un altavoz conectado. Pero a diferencia de nosotros, que muchas veces hablamos para no decir nada, se dedica únicamente a formularnos palabras adecuadas, dado que solo la movilizan intenciones precisas aunque tenga continuamente una o varias ideas en la cabeza, por decirlo de algún modo. Hoy la tecnología está en la medida de proferir el verbo, el logos, con la única finalidad de señalarnos la supuesta verdad de todo. Este milagro es resultado de los súbitos avances que beneficiaron al campo de la inteligencia artificial particularmente desde el inicio del nuevo milenio. Estos desarrollos fueron favorecidos por el mundo económico, que invirtió masivamente en ellos y supo regimentar contingentes enormes de investigadores con el objetivo de establecer una relación hiperindividualizada con cada uno de nosotros. Y por esa razón, entramos en una era que nos hará testigos de una cantidad enorme de instrumentos dotados de ahora en más del poder de elocución, y con los cuales dialogaremos dentro de relaciones que están llamadas a asumir un aspecto cada vez más natural.

Por otra parte, la desregulación económica no ha supuesto una mayor libertad para los ciudadanos, no al menos para los ciudadanos trabajadores. Poco a poco las restricciones se han desplazado del dominio legal al ámbito lingüístico, especialmente al tecnolenguaje de las finanzas y los criptocontratos. La ética financiera no es una cuestión de leyes, reglas morales o mandatos políticos; antes bien, es algo inscripto en un conjunto de reglas técnicas que es preciso seguir para poder acceder al sistema.

Esta voluntad de poner a nuestra disposición guías sumamente clarividentes y automatizadas de lo cotidiano tiene su origen en los albores de los años 2010 con los asistentes digitales personales, el primero de los cuales fue Siri, de Apple. Su función consistía en iluminarnos y ayudarnos en toda circunstancia, conforme a la fórmula “¿Qué puedo hacer por usted?”, que se enunciaba cada vez que se empezaba a usar el dispositivo. El sistema se valía de la escritura y también de la voz aunque de modo todavía embrionario, casi torpe, y necesitaba que uno buscara el smartphone y lo activara, lo cual implicaba una cierta pesadez logística que después se intentó paliar mediante un dispositivo consagrado a entronizar una presencia casi continua pero liviana, que no necesitara casi ninguna manipulación: los Google Glass. Estos lentes tenían que suministrar distintas informaciones que aparecían incrustadas sobre uno de los vidrios, que oficiaba también de pantalla. Eran informaciones de toda índole, aunque principalmente se referían a nuestro entorno inmediato, a tal monumento histórico, o a tal trayecto que habría que tomar y, como derivación, a tales o cuales cafés o tiendas que supuestamente respondían, por ejemplo, a nuestros antojos de ese momento. La singularidad extrema del aparato consistía en hacer que se superpusiera a nuestra percepción subjetiva y habitual de las cosas una realidad que se había vuelto personalizada. Y este postulado estaba recién en los inicios de una historia cuyos primeros episodios estamos viviendo todavía hoy. Pero el aspecto futurista de los Google Glass, así como su dimensión descaradamente intrusiva, generaron muy pronto una inquietud enorme. Apenas llegados al mercado, fueron retirados. La panacea llegaría más tarde bajo una configuración más sutil: un verbo atento y cálido que incluso podía instaurar vínculos confiables y duraderos.

Google Glass, gafas de realidad aumentada. 

Lo que se está implementando acá es una relación que se pretende desprovista de toda negatividad y que es diferente de aquella que establecemos con otro ser humano, la cual supone, con toda seguridad, malentendidos, posibles momentos de desacuerdo y también conflictos. La industria de los datos habrá logrado concebir sistemas altamente sofisticados con el único designio de garantizar la mejor administración de una amplia parte de nuestra existencia. Y en este punto, no estamos de ninguna manera ante un “capitalismo de la vigilancia”, como afirma equivocadamente Shoshana Zuboff en su libro The Age of Surveillance Capitalism: The Fight for the Future at the New Frontier of Power [La era del capitalismo de la vigilancia: La lucha por un futuro humano en la nueva frontera del poder], que movilizaría procedimientos de seguimiento con finalidades de control disciplinario, y que serían únicamente empleados por los Estados; estamos frente a un mundo económico al que le importa poco el hecho de espiarnos y que pretende penetrar en nuestros comportamientos –la mayor parte del tiempo con nuestro consentimiento– con el único objetivo reivindicado de balizar perfectamente el curso de nuestra vida cotidiana.

Se trata de la versión tecnoliberal y robotizada de la “ética del care [cuidado]”, la filosofía moral y política que insiste en el valor del cuidado que habría que brindar a las personas, prioritariamente a los más vulnerables, y que está llamada a instituir lazos más atentos y solidarios entre los seres. Después de haber sido objeto hacia fines de los años 2000 de múltiples publicaciones y artículos en todo el mundo, pero sin haberse impuesto nunca, más tarde, como una norma de conducta adoptada de modo general, fue asumida por la industria de lo digital, que se encargó muy rápidamente de darle a esa ética una carnadura. En realidad, el estadio de la “sociedad de consumo” –que operaba con la distancia impuesta con los objetos en vistas a estimular las ganas de tenerlos– se vio sustituido por el estadio de la revelación continua de aquello que se supone que nos conviene de manera ideal. La duda inherente a casi toda intención de compra se ve abolida en beneficio de señales supuestamente apropiadas, que nos son formuladas permanentemente y que, de algún modo, nos dejan sin voz. Por eso mismo vivimos la muerte del deseo, si lo entendemos como la expresión de una falta, que ahora deja lugar a la primacía de la perfecta conveniencia garantizada por sistemas encargados de presentir nuestras aspiraciones y organizar su correcta realización incluso antes de que hayamos podido sentir sus primeros signos.

Esta condición genera una representación de uno mismo como destinado de ahora en adelante a ser objeto de una solicitud permanente –y de tenor exclusivo– que amerita entonces que llevemos adelante una existencia bajo la garantía de que en ella se va a encontrar la menor dificultad posible y de que va a predominar la satisfacción. Más todavía: implica lo que deberíamos denominar una esferización de la vida, es decir, que cada uno de nosotros esté destinado a desarrollarse en el interior de una burbuja formada por un lazo privilegiado que se anuda con ciertos sistemas que solo se dirigen a nosotros. Ese estado engendra tres consecuencias nodales. En primer lugar, que nos encontremos todo el tiempo ocupados en los propios hábitos, y nos veamos invitados a adoptar conductas replegadas únicamente en nuestra supuesta identidad, según un fenómeno que va bastante más allá del “filtro burbuja” teorizado por Eli Pariser gracias al que vemos, en el transcurso de nuestra navegación por Internet y por las redes sociales, notificaciones respecto de informaciones que refuerzan de modo prioritario nuestras opiniones. Este principio nos lleva más abarcativamente a iniciar un abanico de acciones relativas a distintos segmentos de la existencia que se estiman como las acciones que nos corresponden con la máxima precisión posible; por ejemplo, practicar tal actividad deportiva, ir a tal restaurante, encontrarse con tal persona en tal lugar… En segundo lugar, dicho estado tiene como consecuencia también que todo aporte de otro esté destinado, en las más diversas circunstancias, a ser dejado en un lugar marginal por nuestras lagunas, nuestras dudas, nuestras imperfecciones fundamentales y en beneficio de una sola verdad considerada como irrecusable. Entonces lo que se desvanece es toda una dimensión de la sociabilidad, aquella urdida, hasta hoy, por los intercambios, los aportes mutuos, los descubrimientos inesperados, y que ahora se ve suplantada por una voz que se percibe como superior, supuestamente movilizada por intenciones benévolas. En tercer lugar, tiene como consecuencia que esta disposición esté inevitablemente condenada a privarnos de nuestro deseo de intervenir sobre el curso de las cosas, haciéndonos sentir en el marco de nuestra vida personal la sensación de que lo real se despliega mejor de lo que sería imaginable, con lo cual esto implica un retroceso tendencial de nuestra voluntad de actuar, ya que nos sentimos, entonces, encantados por el hecho de caminar de la mano de un compañero infalible y continuamente a nuestro servicio.

“Estamos frente a un mundo económico al que le importa poco el hecho de espiarnos y que pretende penetrar en nuestros comportamientos –la mayor parte del tiempo con nuestro consentimiento– con el único objetivo reivindicado de balizar perfectamente el curso de nuestra vida cotidiana.”

Vivimos el momento inaugural de la generalización de los modos de existencia secundados por sistemas. Y ahí se produce la distinción decisiva entre ciudadano e individuo, una distinción realizada inicialmente por Montesquieu y retomada por Hannah Arendt en Los orígenes del totalitarismo, y que debería ser revisitada desde sus mismas bases. El ciudadano se considera libre de actuar según su propia voluntad pero dentro de un “orden público dado”; el consumidor se ve remitido antes que nada a sí mismo –hasta el punto de vivir a veces dentro de la indiferencia respecto del otro–. Hoy estamos pasando de la era moderna –vimos cómo los ciudadanos buscaban afirmar su singularidad y defender sus intereses, aunque también los vimos obligados a tener como referencia, de un modo u otro, un registro de códigos compartidos–, al estadio de una proliferación de individuos no ya aislados sino autárquicos. Y dicho estado es resultado de un pacto implícito suscrito con el mundo económico que pretende ofrecer a cada cual formas de autosuficiencia relativas a segmentos cada vez más extendidos de la vida cotidiana. Y entonces el individualismo democrático –basado en la expresión de las subjetividades, en el imperativo de llevar adelante una vida social con diversas finalidades hecha de encuentros más o menos fortuitos, de descubrimientos bienvenidos, pero también de decepciones–, se deja a un lado para dejar aparecer un medio en el cual los seres humanos se despliegan como en paralelo unos de los otros –y donde se les promete que se van a rozar solamente si la eventualidad implica a priori alguna pertinencia–, un medio en el cual la acción de esos individuos adopta, en cada oportunidad, el mejor camino programado.

Cuadro de la serie Years & Years (2019).

 

La constatación que estableció a inicios de los años 2000 Peter Sloterdijk en su trilogía Esferas estaría ya superada, dado que Sloterdijk consideraba al hábitat como una suerte de “sistema inmunitario espacial”, “una medida de defensa que permite delimitar una zona de bienestar contra los invasores y otros portadores de malestar”. En los confines del año 2020, no se trata ya del cobijo doméstico que, antes que nada, preservaba de los riesgos exteriores, o traía consuelo y que representa, en términos de Gaston Bachelard, nuestra “gran cuna”, sino que se trata de un estadio de la técnica concebido para preservarnos, ahí donde nos encontremos, de las vicisitudes de la existencia. Y esto arrastra como efecto principal –que no dejará de intensificarse– el hecho de que la vida privada, que hasta ese momento se ejerció principalmente dentro del domicilio, comience a desbordar el marco de nuestras paredes para extenderse a los espacios (todavía) llamados “públicos”. Los individuos se encuentran como envueltos por un halo propio que los aísla de todo lo que se presume que les es ajeno o inapropiado y que se despliega no ya sobre un plano común sino según trayectorias continuamente ajustadas a su identidad o “perfil”. Probablemente el futuro ballet de los vehículos denominados “autónomos” será la constatación de dicha esferización de las conductas, ya que veremos cómo se transporta a los pasajeros dentro del plasma protector y devoto de un habitáculo que les suministrará todo tipo de atenciones personalizadas, guiándolos sin errores hacia su destino deseado, al mismo tiempo que les sugerirá paradas a lo largo de los trayectos en lugares que se presentarán como los mejores adaptados a la circunstancia del momento. Y entonces ya no se tratará de una sociedad inevitablemente constituida por una pluralidad de seres que tienen que lograr un acuerdo entre sí, que tienen que llevar adelante acciones concertadas, que tienen que negociar indefinidamente entre ellos, sino que se tratará de un entorno constituido por una profusión de mónadas satisfechas de gozar todo el tiempo de aquello que se supone que les conviene más en cada instante. Esta nueva condición está llamada a largo plazo a convertirse en natural, o bien a dar la medida de todas las cosas.

TÍTULOS RELACIONADOS

“LA PANDEMIA FUE COMO UNA BURLA A NUESTRA VOLUNTAD DE CONTROLAR TODO”, POR ÉRIC SADIN

“LA PANDEMIA FUE COMO UNA BURLA A NUESTRA VOLUNTAD DE CONTROLAR TODO”, POR ÉRIC SADIN

En junio retomamos el lanzamiento de novedades con nuestro tercer libro de Éric Sadin La inteligencia artificial o el desafío del siglo. Les compartimos a modo de adelanto una entrevista y un artículo de opinión publicados esta semana en Página 12 sobre la voluntad de control tecnológico como voluntad de doblegar lo real.  Y sobre la necesidad de promover una política del testimonio que se oponga a las fantasías tecnocráticas del liberalismo digital.

ENTREVISTA 

Éric Sadin: “La pandemia fue como una burla a nuestra voluntad de controlar todo”

Desde el año 2010 estamos viviendo un cambio de estatuto. Las tecnologías digitales dejaron de ser un útil destinado a conservar, indexar o manipular la información para tener otra misión: se encargan de hacer un peritaje de lo real. Es decir que tienen por vocación revelarnos, a menudo en tiempo real, dimensiones que dependían de nuestra conciencia. Podemos recurrir al ejemplo de la aplicación Waze que se encarga de señalar el mejor recorrido para desplazarse de un lado a otro. Esa capacidad de hacer peritajes a velocidades infinitamente superiores a nuestras capacidades humanas caracteriza la Inteligencia Artificial. El sentido escondido de esto está en que la IA es como una instancia que nos dice la verdad. Y la verdad siempre reviste una función performática. Por ejemplo, la verdad religiosa enuncia dogmas e interpela a obedecerlos. La Inteligencia Artificial enuncia verdades con tal fuerza de peritaje que nos interpela a obedecerlas. Estamos entonces viviendo un momento donde las técnicas se dotan de un poder de mando. El problema radica en que nos plegamos al peritaje, nos conformamos con eso y ejecutamos las acciones correspondientes. Es la primera vez en la historia de la técnica que existen sistemas con el poder de mandar.

La primera consecuencia de estas tecnologías es la mercantilización general de la vida. Esto le permite al liberalismo económico no verse confrontado por ninguna barrera y poder mercantilizar sin trabas el conocimiento de nuestros comportamientos. Casi a cada segundo y a escala planetaria, el liberalismo nos sugiere la mejor acción posible, es decir, la operación mercantil más pertinente. Vemos muy bien que el milagro de la Inteligencia Artificial no es para nosotros sino para la industria.

El desarrollo de las tecnologías digitales apuntaba a amplificar nuestro control, pero el coronavirus demostró su estado de invalidez, demostró que las soluciones no se originan en el control absoluto de las cosas sino en la atención a las fallas, con una sensibilidad en la relación con las cosas.

 

El coronavirus nos enseña que ha llegado la hora de dejar de estar buscando someter la realidad. Debemos partir de la existencia y no querer controlarla todo el tiempo, debemos apreciarla en función de nuestros principios, es decir, la dignidad, la solidaridad. Las proyecciones futurológicas no tienen cabida. Hay que terminar de una buena vez por todas con esa insoportable ideología del futuro que ocupó todos los espacios. Hay que terminar con el discurso de las promesas y ocuparse más de una política del presente, una política de lo real, de lo que se constata. A partir de estas condiciones y de nuestros principios decidimos cómo construir mejor y con incertidumbres nuestro porvenir común. No es lo mismo un porvenir común que un futuro de fantasías que no hace más que responder a intereses tan estrechos como privados.

NOTA

Éric Sadin: “Es hora de una política del testimonio”

Una partícula microscópica revelaba, en el mismo movimiento, la vanidad de nuestra voluntad de omnipotencia y la amplitud tanto tiempo reprimida de nuestra vulnerabilidad.

 

A principios de la primavera, una nueva raza comenzó a florecer por todas partes: los especialistas en el “mundo de después”. La mayoría comenzó a soñar con saludables mañanas luminosos, pero en términos que encubrían el fracaso para imaginar de repente cómo doblegar lo real a nuestros puntos de vista, como si las palabras, simplemente por sus supuestas buenas intenciones, pronto tomaran cuerpo.  Sin embargo, opuesto a toda esta inflación de opiniones, el momento debería corresponder a un ejercicio completamente diferente de la palabra y que procede de una lógica muy distinta: el testimonio. El que narra las situaciones vividas desde la experiencia en el terreno, en los lugares donde los problemas de la época se sienten tan cruelmente: hospitales, empresas, escuelas, hogares pobres, personas desocupadas, los suburbios al abandono. Esto es lo que nos faltó en las últimas décadas: relatos que hubiesen contradicho la marea de discursos que enmascaran la realidad de los hechos, que responden a todo tipo de intereses y terminan forjando nuestras representaciones. Si hubiéramos estado plenamente atentos a estos contra-discursos edificantes, ciertamente viviríamos en sociedades menos sufrientes. 

 

El testimonio es depositar en los ojos de los otros lo que la mayoría no sabe, a lo que no asisten y que, sin embargo –debido a la violación de los derechos elementales padecida por algunos o por toda la comunidad de ciudadanos –exige ser llevado al conocimiento público. En este sentido, deberíamos estar infinitamente más atentos a estos informes redactados desde el suelo de la vida cotidiana, provenientes de conocimientos a menudo más instructivos que los asumidos por tantos expertos profesionales. Todos estos “expedientes” están llamados a constituir la primera guía de acción pública –lejos de las metáforas y las ideologías limitadas– para instituirse como una política del testimonio.

Escritor y filósofo, Éric Sadin es una de las personalidades francesas más renombradas de la actualidad entre quienes investigan las relaciones entre tecnología y sociedas. Se ha ocupado en diversos escritos de trazar un diagnóstico de la contemporaneidad y de sus prácticas en función del impacto que los artefactos tecnológicos producen en la humanidad. Entre sus libros –que cada vez generan más entusiasmo en la crítica y suman más lectores– se encuentran: Surveillance globale. Enquête sur les nouvelles formes de contrôle (2009), La société de l’anticipation (2011), La humanidad aumentada (2013, Caja Negra, 2017; Premio Hub al ensayo más influyente sobre lo digital), La vie algorithmique (2015), La silicolonización del mundo (2016; Caja Negra, 2018) y La inteligencia artificial o el desafío del siglo (Caja Negra, 2020). Éric Sadin desarrolla además tareas de docencia e investigación en distintas ciudades del mundo y publica regularmente artículos en Le MondeLibérationLes Inrockuptibles y Die Zeit, entre otros medios.e

TÍTULOS RELACIONADOS