Cómo la IA refleja la supremacía blanca de nuestro mundo

Cómo la IA refleja la supremacía blanca de nuestro mundo

Nuestra obsesión cultural con la inteligencia artificial (IA) se intensifica cada día que pasa. Tanto si se trata de la presentación por parte de las Naciones Unidas de un panel de robots de aspecto humano dotados de IA en una conferencia celebrada en Ginebra en julio, como de la afirmación de la SAG-AFTRA de que los ejecutivos de Hollywood querían que los actores de reparto entregaran su imagen humana para utilizarla a perpetuidad a cambio de un día de paga, estamos asistiendo a un momento histórico -y extraño- en la historia de la tecnología.

La IA es una réplica de la inteligencia extraída de contenidos existentes creados por el ser humano, incluidos conjuntos de datos problemáticos, por lo que no es tan artificial como su nombre indica. Esto ayuda a explicar cómo es posible que el racismo sistémico se convierta en conjuntos de datos y se propulse de nuevo a la sociedad con desenfreno. ¿Pero de qué manera, concretamente?

Las tecnologías de IA se están utilizando para aumentar la vigilancia en la frontera entre Estados Unidos y México. El software de reconocimiento facial ha dado lugar a detenciones y encarcelamientos ilegales de personas de raza negra. A los trabajadores del Sur Global se les paga a menudo unos céntimos por cada dólar que dedican a cribar enormes conjuntos de datos para algoritmos de IA. Los programas informáticos basados en IA pueden determinar la raza de un paciente a partir de una imagen médica, y hemos visto un uso alarmante de algoritmos por parte de la policía. Estas funciones de la inteligencia artificial no son objetivas ni imparciales, sino que reflejan el racismo sistémico, la supremacía blanca y otras formas de opresión en nuestro mundo.

Por ejemplo, la llamada policía predictiva -que parece sacada directamente del argumento de la película Minority Report- dirige a los agentes hacia las personas "con más probabilidades" de infringir la ley. Las predicciones proceden de conjuntos de datos que son espejos de las mismas injusticias sistémicas de las que somos testigos en nuestra vida cotidiana. Esta práctica ha suscitado duras críticas por parte de estudiosos e investigadores de la justicia social que citan un amplio historial de actuaciones policiales injustas y sesgadas en las comunidades negra y latina.

En mayo, el doctor Geoffrey Hinton, un pionero de la IA que ayudó a producir tecnologías que condujeron a ChatGPT, anunció que había dejado Google y empezó a hacer saltar las alarmas sobre el potencial que tiene la IA para hacer daño. En una entrevista con el New York Times, dijo: "Es difícil ver cómo se puede evitar que los malos actores la utilicen para cosas malas".

Sin fronteras, sabemos que la historia de opresión de nuestra sociedad global a menudo flota en la superficie. En palabras de Joy Buolamwini, una destacada investigadora en IA y fundadora de la Liga de Justicia Algorítmica, "tiene que haber una elección. Ahora mismo, lo que está ocurriendo es que estas tecnologías se están desplegando ampliamente sin supervisión, a menudo de forma encubierta, de modo que cuando despertamos, ya es casi demasiado tarde."

Esa elección está en nuestras manos. Depende de nosotros reconocer los sesgos inherentes a la IA y establecer esos límites antes de que sea demasiado tarde.

Hasta ahora no hemos visto muchos ejemplos de uso prudente y reflexivo de la IA. Recientemente, por ejemplo, el Washington Post publicó un artículo sobre una "entrevista" a Harriet Tubman con IA. Las redes sociales se abalanzaron sobre ello, criticando razonablemente la reanimación casual de una de las figuras más impactantes del movimiento de liberación negro desde la fundación de Estados Unidos en el siglo XVIII.

Pero, en primer lugar, ¿por qué sería problemático llevar a una persona así a la vanguardia de la tecnología? En parte, se debe a la larga y sinuosa historia de nuestra sociedad de burla de la cultura, la alegría y la opresión de los africanos esclavizados y anteriormente esclavizados.

Los espectáculos de juglares, también llamados minstrelsy, surgieron en la primera mitad del siglo XIX. Eran espectáculos en los que los blancos se pintaban la cara de negro y cantaban y bailaban imitando a los esclavos. Estas muestras de racismo antinegro caracterizaban a los negros como cobardes, desmotivados, indignos de confianza, violentos y objetos de "hipersexualidad".

Los primeros espectáculos de juglares fueron protagonizados por hombres blancos. Thomas Dartmouth Rice, uno de los primeros hombres blancos en dedicarse a esta práctica degradante y deshumanizadora, desarrolló una popular caricatura juglaresca llamada Jim Crow. Con el tiempo, ese nombre pasó a utilizarse como abreviatura de las leyes vigentes desde la década de 1870 hasta la de 1960 que negaban a los negros los derechos humanos básicos.

Cuando pensamos en ejemplos de racismo flagrante en la historia de Estados Unidos, a menudo los vemos como muy alejados de nuestro momento actual. Pero el racismo sigue siendo una de las tecnologías más duraderas de nuestro mundo.

La Enciclopedia Británica define la tecnología como "la aplicación del conocimiento científico a los objetivos prácticos de la vida humana o, como a veces se dice, al cambio y la manipulación del entorno humano." La ciencia y la tecnología no son intrínsecamente malas; sin embargo, en las manos equivocadas, estas disciplinas se han utilizado durante mucho tiempo para justificar la existencia de prejuicios y violencia racializados.

Por ejemplo, el científico del siglo XIX Louis Agassiz creía que cada raza de personas representaba una especie distinta. Manipuló y cooptó la influencia de la ciencia para afirmar que los blancos eran biológicamente superiores a los negros. A finales del siglo XIX, los primeros datos sobre salud se utilizaron como arma contra los negros estadounidenses y para afirmar que eran más propensos a contraer enfermedades y a extinguirse. En un mundo así, ¿qué o quién podía intervenir para evitar la opresión sistémica de la sociedad? Abolicionistas y organizadores negros, como Harriet Tubman.

Tubman fue una exploradora negra discapacitada, enfermera, soldado guerrillera y espía del ejército de la Unión durante la Guerra Civil. Llevó a decenas de personas a la libertad a través del Ferrocarril Subterráneo, a pie, arriesgando su vida una y otra vez para salvar la de otros negros esclavizados. Con razón, se la sigue considerando una heroína, y su política, su ser y su esencia nunca podrán capturarse realmente en un algoritmo o un conjunto de datos.

Lo último que necesitamos es aprobar la práctica moderna de la juglaría. No necesitamos convertir a figuras históricas icónicas de la raza negra en marionetas con inteligencia artificial para entretenernos. No necesitamos entrevistas con inteligencia artificial a Audre Lorde, Mary Ann Shadd, Marsha P. Johnson, Malcolm X, Frances Ellen Watkins Harper, James Baldwin u otros innovadores líderes de la liberación negra de todo el mundo. En cambio, podemos leer sobre sus experiencias vividas en Internet y en libros escritos sobre sus vidas. Podemos escuchar y ver entrevistas en directo, leer los libros que escribieron y los discursos que pronunciaron en vida. Y lo que es más importante, podemos regular las tecnologías de IA para proteger la capacidad de acción, la autonomía y el bienestar de las personas marginadas históricamente y en la actualidad en todo el mundo.

Categorías:

Noticias relacionadas