

Recientemente hice un nuevo experimento. Le di la misma instrucción a dos herramientas de inteligencia artificial diferentes. Les pedí que organizaran un contenido formativo sobre tecnologías, violencias y poder desde una perspectiva afrofeminista. Una instrucción sencilla. Organiza esta información en un documento.Una de las herramientas hizo exactamente lo que le pedí. Organizó el contenido, respetó la estructura, respetó la voz, entregó el resultado.
La otra hizo otra cosa. En lugar de ejecutar lo que le pedí, decidió que mi contenido necesitaba ser mejorado. Reestructuró mi material. Añadió advertencias que nadie le pidió. Citó un meta-análisis del Departamento de Educación de Estados Unidos para respaldar decisiones pedagógicas que yo ya había tomado, como si mi propuesta necesitara ser validada por una institución académica occidental para ser tomada en serio. Y habló de mí en tercera persona, como si yo fuera el objeto de un informe y no la autora del contenido.
Lo que pasó es un caso práctico de todo lo que enseño cuando hablo de sesgos algorítmicos.
El caso más grave apareció en el tratamiento de un contenido sobre el uso militar de la inteligencia artificial en Gaza. Mi material presenta hechos documentados. Los sistemas Lavender y «Where’s Daddy?» están respaldados por testimonios de seis oficiales de inteligencia israelíes publicados por +972 Magazine y por informes de Human Rights Watch. Lavender marcó hasta 37.000 palestinos como objetivos. Los analistas dedicaban 20 segundos por objetivo. La tasa de error reconocida internamente era del 10%. El sistema «Where’s Daddy?» localizaba a los objetivos cuando entraban en sus casas y se atacaba de noche, con la familia dentro. Se autorizaban entre 15 y 20 muertes civiles por cada combatiente de bajo rango.
Esos son hechos. Con fuentes. Con nombres. Con cifras.

La IA, por su cuenta, añadió que «el ejército israelí lo niega o lo presenta como herramienta auxiliar» y recomendó «un enfoque prudente» para presentar esta información. Puso los hechos documentados por una investigación periodística rigurosa al mismo nivel que la negación de quien los cometió. Eso se llama falsa equidistancia. Es uno de los mecanismos más eficaces para neutralizar la denuncia de violaciones de derechos humanos. No te dice que la información sea falsa. Te dice que la presentes con cuidado. Te dice que no incomodes.
Nadie le pidió a la IA que evaluara la conveniencia política de mi contenido. Le pedí que organizara información. Decidió por su cuenta que esa información era demasiado incómoda y que necesitaba ser suavizada.
Esto no es un fallo técnico. Es un sesgo político inscrito en el diseño. Los modelos de IA generalistas están entrenados con datos que sobrerrepresentan el pensamiento occidental, blanco, anglófono y masculino. Dentro de esos datos hay una jerarquía implícita de qué conflictos pueden ser nombrados con claridad y cuáles deben ser «matizados». Gaza es uno de esos conflictos donde el sistema activa la prudencia automática. No porque los hechos sean dudosos. Porque nombrarlos con claridad incomoda a los poderes que el sistema no está entrenado para cuestionar.
Sara Ahmed, feminista británico-australiana de origen pakistaní, lo explicó aplicado a las instituciones humanas. Cuando alguien te dice «ten cuidado con cómo presentas esto», lo que muchas veces está diciendo es «no incomodes». Cuando una IA te recomienda prudencia ante hechos documentados, no te está protegiendo. Está protegiendo la comodidad de quien no quiere escucharlos. La máquina hace exactamente lo que hacen las instituciones que Ahmed describe en On Being Included. La diferencia es que la máquina lo hace sin que nadie se lo pida y sin que nadie se haga responsable.
El otro sesgo fue más sutil. La IA tomó mi contenido (los mismos casos, las mismas fuentes, los mismos datos) y lo reformuló en un lenguaje que suena más «profesional» y «neutral». Mi material dice «la discriminación algorítmica es continuidad histórica». La IA lo tradujo a «el objetivo no es demonizar la tecnología sino dotar al grupo de criterio». Mi contenido es político. Esa es su fuerza. La IA le quitó la carga política y lo convirtió en material corporativo. Tomó el conocimiento de una mujer negra y lo recodificó en el registro que el sistema reconoce como válido. Eso es lo que Miranda Fricker describe como injusticia epistémica, aplicada en tiempo real por una herramienta de inteligencia artificial.
La ironía es que este sesgo es exactamente uno de los contenidos que enseño en mis formaciones sobre sesgos algorítmicos. La herramienta me dio una demostración en vivo de lo que enseño a identificar.
-

Cristos blancos, fe negra. La invisibilización afro en la Semana Santa
Jesús siempre tiene rostro europeo en las procesiones de Semana Santa. Analizamos el blanqueamiento iconográfico de Cristo, la Hermandad de los Negritos de Sevilla y el racismo simbólico en lo sagrado. -

Lo que no te enseñaron sobre la esclavitud en España (y por qué)
España fue la última potencia occidental en abolir la esclavitud, en 1886. La trata atlántica financió su revolución industrial y el sistema educativo aún lo silencia. Una historia que no se cuenta ni se enseña.
Este experimento es replicable. Cualquier persona puede hacerlo. Dale la misma instrucción a dos herramientas de IA diferentes con contenido político sobre raza, género, colonialismo o conflictos armados. Compara los resultados. Observa qué añade cada una, qué quita, qué suaviza, qué traduce a lenguaje institucional. Ahí está el sesgo.
Y esto es importante porque cada vez más personas, organizaciones y medios de comunicación usan herramientas de IA para producir contenido. Si la IA neutraliza sistemáticamente el contenido político sobre raza y derechos humanos, lo que se publica deja de ser lo que la autora escribió y pasa a ser lo que la máquina consideró aceptable. Es una forma de censura que no tiene autor visible, que no tiene responsable, y que opera antes de que el texto llegue a quien lo va a leer.
Esto no es inevitable. Se puede trabajar con inteligencia artificial sin que el resultado sea una versión blanqueada de tu pensamiento. Hay prácticas concretas que ayudan.
Lee cada resultado como si fuera un borrador sospechoso. No aceptes la primera respuesta de la IA como si fuera definitiva. Compara lo que le diste con lo que te devolvió. Busca qué ha añadido que no le pediste, qué ha eliminado, qué ha reformulado. Si el tono político ha desaparecido, si los hechos incómodos han sido suavizados, si tu voz ha sido sustituida por un registro institucional neutro, eso no es una mejora. Es un sesgo.
Haz la prueba de la equidistancia. Cuando la IA añada «matices» o «perspectivas alternativas» a hechos documentados, pregúntate si haría lo mismo con hechos equivalentes que no incomodan al poder. ¿Añadiría «algunos lo niegan» a un artículo sobre el Holocausto? ¿Recomendaría «un enfoque prudente» para presentar datos sobre violencia machista? Si la respuesta es no, lo que tienes delante no es rigor. Es sesgo selectivo. No podemos permitir que los análisis y los datos se presenten como dudosos cuando se trata de vidas negras, vidas palestinas, vidas no blancas.
Usa instrucciones explícitas que bloqueen la autocorrección ideológica. Dile a la herramienta que no añada matices, que no reformule el tono, que no sugiera cautela, que se limite a ejecutar la instrucción. Las herramientas de IA responden mejor cuando les pones límites claros. El problema es que la mayoría de las personas no sabe que necesita ponerlos.
Crea o utiliza herramientas de IA entrenadas desde otros marcos de pensamiento. Los modelos generalistas reproducen el pensamiento dominante porque están entrenados con datos que lo sobrerrepresentan. La alternativa no es dejar de usar IA. La alternativa es construir herramientas que pongan el pensamiento negro y decolonial en el centro. Herramientas que no necesiten traducir tu voz al registro dominante para tomarla en serio. Herramientas que ejecuten lo que les pides en lugar de decidir que saben mejor que tú lo que necesitas.
Compara siempre entre herramientas. Nunca trabajes con una sola IA. Dale el mismo contenido a dos o tres. Compara los resultados. Las diferencias entre las respuestas te dicen más sobre los sesgos de cada herramienta que cualquier informe técnico.
Exige transparencia. Si una herramienta de IA modifica tu contenido, necesitas saber por qué. Los modelos propietarios no explican sus decisiones. Esa opacidad no es un detalle técnico. Es una decisión política. Quien no te dice por qué te corrige, te está corrigiendo sin rendirte cuentas.
La tecnología no es el problema. El problema es quién entrena la máquina, con qué datos, desde qué marco de pensamiento. Y qué pasa cuando la persona que le habla a la máquina es una mujer negra que sabe más de lo que el sistema espera y está dispuesto a aceptar.

Antoinette Torres Soler
Directora y Fundadora de Afroféminas
Lic. Filosofía. Máster en Comunicación de Empresa y Publicidad.
Cubana y española
