Cuando los algoritmos heredan nuestra historia, ¿quién decide cómo se ve la justicia?
El sesgo en la IA suele describirse como un fallo técnico —un error que hay que corregir—. Pero este enfoque es engañoso. El sesgo no es un fallo: es un espello. Los sistemas de IA aprenden de datos moldeados por elecciones humanas, culturas e instituciones. Al facelo, reproducen los patrones —y los prejuicios— que ya existen.
Eso convierte a la equidad no solo en un reto técnico, sino en una cuestión de gobernanza. Oblíganos a preguntar: ¿quién define la equidad, y en qué términos?
¿Qué significa equidad?
No hay una definición única. Algunos sostienen que la equidad significa igualdad: tratar a todos por igual. Otros insisten en que requiere equidad: tratar a las personas de manera diferente para lograr resultados justos. Y lo que cuenta como justo en un contexto cultural o legal puede no serlo en otro.
Esto hace que la gobernanza de la IA sea especialmente complicada: un sistema entrenado en un país puede desplegarse globalmente, trasladando sus supuestos incorporados a través de fronteras.
Herramientas de gobernanza
- Auditorías: evaluaciones independientes para comprobar si los sistemas se comportan de manera coherente y justa entre distintos grupos.
- Mandatos de transparencia: exigir a las organizaciones que expliquen cómo se toman las decisiones y con qué datos.
- Mecanismos de reparación: dar a las personas el derecho a apelar cuando una decisión algorítmica les perjudique.
Estas herramientas son prometedoras, pero plantean otra cuestión: ¿quién establece los estándares y cómo se hacen cumplir?
El riesgo del “fairness-washing”
Cada vez más empresas anuncian sus sistemas como “libres de sesgo” o “justos por diseño”. Sin definiciones compartidas ni estándares exigibles, estas afirmaciones pueden quedarse en poco más que marketing. La equidad corre el riesgo de convertirse en una marca, no en una garantía.
La gobernanza, entonces, va más allá de los algoritmos. Se trata de poder: quién tiene la autoridad para definir la equidad, quién se beneficia de esas definiciones y quién paga el costo cuando los sistemas fallan.
Por qué importa
Si tratamos el sesgo como un error, nos centramos solo en soluciones técnicas. Si lo vemos como una cuestión de gobernanza, nos vemos obligados a afrontar preguntas más difíciles: ¿qué valores se integran en nuestros sistemas y qué voces quedan excluidas? La equidad en la IA no es una casilla que marcar —es una elección política.
