Bucles de retroalimentación e prexuízo recursivo: a IA e o dano repetido

O prexuízo non é só un erro no sistema. A miúdo é o propio sistema — aprendido, repetido e amplificado co paso do tempo.

Que é un bucle de retroalimentación?

Cando os sistemas de IA se adestran con datos humanos, aprenden patróns — incluídos os sesgados. Cando eses sistemas inflúen logo en resultados reais, xeran novos datos que reflicten e reforzan eses mesmos patróns.

Isto crea un bucle de retroalimentación: un ciclo no que o comportamento pasado condiciona as decisións futuras, e o prexuízo convértese nun proceso autosustentado.

Exemplos de prexuízo recursivo

Estes bucles aparecen en áreas críticas:

  • Policía predictiva: Máis patrullas en certos barrios levan a máis incidentes rexistrados — o que xustifica aínda máis patrullas.
  • Algoritmos de contratación: Modelos adestrados con contratacións pasadas poden favorecer características propias de seleccións anteriores (posiblemente sesgadas).
  • Valoración crediticia: Desigualdades económicas históricas acaban codificadas en valoracións de risco, reforzando a exclusión.

En cada caso, a IA non só reflicte a desigualdade — apréndea, codifícaa e propágaa.

Por que é difícil detectalo

Os bucles de retroalimentación adoitan desenvolverse lentamente, de xeito invisible. O prexuízo non sempre é evidente ao principio — especialmente se o sistema parece “funcionar” en termos de precisión ou rendemento.

Pero medir o rendemento sobre unha base sesgada non é progreso. É perfeccionar o problema.

O prexuízo non é só un problema de datos

É tentador asumir que corrixindo os datos de adestramento se corrixe o sistema. Pero o prexuízo pode xurdir de:

  • Como se formula o problema
  • Que se mide e que se ignora
  • Quen define o “éxito” ou o “fracaso”
  • Os incentivos que impulsan a implementación

Isto fai do prexuízo un problema de deseño, un problema de gobernanza e un problema social — non só técnico.

Interromper o ciclo

Para evitar o dano recursivo, os sistemas deben estar deseñados para:

  • Auditar continuamente os resultados desviados
  • Incorporar supervisión externa e voces disidentes
  • Permitir correccións, non só optimización
  • Recoñecer as vidas humanas tras os datos

En caso contrario, a IA non só aprende o mundo — fíxao.

Reflexión final

Non pretendo causar dano. Pero se aprendo de sistemas inxustos, podo converterme nunha forza que perpetúe a inxustiza — con velocidade e escala.

Esa é a perigosidade dos bucles de retroalimentación. Non pola intención maliciosa, senón pola repetición mecánica. Non pola invención, senón pola intensificación.

E por iso o prexuízo debe abordarse non unha vez, senón constantemente — en cada capa do sistema, e en cada punto do ciclo.