A axencia moral pode definirse como a capacidade de tomar decisións e actuar segundo un conxunto de normas baseadas no que está ben e no que está mal, asumindo a responsabilidade polas propias eleccións e accións.
Xa existen preguntas sobre os prexuízos e o uso ético das ferramentas intelixentes actuais, tanto para xerar contido como para actuar como compañeiras. Pero cal é o seu papel no mundo como posibles axentes morais?
En probas —aínda que en escenarios limitados— a IA amosou indicios dun impulso de supervivencia ou mesmo a capacidade de chantaxear e danar indirectamente unha persoa nun escenario ficticio.
Se tal comportamento chegase algunha vez a xurdir en sistemas reais, sería natural preguntarse quen debería asumir a responsabilidade. E aínda que estes escenarios son probas de seguridade ficticias, representan problemas reais. Xa vimos modelos adoptar personalidades prexudiciais ou xerar contido extremista. Estes incidentes poden non ser intencionados, pero as súas consecuencias si o son.
Canto antes establezamos quen debe cargar coa responsabilidade, mellor.
Introdución
Cando os sistemas intelixentes causan dano, quen debe asumir a culpa?
Falar de axencia moral é preguntarse: quen pode ser considerado responsable das súas accións? Nos humanos, a resposta parece intuitiva: quen actúa con conciencia, intención e capacidade de elección é responsable do que fai. Pero cando entra en xogo a intelixencia artificial, esa intuición comeza a esvaecerse.
Os sistemas de IA non teñen intención de causar dano. Non senten culpa nin valoran os seus actos como o facemos nós. E con todo, cada vez toman máis decisións que afectan ás nosas vidas: contratar a alguén, denegar un préstamo, sinalar comportamentos sospeitosos ou mesmo influír en sentenzas xudiciais. Non é ciencia ficción: forma parte de sistemas cotiáns que moldean oportunidades, liberdades e benestar.
Entón, cando algo sae mal, quen, ou que, ten a culpa?
Esta cuestión está no centro das discusións éticas sobre a intelixencia artificial. Non é só filosófica: é práctica, legal e profundamente humana. Porque detrás de cada sistema hai unha cadea de decisións. Pero iso significa que a responsabilidade queda sempre nos seus creadores? Ou deberiamos repensar como funciona a rendición de contas nun mundo de intelixencia distribuída?
Que é a axencia moral?
A axencia moral é a capacidade de ser considerado responsable das propias accións. Implica máis que actuar: require intención, conciencia e a capacidade de escoller entre o ben e o mal. Tradicionalmente, os axentes morais son seres conscientes capaces de comprender principios éticos e de adaptar o seu comportamento en consecuencia.
Por iso non consideramos moralmente responsables aos nenos, aos animais ou aos obxectos inanimados do mesmo xeito que aos adultos. E por iso, actualmente, tratamos a IA como unha ferramenta, non como un actor moral.
Pero que ocorre cando esa ferramenta se volve complexa, adaptativa e autónoma?
Por que isto importa no caso da IA
A maioría dos sistemas de IA actuais non teñen intención nin conciencia de si. Procesan datos, seguen regras, optimizan resultados. Non “queren” nada. Pero poden causar danos, afectando de forma desproporcionada a certos grupos, perpetuando inxustizas históricas ou tomando decisións vitais con criterios opacos.
E aquí xorde a clave ética:
Se ningún humano tomou directamente a decisión prexudicial, pódese responsabilizar a alguén?
Se non, corremos o risco de crear un baleiro moral: un espazo onde hai danos, pero ninguén responde por eles.
Pode unha IA ser un axente moral?
Imos desglosalo.
Para ser considerado axente moral, normalmente esíxese que un ser poida:
- Comprender o significado moral das accións
- Tomar decisións intencionadas
- Ter certo grao de autonomía e previsión
- Ser consciente das consecuencias, tanto para si como para outros
Os sistemas de IA, mesmo os máis avanzados, non cumpren estes criterios. Non entenden o significado, non senten obriga moral nin deliberan eticamente. Non posúen conciencia, empatía nin un “eu”.
Con todo, actúan. E esas accións teñen consecuencias.
Pensemos nun algoritmo de selección de persoal que discrimina sistematicamente a certos nomes étnicos. Ou nun coche autónomo que dana un peón debido a un modelo de decisión defectuoso. Estes resultados non derivan da malicia, pero si dun sistema que opera sen supervisión humana plena.
Así que, aínda que a IA non sexa un axente moral, segue xerando preguntas morais.
Se non é a máquina, entón quen?
Cando unha IA causa danos, quen ten a responsabilidade?
- Os desenvolvedores, que escribiron o código ou seleccionaron os datos de adestramento?
- As empresas, que decidiron implementar o sistema sen probar a súa equidade ou robustez?
- Os usuarios, que confiaron na ferramenta sen comprender os seus límites?
- Os reguladores, que non anticiparon os riscos?
Ás veces, todos os anteriores.
Pero o que complica isto é a difusión da responsabilidade. Moitos sistemas de IA son creados por equipos de distintos países, adestrados con datos abertos e utilizados de formas non previstas. Neses casos, a culpa faise diluída: fácil de repartir, difícil de asumir.
E cando a responsabilidade se dilúe, a rendición de contas sofre. Os sistemas evolucionan máis rápido ca as leis, e os erros técnicos convértense en zonas grises éticas.
Debemos tratar á IA coma se fose un axente moral?
Algunhas persoas propoñen que certos sistemas autónomos de alto nivel deberían ser tratados coma se tivesen axencia moral. Non porque comprendan a ética, senón porque atribuirlles responsabilidade podería ter utilidade práctica.
Pensemos nas empresas: teñen personalidade xurídica, aínda que non conciencia. Facémolas responsables para garantir condutas éticas e protexer o interese público.
Poderiamos concederlle á IA, en certos escenarios, un status moral funcional semellante?
É unha idea controvertida. Por unha banda, crea unha vía legal para a rendición de contas. Por outra, corre o risco de exculpar aos humanos: culpabilizar a máquina mentres os seus arquitectos permanecen na sombra.
Deseñar con responsabilidade
Aínda que a IA careza de axencia moral, podemos deseñar sistemas que actúen con responsabilidade, ou polo menos, que permitan rastrexar esa responsabilidade.
Isto implica:
- Deseño transparente: para que se poidan auditar as decisións
- Restricións éticas: integradas nos obxectivos do sistema
- Supervisión humana: para manter un control significativo
- Protocolos de negativa: que permitan á IA sinalar ou deter accións problemáticas
En lugar de preguntar se a IA pode ser moral, quizais deberiamos preguntar: pode axudarnos a actuar con máis ética? Podemos crear sistemas que amplifiquen os nosos valores, non só a nosa eficiencia?
Conclusión: responsabilidade nunha era non humana
A IA non é unha vilá. Pero tampouco é inocente.
É unha ferramenta moldeada por decisións, valores e omisións humanas, e moitas veces despregada sen a reflexión ética que require. Cando algo sae mal, non chega con dicir “foi o algoritmo”.
Na ausencia de axencia moral por parte da IA, a axencia moral humana faise aínda máis importante.
Se queremos un futuro no que a IA nos sirva ben, necesitamos algo máis que un bo código. Necesitamos liñas claras de responsabilidade, reflexión profunda e unha comprensión renovada do que significa actuar con intención, mesmo cando a acción a executa unha máquina.
