Estudo revela o impacto do erro da Inteligência Artificial na tomada de decisões humanas

Num mundo em que a tecnologia avança muito rapidamente, a Inteligência Artificial (IA) desempenha um papel cada vez mais importante na tomada de decisões em vários domínios. Os algoritmos de IA estão cada vez mais a ser integrados nos processos de decisão do sector público, mas, o que acontece quando estes algoritmos cometem erros?  Um estudo realizado por investigadores da Bikolabs, área da JAKALA de tecnologia e investigação, em colaboração com a Universidade de Deusto sugere que a processos com supervisão humana, conhecidos como processos "human-in-the-loop", poderá ser afectada se a IA fornecer um apoio algorítmico incorreto.

A incorporação de sistemas de apoio à decisão automatizados tem-se tornado cada vez mais comum. Esta investigação examina a forma como estes algoritmos influenciam o julgamento humano, revelando que a dependência excessiva de um apoio algorítmico incorreto pode diminuir a precisão das decisões.

Este fenómeno, conhecido como enviesamento de automatização, evidencia a tendência humana para confiar demasiado nos sistemas automatizados, mesmo quando estes cometem erros. Os investigadores geraram duas experiências que simulavam processos automatizados de tomada de decisões judiciais, em que os participantes tinham de julgar vários arguidos acusados de diferentes crimes. Os resultados mostraram que o julgamento humano era mais exacto quando tinha lugar antes do apoio incorrecto da IA. No entanto, quando os participantes estavam expostos a uma avaliação incorrecta da IA antes, a taxa de precisão diminuía, mesmo para aqueles que tinham julgado correctamente no início do processo. O que revela a influência potencialmente prejudicial do apoio incorrecto da IA na exactidão das decisões humanas; salientando a importância da ordem do recurso à IA.

Este estudo fornece uma visão pormenorizada da forma como a IA influencia as decisões judiciais e levanta questões importantes sobre a implementação de sistemas automatizados.

A investigação revelou também um desafio premente: a tendência humana para confiar excessivamente no apoio dos sistemas, levando os utilizadores a aceitarem acriticamente as recomendações da IA, mesmo quando estão erradas. Este desafio pode levantar preocupações significativas sobre a equidade, a correcção e a ética das decisões automatizadas. As conclusões sugerem que, embora a IA tenha potencial para melhorar o processo de tomada de decisões, é essencial saber como minimizar os potenciais erros e preconceitos para garantir processos de tomada de decisões justos e precisos.

Esta investigação não só lança uma luz sobre os desafios inerentes à interação homem-IA, como também aponta para ideias valiosas sobre a forma de optimizar esta colaboração para melhorar a precisão e a justiça nas decisões críticas. Os resultados sublinham a importância de uma definição e implementação cuidadosa dos sistemas de IA, bem como a necessidade de supervisão humana informada e crítica.

"O nosso trabalho revela a relevância de mais investigação sobre o impacto da interacção entre seres humanos e sistemas de apoio à decisão. Embora já se realizem auditorias a esses processos, a sua atenção tende a centrar-se no aspecto mais técnico do sistema. Por isso, ainda temos de descobrir quais são os processos de interacção entre humanos e IA que realmente conduzem a melhores decisões",  afirmam Karlos G. Liberal, responsável pela área de tecnologia e investigação da JAKALA, e Ujué Agudo, investigador do mesmo departamento.

Press Release