Um estudo recente publicado na revista Public Choice revelou um paradoxo fascinante na forma como as pessoas encaram a inteligência artificial (IA) em relação à tomada de decisões por parte dos humanos. O estudo, publicado a 20 de junho, sugere que, embora a maioria dos indivíduos prefira que a IA tome decisões importantes sobre a distribuição de recursos financeiros, na realidade sentem-se mais felizes quando são os humanos a tomar essas decisões.
A maioria prefere a IA para as decisões financeiras
No estudo, um número significativo de 64% dos participantes mostrou preferência pelos algoritmos em relação aos seres humanos quando se trata de decidir quanto dinheiro devem ganhar para completar tarefas específicas. Esta preferência resulta da percepção de que os sistemas de IA não têm preconceitos, podem explicar as suas decisões e têm um desempenho de alto nível.
O Professor Wolfgang Luhan, da Universidade de Portsmouth, sublinhou a importância desta conclusão, afirmando que a “transparência e responsabilidade dos algoritmos em contextos de tomada de decisões morais” é “vital”.
Equidade: Um fator-chave na aceitação da IA
Curiosamente, as motivações dos participantes não eram puramente egoístas. O estudo revelou que os ideais de justiça desempenhavam um papel crucial na forma como as pessoas reagiam às decisões da IA. Os participantes eram mais tolerantes a desvios dos seus próprios interesses quando a IA tomava a decisão, desde que respeitasse pelo menos um princípio de equidade.
Os investigadores explicaram: “Como a equidade é uma construção social em que os conceitos individuais estão incorporados num conjunto partilhado de definições, os investigadores disseram que as pessoas concluiriam que os algoritmos – treinados em grandes quantidades de dados de ‘equidade’ – seriam uma melhor representação do que é justo do que um decisor humano”.
Apesar da preferência pela tomada de decisões por IA, o estudo revelou uma reviravolta intrigante: os participantes sentiam-se geralmente mais felizes com as decisões tomadas por humanos. Isto era verdade independentemente de quão “justa” ou “correta” fosse a decisão em si.
Os investigadores acreditam que as suas descobertas desempenharão um papel crucial nos debates sobre a abertura da sociedade à tomada de decisões em matéria de IA. Manifestaram otimismo em relação ao futuro, observando que as decisões geradas pela IA tendem a alinhar-se com as preferências das pessoas afetadas.
“A questão da percepção e da atitude das pessoas em relação às decisões algorítmicas e à IA em geral tornou-se mais importante recentemente, com muitos líderes da indústria a alertarem para os perigos da ameaça que a IA representa e a apelarem à regulamentação”, afirmaram os cientistas no estudo.