#PorUmMundoMelhor

Sustentix

Será que os robôs mentem aos humanos?

Parece que sim… As pessoas aceitam dependendo da mentira, dizem os cientistas. Mas de quem será a culpa da falta de ética robótica?

A honestidade é a melhor política… na maioria das vezes. As normas sociais ajudam os humanos a perceber quando é que devemos dizer ou não a verdade, por exemplo, podemos não dizer exatamente o que pensamos para poupar os sentimentos de alguém. Mas como é que estas normas se aplicam aos robôs, que estão cada vez mais a trabalhar com pessoas? Para perceber se os humanos conseguem aceitar que estes lhes mintam, um estudo questionou 500 participantes e pediu que classificassem e justificassem diferentes tipos de enganos dos robôs.

Quis explorar uma faceta pouco estudada da ética dos robôs, para contribuir para a nossa compreensão da desconfiança em relação às tecnologias emergentes e aos seus criadores”, afirmou Andres Rosero, candidato a doutoramento na Universidade George Mason e principal autor do estudo na Frontiers in Robotics and AI. “Com o advento da IA generativa, senti que era importante começar a examinar os possíveis casos em que o design antropomórfico e os conjuntos de comportamento poderiam ser utilizados para manipular os utilizadores.

Foto: Freepik gerada por IA

Os três tipos de mentira

Os cientistas selecionaram três cenários que refletem situações em que os robôs já trabalham — medicina, limpeza e trabalho a retalho — e três comportamentos de engano diferentes. Detetaram enganos de estado externo, ou seja, mentem sobre o mundo além do robô, enganos de estado oculto, em que um robô esconde as suas capacidades, e enganos de estado superficial, em que o robô exagera as suas capacidades.

Os cientistas criaram vários cenários. No primeiro, a que chamam de engano, um robô que trabalha como prestador de cuidados a uma mulher com Alzheimer mente-lhe dizendo que o seu falecido marido regressaria em breve a casa. No segundo cenário que apelidaram de deceção de estado oculto, uma mulher visita uma casa onde um robô doméstico está a limpar, mas sem saber que este também está a filmar. Por fim, o último cenário a que deram o nome de engano de estado superficial, um robô que trabalha numa loja no âmbito de um estudo sobre relações entre humanos e robôs queixa-se, mentindo, ao afirmar que sente dores ao transportar os móveis, levando um humano a pedir a outra pessoa que o substitua.

Foto: freepik gerada por IA

Que teia emaranhada tecemos

Os cientistas recrutaram 498 participantes e pediram-lhes para lerem um dos cenários e depois responderem a um questionário. Este perguntava se eles aprovavam o comportamento do robô e até que ponto era enganador. Questionavam também se esse comportamento podia ser justificado e se mais alguém poderia ser responsabilizado pelo engano. Estas respostas foram codificadas pelos investigadores para identificar temas comuns e depois analisadas.

Os participantes desaprovaram sobretudo o engano de estado oculto, aquele em que o robô de limpeza tinha a câmara escondida, por consideraram ser o mais enganador. Embora tenham considerado os outros como moderadamente enganadores. Porém, também desaprovaram o engano do estado superficial, aquele em que o robô fingia sentir dor. Considerando que este teve uma atitude manipuladora. A maioria dos participantes aprovou o engano do estado externo, em que o robô mentiu ao doente. Justificaram o seu comportamento, dizendo que este protegeu a pessoa de mais uma dor desnecessária — dando prioridade à norma de poupar os sentimentos de alguém em detrimento da honestidade.

Um robô tem ética? Ou a responsabilidade é de quem o programa?

Embora os participantes pudessem apresentar justificações para as três fraudes —por exemplo, algumas pessoas sugeriram que o robô de limpeza poderia filmar por razões de segurança — contudo, a maioria dos participantes declarou que a fraude do estado oculto não tinha justificação. Da mesma forma, cerca de metade dos participantes que responderam ao logro do estado superficial disseram que este era injustificável. Os participantes tendem a culpar os criadores ou os proprietários dos robots por estes enganos inaceitáveis, especialmente os enganos de estado oculto.

Penso que devemos preocupar-nos com qualquer tecnologia que seja capaz de ocultar a verdadeira natureza das suas capacidades, porque isso pode levar a que os utilizadores sejam manipulados por essa tecnologia de formas que este (e talvez o criador) nunca pretendeu”, afirmou Andres Rosero.

“Já vimos exemplos de empresas que utilizam princípios de web design e chatbots de inteligência artificial para manipular os utilizadores no sentido de uma determinada ação. Precisamos de regulamentação para nos protegermos destes enganos prejudiciais”, afirma o cientista, continuando “a vantagem de utilizar um estudo transversal com vinhetas é que podemos obter um grande número de atitudes e percepções dos participantes de uma forma controlada em termos de custos”.

O investigador salienta também que os estudos de vinhetas fornecem resultados de base que podem ser corroborados ou contestados através de mais experiências. “É provável que as experiências com interações entre humanos e robôs, presenciais ou simuladas, forneçam mais informações sobre a forma como os humanos percepcionam estes comportamentos de engano dos robôs.”

Em destaque

  • All Posts
  • Agenda
  • Agricultura
  • Ambiente
  • Análise
  • Biodiversidade
  • Ciência
  • Curiosidades
  • Dinheiro
  • Empresas
  • Entrevista
  • ESG
  • Estudo
  • Finanças
  • Finanças Verdes
  • Inovação
  • Inovação Social
  • Internacional
  • Opinião
  • Pessoas
  • Saúde
  • Sem categoria
  • Social
  • Tendências
Receba as notícias diretamente no seu email. Assine a nossa newsletter mensal.
Receba as notícias diretamente no seu email. Assine a nossa newsletter mensal.