#PorUmMundoMelhor

Sustentix

Conversar com chatbots: o que garante a confiança?

Estão a tomar conta das lojas, locais de trabalho e instituições. Talvez não de uma forma maléfica de ficção científica, mas certamente pelos números: prevê-se que o seu mercado global atinja 27,3 mil milhões de dólares, até 2030. Cresceram também em popularidade devido ao seu baixo custo, disponibilidade 24/7 e escalabilidade. Também ajudam a contornar a solidão, mas serão confiáveis?

A conversa quase sempre começa assim:

-“Olá ChatGPT, podes ajudar-me?”

 – “Claro! Com todo o gosto😊”

As trocas de mensagens entre utilizadores e chatbots, que têm origem na inteligência artificial (IA), parecem conversas com outra pessoa. Fanny Lalot e Anna-Marie Betram, da Faculdade de Psicologia da Universidade de Basileia, quiseram saber até que ponto as pessoas confiam nos chatbots de IA e do que depende essa confiança. Centraram-se em sistemas baseados em texto, ou seja, plataformas como o ChatGPT, em vez de assistentes de voz como o Siri ou o Alexa.

O chatbot como uma entidade independente

O nosso nível de confiança nas outras pessoas depende de uma série de fatores: a nossa própria personalidade, o comportamento da outra pessoa e a situação específica.“As impressões da infância influenciam a nossa capacidade de confiar nos outros, mas também é necessária uma certa abertura para querermos fazer”, explica a psicóloga social Fanny Lalot. As caraterísticas que promovem a confiança incluem a integridade, a competência e a benevolência.

O novo estudo mostra que o que se aplica às relações entre humanos também se aplica aos sistemas de IA. A competência e a integridade, em particular, são critérios importantes que levam os humanos a considerar um chatbot de IA como fiável. A benevolência, por outro lado, é menos importante, desde que as outras duas dimensões estejam presentes. “O nosso estudo demonstra que os participantes atribuem estas caraterísticas diretamente à IA, e não apenas à empresa que está por detrás dela. Pensam de fato na IA como se fosse uma entidade independente”, explica Fanny Lalot.

Além disso, existem diferenças entre chatbots personalizados e impessoais. Se um chatbot se dirigir a nós pelo nome e fizer referência a conversas anteriores, por exemplo, os participantes no estudo avaliaram-no como especialmente benevolente e competente. “Antropomorfizaram o chatbot personalizado. Isto aumenta a vontade de utilizar a ferramenta e de partilhar informações pessoais com ela”. No entanto, os sujeitos do teste não atribuíram significativamente mais integridade ao chatbot personalizado e a confiança geral não foi significativamente maior do que no chatbot impessoal.

A integridade é mais importante do que a benevolência

De acordo com o estudo, a integridade é um fator mais importante para a confiança do que a benevolência. Por esta razão, é importante desenvolver a tecnologia para dar prioridade à integridade acima de tudo. Os criadores devem também ter em conta o facto de a IA personalizada ser vista como mais benevolente, competente e humana, a fim de garantir uma utilização adequada das ferramentas. Outros estudos demonstraram que as pessoas solitárias e vulneráveis, em particular, correm o risco de se tornarem dependentes de aplicações de amizade baseadas em IA.

“O nosso estudo não faz afirmações sobre se é bom ou mau confiar num chatbot”, sublinha. Este vê o chatbot de IA como uma ferramenta que temos de aprender a navegar, tal como as oportunidades e os riscos das redes sociais. No entanto, há algumas recomendações que podem ser derivadas dos seus resultados. “Projetamos mais nos sistemas de IA do que realmente existe”. Isto faz com que seja ainda mais importante que os sistemas de IA sejam fiáveis. Um chatbot não deve mentir-nos nem apoiar incondicionalmente tudo o que dizemos.

Se um chatbot de IA for demasiado acrítico e concordar simplesmente com tudo o que um utilizador diz, não conseguirá verificar a realidade e corre o risco de criar uma câmara de eco que, no pior dos casos, pode isolar as pessoas do seu ambiente social. “Espera-se que um amigo [humano] intervenha em algum momento se alguém desenvolver ideias demasiado loucas ou imorais”, considera.

Traído pela IA?

Nas relações humanas, a quebra de confiança pode ter consequências graves para as interações futuras. Poderá ser este também o caso dos chatbots? “Essa é uma questão interessante. Seria necessária mais investigação para sabermos a resposta” e continua: “Posso certamente imaginar que alguém se possa sentir traído se os conselhos de um chatbot de IA tiverem consequências negativas.”

É necessário que existam leis que responsabilizem os criadores. Por exemplo, uma plataforma de IA poderia mostrar como chegou a uma conclusão, revelando abertamente as fontes que utilizou, e poderia dizer quando não sabe algo em vez de inventar uma resposta.

Metodologia do estudo

Os sujeitos do teste foram expostos a exemplos de interações entre utilizadores e um chatbot chamado Conversea, que foi imaginado especificamente para o estudo. Em seguida, imaginaram que eles próprios iriam interagir com o Conversea. Os resultados foram publicados no Journal of Experimental Psychology: General.

Em destaque

  • All Posts
  • Agenda
  • Agricultura
  • Ambiente
  • Análise
  • Biodiversidade
  • Ciência
  • Curiosidades
  • Dinheiro
  • Empresas
  • Entrevista
  • ESG
  • Estudo
  • Finanças
  • Finanças Verdes
  • Inovação
  • Inovação Social
  • Internacional
  • Opinião
  • Pessoas
  • Saúde
  • Sem categoria
  • Social
  • Tecnologia
  • Tendências
Receba as notícias diretamente no seu email. Assine a nossa newsletter mensal.
Receba as notícias diretamente no seu email. Assine a nossa newsletter mensal.