A Ordem dos Psicólogos alertou hoje para a necessidade de auditorias e validação científica das ferramentas de inteligência artificial e mais literacia digital para prevenir casos como o de um adolescente que se terá suicidado com ajuda do ChatGPT.
Este caso, que está a ser investigado nos Estados Unidos, envolve uma ação judicial movida pelos pais do jovem contra a OpenAI, acusando o assistente de Inteligência Artificial (IA) ChatGPT de ajudar o filho a tirar a própria vida, uma situação que levou a empresa a criar um mecanismo de controlo parental.
A propósito no Dia Mundial da Prevenção do Suicídio, hoje assinalado, o presidente do Conselho de Especialidade de Psicologia Clínica e da Saúde da Ordem dos Psicólogos Portugueses, Miguel Ricou, disse à agência Lusa que estes casos devem servir de alerta.
PUBLICIDADE
“Estas situações dramáticas são exceções, como é evidente, como todas as catástrofes. E as coisas catastróficas servem para nos avisar e para nos lembrar de que estas coisas podem acontecer e para nos alertar para os cuidados que temos de ter”, defendeu.
Sobre a decisão da OpenAI de criar um mecanismo de controlo parental, Ricou disse ser uma resposta reativa, defendendo que estas situações deviam ser prevenidas e não remediadas.
“Esta decisão mostra, no fundo, uma assunção de que alguma coisa estava mal feita e que (…) termos estes modelos e acharmos que eles são meras ferramentas tecnológicas, que a sua aplicação é neutra e que não tem um valor por si só, é mentiroso”, disse, defendendo que estas ferramentas precisam de ser éticas desde a origem.
Miguel Ricou sublinhou que este tipo de ferramentas representa uma relação interpessoal que não existe, mas que pode levar à criação de relações ilusórias com sistemas que não têm, nem devem ter, o papel de amigo.
“Tem de haver uma resposta firme”, disse o psicólogo, defendendo que a solução de dar aos pais a possibilidade de ligar a sua conta à dos seus filhos menores e controlar a forma como o ChatGPT responde “não é suficiente e também tem defeitos”.
Por um lado, pode ter o benefício de permitir uma intervenção precoce em situações de risco, “mas depois também tem riscos”: “Ficamos descansados porque agora existe este mecanismo e não nos preocupamos mais, vamos deixar usar à vontade”.
Além disso, pode haver uma invasão da privacidade, alertou.
Considerou por isso evidente que este mecanismo não é suficiente e “não resolve o problema por si só”.
“Eu não estou a dizer que é negativo ou que não compreendo que eles o façam”, ressalvou.
Mas considerou que a medida visa, sobretudo, “aliviar a responsabilidade de quem cria o modelo: ‘Afinal de contas havia aqui uma possibilidade de controlo parental, se não o fizeram, a responsabilidade já não é nossa”.
O psicólogo alertou também que começam a aparecer ferramentas de IA que dizem prestar acompanhamento psicológico sem validação científica ou regulamentação.
Exemplificou que um dispositivo médico para ser aprovado em Portugal tem que cumprir um conjunto de pressupostos, mostrar um conjunto de resultados, de seguranças e estas ferramentas “não têm nada”.
“O que temos de avaliação destas coisas é usabilidade, a satisfação do utilizador, o que, evidentemente, é muito pouco”, tendo “inevitavelmente complicações”.
Defendeu, por isso, a realização de auditorias a este tipo de ferramentas. “Têm que passar por processos de validação e de investigação que, de alguma forma, nos possam dar alguma confiança”.
“As pessoas também têm de ter literacia digital, capacidade de crítica em relação a este tipo de ferramentas e perceber para que servem e como devem ser utilizadas, porque de outra maneira estamos antropomorfizando cada vez mais este tipo de ferramentas, que é uma tendência que temos”, alertou.
PUBLICIDADE