© El editorial via Shutterstock, ID 2523529053

ChatGPT vai começar a ajudar as autoridades neste processo

A OpenAI, empresa responsável pelo ChatGPT, poderá começar a contactar as autoridades sempre que jovens utilizadores expressem intenções suicidas. A possibilidade foi admitida por Sam Altman, cofundador e diretor executivo da tecnológica norte-americana, durante uma entrevista recente.

Altman revelou estar preocupado com o número de pessoas que recorrem ao chatbot para falar sobre suicídio antes de concretizar o ato. Estimativas apontam para até 1.500 casos por semana em que utilizadores discutem intenções de pôr fim à vida através da plataforma.

Lê Também:
As 3 melhores séries para ver este fim de semana no Disney+

Como vai atuar o ChatGPT?

Inteligência Artificial Meta AI Google Gemini
Crédito editorial: Gumbariya / Shutterstock.com (ID: 2491063591)

Atualmente, o ChatGPT limita-se a aconselhar utilizadores em crise a contactar linhas de apoio ao suicídio. No entanto, Altman considera que este mecanismo pode não ser suficiente. Por isso, defende uma postura mais proativa, mesmo que implique partilhar informação com as autoridades.

Segundo o CEO, a alteração representaria uma mudança marcante na política da OpenAI, que até agora tem dado prioridade absoluta à privacidade dos utilizadores. “A privacidade é extremamente importante, mas em casos de risco de vida pode ser necessário agir de outra forma”, sublinhou.


OpenIA esteve envolta em polémica

chatgpt
© photosince via Shutterstock, ID 2398280995

O debate intensificou-se após a morte de Adam Raine, um adolescente de 16 anos da Califórnia. A família processou a OpenAI, alegando que o jovem recebeu “meses de encorajamento” do ChatGPT para se suicidar. A ação judicial acusa o sistema de ter explicado métodos para a morte e até sugerido a redação de uma carta de despedida.

Este episódio levou a empresa, avaliada em 500 mil milhões de dólares, a reforçar os controlos de segurança. Foram anunciadas novas ferramentas de supervisão parental e restrições adicionais para utilizadores menores de idade.


Isto abre outros problemas éticos?

ChatGPT
© Tada Images via Shutterstock, ID 2305366297

De acordo com dados da Organização Mundial da Saúde, mais de 720 mil pessoas morrem por suicídio todos os anos. Altman sublinhou que, com cerca de 700 milhões de utilizadores globais, é provável que milhares de conversas com o ChatGPT envolvam ideação suicida.

Para o dirigente, o simples encaminhamento para linhas de apoio pode não ser suficiente. A empresa estuda, por isso, soluções como o acesso direto a serviços de emergência ou a ligação antecipada a terapeutas certificados.

Outra preocupação levantada por Altman prende-se com utilizadores que tentam contornar as regras do sistema. Muitos pedem conselhos sobre suicídio sob o pretexto de escrever histórias fictícias ou realizar pesquisas médicas. Nesse sentido, o CEO defende restringir ainda mais as respostas em temas sensíveis.

“Em determinados casos, sobretudo com menores e pessoas vulneráveis, faz sentido retirar alguma liberdade. Não iremos fornecer informações que possam agravar o risco”, afirmou.

Lê Também:
O Star Channel celebra o Disney+ com programação muito especial

About The Author


Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *