© Tada Images via Shutterstock, ID 2305366297

ChatGPT não deve ser utilizado para estas tarefas

O ChatGPT tornou-se uma das ferramentas mais populares da inteligência artificial, capaz de escrever textos, responder a perguntas e até ajudar a organizar ideias. No entanto, confiar neste tipo de tecnologia para todas as tarefas pode trazer riscos sérios.

O ChatGPT é útil para apoiar tarefas criativas, responder dúvidas rápidas ou ajudar na organização de ideias. No entanto, confiar nesta tecnologia em áreas críticas como saúde, segurança, finanças ou questões legais pode resultar em prejuízos graves. Saber quando não usar a inteligência artificial é tão importante quanto aproveitar as suas vantagens.

Pub
Lê Também:
Nova série espanhola é a mais vista a nível mundial na Netflix

Quais são os erros mais iminentes?

logo do chatgpt, da openai
© El editorial via Shutterstock, ID 2523529053

Inserir sintomas no ChatGPT pode gerar respostas alarmantes e erradas. O modelo pode apontar para doenças graves quando o problema é simples, ou falhar em identificar sinais de risco real. Só um médico pode realizar exames, interpretar resultados e garantir um diagnóstico fiável. A inteligência artificial pode ajudar a organizar perguntas para a consulta, mas não substitui um profissional de saúde.

Apesar de fornecer técnicas básicas de respiração ou relaxamento, o ChatGPT não possui empatia nem experiência humana. A terapia exige acompanhamento profissional, regido por códigos éticos e legais, algo que a IA não consegue oferecer. Em casos de crise, depender de um chatbot em vez de procurar ajuda especializada pode agravar a situação.

Perante emergências como um alarme de monóxido de carbono ou um incêndio, perder tempo a escrever num chatbot é perigoso. O ChatGPT não chama bombeiros, não detecta gases e não envia ajuda. Em situações críticas, a prioridade deve ser agir rapidamente e contactar os serviços de emergência.

Pub

Não dar dados sensíveis ao ChatGPT

chatgpt
© Ascannio via Shutterstock, ID 2237752713

O ChatGPT explica conceitos como “ETF” ou “IRS”, mas não tem acesso à realidade fiscal ou patrimonial de cada contribuinte. A informação pode estar desatualizada e gerar erros caros. Um contabilista certificado é insubstituível para identificar deduções, corrigir falhas e evitar penalizações fiscais. Além disso, partilhar dados sensíveis com um chatbot expõe informação pessoal a riscos de privacidade.

Pub

Inserir contratos, relatórios médicos ou informações pessoais no ChatGPT compromete a segurança desses dados. Uma vez submetidos, não há garantias sobre onde ficam armazenados ou como podem ser usados no futuro. Qualquer conteúdo sujeito a confidencialidade ou regulamentação legal deve permanecer fora do alcance de sistemas de IA.

O ChatGPT pode explicar termos jurídicos, mas não cria documentos válidos perante um tribunal. A lei varia entre países e até entre regiões, e pequenas falhas formais podem anular um contrato. A IA pode ajudar a preparar perguntas para o advogado, mas só um jurista garante a validade legal do texto.

Pub

Embora alguns utilizadores relatem sucessos ocasionais, o ChatGPT não prevê resultados desportivos nem garante estatísticas fiáveis. Pequenos erros ou dados inventados podem levar a perdas financeiras significativas. Apostas baseadas em respostas da IA são, na prática, puro acaso.

Lê Também:
MEO lança serviço inédito em Portugal em parceria com a LG

About The Author


One thought on “ChatGPT não deve ser utilizado para estas tarefas

  • Eu gostei de gpt

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *