Anti‑FOMO · Tribu Family · Edição Especial Tech & Saúde
Dra. Juliana Gabriel Jornalzinho anti-fomo 0
Um produto que responde sobre qualquer assunto, te ajuda a montar seu próximo treino de perna, faz convites de aniversário, ou calcula a Entropia de Shannon. Como não confiar nessa máquina mágica que tudo sabe?
Meu nome é Leonel, trabalho todos os dias encontrando formas de usar modelos de IA generativa para facilitar a análise das métricas de um negócio de 1.8B de dólares ao ano.
Mas hoje o meu desafio é explicar, a pedido da Dra. Ju, como os modelos de Inteligência artificial funcionam, e porque deve-se “confiar desconfiando”.
Como o GPT Funciona: um “adivinhador” estatístico de palavras
Os modelos da família GPT (Generative Pre‑trained Transformer) não “pensam” como a gente. Depois de “ler” bilhões de frases públicas na internet, eles ajustam bilhões de números internos (os pesos de uma rede neural) para estimar qual é a próxima palavra mais provável num texto. É literalmente isso: um super‑completador de frases.
-
Nada de bola de cristal. Ele não consulta bases médicas, não abre o PubMed nem faz busca em tempo real.
-
Probabilidade > veracidade. Se a sequência “Beba dois copos de água‑oxigenada” apareceu num fórum obscuro, o modelo pode replicá-la porque soou coerente dentro do contexto, não porque seja segura.
O que são “alucinações” em IA?
Chamamos de alucinação quando o modelo produz informação falsa ou inexistente com toda a segurança do mundo.
Isso acontece porque:
-
Sem checagem em tempo real. Ele só “sabe” aquilo que viu até o fim do treinamento.
-
Sem base factual estruturada. Diferente de um banco de dados, não há camadas de confirmação.
-
Prioridade é fluidez. A métrica interna é “parecer humano”, não “estar correto”.
-
A qualidade dos dados pode piorar. Quanto mais usa-se o conteúdo gerado para publicar mais na internet, mais o modelo é treinado com as próprias imprecisões.
Na prática, toda resposta precisa ser validada em fonte confiável antes de virar decisão de vida ou morte.
Automedicação + IA: por que é um coquetel perigoso
No Brasil, quase metade dos adultos admite tomar remédio por conta própria sem receita [1]. Motivos não faltam:
-
Acesso difícil a médicos ou consultas caras.
-
Cultura do “Dr. Google”, e dos grupos de WhatsApp.
-
Pressa para resolver sintomas e voltar à rotina.
Com o Chat GPT à mão, a tentação de perguntar “que antibiótico tomar para dor de garganta?” é enorme. O risco? Receber uma recomendação muito convincente, porém incorreta. =(
Um estudo de 2023 mostrou que 73 % das respostas do Chat GPT sobre remédios estavam incompletas ou erradas, algumas potencialmente perigosas [2]. Outro trabalho de 2024 concluiu que ainda não dá para trocar especialistas humanos por LLMs em dúvidas médicas [3].
Casos reais de alucinação com prejuízo
1. Multa no tribunal
Dois advogados de Nova York confiaram no Chat GPT para montar uma petição e citar “jurisprudência”. O modelo inventou seis decisões que nunca existiram. Resultado: multa e manchete negativa no mundo todo [4].
2. “Prescrição” perigosa
Em testes de farmácia clínica nos EUA, o Chat GPT recomendou doses equivocadas de anticoagulantes a pacientes hipotéticos. Se alguém seguisse a dica ao pé da letra, poderia ter sangramento grave [2].
Perceba o paralelo: se até advogados (treinados para checar citações!) escorregam, imagina o risco de um paciente ansioso aceitar a primeira sugestão de tratamento que aparecer na tela.
Mas os agentes podem acessar a internet, e aí?
Sim! Hoje já existem abordagens com agentes capazes de consultar informações em tempo real, fazer buscas na internet e acessar bancos de dados especializados. Isso não é mais ficção, e sim: Realidade.
Porém, a tecnologia por trás da IA generativa depende de uma quantidade absurda de dados (estamos falando de trilhões de referências) para alcançar níveis aceitáveis de precisão. Esse processo consome tempo, energia, milhões de dólares — e litros de água potável para resfriar os servidores nos data centers.
Ou seja, cada pergunta inocente que fazemos ao Chat GPT tem um custo invisível. Aos poucos, vamos acumulando uma dívida ambiental que também entra na conta do aquecimento global.
Conclusão – consulte, compare, confirme
Ferramentas de IA são ótimas para rascunhar ideias, traduzir jargões ou resumir artigos, mas não substituem:
-
Consulta presencial com médico(a), terapeuta ou nutricionista.
-
Exames e histórico clínico que só profissionais têm como interpretar.
-
Responsabilidade legal e ética de quem receitou.
Portanto:
-
Use a IA como ponto de partida, nunca ponto final.
-
Cheque em fontes confiáveis (sites oficiais, artigos revisados, profissionais da Tribu Family 😉).
-
Desconfie do tom de certeza absoluta. Quanto mais enfática a IA, mais atenção você deve ter.
Assim como ninguém deveria engolir um remédio caseiro só porque “funcionou com o vizinho”, também não faz sentido seguir à risca uma sugestão gerada por máquina sem confirmar com um especialista. Informação salva; automedicação, não.
PS: Esse texto foi criado com uma colaboração saudável (pesquisa e revisão ortográfica) com o modelo Chat GPT o3-Pro (deep-research) e todas as referências foram checadas.
Por: Leonel Candido da Silva, Engineering Manager numa Big Tech em Amsterdã
Referências
[1] Self‑medication and its impacts on public health in Brazil (RSD Journal, maio 2025).
[2] Study Finds ChatGPT Provides Inaccurate Responses to Drug Questions (American Society of Health‑System Pharmacists, dez 2023).
[3] AI‑generated medical advice not yet reliable enough to replace human experts (News‑Medical, abr 2024).
[4] Lawyers who cited fake cases hallucinated by ChatGPT must pay (The Register, jun 2023).
(observação: se você quer acompanhar o trabalho do Leonel, siga ele no insta: @em_with_leonel (link: https://www.instagram.com/em_with_leonel?igsh=dWppN2t3bHc5OTk5 ) e no Youtube: https://youtube.com/@engineeringandmore?si=4NINsqiLzrZrZbd1
