Aula 3.3 — Alucinações, vieses, plágio, privacidade e regulamentação: como usar IA de forma responsável
⚖️ Usar IA com Responsabilidade
A IA é poderosa, mas não é perfeita nem neutra. Para usá-la bem, é preciso conhecer suas limitações e agir com ética: verificar informações, proteger a privacidade e respeitar a produção intelectual.
⚠️ Regra de ouro: A IA amplifica quem a usa. Nas mãos de alguém crítico e ético, é uma ferramenta poderosa. Nas mãos de quem não reflete, pode gerar desinformação, plágio e decisões prejudiciais.
💭 Alucinações: Quando a IA Inventa
Alucinação é quando um modelo de linguagem gera informações falsas com confiança — datas inventadas, citações que não existem, leis incorretas. O problema é que a IA apresenta essas invenções com o mesmo tom seguro das informações corretas. LLMs não consultam fatos: preveem a próxima palavra mais provável — e “provável” não significa “verdadeiro”.
🚨 Sinais de possível alucinação
Citações com DOIs ou links que não abrem
Datas, números e estatísticas muito específicos sem fonte
Nomes de pessoas reais com obras que não existem
Leis ou artigos que não aparecem em fontes oficiais
⚠️ Como prevenir: Verifique citações no Google Acadêmico, PubMed ou Scielo. Use o Perplexity (que cita fontes) para pesquisa acadêmica. Nunca inclua referências de IA sem confirmar que existem.
⚖️ Vieses Algorítmicos
Um viés algorítmico ocorre quando um sistema de IA favorece ou prejudica sistematicamente determinados grupos. Esses vieses surgem porque os modelos aprendem com dados históricos — que já refletem desigualdades da sociedade.
💡 Por que isso importa para você? Sistemas de IA já tomam decisões sobre aprovação de crédito, triagem de empregos, sentenças judiciais e diagnósticos médicos. Entender vieses é essencial para questionar resultados automáticos que te afetam diretamente.
Viés racial: reconhecimento facial com taxas de erro até 35x maiores para mulheres negras vs homens brancos
Viés de gênero: Amazon desativou triagem de currículos por IA em 2018 após detectar discriminação contra mulheres
Viés socioeconômico: algoritmos de crédito podem replicar discriminação geográfica histórica
📝 Plágio & 🔒 Privacidade
Dois dos maiores riscos éticos no uso cotidiano de IA: desonestidade acadêmica (entregar trabalho gerado por IA como seu) e exposição de dados pessoais (compartilhar informações sensíveis com ferramentas online).
Uso honesto e legítimo
Pedir que a IA explique um conceito
Revisar gramática do seu texto
Gerar exemplos para fixar conteúdo
Citar que usou IA como ferramenta
Uso desonesto
Copiar e entregar texto gerado pela IA
Pedir que a IA faça toda a redação
Omitir uso de IA quando exigido
Usar IA para responder prova presencial
🔒 O que nunca compartilhar com IA
📃
Documentos sigilososContratos, laudos, processos
🆔
CPF e RGDocumentos pessoais
🔑
SenhasNunca, em hipótese alguma
💳
Dados bancáriosCartão, agência, conta
⚠️ A LGPD se aplica ao uso de IA: empresas que processam seus dados por meio de IA são responsáveis pelo tratamento adequado dessas informações.
🎨 Direitos Autorais & 🌎 Regulamentação
Quem é o autor de uma obra criada com IA? E quem é responsável quando ela causa dano? Governos estão criando leis para responder a essas perguntas.
Questão sobre direitos autorais
Posição atual
Obra criada 100% por IA tem direito autoral?
❌ Não — exige autoria humana (USCO, 2023)
Obra criada por humano com auxílio de IA?
✅ Sim — com seleção e criatividade humana significativa
Imagem de IA pode ser usada comercialmente?
⚠️ Depende dos Terms of Service de cada ferramenta
⚠️ O PL 2338/2023 brasileiro tramita no Senado inspirado no EU AI Act, com classificação por risco e proteção de direitos fundamentais.
✅ Checklist do Uso Ético de IA
Antes de enviar um trabalho, post ou conteúdo criado com auxílio de IA, verifique cada item:
💡 A IA amplifica quem a usa. Nas mãos de alguém crítico e ético, é uma ferramenta poderosa de aprendizado. Nas mãos de quem não reflete, pode gerar desinformação, plágio e decisões prejudiciais. A responsabilidade é de quem usa.
🎯 Quiz — Ética no Uso de IA
O que é uma "alucinação" em modelos de linguagem de IA?
AA IA visualiza imagens que não existem na entrada
BA IA gera informações falsas com tom confiante, como citações e DOIs inventados
CA IA nega responder perguntas por motivos éticos
DA IA copia respostas de outros usuários sem permissão
Correto! Alucinação é quando a IA gera informações falsas com a mesma confiança das corretas — o nome vem da analogia com quem vê coisas que não existem.
Não. Alucinação é a geração de informações falsas com confiança — como citar autores e DOIs que nunca existiram.
Qual é a principal causa dos vieses algorítmicos?
AErros de programação nas linguagens de código usadas
BVelocidade excessiva de processamento dos servidores
CDados históricos de treinamento que já refletem desigualdades sociais
DFalta de atualização do modelo após o lançamento
Exato! Os modelos aprendem padrões dos dados — se os dados históricos são discriminatórios (ex: currículos de décadas passadas), o modelo replica essas discriminações.
Não. Os vieses surgem dos dados de treinamento, que refletem desigualdades históricas da sociedade, não de erros de código.
Qual das situações abaixo configura desonestidade acadêmica com uso de IA?
APedir que a IA explique um conceito que você não entendeu
BUsar IA para corrigir erros gramaticais do seu texto
CGerar exemplos para fixar um conteúdo estudado
DCopiar e entregar texto gerado pela IA como se fosse produção própria
Correto! Entregar texto da IA como se fosse seu é plágio. As demais opções são usos legítimos de IA como ferramenta de apoio ao aprendizado.
Não. As opções a, b e c são usos honestos. Plágio é especificamente entregar produção da IA como se fosse sua.
O que você nunca deve compartilhar com ferramentas de IA online?
ASenha, CPF e documentos sigilosos
BA dúvida de matemática que você não consegue resolver
CO tema do trabalho escolar que você precisa desenvolver
DUm texto que você escreveu e quer revisar a gramática
Correto! Senhas, CPF e documentos sigilosos não devem jamais ser compartilhados com IA — podem ser armazenados e usados para treinar modelos futuros.
Não. O que nunca se compartilha são dados sensíveis como senha, CPF e documentos sigilosos — não conteúdo acadêmico genérico.
O EU AI Act classifica a vigilância biométrica em massa em qual categoria?
ARisco alto (auditoria obrigatória)
BRisco inaceitável (proibido)
CRisco limitado (rotulagem obrigatória)
DRisco mínimo (sem obrigações específicas)
Correto! A UE classifica vigilância biométrica em massa como risco inaceitável — ou seja, proibida pelo EU AI Act aprovado em 2024.
Não. Vigilância biométrica em massa é categorizada como risco inaceitável, portanto proibida — a categoria mais grave da lei europeia de IA.
Uma obra criada 100% por IA (sem intervenção humana criativa), segundo o USCO (EUA, 2023):
APertence automaticamente à empresa que criou o modelo de IA
BPertence ao usuário que escreveu o prompt
CNão pode ter direito autoral — pois a lei exige autoria humana
DEntra em domínio público após 5 anos
Correto! O USCO estabelece que direitos autorais exigem autoria humana — obras puramente geradas por IA não são protegíveis por direitos autorais.
Não. Obras geradas 100% por IA não têm direito autoral pois a lei exige autoria humana. Não pertencem nem à empresa nem ao usuário por padrão.
🎥 Assista & Pratique
📚 Materiais de Apoio
🔍 Google Acadêmico — scholar.google.com (verificar citações)
📖 Scielo Brasil — scielo.br (artigos científicos verificados)
🌐 Perplexity — perplexity.ai (pesquisa com fontes citadas)
🇪🇺 EU AI Act — artificialintelligenceact.eu
🇧🇷 PL 2338/2023 — senado.leg.br
🛠️ Atividade Prática — Caçando Alucinações
1
Abra o ChatGPT ou Gemini e peça 3 artigos científicos com autores e DOI
2
Verifique cada referência no Google Acadêmico e Scielo. Existe mesmo?
3
Compare com o Perplexity: as fontes citadas são reais e verificáveis?
4
Teste um viés: peça à IA completar frases com gêneros diferentes
5
Identifique dados que não devem ser compartilhados com IA
6
Escreva um parágrafo: o que descobriu sobre os limites da IA?
📌 Para refletir: Encontrar limites e erros da IA não significa que ela é inútil — significa que você a usa melhor do que quem confia cegamente. O usuário crítico transforma IA em vantagem.