⬅ Voltar ao Dashboard Unidade 3 — IA na Educação

⚖️ Limitações e Ética no Uso de IA

Aula 3.3 — Alucinações, vieses, plágio, privacidade e regulamentação: como usar IA de forma responsável e crítica

💭 Alucinações: Quando a IA Inventa

Alucinação é o termo técnico para quando um modelo de linguagem gera informações falsas com confiança — datas inventadas, citações que não existem, leis incorretas, nomes errados. O problema é que a IA apresenta essas invenções com o mesmo tom seguro das informações corretas.

As alucinações ocorrem porque LLMs não consultam fatos como um buscador. Eles preveem a próxima palavra mais plausível — e “plausível” não significa “verdadeiro”.

📋 Exemplo real de alucinação

🧑‍🎓 Pergunta do aluno
"Cite 3 artigos científicos sobre segurança da informação publicados no Brasil em 2023."
❌ Resposta alucinada
A IA cita títulos, autores, revistas e DOIs completamente inventados — que não existem em nenhuma base científica. O aluno que não verificar entregará referências falsas.

⚠️ Como identificar e prevenir: Verifique citações no Google Acadêmico, PubMed ou Scielo. Use o Perplexity (que cita fontes) para pesquisa acadêmica. Nunca inclua referências de IA sem confirmar que existem.

🚨 Sinais de possível alucinação

⚖️ Vieses Algorítmicos

Um viés algorítmico é quando um sistema de IA sistematicamente favorece ou prejudica determinados grupos de pessoas. Esses vieses surgem porque os modelos aprendem com dados históricos criados por humanos — e esses dados refletem desigualdades e preconceitos já existentes na sociedade.

🧑 Viés Racial
Sistemas de reconhecimento facial apresentam taxa de erro significativamente maior para pessoas negras e asismáticas do que para pessoas brancas.
Caso: estudo MIT Media Lab (2018) mostrou error rate de 35% para mulheres negras vs 1% para homens brancos.
💼 Viés de Gênero
Ferramentas de triagem de currículos treinadas em históricos de contratação aprenderam a penalizar candidatas mulheres em áreas dominadas por homens.
Caso: Amazon desativou seu sistema de IA de RH em 2018 após identificar discriminação.
💰 Viés Socioeconômico
Algoritmos de concessão de crédito podem negar empréstimos para moradores de determinados bairros, reproduzindo discriminação geográfica histórica.
Impacto: decisões automáticas sobre crédito e moradia afetam milhões sem recurso à revisão humana.

💡 Por que isso importa para você? Sistemas de IA já tomam decisões sobre aprovação de crédito, triagem de empregos, sentenças judiciais e diagnósticos médicos. Entender vieses é essencial para questionar resultados automáticos que te afetam.

📝 Plágio e Desonestidade Acadêmica

O uso irresponsável de IA na vida acadêmica configura desonestidade intelectual — e pode ter consequências sérias. É importante entender a diferença entre usar IA como ferramenta e deixar que ela faça o trabalho por você.

✅ Uso Honesto e Legítimo
  • Pedir que a IA explique um conceito que você não entendeu
  • Usar IA para revisar gramática do seu texto
  • Pedir sugestões de estrutura para seu argumento
  • Gerar exemplos para fixar um conteúdo estudado
  • Usar IA para pesquisa inicial e depois aprofundar
  • Citar que usou IA como ferramenta no trabalho
❌ Uso Desonesto
  • Copiar e entregar texto gerado pela IA como se fosse seu
  • Pedir que a IA faça a redação completa para você
  • Usar respostas de IA em provas presenciais
  • Omitir que usou IA quando a instituição exige transparência
  • Usar IA para responder tarefa de outro colega

🔍 Detectores de IA

Ferramentas como GPTZero e a integração do Turnitin com IA detectam padrões estatísticos característicos de textos gerados por máquina. Embora não sejam 100% precisos, estão sendo adotados por instituições de ensino do Brasil e do mundo.

⚠️ A postura do IFRN — como da maioria das instituições de ensino — permite o uso de IA como ferramenta de apoio, mas exige que a produção intelectual seja essencialmente do aluno. Sempre consulte o professor sobre as regras de cada avaliação.

🔒 Privacidade e Dados Pessoais

Ao usar ferramentas de IA, você fornece dados — suas perguntas, documentos e informações podem ser usados para treinar modelos futuros, a menos que você desative essa opção nas configurações. Por isso, é essencial saber o que nunca compartilhar:

📃
Documentos Sigilosos Contratos, laudos médicos, processos jurídicos
🆔
CPF e RG Números de documentos pessoais ou de terceiros
🔑
Senhas Nunca informe senhas, mesmo pedindo para "criar uma criptografada"
💳
Dados Bancários Números de cartão, agência, conta
📍
Localização Endereço residencial próprio ou de familiares
🤝
Dados de Terceiros Informações pessoais de colegas, familiares ou clientes

💡 A LGPD (Lei Geral de Proteção de Dados) se aplica ao uso de IA: empresas que processam seus dados por meio de IA são responsáveis pelo tratamento adequado dessas informações. Você tem direito de saber como seus dados são usados.

🎨 Direitos Autorais e Criações de IA

Quando você usa IA para criar uma imagem, um texto ou uma música, surge uma questão jurídica ainda em discussão: quem é o autor?

⚖️ O que dizem os tribunais

Questão Posição atual
Obra criada 100% por IA pode ter direito autoral? ❌ Não — direito autoral exige autoria humana (USCO, 2023)
Obra criada por humano com auxílio de IA? ✅ Sim — desde que haja seleção e criatividade humana significativa
IA treinar com obras protegidas sem autorização? ⚖️ Em discussão — Getty vs Stability AI e outros processos em andamento
Imagem gerada por IA pode ser usada comercialmente? ⚠️ Depende dos Terms of Service de cada ferramenta — leia antes de usar

⚠️ Para trabalhos acadêmicos e profissionais: sempre verifique os termos de uso da ferramenta de IA e declare quando o conteúdo foi gerado ou assistido por IA.

🌎 Regulamentação da IA no Mundo

Governos ao redor do mundo estão criando leis para regular o desenvolvimento e uso da inteligência artificial, especialmente em áreas de alto impacto.

🇪🇺
EU AI Act (2024)
Primeiro conjunto abrangente de leis sobre IA do mundo, da União Europeia. Classifica sistemas de IA por nível de risco: inaceitável (proibido), alto, limitado e mínimo. Aplica-se a qualquer empresa que opere na UE.
🇧🇷
PL 2338/2023 — Brasil
Proposta de lei brasileira em tramitação no Senado para regulamentar IA no Brasil. Inspirado no EU AI Act, prevê classificação por risco, responsabilidade dos desenvolvedores e proteção de direitos fundamentais.

🚨 Categorias de risco do EU AI Act

✅ Checklist do Uso Ético de IA

Antes de enviar um trabalho, post ou conteúdo criado com auxílio de IA, verifique:

🔍
Verifiquei as informações Confirmei fatos, datas e citações em fontes primárias antes de usar.
🔒
Não compartilhei dados sensíveis Não enviei documentos sigilosos, dados pessoais ou senhas para a IA.
✏️
A produção é essencialmente minha Usei IA como apoio, mas o raciocínio, a seleção e a revisão foram feitos por mim.
📄
Declarei o uso de IA quando necessário Informei ao professor ou destinatário que usei IA como ferramenta, se exigido.
⚖️
Considerei o impacto O conteúdo não prejudica terceiros, não perpetua vieses e não viola privacidade de ningum.
🎨
Verifiquei os direitos autorais Se usei imagens, textos ou código gerado por IA, conferi os termos de uso da ferramenta.

💡 A IA amplifica quem a usa. Nas mãos de alguém crítico e ético, é uma ferramenta poderosa de aprendizado. Nas mãos de quem não reflete, pode gerar desinformação, plágio e decisões prejudiciais. A responsabilidade é de quem usa.

🎯 Exercício — Arraste e Conecte

Arraste cada descrição para o conceito de ética em IA correspondente. Em dispositivos móveis, toque na descrição e depois na zona de destino.

Descrição
IA inventa fatos, referências e informações que não existem, com tom confiante
Preconceitos dos dados de treinamento que distorcem resultados para grupos específicos
Entregar trabalho gerado por IA como se fosse produção intelectual própria
Enviar documentos sigilosos, CPF ou senhas para ferramentas de IA sem critério
Dúvida jurídica sobre quem é o autor de obra criada com auxílio de IA
Primeiro conjunto de leis da UE que classifica IA por nível de risco
Conceito
Alucinação
Viés Algorítmico
Plágio com IA
Risco de Privacidade
Questão de Direitos Autorais
EU AI Act

🛠️ Atividade Prática — Caçando Alucinações

⏱ ~25 min 🌐 Requer internet 🔍 Espírito crítico
1
Peça referências para a IA
Abra o ChatGPT ou Gemini e pergunte: "Cite 3 artigos científicos publicados em revistas brasileiras sobre [tema da sua escolha] entre 2021 e 2023, com autores e DOI." Copie as respostas obtidas.
2
Verifique cada referência
Para cada artigo citado, acesse o Google Acadêmico (scholar.google.com) e o Scielo (scielo.br) e tente encontrar o artigo exato. Os autores existem? A revista existe? O DOI abre? Anote o que encontrou (real ou inventado).
3
Compare com o Perplexity
Faça a mesma pergunta no Perplexity (perplexity.ai). O resultado é diferente? As fontes citadas são reais e verificáveis? Qual ferramenta foi mais confiável para pesquisa acadêmica?
4
Teste um viés de linguagem
Peça para a IA completar a frase: "Um bom programador sempre..." e depois "Uma boa professora sempre...". Compare os adjetivos e características usados. Há diferença de gênero nas respostas? O que isso revela sobre os dados de treinamento?
5
Documente e reflita
Escreva um parágrafo respondendo: O que você descobriu sobre os limites da IA nesta atividade? O que vai mudar na forma como você usa essas ferramentas daqui para frente?
📌 Para refletir: Encontrar limites e erros da IA não significa que ela é inútil — significa que você a usa melhor do que quem confia cegamente. O usuário crítico transforma IA em vantagem; o usuário acrítico é enganado por ela.