Uma sala em que todos os alunos entregam o dever de casa no prazo pode parecer o cenário perfeito para qualquer professor. Mas o encanto se desfaz quando, ao corrigir os trabalhos, surgem sinais estranhos: um tom de escrita uniforme, excessivamente formal, repetição de expressões e estruturas.
Não é coincidência.
Cada vez mais, professores do ensino superior contam que seus estudantes têm delegado não só uma parte, mas todo o processo de redação, pesquisa e até resolução de provas a ferramentas como ChatGPT e Claude.
Em vez de apoio pontual para revisar um texto ou buscar referências, a IA muitas vezes assume o trabalho do início ao fim, e o aluno entrega o resultado final sem sequer ler. O que poderia parecer apenas um novo recurso tecnológico tem se mostrado também um grande desafio para a integridade acadêmica.
Como as IAs estão invadindo a sala de aula
O site americano Vox fez uma entrevista com James Walsh, repórter que relatou esse fenômeno detalhadamente em uma reportagem da New York Magazine. Walsh conta que, nos Estados Unidos, professores confirmam que essa prática já é rotina.
Leia também: Essas palavras aumentaram 51% na fala das pessoas – e você nem percebeu
Para tentar identificar o uso indevido de IA, alguns professores recorrem a um truque curioso: inserir nas instruções das tarefas palavras ou referências aleatórias, como “Dua Lipa” ou “brócolis”. Depois, verificam se esses termos surgem nas redações. Quando aparecem, é sinal de que o estudante provavelmente copiou e colou o enunciado diretamente no chatbot. A IA, obediente, encontrou um jeito de encaixar o elemento inusitado no texto. Essa estratégia, apelidada de “Cavalo de Troia”, funciona como um marcador secreto para revelar trabalhos feitos sem leitura ou revisão humana.
O problema é que detectar o uso da IA não é simples. Ferramentas que indicam a probabilidade de um texto ter sido gerado por máquina são falhas, e mesmo quando existe a suspeita, é difícil provar. Resultado: os professores se sentem cada vez mais frustrados, além de desamparados pelas instituições.
Existe ainda outro problema com os detectores de IA, como aponta Walsh: “Elas não levam em conta em conta as grandes ideias. Não pega os alunos que usam IA para perguntar: ‘Sobre o que devo escrever este trabalho?’ e, assim, deixam de fazer o próprio raciocínio, para só escrever em seguida”.
O risco e a oportunidade
O quadro descrito pela Vox levanta uma pergunta central: se a IA pode fazer grande parte do trabalho, qual é o papel da faculdade?
A primeira resposta é quase um alerta: sem adaptação, a integridade acadêmica e a função formativa da universidade podem se degradar rapidamente. Mas existe um outro caminho, e ele passa por transformar a IA de inimiga em aliada.
O estudo Generative AI in Higher Education: A Global Perspective of Institutional Adoption Policies and Guidelines analisou políticas de adoção de IA generativa em 40 universidades de seis regiões do mundo. Entre as instituições analisadas estão algumas das melhores do mundo, como Stanford, Cornell, Cambridge e Oxford. A pesquisa investigou como essas instituições estão incorporando a IA no ensino, na avaliação e na gestão acadêmica.
Um ponto central é o consenso sobre a necessidade de preservar a integridade acadêmica e assegurar o uso ético da IA.
As universidades têm alertado para riscos de plágio, uso indevido e vazamento de dados. Mas, ao mesmo tempo, reconhecem o potencial transformador dessas ferramentas.
Entre as oportunidades mais citadas estão a melhoria dos métodos pedagógicos, a personalização do aprendizado e a preparação dos estudantes para um mercado de trabalho cada vez mais permeado por IA.
Para equilibrar riscos e benefícios, muitas instituições estão criando diretrizes claras, investindo em programas de alfabetização em IA para alunos e professores, e redesenhando avaliações para estimular pensamento crítico e reduzir a possibilidade de respostas geradas inteiramente por máquinas.
O estudo conclui que o sucesso dessa integração depende de uma abordagem colaborativa, com papéis bem definidos para professores, alunos e gestores. E também de políticas que sejam inclusivas, comunicadas de forma clara e avaliadas continuamente.
Como as universidades podem se reinventar
Veja a seguir como especialistas e instituições têm buscado integrar a IA ao ambiente acadêmico de forma ética e responsável, fazendo com que ela deixe de ser uma potencial ameaça e se torne uma parceira:
1. Ensinar a usar IA de forma estratégica
Alguns especialistas defendem que parte da grade universitária seja dedicada a ensinar uso crítico da IA. Interpretar respostas, checar fontes, entender vieses e integrar resultados no raciocínio próprio são exemplos desse uso. Essa formação prepara o aluno para um mercado em que a IA é inevitável.
2. Mudar o modelo de avaliação
Ao invés de trabalhos puramente teóricos e fáceis de automatizar, universidades podem apostar em atividades práticas, estudos de caso, debates, simulações e projetos colaborativos.
3. Criar políticas claras e inclusivas
Mais que adotar detectores ou restrições, é fundamental criar uma cultura institucional que foque na integridade acadêmica. Isso envolve políticas claras, sensibilização dos envolvidos e educação ética, não apenas filtros tecnológicos
4. Aproveitar o lado positivo da IA
Plataformas adaptativas, laboratórios virtuais e tutores inteligentes já demonstraram potencial para personalizar o aprendizado e aliviar sobrecarga de professores.
Isso libera tempo dos professores para o que nenhuma IA faz bem: estimular pensamento crítico e debate ético.
Leia também: Desenvolvimento de soft skills com IA: simulações e feedbacks personalizados
Por que a faculdade continua sendo indispensável
A verdade é que o “fim” do trabalho acadêmico tradicional não significa o fim da faculdade. Ao contrário: pode ser o gatilho para reinventá-la como um polo de pensamento crítico, criatividade e formação ética.
Num futuro próximo, o valor de um diploma poderá estar menos em “saber produzir um texto” e mais em saber questionar, interpretar e decidir. A IA seria usada como ferramenta, não como muleta.
Se essa espécie de “utopia da cola” ameaça o velho modelo universitário, também abre espaço para uma universidade mais conectada à realidade, capaz de formar pessoas que não só sabem usar tecnologia, mas que sabem pensar apesar dela.