Um ensaio cronometrado de Literatura Inglesa em A-level, escrito à mão com caneta azul… só que o aluno que o “escreveu” nunca encostou numa caneta. O texto veio do ChatGPT e foi copiado com capricho para uma folha pautada, com a margem traçada em vermelho, como qualquer redação de prova.
Do outro lado da mesa, a professora ajusta os óculos, solta um suspiro e começa a ler. No início, a caneta dela fica pairando, como se estivesse em dúvida. Em seguida, começa a andar: tiques e cortes em vermelho brotam pelas bordas. Ela franze a testa. Sublinham-se frases que soam bem, mas estranhamente ocas. Ela ergue o olhar e diz, baixinho: “Isso não soa como nenhum aluno de 17 anos que eu dou aula.”
Quinze minutos depois, ela escreve um número no topo: uma nota de 20 que diz muito sobre onde a IA realmente se encaixa dentro de uma sala de prova.
“Parece um livro didático, não um adolescente”
A professora, Sarah, corrige redações de A-level há mais de dez anos. Segundo ela, normalmente basta um parágrafo para perceber se o texto está “se arrastando”, em pânico ou voando alto. Este, porém, a faz parar por outro motivo.
“É polido demais”, ela comenta. “Mas cadê a voz?” A redação cumpre quase todos os requisitos mais óbvios: cita o autor, traz trechos do livro, nomeia algumas técnicas. As frases estão organizadas. A gramática é correta. À primeira vista, parece aquele tipo de script que as bancas examinadoras adoram.
Só que, quanto mais ela avança, mais a caneta vermelha volta ao mesmo ponto: “vago”, “generalista”, “não está ancorado no excerto”. A IA produziu um texto aceitável. Mas não produziu um texto humano.
A tarefa era direta: uma pergunta no estilo A-level sobre um excerto de um romance do século XX. O aluno, curioso e um pouco ansioso com as notas, colocou a questão no ChatGPT e copiou a resposta palavra por palavra. Sem ajustes. Sem acrescentar ideias. Foi um teste simples: como um ensaio feito por IA se sustentaria diante do esquema real de correção?
No papel, o tom é confiante. Ele fala de “perspectiva narrativa”, “tensão emocional”, “envolvimento do leitor”. São termos que os estudantes escutam o ano inteiro. Ainda assim, quando Sarah confere os critérios, algo não encaixa.
O texto menciona técnicas, mas não demonstra de fato como elas funcionam. Nomeia emoções sem explicar onde elas aparecem no trecho. Fala do “leitor” de um jeito amplo e insosso, como se toda pessoa reagisse igual. Num esquema de A-level que premia análise precisa, essa “fluidez” vira problema.
“Se fosse uma redação do início do Year 12”, ela diz, “eu ficaria bem satisfeita. Para a prova final do A-level… fica cravado no meio. Não é um desastre. Não é brilhante. É só um texto seguro, um pouco vazio.” O número que ela escreve - 11 de 20 - cai com um peso opaco e incontestável.
A distância entre soar inteligente e ganhar nota
Depois de registrar a nota, começa a parte mais reveladora. Sarah revisa linha por linha, comparando o texto com os objetivos oficiais de avaliação. É aí que a voz educada e genérica da IA bate de frente com a geometria fria do critério.
O primeiro buraco é a falta de especificidade. A redação fala “sobre” o texto, em vez de entrar “dentro” dele. Em vez de aproximar a lente numa expressão, na escolha de um verbo, num giro estrutural, ela fica suspensa acima da página, como uma imagem de drone. Vista bonita, evidência fraca. Em termos de A-level, isso tira o candidato das faixas mais altas e joga direto na zona do poderia-ser-qualquer-livro.
O segundo ponto fraco é o argumento. A IA entrega respostas equilibradas, quase dolorosamente neutras. Não há risco, nem posição, nem hipótese de verdade. Ela repete fórmulas como “isso sugere” e “isso pode indicar”, sem sustentar uma linha clara de raciocínio. Para quem corrige, isso parece pouco desenvolvido, mesmo quando o vocabulário soa maduro.
Por fim, a redação tem algo de estranhamente atemporal. Não mostra consciência de contexto, do mundo do autor, do período. É como ouvir alguém comentar um romance dentro de uma bolha. Num esquema que premia conexões, essa falta de ancoragem custa caro. O script não está “errado”. Está meio acordado.
Como professores estão começando a usar IA… sem cair na armadilha
Quando termina a correção, Sarah não joga a folha fora. Ela guarda. Quer levar para a sala de aula como estudo de caso. Não como história de terror, e sim como espelho: é isso que acontece quando um texto soa bem, mas não pensa de verdade.
O método dela é quase cirúrgico. Ela projeta um parágrafo no quadro e pergunta para a turma: “Onde, exatamente, está a citação? Onde está o insight? Onde a banca vai dizer: você conhece o texto, e não só a teoria?” A sala fica em silêncio. Sob esse foco, as frases lisas da IA começam a parecer frágeis.
Depois, ela faz algo inesperado: pede que os alunos “consertem” a IA. Colocar uma citação aqui. Trocar uma expressão vaga por um detalhe concreto ali. Transformar uma ideia flutuante em um argumento nítido. Em dez minutos, o ensaio vira um trabalho melhor - e mais humano - e os estudantes sentem, de novo, a própria inteligência no centro.
Sarah não é ingênua. Ela sabe que alguns adolescentes vão usar IA para encurtar o caminho no dever de casa. Numa terça-feira cansativa, quando três prazos batem ao mesmo tempo e a cabeça está frita, a tentação é real. Na tela, aqueles parágrafos prontos parecem um salva-vidas. Ela enfrenta isso sem rodeios.
“Se você usar o ChatGPT como muleta, vai entregar o script do 11 de 20”, ela diz para eles. “Seguro. Sem relevo. Esquecível. A banca vai te premiar por pensar, não por soar como uma Wikipédia bem-educada.” O tom é firme, mas sem acusação. Ela entende que, sob pressão por nota, muita gente se agarra ao que parece oferecer certeza.
No plano humano, ela também enxerga a ansiedade por trás da tecnologia. Não é só preguiça. É medo: medo de escrever “errado”, de não soar inteligente, de não ser “bom em inglês”. Ela tenta transformar a IA de atalho secreto em ferramenta visível - algo que dá para desmontar e melhorar, em vez de idolatrar ou temer.
“Os examinadores não querem um robô”, diz Sarah. “Eles querem evidência de que uma mente real mastigou um texto real.”
Para ela, isso significa ensinar os alunos a usar IA como gerador de rascunho, não como ghostwriter. Pedir um plano, uma lista de caminhos possíveis, um banco de vocabulário. Depois, fechar a ferramenta e escrever o ensaio por conta própria, com seus erros e seus lampejos de percepção. É aí que a nota mora.
- Use IA para fazer brainstorming, não para copiar: deixe a ferramenta acender ideias e, depois, reescreva tudo com suas próprias palavras.
- Questione cada frase: onde está a prova no texto, o dado, o estudo de caso?
- Treine sua voz com frequência: parágrafos curtos e imperfeitos, não apenas versões finais “polidas”.
O que isso significa para alunos, professores… e a sala de prova do futuro
Num nível, a história é simples: o ChatGPT escreveu uma redação de A-level e a professora deu 11/20. Não reprovou, não fez milagre - ficou um texto mediano que um aluno humano razoavelmente bom consegue superar num dia inspirado. Em outro nível, essa nota revela uma mudança silenciosa que já está acontecendo em salas de aula por toda parte.
Professores não estão mais apenas ensinando conteúdo; estão ensinando como ser visivelmente humano no papel. Como ter um raciocínio rastreável. Como mostrar ao corretor que há um cérebro vivo - com hesitações e saltos - por trás de cada parágrafo. A IA consegue imitar as ondulações superficiais desse pensamento. Mas não sustenta a profundidade por muito tempo.
No trem lotado ou na mesa apertada da cozinha, estudantes já estão testando. Alguns admitem. Outros, não. Vivemos um período estranho de transição: regras nebulosas, tecnologia correndo mais rápido do que a política, pais sussurrando sobre “cola” e “justiça” enquanto, no fundo, se perguntam se usariam as mesmas ferramentas no próprio trabalho. No instinto, todo mundo sabe que a fronteira entre ajuda e substituição está ficando borrada.
O 11/20 em vermelho não resolve esse conflito. Ele faz algo mais sutil. Mostra que o sistema - com todas as falhas - ainda reconhece “inteligência vazia”. Palavras macias sem pensamento afiado ainda soam erradas para quem corrige há anos. Pelo menos por enquanto, é difícil falsificar entendimento real em duas páginas escritas à mão sob condições de prova.
| Ponto-chave | Detalhe | Por que isso importa para o leitor |
|---|---|---|
| A IA tira nota “mediana”, não “incrível” | O ensaio do ChatGPT ficou com 11/20: claro, mas genérico e superficial | Reduz a pressão de competir com máquinas e mostra onde humanos ainda levam vantagem |
| Especificidade vence fluidez | Examinadores premiam análise precisa, citações e argumento claro, não sofisticação vaga | Dá aos alunos um caminho concreto para melhorar as notas imediatamente |
| IA pode ser ferramenta, não armadilha | Usada para ideias e planejamento, e depois reescrita, a ajuda da IA vira parte do aprendizado | Ajuda a lidar com IA de forma ética sem sabotar habilidades próprias |
Perguntas frequentes:
- O ChatGPT consegue realmente passar numa prova de A-level? Por conta própria, tende a cair nas faixas intermediárias: tem estrutura suficiente para passar, mas é vago e genérico demais para alcançar notas altas em critérios reais.
- As bancas examinadoras detectariam uma redação escrita por IA? Em provas presenciais e manuscritas, ferramentas de detecção não ajudam; corretores experientes se apoiam em elementos como voz, precisão e erros plausíveis de um estudante.
- Usar o ChatGPT no dever de casa é considerado cola? Depende da política da escola, mas copiar respostas inteiras geralmente é tratado como plágio, mesmo que as palavras venham de um bot.
- Como alunos podem usar IA sem prejudicar o aprendizado? Use para gerar ideias, estruturar um plano ou revisar conceitos; depois feche e escreva sua própria versão, a partir da memória e do entendimento.
- As provas vão mudar por causa da IA? Muitos professores esperam mais escrita em sala, avaliações orais e tarefas que exijam reflexão pessoal, tornando mais difícil depender totalmente de texto gerado.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário