Universidades dos EUA alertam: IA pode comprometer pensamento crítico dos estudantes

Instituições de ensino superior como Harvard e Northeastern University estão soando o alarme sobre os riscos do uso indiscriminado de ferramentas de inteligência artificial generativa na vida acadêmica. Entre os dias 4 e 13 de junho, uma série de estudos e declarações públicas destacou a crescente preocupação com o impacto dessas tecnologias no pensamento crítico e na integridade educacional.

O uso de plataformas como ChatGPT e Claude 3, cada vez mais comum entre estudantes, está sendo associado a uma redução na “carga cognitiva”, ou seja, no esforço mental necessário para refletir, analisar e produzir conhecimento de forma autônoma. Professores relatam que muitos trabalhos entregues por alunos já não expressam clareza argumentativa ou originalidade, mas sim dependência de estruturas padronizadas geradas por IA.

Para enfrentar esse desafio, universidades vêm adotando novas políticas de avaliação. Harvard, por exemplo, implementou exames escritos em sala e está promovendo cursos sobre uso ético da IA. Já a Northeastern University está testando modelos híbridos que envolvem produção colaborativa entre estudantes e IA, acompanhada por relatórios reflexivos sobre o processo de criação.

Especialistas em pedagogia digital apontam que, embora a IA possa ser uma ferramenta poderosa, seu uso deve ser cuidadosamente mediado por professores. “A chave está na intencionalidade. Se o aluno usa a IA para aprender, questionar e enriquecer seu repertório, ela se torna aliada. Mas se vira muleta intelectual, a formação está em risco”, afirma a educadora digital Sarah Kessler.

O debate sinaliza uma mudança de paradigma: não basta mais ensinar conteúdo, é preciso ensinar a pensar em um mundo onde as máquinas já “sabem” muito. Ao trazer à tona essas discussões, as universidades norte-americanas buscam garantir que a revolução da IA não enfraqueça, mas reforce os pilares do pensamento crítico e da criatividade no ensino superior.

Comentários

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *