Resumo: Este artigo analisa criticamente o impacto do uso de ferramentas de Inteligência Artificial Generativa (IAG) por estudantes do ciclo básico de Engenharia e Ciência da Computação, usando o Centro Federal de Educação Tecnológica de Minas Gerais (CEFET-MG) como contexto e estudo de caso. Contrastando o entusiasmo do modelo de adoção da Universidade da Pensilvânia (UPenn) com alertas sobre o declínio do esforço cognitivo, argumenta-se que a utilização irrestrita da IA nos semestres iniciais prejudica o desenvolvimento do raciocínio algorítmico. Embora os calouros da área de exatas possuam notável capacidade analítica oriunda do ensino médio, a supressão do “atrito cognitivo” imposta pelas respostas prontas da IA mascara deficiências na adoção do paradigma lógico, criando uma ilusão de competência que ameaça o desempenho no ciclo profissionalizante.
Contexto da Análise: As reflexões documentadas a seguir representam um estudo e visão pessoal sobre o impacto da Inteligência Artificial no ensino. Elas são fruto da observação atenta da jornada acadêmica dos alunos ao longo dos dois semestres de 2025 e no início de 2026. Este diagnóstico foi construído a partir da experiência docente e acompanhamento em um espectro de disciplinas de diferentes momentos formativos: desde o contato inicial em Programação 1 (ministrada para a Engenharia Metalúrgica) e o desenvolvimento de base em Algoritmos e Estruturas de Dados 2 (AED2), até os desafios avançados do ciclo profissionalizante em Conceitos de Linguagens de Programação e Compiladores.
1 1. Introdução: O Choque entre Produtividade e Aprendizado Fundacional
A ascensão de Modelos de Linguagem de Grande Escala (LLMs), como ChatGPT e GitHub Copilot, inaugurou uma nova era na engenharia de software e na educação tecnológica. Universidades de elite mundiais estão integrando a Inteligência Artificial profundamente em seus currículos na tentativa de preparar os alunos para um mercado transformado. A Universidade da Pensilvânia (UPenn), por exemplo, tornou-se a primeira instituição da Ivy League a lançar um major em Inteligência Artificial em 2024, substituindo seu curso de Engenharia de Sistemas. Atualmente, a Penn oferece 10 programas de graduação, 21 de mestrado e 8 de doutorado na área, além de investimentos massivos em pesquisa e eventos como o “AI Month at Penn”.
No entanto, a própria comunidade estudantil da Penn levantou a bandeira vermelha. Em um editorial contundente intitulado “Penn has an AI problem”, o conselho editorial do jornal The Daily Pennsylvanian — o jornal estudantil da universidade — argumentou que a escolha de abraçar a IA de forma irrestrita é prejudicial à instituição do ensino superior. O editorial documenta dados alarmantes: uma pesquisa do Student Committee on Undergraduate Education revelou que 83% dos alunos de graduação da Penn admitiram usar IA em contexto acadêmico, seguindo uma tendência nacional onde 90% dos universitários americanos já utilizam a ferramenta. A crítica central é demolidora: “do we end up gaining knowledge or cheat codes?” (“nós acabamos ganhando conhecimento ou códigos de trapaça?”).
Quando a lente de análise é ajustada para o ciclo básico de formação em Engenharia de Computação no CEFET-MG, este mesmo dilema se intensifica. O incentivo à “produtividade algorítmica” entra em rota de colisão direta com a necessidade fisiológica e mental de construir o paradigma lógico computacional. Aprender a programar, em sua essência primeira, não é sobre gerar código rápido; é sobre aprender a pensar de forma estruturada.
2 2. O Paradoxo do Estudante de Exatas: Excelência Analítica vs. Barreira Algorítmica
Tomando o CEFET-MG como exemplo de nossa realidade local, a instituição é historicamente reconhecida por seu extremo rigor técnico. Os estudantes que ingressam nos cursos de base tecnológica compõem um grupo intelectual que sobreviveu a processos seletivos altamente competitivos (como o SISU/ENEM) e possui um excelente domínio analítico em Matemática e Física. Eles são, indiscutivelmente, mentes ágeis e brilhantes, um perfil que se repete em grandes universidades federais.
Contudo, a matemática do ensino médio é, em sua natureza, declarativa e baseada no reconhecimento de padrões para a aplicação de deduções analíticas. Quando esses alunos entram no ciclo básico de computação — deparando-se com disciplinas como Lógica de Programação, Algoritmos e Estruturas de Dados (AEDs) —, eles enfrentam uma ruptura cognitiva disruptiva: a necessidade de dominar o pensamento imperativo e discreto.
O aluno precisa aprender a controlar o fluxo dinâmico de estados, manipular laços de repetição não-lineares, arquitetar condições booleanas aninhadas e gerenciar a alocação de memória. Apesar de serem intelectualmente muito capazes, é comum que esses alunos cheguem com deficiências naturais na adoção desse novo paradigma lógico. E é exatamente na fase crucial de transição e superação dessa barreira mental que a Inteligência Artificial, se mal utilizada, atua como um anestésico prejudicial.
3 3. O Fim do Atrito Cognitivo e a “Ilusão de Fluência”
A raiz do problema é perfeitamente ilustrada por debates contemporâneos da área acadêmica de computação. Conforme apontado por pesquisadores (como Becker et al., 2023), existe um ponto de inflexão crítico onde a IA deixa de ser uma mera ferramenta de autocompletar e passa a ser o “cérebro” arquitetural da operação, escrevendo lógicas inteiras de forma instantânea. Esse fenômeno suprime o esforço produtivo necessário para a consolidação de abstrações complexas.
A pedagogia do desenvolvimento algorítmico baseia-se fortemente na teoria da Dificuldade Desejável (Desirable Difficulty, proposta por Robert Bjork). A neuroplasticidade necessária para que um aluno compreenda visceralmente o que é um ponteiro de memória em C ou a recursividade em uma Árvore AVL só é alcançada através do atrito: horas encarando uma tela preta, recebendo implacáveis erros de compilação (Segmentation Fault) e fazendo testes de mesa acompanhando variáveis em uma folha de papel.
Quando o calouro de computação submete o enunciado do seu laboratório à IA, ele obtém uma solução pronta, elegantemente identada e com complexidade assintótica otimizada. O que ocorre no cérebro do estudante nesse momento é a chamada “Ilusão de Fluência” (Illusion of Competence). Ao ler o código gerado, o aluno compreende a lógica de forma passiva e conclui erroneamente: “Eu entendi como esse código funciona, logo, eu sei programar”.
A ciência cognitiva alerta que a capacidade de ler e validar um raciocínio ativa áreas do cérebro totalmente diferentes daquelas exigidas para sintetizar e criar um raciocínio lógico do zero. A máquina rouba do aluno o “esforço produtivo”, terceirizando a consolidação do aprendizado.
4 4. O Contraste: Por que a Adoção Irrestrita é Perigosa no Ciclo Básico?
O caso da UPenn é revelador precisamente porque os próprios alunos identificaram o problema. O editorial do Daily Pennsylvanian denuncia que a universidade não possui uma política institucional unificada sobre o uso de IA: alguns professores proíbem completamente, outros incentivam, deixando os estudantes “completamente no escuro” sobre as consequências. Os guidelines institucionais, na prática, favorecem o uso, proibindo inclusive que professores verifiquem trabalhos com detectores de IA sem permissão explícita do aluno. O editorial conclui de forma contundente: “AI cannot coexist with education — it can only degrade it.”
Essa ausência de diretriz clara é o que amplifica o risco nos ciclos básicos. Um engenheiro sênior usar a IA para escrever rotinas de banco de dados ou boilerplate é ganho de produtividade. Um aluno de primeiro ou segundo período usar o ChatGPT para implementar um Merge Sort é auto-sabotagem. A IA, quando aplicada por profissionais experientes, escala o conhecimento já consolidado; quando utilizada por estudantes em estágio inicial de programação de forma irrestrita, ela serve para evitar o conhecimento fundamental. A IA atua como uma muleta oferecida a uma pessoa saudável que está tentando aprender a correr.
O Goldman Sachs estima que 300 milhões de empregos de tempo integral podem ser substituídos pela IA até 2030. Como observa o editorial da Penn, os estudantes não podem se proteger do desemprego usando justamente a ferramenta que os coloca em risco. O diferencial que os protegerá no futuro é exatamente o pensamento crítico e a capacidade de resolver problemas que a IA, quando mal utilizada no ciclo básico, impede de se desenvolver.
5 5. O Prejuízo Sistêmico e a Geração de “Engenheiros Zumbi”
As consequências de ceder ao atalho da Inteligência Artificial no ciclo básico não são imediatamente visíveis nas primeiras provas, mas formam uma bomba-relógio para o ciclo profissionalizante da engenharia:
A Morte da Capacidade de Debugging: A habilidade mais valiosa de um Engenheiro de Computação não é escrever código perfeito, mas sim encontrar erros (debugar) em lógicas falhas. O aluno que não lutou contra os próprios erros de estruturação lógica nos primeiros semestres tornase incapaz de investigar e rastrear falhas arquiteturais no futuro. Diante de um erro não mapeado pela IA, o aluno congela.
Colapso nas Disciplinas de “Baixo Nível” (Hardcore): O ciclo profissionalizante exige o domínio íntimo de integração hardware/software. Matérias como Sistemas Operacionais, Microcontroladores, Arquitetura de Computadores e Construção de Compiladores são implacáveis. Nessas disciplinas, a mágica geradora das IAs comerciais frequentemente alucina ou falha, pois a manipulação direta de registradores e o gerenciamento de concorrência na CPU requerem um entendimento profundo que a máquina não consegue parametrizar sozinha. O aluno carente do paradigma lógico colapsa nessas disciplinas finais.
Profissionais “Orquestradores de Caixas Pretas”: O mercado de tecnologia rapidamente se saturará de “programadores de prompts”. O diferencial de um verdadeiro Engenheiro de Computação formado em uma instituição de excelência é entender exatamente o que acontece nas entranhas do silício — desde a porta lógica transistora até a complexidade assintótica do algoritmo. O uso de IA para burlar a lógica básica forma engenheiros rasos, incapazes de inovar na base da computação.
6 6. Propostas Metodológicas: Da IA “Oráculo” para a IA “Tutora Socrática”
É inútil, utópico e tecnofóbico tentar banir ferramentas de IA do ambiente universitário. O mercado exige o domínio dessas ferramentas. No entanto, as coordenações acadêmicas devem reestruturar a metodologia avaliativa:
A IA como Tutora (Caixa de Vidro): Os alunos devem ser ensinados a fazer “Engenharia de Prompt Pedagógica”. A diretriz deve proibir a geração de código final. O aluno deve aprender a perguntar: “Meu código trava na linha 25. Não me dê o código corrigido. Aja como um professor socrático e faça-me perguntas lógicas para que eu mesmo descubra onde está meu erro na manipulação deste ponteiro”.
Retorno aos Ambientes “Vacinados”: Para garantir que a neuroplasticidade da lógica computacional seja atingida, os cursos de base tecnológica devem manter laboratórios herméticos sem internet e provas com papel e caneta para disciplinas estruturais nos dois primeiros anos. O cérebro do engenheiro deve ser o único processador durante a avaliação.
Foco na Defesa Oral (Code Review): Se o código funciona com ajuda da IA, a nota não deve vir do fato de o programa compilar. A avaliação deve se concentrar na capacidade do aluno de explicar verbalmente por que o algoritmo foi estruturado daquela maneira, dissecando cada decisão da arquitetura.
7 7. Considerações Finais
A integração ubíqua da IA, celebrada por instituições líderes como a UPenn, desenha o horizonte inevitável da engenharia de software moderna. No entanto, o deslumbramento com a produtividade algorítmica não pode ignorar a fisiologia do aprendizado humano.
Instituições de excelência como o CEFET-MG abrigam estudantes brilhantes, com o rigor matemático necessário para criar as próprias Inteligências Artificiais das próximas décadas. Porém, se permitirmos que a conveniência imediatista das telas substitua a dor do atrito cognitivo e da internalização do paradigma lógico, estaremos convertendo talentosos arquitetos de sistemas em meros inspetores e usuários de respostas geradas na nuvem. A lógica de computação não pode ser simplesmente lida ou gerada por terceiros; no cérebro de um engenheiro, ela precisa ser conquistada.
8 Referências
The Daily Pennsylvanian Editorial Board. (2026). Editorial | Penn has an AI problem. Editorial do conselho editorial do jornal estudantil da Universidade da Pensilvânia, argumentando que a adoção irrestrita de IA pela instituição é prejudicial ao ensino superior. Documenta que 83% dos alunos usam IA academicamente e denuncia a ausência de política institucional clara. URL: https://www.thedp.com/article/2026/03/penn-ai-dominance-education
Becker, B. A., et al. (2023). Programming Is Hard - Or at Least It Used to Be: Educational Opportunities and Challenges of AI Code Generation. Proceedings of the 54th ACM Technical Symposium on Computer Science Education (SIGCSE 2023). (Discussão acadêmica detalhada sobre os impactos da geração instantânea de código na aprendizagem e o risco de supressão do esforço intelectual de estudantes novatos). URL: https://doi.org/10.1145/3545945.3569759
Wing, Jeannette M. (2006). Computational thinking. Communications of the ACM, 49(3), 33-35. (Fundamentação sobre a indispensabilidade do desenvolvimento estrutural do pensamento algorítmico). URL: https://doi.org/10.1145/1118178.1118215
Bjork, R. A., & Bjork, E. L. (2011). Making things hard on yourself, but in a good way: Creating desirable difficulties to enhance learning. Psychology and the real world: Essays illustrating fundamental contributions to society. (Teoria da Dificuldade Desejável e a refutação da “Ilusão de Fluência” no aprendizado). URL: https://bjorklab.psych.ucla.edu/wp-content/uploads/sites/13/2016/04/EBjork_RBjork_2011.pdf

