Dentro da escola, os alunos podem usar a Inteligência Artificial (IA) para criar textos? E para corrigir produções? Já os professores, estão autorizados a criarem planos de aula com a IA? Ou isso é proibido? Essas são algumas das várias perguntas que surgem quando o assunto é o uso da IA, sobretudo a generativa, dentro das escolas.

Embora muitos docentes e estudantes já usem essa plataformas, os limites ainda não parecem bem estabelecidos. Diante disso, fica evidente a importância de trabalhar a ética relacionada à IA, garantindo que seu uso seja crítico, seguro e responsável. “Dentro do processo de aprendizagem, o estudante precisa ser capaz de navegar por um mundo altamente mediado por tecnologias e depois saber fazer suas próprias escolhas. Para o professor, é a mesma coisa: ele tem que se sentir capaz de fazer escolhas pedagógicas e entender que não precisa ser um expert em IA para utilizá-la”, afirma Giselle Santos, consultora pedagógica de inovação e gestão de portfólio do Instituto Escolas Criativas.

Enquanto alguns professores ainda têm medo da IA, outros já usam e abusam dela, muitas vezes sem pensar muito nas consequências. É preciso, porém, encontrar um caminho do meio, defende Soraya Lacerda, coordenadora do maker space da Casa Thomas Jefferson, um centro binacional conhecido pelo ensino da Língua Inglesa, em Brasília. “Vivemos um momento no qual todos estão testando os limites não só das ferramentas de IA, mas também do seu conhecimento, do uso e da interação dessas tecnologias com sua sala de aula”, observa ela.

IA: riscos e potenciais

Nesse meio do caminho sugerido pela especialista, estão as boas práticas de uso pedagógico da IA. Em primeiro lugar, é necessário entender as potencialidades da IA na educação básica, mas sem ignorar seus riscos, que não são poucos. Para Lynn Alves, doutora em Educação e professora da Universidade Federal da Bahia (UFBA), um dos grandes potenciais da IA em sala de aula é seu uso como uma assistente. É ela quem otimizará tarefas, indicará diferentes formas para resolver um problema, mostrará erros em um texto e ajudará a buscar informações.

Vale a pena esclarecer que, mesmo que sirva de apoio ou suporte, está nas mãos de quem usa IA a tarefa de orientar e mediar as interações com a plataforma escolhida. A escola, por sua vez, precisa impulsionar a autonomia dos estudantes e seu protagonismo. Mas abraça a responsabilidade de ensiná-los a se tornarem curadores do que a IA entrega. Isso significa checar, procurar outras fontes, se inspirar para resolver os problemas por si só e, acima de tudo, utilizar as informações para construir um pensamento crítico acerca do mundo e, também, das tecnologias. Acima de tudo, é fazer reflexões críticas a ponto de perceber se os resultados são confiáveis, atualizados e não tendenciosos. “Primeiro, o próprio professor tem que aprender a usar a IA dessa forma para que ele possa orientar os alunos para o uso cuidadoso, ético e de qualidade”, defende a professora.

Entre os riscos da IA, um dos mais importantes é a possibilidade de gerar informações falsas, sem qualquer tipo de referência ancorada na realidade. A isso, dá-se o nome de alucinações: é quando a IA entrega um conteúdo de forma muito convincente, com cara de verdade, mas é mentira. Ao interagir com os chatbots de IA sem recorte crítico, os estudantes tendem a acreditar em suas respostas, não colocando em xeque as informações devolvidas. Caso o aluno não esteja bem fundamentado nos conteúdos – ou seja, não aprendeu –, existe o risco de delegar a gestão do conhecimento para a IA em vez de fazer uso dessas ferramentas de forma produtiva.

Outro problema são os vieses de código, como o racismo algorítmico. Como as IA’s são treinadas a partir de bancos de dados, elas reproduzem preconceitos presentes na sociedade. É bastante possível que respostas de IA generativas sejam machistas e racistas, por exemplo, reforçando desigualdades. Além disso, como esses bancos trazem informações majoritariamente do Norte Global, muitos aspectos das culturas e histórias de países do Sul Global, como o Brasil, não são contemplados. “Quando você pergunta a uma IA generativa sobre um tema muito específico da nossa cultura, corre o risco de vir uma informação totalmente enviesada e equivocada, com questões ideológicas inclusive, que comprometem a fidedignidade daquele fato histórico”, exemplifica Lynn.

Além desses, existe o risco relacionado ao uso de dados pessoais que compartilhamos com as IA’s durante o uso, o que inspira cuidados na utilização dentro de sala de aula. “Quando o professor usa a IA para otimizar seu trabalho é uma escolha pessoal. Mas quando ele leva isso para dentro da sala de aula, a responsabilidade é maior, porque há outras pessoas envolvidas”, afirma Giselle. “Usar IA significa se submeter a uma coleta de dados. Você quer que seu nome apareça? Você quer que a sua imagem apareça? As crianças e adolescentes precisam consentir também”, completa.

Para que os estudantes tenham autonomia para tomar esse tipo de decisão, vale abordar a questão da ética dentro da escola. Giselle aconselha não se resumir a orientações, mas ensinar a turma a questionar sempre que acessar uma plataforma: quem a programou? Qual a intenção da empresa? Qual o contexto em que essa IA foi criada? Por que será que ela me deu essa resposta?

“É interessante trabalhar a ética na forma de perguntas que estimulem o pensamento e que esses estudantes passem a ser também decisores, não só consumidores. A formação é muito mais cidadã quando você não decide pelo estudante, mas o informa para que ele decida por ele mesmo”, argumenta Giselle.

IA e ética na prática

Trazer a ética para dentro das conversas sobre tecnologia é urgente e obrigatório, segundo o olhar crítico da Base Nacional Comum Curricular (BNCC) e seu complemento sobre Computação. No Pará, IA e ética andam de mãos dadas. Por lá, o Centro de Inovação e Sustentabilidade da Educação Básica (CISEB), vinculado à Secretaria Estadual de Educação, está construindo um documento para apoiar a rede a trabalhar a BNCC Computação de forma transversal.

No centro, que atua com diversas trilhas formativas para professores e alunos, existe uma específica para a utilização da IA. “Nosso ponto de partida foi sempre trabalhar com a IA, não no sentido de substituir o aluno ou o professor, mas como uma lupa em que você consegue ampliar as potencialidades desse estudante e desse professor”, afirma Rafael Herdy, coordenador do CISEB.

Ele conta que os estudantes são sempre orientados a não solicitarem que as IA’s generativas façam tarefas em seus lugares – como produzir textos ou solucionar problemas matemáticos –, mas sim que expandam as possibilidades. “Então, se o estudante está com um desafio, em vez de pedir para IA resolver para ele, a gente orienta que ela dê outras opções e sugestões. Depois, quem avalia o que será feito é o estudante”, explica.

No ensino de tecnologia, o coordenador exemplifica que a IA pode servir como um auxiliar na criação de protótipos. Na hora de desenvolver um aplicativo, por exemplo, a IA pode cuidar da parte técnica de código, enquanto os alunos se encarregam de pensar a problemática, propor soluções e testá-las.

Uso da IA: a importância de estabelecer regras e combinados

Para que a IA seja utilizada com ética e de forma pedagógica, como exemplificou Rafael, é importante estabelecer limites e combinados. Para isso existem os protocolos ou diretrizes de uso de IA criados por escolas ou redes de ensino.

No mês de julho, o Ministério da Educação realizou um evento para chancelar dois documentos da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO), que são a principal referência global para o uso de IA dentro das escolas: os marcos referenciais de competências em IA para professores e estudantes. Esses guias estão sendo usados por diversos atores para produzirem suas próprias regras.

“Eu acho que com toda escola deve ler esses documentos da UNESCO para criar uma regulamentação que possa ser cumprida dentro da escola de forma simples, mas sintonizada com o que já vem sendo feito globalmente. Esses marcos têm uma preocupação de regular, tornar transparente o uso da IA, e pensá-lo enquanto uma possibilidade pedagógica”, aconselha Lynn. Giselle acrescenta que os documentos não devem ser seguidos à risca, mas sim adaptados para os contextos locais.

A rede do Pará, por meio do CISEB, está construindo um caderno de recomendações para os professores, com base nos documentos da UNESCO. “Nós trabalhamos muito a formação dos professores, levando material de apoio para que continuem sendo protagonistas e conduzam a aprendizagem da melhor maneira possível, com todos os aspectos que uma IA não consegue ter, como a leitura socioeconômica e emocional de cada turma”, ressalta Rafael.

Em Brasília, na Casa Thomas Jefferson, um protocolo está sendo elaborado para uso de IA por professores e estudantes, inspirado nos marcos da UNESCO. Soraya, que lidera esse processo, conta que desde que a IA emergiu na sociedade e os alunos e docentes começaram a utilizá-la, a instituição percebeu que era importante criar pelo menos um guia de orientações.

Para isso, foi criado um grupo de trabalho composto por equipe pedagógica, equipe técnica, designers de cursos, jurídico e time de tecnologia da informação. A equipe definiu qual seria a visão institucional sobre o uso de IA e, com base nisso, decidiu quando ela poderia ser usada, quais práticas incentivar e quais orientações seriam dadas para o uso ético, responsável e crítico.

Segundo Soraya, além de criar o protocolo, também foi essencial garantir o letramento midiático e algorítmico de toda a equipe, dos estudantes e familiares. “Não somos uma escola regular, mas alguns aspectos desse processo podem servir de exemplo para escolas públicas criarem suas próprias diretrizes. Um ponto muito importante é criar uma equipe multidisciplinar. O fato de trabalhar em grupo fez toda diferença”, garante.

Giselle reforça a importância de se criar uma visão coletiva do tema, envolvendo familiares, estudantes, professores e gestão escolar. “Um conjunto de regras serve para deixar bem definido quais são os critérios, o que é coerência, o que é intencionalidade, como o uso da IA se alinha ao Projeto Político Pedagógico (PPP) da escola, como se evita a exposição indevida de dados, e assim por diante”, afirma. “É fazer um pacto envolvendo todos os atores e não improvisar, não criar brechas”, resume.

“Às vezes, o professor pune o aluno por ter usado IA em determinada atividade. Mas será que ele sabia que não poderia usar? A gente precisa ter essas diretrizes em cada escola, de como vai ser esse uso, em que momentos pode usar, em que momentos não pode. Tem muitas plataformas de IA com restrição de idade também, e tudo isso precisa ser levado em consideração”, afirma Roberta Freitas, especialista em tecnologia e formadora de professores.

Além de estabelecer combinados, é papel do protocolo apresentar os conceitos básicos relacionados à IA, seus riscos e os caminhos para um trabalho ético e pedagógico. Vale a pena apresentar boas práticas, indicando, por exemplo, como referenciar o uso da IA em trabalhos escolares. “Não queremos criar regras para vigiar adolescentes e crianças. As recomendações servem justamente para fazer com que esses adolescentes e crianças cresçam sabendo fazer escolhas críticas”, aponta Giselle.

Em paralelo à criação do protocolo, é muito importante que os professores sejam formados a respeito do tema, defendem as especialistas. Só assim eles poderão aplicar o documento na prática, repassando o conhecimento para os estudantes. Clique aqui e confira um guia completo sobre como criar diretrizes de uso de IA na escola.

Fonte: Nova Escola.