Instituições científicas e de ensino superior do Brasil começam a formular recomendações para o uso de inteligência artificial (IA), especialmente a generativa, no ensino, na pesquisa e na extensão. A popularização de softwares como o ChatGPT, capazes de gerar texto, imagens e dados, tem levantado dúvidas sobre limites éticos no uso dessas tecnologias, principalmente na escrita acadêmica. Professores têm procurado novas formas de avaliar trabalhos de alunos, tentando contornar os riscos de uso indevido de IA. De maneira geral, as orientações pedem que seu uso seja transparente e alertam para o perigo de ferir direitos autorais, praticar plágio, gerar desinformação e replicar vieses discriminatórios que essas ferramentas podem reproduzir.

Em fevereiro, o centro universitário Senai Cimatec, na Bahia, publicou um guia para orientar sua comunidade acadêmica quanto à IA generativa. Ele segue três princípios: transparência; “centralidade na pessoa humana”, ou seja, que o controle humano seja preservado sobre as informações geradas por IA, já que ela deve ser usada de forma benéfica à sociedade; e atenção à privacidade de dados, sobretudo em atividades que envolvam contratos com empresas por meio de parcerias para desenvolvimento e transferência de tecnologias. Ocorre que as informações compartilhadas em plataformas de IA podem ser armazenadas pela ferramenta, quebrando o sigilo de dados. “Não podemos nos esquecer de que, se nós aprendemos com essas ferramentas, elas também aprendem com a gente”, ressalta a engenheira civil Tatiana Ferraz, pró-reitora administrativo-financeira do Senai Cimatec e coordenadora do guia. Uma atualização do regulamento disciplinar da instituição passou a prever punições para estudantes que quebrarem as regras.

O guia autoriza professores a usarem softwares de detecção de plágio quando julgarem necessário, embora não sejam 100% precisos ao indicar conteúdo produzido por IA. As ferramentas não podem ser citadas como coautoras de trabalhos acadêmicos, mas sua aplicação para auxiliar processos de pesquisa e ajustes de escrita acadêmica é permitida. Para isso, todos os comandos utilizados – as perguntas e direcionamentos dados à ferramenta, também chamados de prompts – e as informações originais geradas por IA devem ser descritos na metodologia do trabalho e anexados como material suplementar.

Outras instituições brasileiras seguem por esse caminho. “A universidade não deve proibir, mas criar orientações para utilização responsável dessas ferramentas”, observa o cientista da computação Virgílio Almeida, coordenador de uma comissão da Universidade Federal de Minas Gerais (UFMG), que propôs recomendações para o uso de tecnologias de IA na instituição, apresentadas à comunidade acadêmica em maio. As sugestões devem servir de base para a criação de uma política institucional com regras e normas e de um comitê de governança permanente.

Elas passam pelas áreas de ensino, pesquisa, extensão e administração e têm como princípios a transparência no uso dessas ferramentas, atenção à proteção e privacidade de dados, à desinformação e aos vieses discriminatórios que essas tecnologias podem reproduzir. “Uma das propostas é que a universidade invista em cursos de letramento em IA para professores, pesquisadores, funcionários e alunos”, explica Almeida. No ensino, uma das indicações é que as ementas das disciplinas de graduação e de pós-graduação da UFMG devem informar o que é permitido fazer com essas tecnologias. Na pesquisa, a ênfase está na transparência: é preciso detalhar como a IA foi usada no processo científico e quais vieses pode trazer a ele. A análise cuidadosa dos resultados gerados por IA, para que se evitem dados falsos, é outro ponto recomendado.