Formatação manual gerava retrabalho e risco de erro.
Formatador D2L: de cadastro manual a agente de formatação
Como modelei um agente de IA para converter bancos de questões em arquivos compatíveis com o D2L Brightspace — reduzindo uma rotina de meses para minutos.
Visão geral do projeto
A equipe acadêmica precisava preparar bancos de questões para importação no D2L Brightspace. Cada banco podia ter de 40 a 80 questões, com enunciado, alternativas, gabarito e feedback.
A tarefa exigia atenção a vírgulas, aspas, IDs, feedbacks e regras de pontuação. Um erro pequeno podia impedir a importação ou gerar retrabalho.
Modelei um agente de IA para interpretar questões em lote, aplicar regras de negócio e gerar uma estrutura CSV compatível com o D2L.
Criar fluxo padronizado de automação/formatação.
Mais consistência, velocidade e escala operacional.
Como ler este case
Este case mostra como transformei a formatação manual de bancos de questões em um fluxo assistido por IA, com regras explícitas, validação e saída compatível com o D2L.
- 01 Qual tarefa consumia tempo da equipe
- 02 Onde os erros apareciam na formatação
- 03 Como as regras foram modeladas no agente
- 04 Como a saída passou a ser validada para importação
Uma operação acadêmica crítica, repetitiva e difícil de escalar
A Coordenação Geral Acadêmica de EAD precisava preparar bancos de questões para várias salas no D2L Brightspace. Os materiais chegavam em Word ou PDF e precisavam virar uma estrutura aceita pela plataforma.
Escala
Mais de 150 salas virtuais em diferentes disciplinas, turmas e modalidades.
Volume
Cada banco podia ter de 40 a 80 questões, com enunciado, alternativas, gabarito e feedback.
Formato
O conteúdo precisava sair de Word ou PDF e entrar em um CSV compatível com o D2L.
Precisão
Vírgulas, aspas, IDs e feedbacks precisavam seguir a regra esperada pela plataforma.
O trabalho não era só copiar conteúdo. Era converter perguntas em uma estrutura técnica aceita pelo D2L.
O problema estava na conversão manual para um formato técnico.
A equipe precisava interpretar cada questão, separar seus campos, aplicar regras de pontuação e revisar a sintaxe. Quando algo saía fora do padrão, a importação falhava ou exigia correção manual.
Interpretação questão a questão
A equipe separava enunciado, alternativas, gabarito e feedback manualmente.
Campos dependentes de regra
IDs, pontuação e feedback precisavam seguir o padrão esperado pelo D2L.
Correção demorada
Um erro pequeno podia exigir nova revisão do arquivo.
Volume acumulado
A mesma rotina se repetia em bancos, disciplinas e salas virtuais.
A automação precisava preservar regra, ordem e sintaxe — não apenas acelerar a cópia.
De uma tentativa pontual a um agente especialista
A demanda chegou a mim a partir de uma colega da equipe de T.I., que já havia iniciado uma tentativa de automação usando ChatGPT para formatar questões individualmente.
A ideia era promissora, mas ainda limitada: funcionava em casos pontuais, exigia muita correção manual e não sustentava o volume necessário para a operação acadêmica.
Como eu já tinha maior familiaridade com Google AI Studio/Gemini e vinha explorando engenharia de prompt aplicada a fluxos educacionais, assumi a evolução da solução. Migrei a abordagem para um ambiente onde seria possível estruturar melhor as regras, testar variações, processar lotes maiores e transformar o prompt em um agente especialista na lógica de formatação do D2L.
A primeira tentativa provou que a IA podia ajudar. Minha contribuição foi transformar essa hipótese em um agente confiável, escalável e integrado ao fluxo real da equipe.
Do documento bruto ao cadastro manual
O fluxo antigo dependia de atenção humana constante. A equipe precisava transformar manualmente conteúdo não estruturado em uma estrutura técnica rígida, repetindo o processo questão por questão.
Receber arquivo
Questões chegavam em Word ou PDF.
Interpretar conteúdo
Equipe identificava enunciado, alternativas, gabarito e feedback.
Copiar campos
Cada parte da questão precisava ser transferida manualmente.
Ajustar estrutura
Aspas, vírgulas, pontuação e IDs eram revisados manualmente.
Validar importação
Qualquer erro exigia depuração e retrabalho.
Repetir em escala
O processo se repetia em dezenas de questões, disciplinas e salas.
Retrabalho acumuladoO problema não era apenas automatizar uma tarefa. Era ensinar a IA a operar um sistema de regras
As primeiras tentativas com IA conseguiam formatar uma questão por vez, mas não sustentavam escala nem consistência. A virada foi entender que o agente precisava aprender a lógica completa do processo: estrutura CSV, regras de ID, tipos de questão, feedbacks, pontuação, contagem sequencial e exceções para provas e recuperações.
A automação não começou pela ferramenta. Começou pela modelagem precisa das regras que a ferramenta precisaria seguir.
De pedido solto a regra operacional
A solução começou quando o prompt deixou de pedir “formate esta questão” e passou a descrever, passo a passo, a lógica de importação do D2L: estrutura CSV, IDs, pontuação, feedbacks e exceções.
Estrutura inflexível
O agente precisava gerar uma estrutura CSV exata, linha por linha, sem variações que quebrassem a importação.
Regras de negócio embutidas
IDs, siglas, unidades, aulas, tipos de questão e contadores precisavam seguir padrões específicos da operação acadêmica.
Processamento em lote
A solução deixou de formatar uma questão por vez e passou a processar bancos inteiros de questões.
Validação de consistência
O agente passou a apontar conflitos e inconsistências antes de gerar a estrutura final.
Como transformei regras de negócio em instruções operacionais para a IA
Para transformar a IA em um especialista, foi necessário criar uma estrutura lógica que combinasse template rígido, regras condicionais, campos obrigatórios, pontuação, feedbacks e geração dinâmica de IDs.
NewQuestion,MC,,,
ID,GE-[Sigla]-UN-[##]-A[##]-QME-[##],,,
Difficulty,[1-10],,,
QuestionText,"[ID] [Enunciado completo]",,,
Option,100,"[Alternativa correta]",,[Feedback]
Option,0,"[Alternativa incorreta]",,[Feedback]
Feedback,"[Explicação geral]",,,
Template mestre
Define o formato esperado pelo D2L, incluindo NewQuestion, ID, Difficulty, QuestionText, Options e Feedback.
Preserva a ordem dos campos e evita variações que poderiam quebrar a importação.
Saída mais previsível, testável e compatível com o ambiente de importação.
Geração de ID
Cria identificadores únicos no padrão exigido pela operação acadêmica.
Combina sigla, unidade, aula, tipo de questão e numeração.
Menos retrabalho e maior consistência entre bancos, disciplinas e salas.
Alternativas e pesos
Configura pontuação para alternativas corretas e incorretas.
A alternativa correta recebe peso 100, enquanto alternativas incorretas recebem peso 0.
Feedbacks específicos são mantidos quando disponíveis, sem perder a relação com o gabarito.
Feedback geral
Preserva a explicação pedagógica vinculada à questão.
Associa a explicação geral ao campo correto da estrutura CSV.
A importação mantém a relação entre questão, gabarito e aprendizagem.
Regras condicionais
Adapta a lógica para cenários que não seguem contagem sequencial simples.
Para PR e REC, sincroniza numeração com a aula/tema.
A estrutura responde a exceções reais do fluxo acadêmico.
O agente passou a identificar inconsistências antes de executar
Durante os testes, o agente passou a reconhecer conflitos entre a instrução e o arquivo enviado, alertando sobre inconsistências e sugerindo correções antes de iniciar a formatação. Isso mostrou que a solução não apenas executava comandos, mas operava com compreensão das regras configuradas.
Reconhece contexto
Interpreta tipo de questão, unidade, sigla e padrão do material.
Aponta conflito
Identifica inconsistências entre instrução e documento recebido.
Sugere correção
Recomenda ajuste antes de gerar o arquivo.
Evita retrabalho
Reduz risco de erro antes da importação no D2L.
De fluxo manual frágil para sistema automatizado
A principal mudança não foi apenas acelerar a tarefa. Foi tornar o processo previsível, escalável e menos dependente de atenção manual extrema.
Cadastro manual no Brightspace
A equipe acessava cada sala, criava questões individualmente e replicava manualmente o conteúdo vindo do Word/PDF dentro da plataforma.
- Questão por questão
- Muitos cliques
- Dependência de atenção contínua
- Alto risco de erro
- Ciclo de semanas
Agente estruturando banco para importação
O agente interpreta as questões recebidas, aplica regras de estruturação e gera uma base padronizada para reduzir o cadastro manual.
- Processamento em lote
- CSV padronizado
- Regras embutidas
- Validação de inconsistências
- Banco formatado em minutos
Meses para minutos. Erro manual para consistência
A solução gerou impacto imediato no fluxo de trabalho da equipe, liberando tempo para atividades de maior valor pedagógico e reduzindo a fragilidade operacional da importação de questões.
Ganho estimado de produtividade na tarefa específica de formatação.
Banco de 40 questões formatado em minutos, antes uma rotina de horas.
Nos testes realizados, a automação eliminou erros de sintaxe manual na estrutura de importação.
Operação preparada para escalar sem sobrecarga proporcional.
O ciclo completo deixou de depender de 1 a 2 meses de trabalho manual contínuo.
Tempo antes gasto em tarefa operacional pôde ser redirecionado para design instrucional e melhoria da aprendizagem.
Da dor operacional à modelagem do agente
Minha contribuição esteve na leitura do problema como sistema, na engenharia de prompt avançada, na modelagem das regras, nos testes iterativos e na transformação da tentativa inicial em uma solução robusta e integrada ao fluxo da equipe.
Diagnóstico do fluxo
Analisei a tarefa manual, identifiquei etapas repetitivas, pontos de erro e regras implícitas.
Modelagem das regras
Transformei requisitos técnicos e regras de negócio em instruções explícitas para a IA.
Engenharia de prompt
Iterei o prompt até alcançar consistência, capacidade de lote e adaptação a diferentes tipos de questão.
Validação
Testei saídas, identifiquei falhas, ajustei regras e validei a estrutura gerada para importação.
Integração ao fluxo
A solução passou a apoiar o processo oficial da equipe, reduzindo esforço operacional.
A IA funcionou porque o processo foi bem explicado antes
O maior aprendizado foi que automação não começa pela ferramenta. Começa pela leitura precisa da dor, pela colaboração entre áreas e pela transformação de regras de negócio em instruções claras, testáveis e repetíveis.
Neste projeto, a IA não substituiu o entendimento humano. Ela acelerou uma operação que já tinha sido mapeada, instruída e validada com cuidado.