← Voltar para disciplinas
Case de automação acadêmica

Formatador D2L: de cadastro manual a agente de formatação

Como modelei um agente de IA para converter bancos de questões em arquivos compatíveis com o D2L Brightspace — reduzindo uma rotina de meses para minutos.

IA aplicada Prompt Engineering DesignOps Automação acadêmica Design Instrucional D2L Brightspace
Resumo executivo

Visão geral do projeto

A equipe acadêmica precisava preparar bancos de questões para importação no D2L Brightspace. Cada banco podia ter de 40 a 80 questões, com enunciado, alternativas, gabarito e feedback.

A tarefa exigia atenção a vírgulas, aspas, IDs, feedbacks e regras de pontuação. Um erro pequeno podia impedir a importação ou gerar retrabalho.

Modelei um agente de IA para interpretar questões em lote, aplicar regras de negócio e gerar uma estrutura CSV compatível com o D2L.

Problema

Formatação manual gerava retrabalho e risco de erro.

Decisão

Criar fluxo padronizado de automação/formatação.

Resultado esperado

Mais consistência, velocidade e escala operacional.

Guia de leitura

Como ler este case

Este case mostra como transformei a formatação manual de bancos de questões em um fluxo assistido por IA, com regras explícitas, validação e saída compatível com o D2L.

  1. 01 Qual tarefa consumia tempo da equipe
  2. 02 Onde os erros apareciam na formatação
  3. 03 Como as regras foram modeladas no agente
  4. 04 Como a saída passou a ser validada para importação
Contexto operacional

Uma operação acadêmica crítica, repetitiva e difícil de escalar

A Coordenação Geral Acadêmica de EAD precisava preparar bancos de questões para várias salas no D2L Brightspace. Os materiais chegavam em Word ou PDF e precisavam virar uma estrutura aceita pela plataforma.

Escala

Mais de 150 salas virtuais em diferentes disciplinas, turmas e modalidades.

Volume

Cada banco podia ter de 40 a 80 questões, com enunciado, alternativas, gabarito e feedback.

Formato

O conteúdo precisava sair de Word ou PDF e entrar em um CSV compatível com o D2L.

Precisão

Vírgulas, aspas, IDs e feedbacks precisavam seguir a regra esperada pela plataforma.

O trabalho não era só copiar conteúdo. Era converter perguntas em uma estrutura técnica aceita pelo D2L.

Problema

O problema estava na conversão manual para um formato técnico.

A equipe precisava interpretar cada questão, separar seus campos, aplicar regras de pontuação e revisar a sintaxe. Quando algo saía fora do padrão, a importação falhava ou exigia correção manual.

Cópia manual Campos sensíveis Revisão repetida Erro de sintaxe Importação bloqueada

Interpretação questão a questão

A equipe separava enunciado, alternativas, gabarito e feedback manualmente.

Campos dependentes de regra

IDs, pontuação e feedback precisavam seguir o padrão esperado pelo D2L.

Correção demorada

Um erro pequeno podia exigir nova revisão do arquivo.

Volume acumulado

A mesma rotina se repetia em bancos, disciplinas e salas virtuais.

A automação precisava preservar regra, ordem e sintaxe — não apenas acelerar a cópia.

Origem da demanda

De uma tentativa pontual a um agente especialista

A demanda chegou a mim a partir de uma colega da equipe de T.I., que já havia iniciado uma tentativa de automação usando ChatGPT para formatar questões individualmente.

A ideia era promissora, mas ainda limitada: funcionava em casos pontuais, exigia muita correção manual e não sustentava o volume necessário para a operação acadêmica.

Como eu já tinha maior familiaridade com Google AI Studio/Gemini e vinha explorando engenharia de prompt aplicada a fluxos educacionais, assumi a evolução da solução. Migrei a abordagem para um ambiente onde seria possível estruturar melhor as regras, testar variações, processar lotes maiores e transformar o prompt em um agente especialista na lógica de formatação do D2L.

Tentativa inicial ChatGPT / questão por questão / baixa escala.
Solução evoluída Gemini / regras persistentes / processamento em lote.

A primeira tentativa provou que a IA podia ajudar. Minha contribuição foi transformar essa hipótese em um agente confiável, escalável e integrado ao fluxo real da equipe.

FLUXO MANUAL

Do documento bruto ao cadastro manual

O fluxo antigo dependia de atenção humana constante. A equipe precisava transformar manualmente conteúdo não estruturado em uma estrutura técnica rígida, repetindo o processo questão por questão.

1

Receber arquivo

Questões chegavam em Word ou PDF.

2

Interpretar conteúdo

Equipe identificava enunciado, alternativas, gabarito e feedback.

3

Copiar campos

Cada parte da questão precisava ser transferida manualmente.

4

Ajustar estrutura

Aspas, vírgulas, pontuação e IDs eram revisados manualmente.

5

Validar importação

Qualquer erro exigia depuração e retrabalho.

6

Repetir em escala

O processo se repetia em dezenas de questões, disciplinas e salas.

Retrabalho acumulado
Insight central

O problema não era apenas automatizar uma tarefa. Era ensinar a IA a operar um sistema de regras

As primeiras tentativas com IA conseguiam formatar uma questão por vez, mas não sustentavam escala nem consistência. A virada foi entender que o agente precisava aprender a lógica completa do processo: estrutura CSV, regras de ID, tipos de questão, feedbacks, pontuação, contagem sequencial e exceções para provas e recuperações.

A automação não começou pela ferramenta. Começou pela modelagem precisa das regras que a ferramenta precisaria seguir.

Estratégia

De pedido solto a regra operacional

A solução começou quando o prompt deixou de pedir “formate esta questão” e passou a descrever, passo a passo, a lógica de importação do D2L: estrutura CSV, IDs, pontuação, feedbacks e exceções.

Estrutura

Estrutura inflexível

O agente precisava gerar uma estrutura CSV exata, linha por linha, sem variações que quebrassem a importação.

Regras

Regras de negócio embutidas

IDs, siglas, unidades, aulas, tipos de questão e contadores precisavam seguir padrões específicos da operação acadêmica.

Lote

Processamento em lote

A solução deixou de formatar uma questão por vez e passou a processar bancos inteiros de questões.

Validação

Validação de consistência

O agente passou a apontar conflitos e inconsistências antes de gerar a estrutura final.

Arquitetura lógica

Como transformei regras de negócio em instruções operacionais para a IA

Para transformar a IA em um especialista, foi necessário criar uma estrutura lógica que combinasse template rígido, regras condicionais, campos obrigatórios, pontuação, feedbacks e geração dinâmica de IDs.

Prévia CSV D2L Brightspace
NewQuestion,MC,,,
ID,GE-[Sigla]-UN-[##]-A[##]-QME-[##],,,
Difficulty,[1-10],,,
QuestionText,"[ID] [Enunciado completo]",,,
Option,100,"[Alternativa correta]",,[Feedback]
Option,0,"[Alternativa incorreta]",,[Feedback]
Feedback,"[Explicação geral]",,,
Template mestre
Função

Define o formato esperado pelo D2L, incluindo NewQuestion, ID, Difficulty, QuestionText, Options e Feedback.

Lógica do agente

Preserva a ordem dos campos e evita variações que poderiam quebrar a importação.

Resultado

Saída mais previsível, testável e compatível com o ambiente de importação.

Geração de ID
Função

Cria identificadores únicos no padrão exigido pela operação acadêmica.

Lógica do agente

Combina sigla, unidade, aula, tipo de questão e numeração.

Resultado

Menos retrabalho e maior consistência entre bancos, disciplinas e salas.

Alternativas e pesos
Função

Configura pontuação para alternativas corretas e incorretas.

Lógica do agente

A alternativa correta recebe peso 100, enquanto alternativas incorretas recebem peso 0.

Resultado

Feedbacks específicos são mantidos quando disponíveis, sem perder a relação com o gabarito.

Feedback geral
Função

Preserva a explicação pedagógica vinculada à questão.

Lógica do agente

Associa a explicação geral ao campo correto da estrutura CSV.

Resultado

A importação mantém a relação entre questão, gabarito e aprendizagem.

Regras condicionais
Função

Adapta a lógica para cenários que não seguem contagem sequencial simples.

Lógica do agente

Para PR e REC, sincroniza numeração com a aula/tema.

Resultado

A estrutura responde a exceções reais do fluxo acadêmico.

Validação

O agente passou a identificar inconsistências antes de executar

Durante os testes, o agente passou a reconhecer conflitos entre a instrução e o arquivo enviado, alertando sobre inconsistências e sugerindo correções antes de iniciar a formatação. Isso mostrou que a solução não apenas executava comandos, mas operava com compreensão das regras configuradas.

Reconhece contexto

Interpreta tipo de questão, unidade, sigla e padrão do material.

Aponta conflito

Identifica inconsistências entre instrução e documento recebido.

Sugere correção

Recomenda ajuste antes de gerar o arquivo.

Evita retrabalho

Reduz risco de erro antes da importação no D2L.

Sistema: Inconsistência detectada: unidade informada não corresponde ao arquivo enviado.
Antes vs Depois

De fluxo manual frágil para sistema automatizado

A principal mudança não foi apenas acelerar a tarefa. Foi tornar o processo previsível, escalável e menos dependente de atenção manual extrema.

Antes

Cadastro manual no Brightspace

A equipe acessava cada sala, criava questões individualmente e replicava manualmente o conteúdo vindo do Word/PDF dentro da plataforma.

  • Questão por questão
  • Muitos cliques
  • Dependência de atenção contínua
  • Alto risco de erro
  • Ciclo de semanas
Depois

Agente estruturando banco para importação

O agente interpreta as questões recebidas, aplica regras de estruturação e gera uma base padronizada para reduzir o cadastro manual.

  • Processamento em lote
  • CSV padronizado
  • Regras embutidas
  • Validação de inconsistências
  • Banco formatado em minutos
Resultado e impacto

Meses para minutos. Erro manual para consistência

A solução gerou impacto imediato no fluxo de trabalho da equipe, liberando tempo para atividades de maior valor pedagógico e reduzindo a fragilidade operacional da importação de questões.

>95% de eficiência

Ganho estimado de produtividade na tarefa específica de formatação.

Menos de 5 minutos

Banco de 40 questões formatado em minutos, antes uma rotina de horas.

Erro manual eliminado

Nos testes realizados, a automação eliminou erros de sintaxe manual na estrutura de importação.

+150 salas virtuais

Operação preparada para escalar sem sobrecarga proporcional.

Meses para dias

O ciclo completo deixou de depender de 1 a 2 meses de trabalho manual contínuo.

Mais foco pedagógico

Tempo antes gasto em tarefa operacional pôde ser redirecionado para design instrucional e melhoria da aprendizagem.

Meu papel

Da dor operacional à modelagem do agente

Minha contribuição esteve na leitura do problema como sistema, na engenharia de prompt avançada, na modelagem das regras, nos testes iterativos e na transformação da tentativa inicial em uma solução robusta e integrada ao fluxo da equipe.

Diagnóstico do fluxo

Analisei a tarefa manual, identifiquei etapas repetitivas, pontos de erro e regras implícitas.

Modelagem das regras

Transformei requisitos técnicos e regras de negócio em instruções explícitas para a IA.

Engenharia de prompt

Iterei o prompt até alcançar consistência, capacidade de lote e adaptação a diferentes tipos de questão.

Validação

Testei saídas, identifiquei falhas, ajustei regras e validei a estrutura gerada para importação.

Integração ao fluxo

A solução passou a apoiar o processo oficial da equipe, reduzindo esforço operacional.

Aprendizado-chave

A IA funcionou porque o processo foi bem explicado antes

O maior aprendizado foi que automação não começa pela ferramenta. Começa pela leitura precisa da dor, pela colaboração entre áreas e pela transformação de regras de negócio em instruções claras, testáveis e repetíveis.

Neste projeto, a IA não substituiu o entendimento humano. Ela acelerou uma operação que já tinha sido mapeada, instruída e validada com cuidado.