pNota: Análise das Estruturas Textuais com Active Learning para Avaliação de Respostas Discursivas
Nome: MARCOS ALÉCIO SPALENZA
Tipo: Tese de doutorado
Data de publicação: 27/04/2023
Orientador:
| Nome |
Papel |
|---|---|
| CLAUDINE SANTOS BADUE | Co-orientador |
| ELIAS SILVA DE OLIVEIRA | Orientador |
Banca:
| Nome |
Papel |
|---|---|
| CLAUDINE SANTOS BADUE | Examinador Interno |
| ELIAS SILVA DE OLIVEIRA | Orientador |
| PATRICK MARQUES CIARELLI | Examinador Interno |
| PRISCILA MACHADO VIEIRA LIMA | Examinador Externo |
| RAFAEL BASSI STERN | Examinador Externo |
Resumo: O processo de avaliação é uma etapa básica que compõe a verificação de aprendizagem e garante o
andamento do ensino conforme o currículo previsto. Dentro da avaliação de aprendizagem, as questões discursivas
são comumente utilizadas para desenvolver o pensamento crítico e as habilidades de escrita. Com maior quantidade
de estudantes, o professor precisa adaptar seus métodos de ensino, sem tornar a avaliação um fator limitante.
Alinhado a isso, existe em sua totalidade uma grande quantidade de material, mesmo que a produção individual do
estudante seja pequena. Apesar da quantidade, o professor precisa analisar em detalhes cada uma das respostas dos
estudantes para identificar gaps na aprendizagem. Deste modo, a adoção de métodos de suporte educacional busca
a melhoria da capacidade analítica desse professor, impactando diretamente o acompanhamento do aluno. Neste
trabalho apresentamos um modelo de Active Learning para classificação de documentos educacionais, em especial a
avaliação de respostas discursivas curtas. Para isso, combinamos métodos de clusterização e classificação com
enriquecimento textual de forma gramatical, morfológica, semântica, sintática, estatística e sequencial para
identificação dos padrões de respostas. Enquanto o sistema detecta os padrões textuais que se aproximam do
modelo de correção do professor, este tem menor esforço de correção e suporte para seu modelo avaliativo. Para
teste desse modelo, utilizamos um total de 65875 respostas em 255 questões da literatura, alcançando em média
accuracy de 79% e F1 ponderado de 78% em relação aos avaliadores humanos.
