AI+教育调研(1)
教育文档、AI+教育分析
对于教育文档、AI+教育,通过调研专家的做法,目前主流的做法主要有:学习路径规划/推荐、知识追踪、计算化自适应测试、学习者建模、教育场景评估预测等。
一、学习路径规划/推荐
1.1 要解决的问题
教学目标对齐问题:传统智能教育系统通常依赖静态课程,难以动态地将学习者的个人目标映射为具体技能要求,学习内容缺乏针对性。
多目标平衡问题:需要平衡学习效果、难度调度、路径长度控制和轨迹多样性等多重目标,传统方法主要使用多个大模型拼接而成,难以达成统一。
被动引导问题:现有的基于LLM的对话式AI主要是被动回答学习者问题,缺乏主动规划和引导学习者朝着目标前进的能力。
个性化深度不足:系统难以全面、动态地建模学习者的认知状态、偏好和行为模式,因此提供的学习路径和内容个性化程度有限。
1.2 解决方法
1、LLM驱动的多智能体框架
针对多目标权衡问题:构建LLM agent,将复杂任务分配给多个LLM协同完成
针对教学目标对齐问题:微调LLM和使用思维链
针对个性化深度不足问题:通过动态三维度画像实现深度个性化建模,通过RAG生成高质量、个性化的学习资源
针对被动式引导问题:通过引入模拟反馈的进化式规划实现主动引导
2、群体相对策略优化(强化学习)
针对教学目标对齐问题:将推荐的学习路径与教育目标对齐,确保内容针对学生的学习状态。
针对多目标权衡问题:定义奖励模型,多目标向量化奖励
针对被动式引导问题:将学习路径建模为马尔可夫决策过程,根据学生历史状态生成整个学习路径
针对专家数据稀缺问题:遗传算法搜索和离线RL教师
3、目标驱动的学习者状态建模(强化学习)
针对教学目标对齐问题:构建学习者状态模型与奖励函数。系统持续评估学习者的“长/短期目标”和“内/外显动机”的完成度,并用奖励函数量化其进展。
针对多目标权衡问题:所有需要考虑的教学目标都被整合到结构化的学习者状态中,并通过奖励函数统一计算并指导训练。
针对被动引导问题:通过强化学习做出决策
针对个性化深度不足问题:三层学习者画像分析(行为分析、语义意图分析、特征综合与画像构建),生成包含认知水平、兴趣、动机、学习者类型(如探索者、巩固者)的结构化画像。
二、知识追踪
什么是知识追踪?
根据学生过去的历史答题记录(如做过哪些题目、答对或答错),动态地推断学生对各个知识点的掌握状态,并预测学生是否能正确回答下一个新问题。
2.1 要解决的问题
传统知识追踪局限于单一模态,现有的追踪模型多以学生作答记录和题目对应知识点为主,忽视对其他多模态有价值学习特征的提取
传统知识追踪局限于单一领域,不同领域在题目形式、学生行为、知识结构上存在显著差异
传统知识追踪主要依赖问题ID或少量文本信息建模学生行为序列,但缺乏对问题背后知识(语义、逻辑、推理)的利用,导致对行为模式的理解不足
学生答题情况可能会记录一些无意义的噪声,如何识别与检测
2.2 解决方法
1、跨模态知识追踪
通过多种模态,如:练习的文本模态、练习的图像模态、认知参数模态和知识关联模态
历史学习者反应序列作为输入,独热向量形式。利用循环神经网络(RNN)或长短期记忆神经网络(LSTM)来捕捉学习者在不同时间点对练习的反应之间的关联,并预测其未来的表现
3个模块:多模态表示与融合模块、学习者知识状态建模模块、学习者学习表现与预测模块
2、跨领域知识追踪
学生在学习过程中的“知识状态”拆开,分成“跨领域通用知识”和“特定领域专属知识”。
使用变分注意力自编码器分别处理两个领域的数据,产生两组(通用领域+专属领域)知识状态向量。
通过互信息最小化,确保通用和专属向量分离;通过相似性损失,确保不同领域的通用知识向量对齐。
3、动态情感模拟知识追踪
模拟学生的情感变化:自信心:用答题准确率和答题耗时(相对于平均水平的差异)来衡量。兴趣:用学生参与练习的频率(即活跃度)来衡量。努力程度:用尝试次数和答题间隔时间来衡量。
将每一时刻的情感状态与该时刻所做的题目关联起来
考虑当前时刻的情感与前后时刻情感之间的联系,从而模拟出情感状态的连续变化和相互影响
将情感融入知识追踪模型中
4、直接通过大语言模型知识追踪
通过即插即用指令(Plug-and-Play Instruction),将多模态信息(如文本、ID)与LLM对齐。
包括任务层面的对齐和模态层面的对齐
5、编程方向的知识追踪
找出无关代码、核心代码和微调代码:构建代码图
对剩余的代码图使用一种聚类感知的图神经网络进行处理,对处理后的节点进行聚类分析
调节适配器:识别不同的代码信号,并生成校正信号,得到更准确的知识状态
6、通过多重关联的异构图知识追踪
建立“多关联异构图”,包含传统的“概念-概念”(先决关系、相似关系)和“题目-概念”(相关关系),还额外引入了 “题目-题目” 之间的联系(先决关系、相似关系)。
对于直接相邻的节点,通过注意力机制计算权重。对于距离较远的节点,堆叠多层神经网络。
使用两个独立的LSTM模块,从题目维度和概念维度追踪学习者的历史答题序列。
7、时空知识追踪
建立一个包含概念节点、题目节点和学生节点的网络图。
对于一个学生的学习历史记录(一串题目序列),从这个三方异构图中抽取对应的题目节点、它们关联的概念节点和学生节点。
按照题目出现的时间顺序重建它们之间的关系,形成一个能同时体现顺序(时间) 和关联关系(空间/结构)的拓扑图。
分为概念-题目子图和学生-题目子图,用图卷积网络实现
计算传统的“时间注意力”权重,并融入从学习到的“结构信息”权重,从而升级为一个时空注意力机制
三、计算化自适应测试
什么是计算化自适应测试?
根据考生在前一题的表现,实时选择最适合其能力水平的下一题。用最少的题目、最快的速度,测试出学生的真实水平。
现有做法
3.1 要解决的问题
启动问题:刚开始答题时,学生答题少,模型学习不到足够多的信息
许多模型是静态的,用固定数据训练,适应动态考试过程(每个学生题目顺序不同)能力差
在实际考试中,要注意题目知识点覆盖的全面性和题目重复使用的安全性
问题和方法对应
实验设计,使用方法解决问题,只有我们的方法解决
3.2 解决方法
1、快速自适应认知诊断
把学生、题目、知识点用一张动态图连起来,图会随着考试进行(新答的题)实时更新。从图中找到水平相似,有完整数据的学生,快速构建自己的用户画像
用循环神经网络和注意力机制,专门分析个人做题的先后顺序和每道题的重要性
把得到的大众信息和学生个人信息融合起来,得到更准确的判断
2、分阶段,按照试卷自适应测试
用多目标优化算法离线组装试卷,大量计算在考试前完成
所有考生先做同一份难度中等的“第一阶段试卷”
根据第一阶段的成绩,把考生分成几组,每组在第二阶段会收到预先组装好的、不同难度的试卷
四、教学数据模拟
4.1 要解决的问题
专家数据稀缺问题:高质量的教育专家数据获取成本高且数量有限
学习数据稀缺问题:离线学习数据(如答题正确率)数据不足
4.2 解决方法
1、智能体模拟学习者
学习者档案:储存学习者的个人特征,包括从已有练习数据中提取的习惯(如活动频率、正确率)和通过工具计算出的能力(如解题能力)
记忆模块:事实记忆(每次做题的完整经历)、短期记忆、长期记忆
行动模块:完整模拟阅读题目、理解考察的知识点、分析并给出解题思路、最后作答全过程
2、编程学习中的行为模拟
将学生的编程能力分解为编程知识(如语法、算法概念)和编码技能(如调试、实现能力)
编程思维树:把学生调试代码时的思考过程分解为四个步骤:为什么要修改、如何修改、在哪里修改、修改成什么
“反思模块”会检查智能体生成的代码修改,是否符合所模拟学生的能力水平和编程风格
五、模型评估与预测
5.1 要解决的问题
目前大模型通用评测难以衡量教学互动中的关键能力,比如能否因材施教、能否启发式引导、能否生成高质量的教案和习题等
评估和模型的泛化能力较差,换个环境有可能会改变预测效果
5.2 解决方法
1、自动化的教育评估体系
四个核心教学场景:知识讲解、引导式解题教学、跨学科教案生成、情境化习题生成
通过配置文件自动运行
动态多智能体对话
使用llm as a judge方法,从而将传统上主观的教学评价转化为客观的量化数据
2、教育知识图谱问答数据集
创建了一个大规模、更贴近真实情况的中文教育问答数据集EDUCEQ,从多个中国主流在线教育平台(如i-Learning、Bilibili等)收集了真实的学习者提问
基于大语言模型增强的教育知识图谱问答模型,对原始复杂问题进行“统一化”预处理,使其变得规范、清晰,从而便于下游的知识图谱问答推理模块处理
3、预测早期学生的学业表现
利用大语言模型来整合和分析信息,预测学业表现
筛选关键特征,将特征描述为自然语言
将这些特征按照“个人因素”、“家庭因素”、“外部支持因素”进行语义分组,引导大语言模型去推理这些组内和组间特征是如何互相影响的
使用思维链,一步步分析这些特征组合如何最终导致“通过”或“不通过”的结果
参考文献
[1]IB-GRPO: Aligning LLM-based Learning Path Recommendation with Educational Objectives via Indicator-Based Group Relative Policy Optimization
[2]EduGraph: Learning Path-Based Hypergraph Neural Networks for MOOC Course Recommendation
[3]Agent4edu: Generating learner response data by generative agents for intelligent education systems(AAAI 2025)
[4]LLM-based Collaborative Agents with Pedagogy-guided Interaction Modeling forTimely Instructive Feedback Generation in Task-oriented Group Discussions
[5]Personalized Learning Path Planing through Goal-Driven Learner State Modeling
[6]LLM-KT: Aligning Large Language Models with KnowledgeTracing using a Plug-and-Play Instruction
[7]DisenKT: A variational attention-based approach for disentangled cross-domain knowledge tracing
[8]Denoising Programming Knowledge Tracing with a Code Graph-based Tuning Adaptor
[9]DASKT: A Dynamic Affect Simulation Method for Knowledge Tracing
[10]Programming knowledge tracing based on heterogeneous graph representation
[11]Knowledge tracing: Modeling the acquisition of procedural knowledge
[12]A Fast-Adaptive Cognitive Diagnosis Frameworkfor Computerized Adaptive Testing Systems(IJCAI 2025)
[13]Paper-Level Computerized Adaptive Testing for High-Stakes Examination via Multi-Objective Optimization(KDD 2025)
[14]STHKT: Spatiotemporal Knowledge Tracing with Topological Hawkes Process
[15]ELMES: An Automated Framework for Evaluating Large Language Models inEducational Scenarios
[16]LLM-EPSP: Large language model empowered early prediction of student performance
[17]Educational Knowledge Graph Question Answering: Insights from Benchmarks and LLM-based Solutions
[18]Tracking Knowledge State Transitions in Cognitive Diagnosis for an Exercise-Exam Learning Model