“教学法转型”:人机共生时代的教学原则构建
发布部门: 智慧教学 发布时间: 2025-11-10 浏览次数: 1059

摘要:当前,随着以ChatGPT为代表的生成式人工智能技术的兴起,教学活动正从传统的“师-生”二元主体结构转变为“师-生-机”三元结构。在此背景下,作为新主体的AI代理应该秉持怎样的设计原则,才能够实现不输于传统“师-生”互动的有效教学?“人-人”教学中的有效教学策略又能否迁移到“人-机”教学的场景中?为回答上述问题,文章回顾了教学代理的相关研究,围绕两个方面展开研究:一是保证情感互动。在媒介层面,提升机器的社会临场感,使其能够通过拟人化的声音、表情和行为与学习者进行情感化互动;在社交层面,重视社交规范的作用,重新构建机器和学习者之间的互动规则,促进有效的教学交互。二是保证信息有效性。针对大模型的“幻觉”问题,提出结合领域知识库和技术护栏机制来提升信息的准确性;关注人机信任的平衡,避免过度信任和算法厌恶,培养学习者的批判性思维和数字素养。文章通过这一系列讨论,旨在提出构建适用于“人-机”教学场景的设计原则,为人工智能教育应用的开发设计和教学实践创新提供参考。

关键词:生成式人工智能;教学理论;临场感;算法信任;社交规范

研究背景

当前,生成式人工智能催生了人们对新的人工智能教育应用的期待,尤其是在大模型展现出近似人类的对话交流能力、思考分析能力和任务处理能力后,“人机协同”这一概念逐渐走进现实。有学者断言在不远的将来,人工智能将以教学活动协作者的角色进入教学实践,课堂活动的主体结构也会从传统的“师-生”二元结构向“师-生-机”三元结构转变。这样的转变是否会重构我们对教育活动的理解,是否会导致新的教学理论出现,还需要进一步分析研究。回答这一问题涉及大量系统性的工作,包括对人工智能能力的深度理解,以及对新教学场景中应用模式、应用效果的深度考察。同时,技术发展日新月异,新的教学理论和模式的构建也需要随技术的发展进行动态更新。

以往教育技术教学应用的理论与实践主要研究如何利用计算机、平板电脑等工具提升教学效果。在这些技术辅助教学的场景中,教学活动的基本样态由“师-生”二元的教育活动者组成,而技术仅作为工具出现在教学活动中,被动地执行师生的意图与决策,是师生教与学活动的组成部分。例如,个人电脑、电子大屏与黑板、课桌等物质技术并不具有本质的区别,它们都是教学活动者所处环境中的要素,能帮助教学活动者完成其意图。然而,新近出现的生成式人工智能在一定程度上表现出自主性,有望超越工具之藩篱,拥有教学活动者的特点。这种自主性即根据环境自动执行恰当的行动以完成目标的能力,具体表现为AI能够依据环境进行判断和决策,并根据反馈进一步优化决策和调整行为。具有自主性的人工智能出现在教学环境中,可能是课堂中的第二位老师,也可能是学习者的伴读,“师-生-机”三元结构论由此而来。但仅由此就断言现有的教学理论与“师-生-机”新型课堂主体关系不匹配尚为时过早,因为各种形式的双师教学实践早已有之,同伴教学也已经形成了多种模式。换句话说,不同的教学环境决定了某类教学模式会占主流,当机器在一定程度上超越了工具的角色,开始成为具备自主参与教学活动能力的主体时,当教师有意识地希望AI在教学活动中与学习者有更多的互动交流并提供学习支持时,一对一教学法就开始回归了。

早在20世纪70年代,教育技术的研究者就已经对机器如何扮演人这一问题进行了探讨,其中具有代表性的探讨来自20世纪90年代对教学代理的研究。教学代理(Pedagogical Agent)是多媒体学习环境中的一类拟人动画形象,能扮演不同的教学角色,与学习者进行交互,为学习者提供学习支持,如微软Windows的卡通书签形态助手。在人工智能技术仍未充分发展的那个时代,研究者基于媒介理论和教育心理学理论,发展出了一套系统的关于“机器如何扮演教学活动者”的理论。其中,Baylor等和Ryu等在2000年~2005年期间开展了一系列研究,发现一个能够有效扮演教学活动者角色的教学代理需要满足以下两个条件:①保证情感互动,即教学代理需要提供情感化、类似人类的互动,也就是教学代理应当在媒介层面表现得“像人一样”。②保证信息有效性,即教学代理应该具有渊博的知识,能够提供可靠的学习信息。在当前阶段,机器的教学身份从教学工具转向教学助手的过程并没有完全完成,但是这种发展趋势已经非常明显,有必要基于过去的研究发现,为一对一AI教学助手的实现提供设计原则。

保证情感互动:机器类人

相较于人工智能,人类教师具有难以替代的情感能力,这被认为是教师不会被人工智能替代的原因之一。但现有研究和生活经验也证实,人类会将自己的情感投射于其他生物并对其行为进行拟人化解释,从而让非人类的生物“通人性”,那么已经可以用自然语言对话并展示思维过程的AI助理还需要怎么做,才能够获得师生类人化的对待呢?本节将从社会临场感和社交规范两个维度综述现有研究带来的启发。选择这两个维度展开讨论,是基于它们在人机情感互动中的核心作用和互补性。其中,社会临场感关注AI如何通过增强存在感和互动真实感来促进情感连接,为拟人化提供基础条件;社交规范则着眼于如何通过建立合理的互动规则和角色定位来引导交互行为,为拟人化提供行为框架。这两个维度分别解决了“如何在场”和“如何互动”的问题,共同构建起促进人工智能获得类人化对待的完整互动体系。

1 媒介层面的机器类人——社会临场感的作用

建立类人的教学代理,首先需要关注教学活动者与教学代理之间的情感互动。情感互动的核心在于机器在多大程度上能够“像人一样”,做到媒介交互意义上的“机器类人”。“机器类人”不仅依赖于人类的心理倾向,更涉及复杂的社会、技术与文化互动,而“拟人化”或“人格化”对象的心理动因源于人类深层次的认知与社交需求,即通过赋予无生命物体或非人类主体以人类的特征、动机、意图和情感状态,来增强互动体验与社会联结感。当媒介通过模仿人类的沟通行为展示出足够的社会临场感时,人们自然会对其产生类人化的社交反应,仿佛是在与另一个人进行互动。对此,有研究表明当计算机在特定情境中触发了人际交往的社会脚本时,人类会无意识地将其视为具有社会属性的主体,并根据人际交往规则进行回应。在教育心理学研究中,社会临场感(Social Presence)理论为如何实现“机器类人”提供了重要的理论支撑,其含义是个体在通过媒介进行交流时,能感知到另一方作为“真实的人”存在的程度。教育心理学的研究已证实,学习者在学习环境中感知到类似教师或同伴的存在时,往往表现出更高的学习动机或学习成就。

因此,为了让机器能够胜任教学活动者的角色,首先需要保证其在媒介交互层面上能够让人类产生“像人”的感受,而实现这一点的关键在于提升其所表现出的临场感。那么,如何提升机器所传递的社会临场感呢?研究证明,传递有效的社会线索(Social Cues)是实现这一目标的关键,多媒体学习环境中的教学代理所传达出的社会线索(如声音、情绪、表情等)能激发学习者社会交往的图式。也就是说,当学习者通过社会线索感知到社会交流发生时,他就会将系统中的教学代理当作一个真人来进行交流。这种通过社会线索激活主体社交图式的根据在于:为了降低信息处理的负荷,人们更喜欢用一些启发式的规则(Heuristics)对信息来源进行归类,并采用最相似的模式来处理它。因此,当学习者在多媒体学习环境中发现类人交互的线索时,会将这一类信息归为正常的人类社交信息加以处理,社会性的反应取向会变得特别明显。

Schilbach等基于磁共振成像的研究也支持这一观点,其研究表明,给被试观看具有面部表情的虚拟人物会激活与“人-人”交互相同的脑区。在社交图示被激活之后,学习者就会对计算机传达出的信息进行更深层次的加工,这也就为有意义的学习的发生提供了条件。Naas等认为,计算机与人呈现出越多的相似特征,就越有可能激发人类的社会性反应。然而后续研究指出,社会线索的数量增加并不一定意味着能够更大程度地激活学习者的社交图示,尽管学习者可能会受到环境中绝大多数社会线索的影响,但部分线索的缺失并不会对其产生显著影响。因此,如何选择合适的社会线索加以呈现成为一个重要问题,这也表明在某些情景中,为了提升媒介的社会临场感,社会线索的“质量”可能比“数量”更为关键。

因此,为了对已有的“人-人”教学理论进行优化,使其中的机器能够更好地扮演真实的人类教学活动者,提升其表现出的社会临场感,一个可行的策略是让机器传递更多有效且高质量的社会线索。例如,可以更多地使用拟人的声音而非电子合成音,以及采用具有手势、面部表情的教学代理形象。而在缺乏拟人形象的场景中(如纯文本交互),可以考虑在文本中加入表情符号等策略来弥补。

2 社交层面的机器类人——社交规范的作用

前文讨论了如何在媒介层面保证“机器类人”,但设想这样一种未来情境:通过人工智能技术,构建了一个在媒介层面与人类教师极为相似的教学代理——这个代理基于虚拟现实与多模态人工智能技术,能够呈现与真人教师几乎一样的形象、声音、表情、手势——学习者是否会像面对真人教师一样,与其进行教学互动?也许会,也许不会。目前已经发现一些中小学生在与大模型的对话过程中会对其辱骂叱责。也就是说,当学习者知道自己是在与机器对话的时候,可能不会遵循尊师重道这类传统原则,而对机器教师的教学指令表现出拒不服从等越轨行为。

人类社会能够有序组织和发展,离不开“社会规范”(Social Norms),即人类作为高度社会化的物种,在交互行为中逐渐发展出的一套复杂的潜在行为准则。在传统人际教学中,隐含的社会规范无形中引导着教师与学习者之间、学习者与学习者之间的教学互动。从功能主义的视角来看,社会规范在很大程度上促进了群体效益的最大化,并通过抑制个体利己行为来实现更高效的协同互动,这保证了一般意义上的教学互动的有效进行。例如,在传统的课堂讲授中,教师天然处于话语权的主导地位,学习者则大多遵从教师的指导并信任其权威观点[35]。相比之下,在学习者之间的合作学习中,话语权通常在参与对话的学习者之间流动,从而使每位学习者得到积极参与和表达的机会。尽管社会规范在以对话和交互为核心的教学模式中发挥着至关重要的作用,但这一概念在传统的“人-人”教学法研究中往往被忽视,更多以隐性前提的形式存在。随着人机教学模式的兴起,社会规范这一隐性前提逐渐成为一个亟待深入探讨的核心议题。

“人-机”互动场景中,人工智能并不具备固定的社交身份,其定位在某种程度上处于“人类”与“工具”之间的模糊边界,因此不能认为学习者会遵从与教师的社会互动模式,如同样地遵从人工智能的教学指令,或者认真评估人工智能给出的反馈。在人机互动的背景下,如何在教学过程中重塑教学活动者与机器之间互动的社交规范,成为保证情感互动,加速“人-人”教学法向“人-机”教学法转型的又一关键。

1)“师-生”关系中的社交规范

在课堂教学这一具备高度结构化的场域中,社交规范深刻影响着师生互动及教学效果,研究表明个体在此类明确的社会关系中往往会表现出对社交规范的高度遵从。在经典的教学情境下,教师凭借其权威性的社会身份,能够有效掌控教学进程,然而这种权威也可能无意间阻碍学习的发生。一项在菲律宾开展的研究指出,学习者在与教师互动时往往由于敬畏教师的权威身份而不愿主动沟通,这种权威性社交规范削弱了教学中的双向互动,并可能导致学习者感到沮丧和挫败。因此,传统教学中的社交规范不仅影响了教师与学习者的互动流畅性,也在一定程度上压抑了学习者的创造性与批判性思维。由于害怕违反与教师互动的规范,学习者往往选择遵从而非质疑或探究,进而放弃自主的学习策略或对知识的深度理解。在“人-机”互动教学场景中,这种传统的社交规范是否仍然适用呢?或者,人工智能能否通过类人化交互方式,打破传统师生关系中的权威性障碍,从而激发学习者更主动地学习参与?一项研究通过比较学习者在写作任务中与大模型(如GPT-4)对话和与人类教师对话的差异发现,学习者在与大模型的互动中能够更直接、无障碍地表达疑问和学习需求。这一结果表明在“人-机”教学的场景下,传统教学中基于教师身份与权威的社交规范可能会被弱化,从而为学习者提供更大的表达自由和自我引导的空间,这为我们重新思考人机教学中的社交规范提供了新的视角。将“人-人”教学模式迁移到“人-机”教学中,既面临挑战也迎来机遇:挑战在于,传统教学中的社交规范在师生互动中发挥着重要的隐性作用,是维持课堂秩序、促进知识传递的关键机制,如果这些隐性规范在人工智能主导的教学中不再具备约束力,教学过程可能会失去原有的结构性。而当人工智能作为教学主体时,其社交身份介于工具与教育者之间,如何帮助学习者建立有效的互动规则成为一个关键问题,这一问题也引发了关于人机互动中的社会角色定位与交互秩序等一系列新的教学设计考量——人工智能的设计应通过类人化行为、个性化反馈以及多模态互动的方式,帮助学习者自然适应新的交互规则,并在此过程中找到类似传统课堂的认知安全感。尽管这一过程面临挑战,但人工智能引入教育也带来了诸多机遇,尤其是在打破传统师生关系的权威性方面。正如前述研究所示,学习者在与大模型互动时,能够更直接地表达疑惑并寻求个性化帮助,这表明传统教学中的社交障碍在新型人机互动中可能不再是显著问题。

此外,社交规范的消解使学习者更有可能挑战既有的知识框架,提出具有创造性和批判性的见解,这种开放的互动环境有助于深化学习者自主学习,促使他们主动探索复杂问题,并构建更具个体化的认知结构。因此,未来的人机教学设计需进一步探索如何在社交规范的存在与创新自由之间实现平衡,如何在教学场景中选择性地消解不必要的权威性规范,同时保留教学结构中的必要秩序,将成为未来人机协同教学设计的重要方向。

2)“生-生”关系中的社交规范

在现代教育理论中,协作学习和探究学习等以“生-生”互动为核心的教学模式被广泛研究并应用于多种教育场景。与传统的“师-生”互动不同,“生-生”互动通常不存在明确的身份和权力不对等,相较于教师在师生关系中的权威,学习者之间的交互更具动态性和复杂性。同时,“生-生”关系中的社交规范往往随着具体的教学任务和小组成员的个体特质而具有生成性与情境性,这些规范影响了小组内的角色分工、信息共享以及知识建构的过程。例如,在协作学习中,学习者通常根据群体中的社会身份、任务贡献的预期大小等因素,迅速形成临时性的社交规范,其规定了小组成员的分工,包括确定谁作为意见领袖、谁负责整合信息、谁是主要的执行者等。在这一过程中,群体中的知识共享、任务协商、角色分工等行为都遵循一定的潜在规范,是协作学习能够成功的关键。Kynigos等的研究表明,协作学习中的有效沟通、知识贡献和相互支持等行为,是促成小组产出的必要条件。这些潜在的社交规范并非单纯出于任务完成的需要,往往还涉及学习者之间的信任建立、情感支持与社会认同,其动态解释了为什么某些协作学习理论强调社交规范对于有效知识建构的前提性作用。通过“生-生”互动,学习者不仅能够从知识的传播中受益,还通过解释、争论和协商的过程深化了对知识的理解,这些活动是协作学习成功的基础,而其得以顺利进行的背后,是潜移默化的社交规范在发挥作用。

当大模型参与到学习者的协作学习中时,能否形成类似于人类群体中的社交规范成为关键问题。传统的“生-生”互动通过解释、辩论和协商来构建知识,并依赖清晰表达和相互尊重的社会规范。然而,由于大模型不具备明确的人类身份,学习者可能将其视为单纯的知识提供者而非合作伙伴,这会导致其对模型的过度依赖和“元认知懒惰”。此外,大模型在提供答案时,往往缺乏同伴互动中“挑战性反馈”的特质,这可能进一步加剧学习者的被动学习倾向,导致学习成果的浅层化。有研究表明,协作学习的成功不仅依赖于知识的简单传递,还需要成员之间的社会互动过程和关系建构。因此,大模型的设计与应用应尽可能模拟这些人类间的互动特质,通过类人化的媒介形式和情感交互等设计来激发学习者的社会性反应,从而维持和增强协作学习中的社交规范。未来教育技术的设计需要进一步探索如何在大模型参与的学习中维持或重塑协作学习的社交规范,推动人机协同学习模式的发展,促进更为动态的知识建构与社会互动。在这种模式下,社交规范不仅是人类学习者之间的隐性准则,也应成为人机交互中的显性设计原则。

保证信息有效性:人机信任

承前所述,要使机器有效扮演教学活动者角色,完成从“人-人”互动到“人-机”互动的转型,除了保证情感互动,信息有效性也是其中的关键。若“情感互动”是教学场景中激发学习动机和认知投入的关键要素,那么“信息有效性”就是教育活动得以展开的功能性前提,后者不仅涉及信息生成本身的准确性,还依赖于人机信任机制的合理建构与动态维系。

1 内禀缺陷:模型幻觉的优化路径

使机器扮演好一个真实教学活动者角色的功能性前提是,机器能够提供有效的教学信息,执行符合逻辑的教学活动。例如,机器扮演的教师应当在讲授中尽可能给出正确的答案,而机器扮演的学习者应当能够模仿人类学习者当下阶段的认知状态,与同伴进行有意义的互动。尽管生成式人工智能技术在自然语言处理和推理能力方面已趋成熟,但大模型的“幻觉”问题仍然是其作为教育工具的重要隐患。在生成文本的过程中,大模型可能产生不准确、具有误导性甚至完全虚构的信息,这些信息极易对学习者的认知发展和知识建构造成负面影响。这种不可预测的“幻觉”现象严重削弱了师生对人工智能工具的信任基础,从而制约了其在教学场景中的深度应用。错误信息的传播还可能导致学习者形成扭曲的知识体系,从而影响其后续学习决策及成果,构成影响教育质量与效果的重大隐患。

为了应对大模型幻觉引发的深层挑战,除了大模型自身性能水平的提升、微调等手段的使用,技术开发者和教育工作者还应着重提升大模型在教育应用中的稳健性,这可以通过利用领域知识库整合、教育护栏机制制定、垂直领域大模型构建等措施防范错误输出来实现。其中,领域知识库整合能够提升模型的语义理解与推理能力,使其在进行多模态信息处理时具备更高的可靠性和准确性。领域知识库不仅能够作为知识的补充层,为AI提供更为精准的背景信息;还可以通过对领域特定的事实性知识进行自动验证,有效防范错误信息的输出,从而更为精准地应对复杂的教育任务,减少模型幻觉的发生概率。同时,领域知识库的引入应与技术护栏机制协同运作,以多维度的防护策略保障生成内容的准确性与安全性。当前大模型技术中的护栏机制涵盖话题限定护栏、对话安全护栏、攻击防御护栏等多个层次,这些护栏可以通过限定对话的主题范围、过滤不当内容、防御恶意操纵等手段,有效防止大模型输出偏离教育目标的无关信息。除此之外,为了更好地适应多样化与专业化的教育场景,未来教育技术的发展可能朝向垂直领域的大模型设计。这些定制化的模型将具备更强的学科特异性,满足特定领域内的精细化需求。例如,STEM教育中的定制化AI模型可提供更精确的数理逻辑与科学推理支持,而在人文学科与社会科学中,AI可通过知识的生成与反思性反馈,推动深层次的理论建构。

2 人机信任:信任失衡的优化路径

除了从技术底层保障人工智能输出的教学信息的有效性,教学活动者对这些信息准确性的主观判断也至关重要。信任作为人际互动的重要基础,当其对象转移到类人化的机器上时常常走向两极:一方面,过度信任可能导致学习者对智能系统产生依赖,削弱其自主批判思维的能力;另一方面,缺乏信任会引发学习者对算法系统的怀疑和抵制,从而妨碍技术工具在教育中的有效应用,最终导致学习效果的下降。

1)过度信任

过度信任人工智能系统的风险在于,学习者会忽视其输出的潜在局限性与错误,这在情感支持领域尤为明显,教育系统中的情感AI工具常被赋予过高的心理咨询与决策功能,导致学习者形成依赖。这种现象可以视为技术魅惑效应的具体化表现,学习者被技术的外在表现和能力所迷惑,失去了对其内部运作机制的质疑和警惕。伊丽莎效应(Eliza Effect)是这一问题的另一体现,得名于Joseph Weizenbaum于1964年开发的ELIZA程序。该程序通过简单的模式匹配规则模拟人类对话,用户对这些显现出智能迹象的程序常常产生过度的人性化投射,认为其具有与人类相似的认知能力。这一效应揭示了用户对技术能力的高预期与技术实际表现之间的错位而导致的过度信任,这种错觉不仅影响用户的行为决策,还加剧了其对技术的依赖,在教育领域尤为明显。

为了应对这一挑战,构建信任的优化路径需从系统透明性、用户教育与情感智能三方面入手:首先,提高系统的透明性和可解释性,可以帮助学习者理解AI的决策过程与局限性,从而降低过度信任的风险。其次,教育工作者应培养学习者的批判性思维能力与数字素养,鼓励其对AI生成的内容进行批判性的思考。最后,情感智能的培养对于建立健康的信任关系也至关重要,学习者需要学会在依赖技术的同时,保持对人机互动的独立思考和情感判断。

2)算法厌恶

与过度信任相反,算法厌恶(Algorithm Aversion)指个体在面对智能系统时的怀疑与抵触,即使算法性能优于人类,他们仍倾向于信任人类决策。算法厌恶被认为是一种在大量场景中广泛存在的效应,如在医疗场景中,尽管AI诊断的准确性在统计结果上超过了人类医生,但病人更倾向于信任人类医生的诊断。在教育领域这一现象则可能表现为:尽管智能系统提供了精准性分析和个性化反馈,学习者仍持怀疑态度。造成算法厌恶的原因颇为复杂,不仅来自于学习者对算法本身的陌生感,更深层次的原因在于智能系统的决策过程往往缺乏足够的透明度,使用者难以获得必要的控制感和参与感。

针对算法厌恶这一现象也存在部分交互解决方案,而优化算法信任解决方案的重点在于提升透明性、增强控制感和改进交互设计:首先,可以考虑利用解释性AI技术,让学习者理解算法的运行逻辑,以减轻算法厌恶。研究表明,用户了解算法细节后,信任度显著提升。其次,可以考虑提供部分控制权,允许学习者微调结果,增强参与感,形成协同信任的互动模式。研究表明,当个体理解算法决策过程或参与修改时,算法厌恶显著减少,通过赋予学习者微小的算法控制权,能显著提升其对算法的信任感。最后,在交互层面,可以考虑采用拟人化交互代理增加社会临场感,提升对AI的情感认同。研究显示,符合人类社交规范的交互设计能提高建议接受度。

此外,对教学大模型的不信任并非全然负面,它能激发批判性思维,促进对模型输出内容的深度反思与验证。从人机协同角度来看,这种不信任构建了动态反馈机制,推动了智能系统与学习者的辩证发展——学习者的反馈为模型优化提供数据,而智能系统通过持续修正,可以为学习者提供更精准、个性化的教学服务。

结语

本研究围绕一种预演性的“加速转型”思路展开探讨,即如何让人工智能扮演教学中人类活动者的角色,使已有的苏格拉底对话、协作学习等“人-人”教学理论和模式经过合理调整后,能够应用到“人-机”教学场景中。本研究从情感互动与信息有效性两个角度出发,梳理了机器扮演教学活动者时需要重点关注的两大问题:在情感互动层面,首要是提升机器作为教学活动者时所传递的临场感,从而实现“机器类人”;其次,由于机器本身并不具备社会身份,需要通过设计重建其与学习者交互过程中的社交规范,以满足一般的教学法背后的隐性假设。在信息有效性层面,首先要克服大模型的幻觉问题,这是确保教学信息有效的功能性前提;其次,需要优化人机信任机制,使学习者既不过度依赖,也不过于厌恶大模型输出的信息和观点。

事实上,本研究讨论的关于机器扮演人类活动者的关键问题主要分为两类:一类是可以通过合理的人机交互设计加以弥补或优化的问题,包括临场感问题和算法信任问题;另一类问题则受当下技术条件和社会文化环境的限制,即社交规范和模型幻觉的问题,它们很难通过交互设计进行优化,并且在一定程度上会影响到那些可以被迁移到“师-生-机”场景中的“人-人”教学法的实施。例如,大模型幻觉作为一种生成式人工智能技术底层的缺陷,极难通过交互设计完全克服,而这些无法由简单的交互设计克服的问题,可能正是未来有价值的研究方向。展望未来,“师-生-机”三元结构下的教学模式正在逐步成型,其核心在于确保学习者在与AI教学代理的互动中保持高水平的认知参与和思维在场,通过主动、批判性的对话实现知识建构和认知深化,从而达成真正的自我超越与智慧成长。(文章摘自:乐惠骁,宋小伟,于青青,等.“教学法转型”:人机共生时代的教学原则构建[J].现代教育技术,2025,(2):6-15.)