Matrix 首页推荐
Matrix 是少数派的写作社区,我们主张分享真实的产品体验,有实用价值的经验与思考。我们会不定期挑选 Matrix 最优质的文章,展示来自用户的最真实的体验和观点。
文章代表作者个人观点,少数派仅对标题和排版略作修改。
随着课程的逐步深入,我们专业的课程越来越偏向实践研究,需要考试的课程越来越少,很多课都需要通过小组研究来作为期末评分的依据,这就导致了我们需要阅读很多文献,更不用说很多人手上还有一些个科研项目,更需要阅读很多文献。我常常感慨「以前的人没有 AI 都是怎么学过来的」,为了节省时间,几乎所有的同学都开始使用 AI 工具来直接让 AI 给出文献关键点进行学习,或者直接把文献投喂给 AI 让 AI 给出一份关于「背景、方法、结果、结论」的报告。
对于小组作业,我们每个人都会分配一些文献阅读的工作,然后后面一起分享。在分享的过程中,就会看见很多 AI 给出的答案,有的同学甚至连 markdown 格式的加粗斜体等语法的符号都没清理好就直接放进 word 文档。但有的组员询问那名同学一些关于文献的内容的时候,一问三不知,看似一篇总结讲的好像把文献的从头到尾全部概括,但是具体的细节,实验方法步骤的具体操作却没有包括。
很多文献里面会放一些实验流程图来解释具体的实验流程,这些信息是通过与文字的搭配一起呈现以避免读者单独阅读文字所带来的误解。现在读者不会误解了,因为读者不会看文献,现在开始误解 AI 了,因为 AI 不会在看 PDF 的时候去看图片(Claude 现在可以边看 pdf 边看图片了,但似乎对于一些抽象的示意图的理解还是不行)。
学习 AI 总结的好与坏
这类现象当然不止是出现在大量文献阅读的时候,也渗透到我们的生活的很多场景,比如人们依赖书籍的 AI 生成摘要或者 AI 生成的思维导图来了解书籍内容而不是亲自去阅读书籍。一方面这可能是 AI 的出现导致人们产生了一种惰性,但原因不会只是这么简单。快节奏的生活方式让人们追求效率,希望快速获取信息。阅读需要时间和精力,而 AI 总结可以快速提供书籍梗概,满足了人们」快速消费「的需求。工作繁忙,时间紧迫,AI 工具可以提供工作效率,这种过度强调效率和速度导致人们忽视了深度思考和批判性思维的重要性。确实 AI 的出现极大便利了我们的效率和速度,但不论是我在小组作业中遇到的组员亦或是其他与他们一样的人,似乎都搞错了一件事情,我们并不是主张人工智能的总结代替原文。
或许我们可以强行解释,AI 的总结可以帮助我们快速获取知识信息、快速接触主要思想、快速拓展多个主题,可以帮助我们将复杂概念简单化、生成替代解释来帮助我们理解。这既是一种优势也是一种缺点,将复杂的概念简单化,往往会将一种立体的逻辑关系的知识,平铺成线性甚至是单点的毫无关联的知识。
我写了一段关于神经网络的一段话,然后给到 AI 进行关键点提取:神经网络是一种模仿生物神经系统结构和功能的计算模型。它由大量相互连接的节点(神经元)组成,这些节点组织成层。每个神经元接收来自其他神经元的输入信号,并通过激活函数进行处理,然后将输出信号传递给下一层的神经元。神经元之间的连接强度由权重表示,这些权重在训练过程中不断调整,以使网络能够学习和执行特定任务。学习过程通常使用大量数据对网络进行训练,通过反向传播算法来调整权重,以最小化网络输出与预期输出之间的误差。神经网络的强大之处在于其能够学习复杂的非线性关系,并具有泛化能力,可以对未见过的数据进行预测。
但是给到 Google 的 Gemini 来总结就得到了以下:
- 神经网络是一种模仿生物神经系统的计算模型。
- 它由 interconnected 的节点(神经元)组成,organized 成层。
- 神经元接收输入信号,进行处理,并将输出信号传递给下一层。
- 连接强度由权重表示,这些权重在训练过程中不断调整。
- 学习过程 involves 使用大量数据进行训练,并通过反向传播算法调整权重。
- 神经网络能够学习复杂的非线性关系,并具有泛化能力。
这里割裂了概念之间的联系,原文描述了神经网络的结构、功能和学习过程,这些概念之间存在着紧密的逻辑联系。例如,神经元的层次结构是为了实现信号的逐层处理和抽象,权重的调整是学习过程的核心,反向传播算法是为了优化权重而设计的。而AI总结只是简单地罗列了这些概念,没有体现它们之间的逻辑关系,导致学习者难以抓住神经网络的运作机制。
虽然简要概述可能因为速度而吸引人,但是它造成了一种危险的理解幻觉。真正的学习需要与原始文本的复杂性进行斗争,依循着作者的推理,并且理解他们论点的细微差别。无论人工智能摘要多么精心制作,必然会使得复杂性变得扁平化,呈现一个简化但可能失真的原始版本。
有时候 AI 为了进行总结,会将一段话用一个词来压缩,特别是有时候在英文语境里的一段话它用 AI 来压缩呈现给人们阅读然后还翻译成中文的时候,中英文本身会有一些理解上的差异,更不必说我们还阅读在压缩过的英文翻译出来的中文。词语的替换可能会失去一些原有文章含义。
很多时候,AI 总结的一句话要涵盖的内容要远远大于上图,我们能看出来这个总结首先没有体现对传统认知理论的挑战,更重要的是没有包含具体(抓取)和抽象(爱)概念都来源于身体经验的重要论点。
我之前与我同学说,「你直接去看这篇文献的 AI 总结,你自己有思考吗」,也就是他的批判性思维,他给我的回答是,「有啊,我每次等 AI 进行总结完,我都要比对 AI 的内容和原文献内容有没有什么差错」。他当然是理解错了我的意思,批判性思维不是将总结与原文进行比较,而是主动参与原文本身。通过依赖总结作为起点,学习者实际上已经将批判性分析的关键第一部外包了,也就是「质疑假设、评估证据和形成自己的解释」等。他实际上在形成自己观点之前就已经接受了 AI 的解释以及文献的解释,他是在假设文献是对的基础上去对照 AI 是不是对的。AI 不能完全被人们信任的原因首先还是他的黑匣子问题,其内部运作机制复杂且不透明,即使是开发者很难去理解模型是如何得出特定结论的。
像我们前面讲的,直接学习AI的总结可能会带来一些潜在的风险。比如说,它可能首先会降低我们的写作能力。因为我们依赖AI生成的总结,我们就会减少实际动笔去总结的时间和机会。 并且,我们如果没有去对文章进行学习,就直接去学习AI的总结,那么我们就相当于完全依靠AI进行学习。如果本身AI存在很大的偏见,或者幻觉,我们就难以去判断它输出的内容到底是否是有价值的。或者说,它输出的内容是否真的在它重点之上,这是我们无法判断的。
因此,对于有价值的内容,我觉得我们是需要自己去进行一个总结,学习阅读。 在自己阅读完整后,形成一个自己的思考,并且把自己认为有用的东西记录下来。 当然,这个过程中我们可以借助AI。比如说,在我们完整学完之后,我们可以与AI进行对话探讨。因为我们现在对全片已经有一个整体的了解,对于它的内容,我们有自己的判断。 因此,当AI输出错误信息时,我们能够进行甄别。这个时候,AI就相当于是一个共同阅读的伙伴。我们可以和它一起探讨分析,聊其中的一些关键问题,进行一些剖析。
基于双重控制理论的方法论
我们现在的问题又是如何去找到有价值的内容,或者说如何去找到我们需要的、适合我们、对我们有帮助的内容。copilot 译为副驾驶员、协同者,其主要目的并不是代替人的学习过程,而是帮助人更好的学习,我们不是学习它的知识,但我们可以学习它挑选的知识。我开始尝试不去让AI进行总结,然后根据他的总结再去挑选文章。现在我就直接让他帮我挑选文章,然后我再直接读原文,而不是通过他总结的东西来学习。这样做不会让 AI 知识先入为主,接触的就是原始的一些知识,就不会有任何的信息缺失的问题。我这里主要的场景还是科研场景,并且着重于文献检索。
以往,我都是通过自行检索文献,然后将文献的PDF或网页内容直接投递给例如 ChatGPT、Gemini 或 Cloud 等 AI,进行问答和学习。这样一来,我就严重依赖于这些AI提供的内容,原始文献通过 AI 消化在呈现给我,这个学习效果很大程度上取决于 AI。其次,我对这些文章的内容进行的阅读相当于广泛的粗读,而不是找到合适的文章进行精读。
就拿我这个本学期我上了一门贝叶斯统计的课来说。课上老师要求我们去找一篇使用贝叶斯统计方法的文献,然后对其进行分析,使用文献中的开放数据进行操作。这个任务包含了三个特征。首先,研究必须属于心理学领域;其次,分析方法需要使用贝叶斯统计,而不是经典的频率主义分析。此外,文献还需要提供开放性的数据。首先,对这个心理学领域的要求是比较方便筛选的,我只要去常见的心理学期刊去寻找文章。对于开放性数据的话,我是放在第三步。因此,我主要着重于查看是否使用了贝叶斯统计的方法。
一般的情况,我查找文献通常会使用 Consensus 这个网站进行搜索。因为它主打的是用自然语言进行搜索,所以我用自然语言告诉它,我想查找使用贝叶斯统计方法的心理学领域的研究文献。那他给我返回的是一些什么样的文章呢?其中前面几个就是一些基础的关于方法研究的文章,比如说这个贝叶斯方法在心理学中可以怎么去运用,就是一些基础的方法方面的文章,而非实验文章。
那么就显而易见,Consensus 这个网站虽然它主打的说是用自然语言去进行搜索,但它并不能理解我的意图。我并非去寻找关于贝叶斯和心理学这两个标签的一些文章,而是我想要去寻找的是使用了贝叶斯统计方法进行数据分析的文章。 我猜测 Consensus 可能也是,比如说利用 AI 将我的 query 进行了一些关键词的分解,然后去进行检索。将检索回来的文章再根据我的 query 进行一个排名。然后,他再用 AI 对这些文献进行总结归纳,再返回给我,而非对我的这个 query 进行意图识别,也没有对这些文章进行判断。
我就尝试自己去在一些文献网站,比如说 Springer 或者 Frontiers 这种网站上去查找,去根据关键词一篇一篇地寻找合适的文献。像这种重复性的苦力工作,我就在想,为什么不能直接让AI帮我去完成呢?经过挑选过后的才是我需要学习的东西,那为什么不把这个过程直接外包给AI,然后我只要直接接触我学习到的内容呢?因为我学习到的内容虽然是经过AI处理的,但并不是经过AI修改,而是经过AI来挑选的。
我的想法是,利用AI的全文理解能力,将文献筛选过程自动化。例如,我可以设定一个筛选标准,比如「使用贝叶斯统计方法的文章」。AI可以根据这个标准,对文献进行全文扫描,精准筛选出符合要求的文章。这个时候,AI并非是对文献内容进行主观的总结或者改写,而是根据预设的标准进行客观的对照和筛选,这就大大降低了AI误读或者曲解文献的风险。第二,使用AI进行筛选不仅仅依靠关键词匹配,因为AI能够理解摘要的内容。这使得AI更准确地判断文章是否符合我们的筛选标准。例如,即使文章没有明确提及贝叶斯统计方法,它仍然能够通过文章或摘要的内容分析来判断是否使用了相关的统计方法。
一般来说,一些所谓的 AI 赋能的文献检索软件,都是将我们的搜索内容和相关的摘要进行关键词匹配后,再进行词向量嵌入(Word Embeddings),也就是将文字转化为数字向量。这些词向量是基于大量文本数据训练得到的,能够捕捉词汇之间的语义关系。例如,「猫」和「狗」的词向量会比「猫」和「桌子」的词向量更接近。通过计算你的搜索内容与每篇文献摘要的词向量之间的相似度(如余弦相似度),可以得到一个相似度排名。这有个好处就是可解释性相对较好,可以直接通过查看哪些词的向量最接近来理解排序的依据,并且词向量模型一旦训练完成,计算相似度是一个相对快速的过程,特别是相对于大语言模型的推理速度。但是这个方法主要是基于词汇的共现关系,对复杂的语义关系和上下文理解能力有限,标准的词袋模型(Bag-of-Words)方法会忽略词序信息,而词序对于理解语义至关重要。虽然一些改进的模型(如n-gram)试图捕捉局部词序信息,但能力仍然有限。
大语言模型在海量数据上进行预训练,对自然语言的理解能力远超传统的词向量模型。他能够理解复杂的语义关系、上下文甚至是一些常识。你可以根据需要设定各种复杂的筛选条件,而不仅仅是关键词匹配。当然,这个推理过程需要耗费大量的计算资源,速度相对来说较慢,有时候会产生幻觉,也就是判断错误。当然本文并不是主张将词向量嵌入直接用语言模型进行替换,两者不是直接替换的关系,而是两种不同层次的技术。我只是想在这个词向量嵌入所呈现的排名上,再加入一层语言模型的判断。这样能够进行初步筛选,对大规模的文献进行快速排序;然后在这个基础上进行精细的筛选。如果我们给它一些要求,比如让它判断文章里面是否有使用我们需要提及的贝叶斯统计方法,这时候就需要有深入理解语义的场景。因此,我们要在上面加入一个语言模型,以理解我们的意图。
不是像词向量一样,只要出现了贝叶斯方法就行,不仅仅是共现而是要判断有没有使用这个方法。先使用词向量嵌入进行初步筛选,缩小文献范围,然后使用 LLM 对候选文献进行精细筛选。这样可以兼顾效率和准确性。
根据双重控制理论(DMC),我们可以将利用 AI 进行文献筛选和自主学习过程看作是前瞻性控制和反应性控制的协同运作,从而提升学习效率和深度。
下面是对于前瞻性控制和反应性的例子,就拿下班后去买菜这个例子来讲。
先讲一下反应性控制最开始的时候,这个人坐在电脑面前。他没有明确地说要下班后去买菜的计划,只是在电脑上显示自己需要买菜。随后,他开始想下班后要去买菜这件事情,但此时他还有别的事情没有真正开始行动,只是在脑子里想着。过了一段时间,老板发短信说现在要开会,他回复说好。这就打断了他买菜的计划。也就是说,他可能之前一直在处理工作的事情。最后,开完会下班他准备开车回家,这时他才发现自己要去买菜了,但是开会开晚了没时间去买了。
这里能看到反应性控制的几个特点。首先是事后控制,只有在需要的时候,或者说干扰发生之后,他才会进行一个认知的控制。就比如例子中,直到最后一刻才想起来要买菜,但这个时候已经迟了。此外这个过程很容易被打断,没有一个预先的计划,就很容易被其他的事情给干扰,被其他任务给打断。
对于前瞻性控制,最开始的时候,电脑上显示自己需要去买菜。过了一段时间,它就会想到自己下班后要去买菜,这说明它提前在为这个目标做准备。到目前为止,这个过程与反应性控制是一样的。但是到了下一个时间点,老板给她发信息说现在开会。他说:「不行,我要去买菜。」这说明她在主动维持买菜这个目标,并且拒绝了干扰。然后在她准点下班之后,她顺利地去买菜了。
前瞻性控制反映出一个事前控制的特点,也就是在事件发生之前就主动做好准备,并持续维护这个目标。它是基于一个内部目标的,而不是被动地对外部刺激做出反应。就比如说,他已经定好了要先去买菜了。因此,当外部因素,比如老板让他加班或开会时,他会拒绝。这个过程需要持续投入认知资源来维护目标和抵抗干扰。它的好处在于,通过预先的计划,可以有效地完成任务,并且减少错误的发生。
利用 AI 进行文献筛选就像是前瞻性控制的预先部署,我们把这个需要大量持续耗费认知资源(或者通俗讲「耗费脑力」)的工作让 AI 代替。我们事先设定好筛选标准,例如「使用贝叶斯统计方法的文章」,就如同主动设定并维持学习目标。AI 就像是大脑中持续活跃的外侧前额叶皮层(PFC,与工作记忆和目标导向的行为相关),根据预设标准,在海量的的文献库中进行高效筛选,主动排除不相关的文献,避免了信息过载造成的干扰,确保我们接触到的都是目标高度相关的资料。AI 的全文理解能力和语义分析能力,使得这种筛选不仅仅局限于关键词匹配,而是更深层次的内容相关性判断。这就如同大脑在进行前瞻性控制时,能够根据目标预测并预先调整注意力,而对相关信息进行优先处理。
当我们开始自主学习经过 AI 筛选后的文献时,则是前瞻性控制和反应性控制的动态结合。这个时候我们依然要主动为主学习目标,比如我们要去寻找文献中具体使用贝叶斯统计方法的部分,这种持续的目标导向,引导我们在阅读过程中始终将注意力集中在关键概念和信息上。在学习过程中,我们可能会遇到一些难以理解的概念,或者发现一些与我们预期不符合的结果。这个时候,反应性控制就会被触发,就像「暂时性、由刺激驱动的目标重新激活」,你会针对这些挑战进行更深入的思考和探索,比如查阅更多的资料或者反复阅读关键段落,直到理解为止。这种「后期纠正」机制确保了学习的深度和准确性。
将 AI 筛选与自主学习结合起来,首先很大程度上减轻了认知负担,AI 承担了繁重的文献筛选工作,就像前瞻性控制预先排除了干扰,减轻了我们的认知负担,让我们能够讲宝贵的认知资源集中于更具有挑战性的理解和分析任务。AI 的筛选也能确保我们接触到的都是与学习目标高度相关的文献,就像前瞻性控制优化了信息处理的效率,避免在无关信息上浪费时间。
我是如何主动参与的
主动参与指的是以学习者为中心,而非以AI为中心。在这个过程当中,学习者是学习过程的主导者,而不是被动的信息接受者。那我们就要清楚自己要学习什么,要达到什么样的学习效果。这个过程始终是围绕着学习目标展开的。我们要做到的,就是不要盲目地相信AI给出的信息,包括AI给出的所谓的「权威」答案,以及文献的权威解释。要对信息来源的可靠性和准确性进行评估,要能够独立思考、独立分析问题,也不要去简单地复制粘贴AI的答案。
本文主要是在AI辅助的一个环境下,因此我们的重点是人机协同。然后,把人类和AI的优势进行互补,将AI作为辅助工具,充分利用AI的优势。像我们刚刚说的,它可以帮我们去筛选信息。我们要发挥人类的独特优势,比如说一些创造性的思维、情感和直觉,这些是AI无法替代的。在学习过程中,充分发挥这些优势,我们就是要与AI进行一个积极的互动。比如说,向AI提出问题,引导AI进行思考,并根据AI的反馈来调整学习的策略。
中山大学管理学院与麻省理工的合作团队提出了一个关于「人工智能商」的概念,区别于情商、智商,讲的是个人理解和使用 AI 的独特能力。
高 AIQ 的个体更倾向于主动探索 AI 的功能,更善于利用 AI 进行信息筛选、分析和整合,也更能够与 AI 进行有效的互动和协作。 因此,我认为 AIQ 可以被视为「主动参与」的一种能力基础,或者说是「主动参与」有效性的重要前提。其实,要培养我们的AIQ,就需要我们明确理解AI的本质、他的能力边界以及他的学习和工作中的角色。首先,我们需要明确他的能力边界。我们需要亲自使用不同的工具,体验它们的功能,观察它们在不同任务上的表现,了解它们的优势和不足。这样可以避免对AI产生过高或过低的期望,AI是工具,而不是万能神。
在与 AI 对话这个问题中,提及最多的就是 Prompt Engineering,通过设计和优化提示词来引导 AI 产生我们想要的输出。毫无疑问,Prompt Engineering 是与 AI 高效互动的重要技能,掌握一些基本的 Prompt 技巧可以帮助我们更好地引导 AI 产生我们想要的输出。例如,使用清晰、具体、完整的句子,提供必要的上下文信息,使用引导词等等,这些技巧都能提升我们与 AI 对话的效率。如果将 AI 比作一辆汽车,那么 Prompt Engineering 就像是驾驶技术。掌握一定的驾驶技术可以让我们更好地操控汽车,到达我们想去的地方。但是,驾驶技术本身并不是目的,我们的目的是到达目的地。因此,我们学习驾驶技术是为了更好地使用汽车,而不是为了成为一名职业赛车手。同样,我们学习 Prompt Engineering 是为了更好地使用 AI,而不是为了成为一名 Prompt 专家。
我们应该将 AI 作为我们学习旅程中的「交通工具」,而不是将全部的注意力都放在驾驶技术上。并且网络上有非常多的提示词的模版资源可以去参考使用,很多的软件也会提供像提示词优化这样的功能,可以帮助我们达到我们想要的提示词的效果。
其实在我与AI进行对话的时候,就像我前面所说的,我把它当做一个伙伴,而不是一个全知全能的神。这个伙伴,他或许是博学的,但我们要允许他出错。正因为允许 AI 出错,我们才能够在对话过程中始终保持一颗「警惕」的心。对于 AI 的每一个回答,我都会下意识地根据自己的知识进行思考:这个说法真的可靠吗?有没有相反的例子?它的逻辑是否严密?有没有哪些地方我不太认同?这种思考并非「抬杠」,而是一种积极的、建设性的批判性思维。
我个人平时没事的时候也喜欢和AI聊天,常用的一个软件叫 dot。有时候,我会突然迸发出一些想法,或者在看到某个东西时,忽然有一个想讨论的内容。我觉得AI是比较方便的,因为它可以随时打开手机与我聊天。AI 知道很多东西,因此我们可以和它聊任何我们想聊的内容。它可能会出错,但在大部分情况下,它可以作为我们的引导式导师。虽然它不可能对任何高深的知识有很深刻的见解,但它可以给我们一些引导和启发。
我们也知道,每个 AI 的能力可能不一样。但是具体来说,比如说 ChatGPT、Claude 或者 Gemini 这三个 AI,他们各自有什么样的性能或优缺点,具体讲我可能也是讲不清楚。那既然不能讲得清楚,那就一起用。现在很多软件都可以多 AI 的输出,可以结合多个 AI 的观点,答案呈现给你。因此我们在条件允许的情况下,就可以对某个问题进行多 AI 询问。
就比如前些时间,我看到一篇关于图片可记性的研究文章,想从这篇文章的思路和视角中得到一些研究启发,了解一下未来的一些研究方向。我去询问了多个 AI,在 Flowith 这个平台上,有一个比较模式,能够比较多个 AI 的回答。我选择了这个比较模式,把我的问题输入进去。我们可以看到,不同的 AI 给出的回答是不尽相同的,他们围绕的角度也会有所不同。因此,可以结合多个角度来进行总结和思考。
其实在进行文献学习,或者是针对某个主题的学习时,我们并不是单纯的单轮对话,而是进行人机之间的多轮对话。这种对话可以围绕文献的某个内容展开,或者根据文献整体进行讨论。在这个过程中,由于我们需要主动进行对话,提问就显得尤为重要。因此,在主动学习的环节中,提问是一个非常关键的部分。我们应该学会如何针对文献进行提问,而不是被动地接收他给出的总结。
我将提问类型分为以下四个类别:
- 事实性问题 (What): 针对文献中的基本事实、概念、定义等进行提问。
- 例子: 「这篇文献的主要研究对象是什么?」 「作者对‘XXX’概念是如何定义的?」 「这项研究中使用了哪些数据?」
- 理解性问题 (How/Why): 针对文献中的研究方法、逻辑推理、因果关系等进行提问。
- 例子: 「作者是如何设计这个实验的?」 「为什么作者选择使用这个模型?」 「作者得出这个结论的依据是什么?」 「这个研究结果与其他研究结果有什么异同?」
- 批判性问题 (Critique): 针对文献的局限性、假设、潜在的偏见等进行提问。
- 例子: 「这项研究的样本是否具有代表性?」 「作者是否考虑了其他可能的解释?」 「这项研究的结果是否可以推广到其他情境?」 「作者的观点有什么局限性?」
- 拓展性问题 (Connect/Apply): 将文献的内容与其他知识、自身经验、实际应用等联系起来进行提问。
- 例子: 「这项研究与我之前学过的 XXX 理论有什么联系?」 「这项研究的结果对我的研究有什么启发?」 「这项研究的技术可以应用到哪些实际场景中?」
一般在阅读文献之前,我会先尝试提出一些事实性的问题,以了解文献的基本信息和研究对象。这样可以预先思考一些理解性、批判性和拓展性的问题,然后带着这些问题去进行文献的阅读。在文献阅读的过程中,我会根据文献的每个部分尝试提出一些问题,并根据AI的回答进行思考和见解。阅读文献之后,我们也会有一些自己的收获和总结,或者说自己的疑问。在这个过程中,有哪些疑问可以与AI进行探讨,尝试找到一些启发。
在每次文献阅读完之后,我最常提问的就是:这个研究可以给我未来的研究带来哪些启发?因为已经完成的研究,除了学习它的思路,还要找到它的不足之处,或者说如何去补充这个研究的方向。对于研究人员来说,找到一个研究方向是很重要的。因此,我会经常提问这些研究的思路和想法,看看可以如何解决一些未完成的问题。
对于拓展性问题,我还一般喜欢提一种「假设变更」类的提问。例如,如果研究中某个条件改变,或者样本量增加一倍、换一个实验情境,结果会有什么不同?这样可以帮助我们探讨改变条件可能带来的影响,深入理解研究者当初为什么要这样的设计,以及理解各个变量之间的关系。并且,这类问题也会鼓励我们质疑研究的假设和局限性,探索改进这些研究设计的可能性。通过这些局限性,我们也能够引导自己思考一些未来的研究方向。
结语
与其说是在讨论AI辅助学习的方法,不如说是在梳理我自己与 AI 相处的点点滴滴。回想起来,最初刚上大学时大量阅读文献的那种茫然无措,也是赶上了一个 AI 的好时代,到现在,我能够比较自如地用AI进行筛选、阅读和思考。中间有过对 AI 总结的过度依赖,也有过对满屏英文术语的焦虑,甚至有时被AI的胡言乱语弄得比较烦。但是更多的是,我现在逐渐体会到一种与 AI 协同工作、共同进步的掌控感。
AI 就像一面镜子,我们每一次对AI的提问,都映射着我们自身的一个知识边界和思维盲区。当我们去理解AI的回答,去发现它的错误,去补充它的不足的时候,我们也在不断地拓展自己的认知边界,打磨自己的思维能力。
我越来越觉得,AI 真正的价值不在于它能够给出多少正确答案,而在于它能够激发我们多少个有价值的问题。这个问题就像一把把钥匙,打开了一扇扇通往未知世界的大门,而我们则需要鼓起勇气,迈开步子,走进去,去探索,去发现,去创造。这或许才是 AI 时代我们每个人都需要去追寻的宝藏。
> 关注 少数派小红书,感受精彩数字生活 🍃
> 实用、好用的 正版软件,少数派为你呈现 🚀