重庆市2024-2025学年高三上学期11月期中考试语文试题(解析版)
- 资源简介:
共23题,约19350字。
语文试题
语文测试卷共8页,满分150分。考试时间150分钟。
注意事项:
1.答卷前,考生务必将自己的姓名、班级、准考证号填写在答题卡上。
2.回答选择题时,选出每小题答案后,用铅笔把答题卡上对应题目的答案标号涂黑。如需改动,用橡皮擦干净后,再选涂其他答案标号。回答非选择题时,将答案写在答题卡上,写在本试卷上无效。
3.考试结束后,将本试卷和答题卡一并交回。
一、现代文阅读(35分)
(一)现代文阅读1(本题共5小题,19分)
阅读下面的文字,完成下面小题。
材料一:
因果认知是人类智能的重要表征,是我们认识世界、解决问题和适应环境的重要能力。现代认知神经科学认为,人的因果认知能力来源于神经元网络之间联结产生的条件反射,随着对于因果关系的日常感知与认知频率的增加、人脑中相应的神经元的突触也会增加。但对于ChatGPT等自然语言处理模型来说,因果关系的感知与识别是通过概率与相关性的训练得以完成,由此因果关系成为人工智能与自然语言处理模型显示出拟人化的工具和手段。
通过人类对ChatGPT深度神经网络的训练,“因果性”概念就被识别为“相关性”概念,实现了因果认知能力的构建。与因果性相比,相关性更容易认知和理解,也更容易成为人工智能和自然语言处理模型认知人类世界的工具。对于后者而言,人类世界虽然能够通过数据进行表征,但是数据间的关系涉及人与人、人与物、物与物之间的复杂关系,甚至在数据间存在着大量的“噪声”,人类世界的数据在多种关系的杂糅下,形成了复杂性系统。而在深度神经网络、大数据技术、统计分析的加持下,人工智能的相关性认知比因果性认知更加容易模拟和实现,相关关系只需要知道数据本身是什么,而无需知道数据之间的关系是什么,通过概率叠加的相关关系能够帮助ChatGPT类自然语言处理模型更好地“了解”人类世界。正如“大数据之父”维克托•迈尔-舍恩伯格(Viktor Mayer-Schönberger)所说“相关关系很有用,不仅仅是因为它能为我们提供新的视角,而且提供的视角都很清晰。而我们一旦把因果关系考虑进来,这些视角就有可能被蒙蔽掉”。
但是这并不意味着ChatGPT已经拥有了人类智能水平的因果认知能力。人的因果认知能力在儿童时期便已经产生。与当前的人工智能相比,人对于因果关系有着更敏锐的认知能力。心理学家皮亚杰通过实验研究得出,正常儿童在3-6岁的学龄前阶段已经能够对因果关系进行认知,但是他们对于因果关系的认知更多是通过对外部环境的变化进行概率上的匹配。布洛克(Bullock M)与格利曼(Gelman R),在其设计的实验中,用不同颜色、不同长短的木棒分别将积木推倒,并让积木在倒下的过程中将放置在桌子上的兔子玩偶撞到地上。
E1:3岁左右的部分儿童,认为兔子地摔落与木棒颜色的变化有关,尤其是某一种颜色的长木棒重复出现时。
E2:6岁以后的儿童,几乎无人认为兔子地摔落与木棒的颜色有关,并能够给出兔子玩偶掉落的连续原因解释,如表1所示:
表1 ChatGPT与3-6岁和6岁以上儿童因果认知能力对比表
Tablel Comparison between ChatGPT and causal cognitive ability of children aged 3-6 and over 6 year sold
能力来源 因果认知表征 因果认知水平
3-6岁儿童 先天+经验 关联 低
6岁以上儿童 先天+经验 关联+干预+反事实 高
ChatGPT (训练)经验 关联 低
这表明,3-6岁儿童虽然已经具备了一定的因果认知能力,但是这种认知能力是有限的,他们能够将环境中出现的一切因素进行归纳和认知去理解“是什么”即“平顶”使得兔子跌落了,但是他们没有进一步探求“为什么”即“反事实”问题,“如果木棒的颜色改变,兔子会摔落吗?”。因此他们会将木棒的颜色纳入因果认知之中。而6岁以上的儿童通过对“反事实”问题的思考,将不相关的因素进行排除,就能够实现完整的因果认知,
对于当下ChatGPT而言,人类的训练和深度神经网络的预训练模型使其将因果性认知为相关性的因果认知能力,使其和3-6岁的儿童一样,只能够认知“是什么”,而无法进一步进入到“为什么”的认知之中,因此有人提出当前的ChatGPT已经具备了9岁儿童的智力水平的说法是存在争议的,最起码从因果认知的层面上讲,ChatGPT与9岁儿童的因果认知能力尚存在着差距,当下将因果性等价为相关性的方法只能建构起少量具备真正“智能”的人工智能和自然语言处理模型、即弱人工智能。
(摘编自尤洋、郭宇《ChatGPT与因果性》)
材料二:
在概率解释框架下,因果推理被视为归纳推理中的一种推理形态,当对某一现象背后存在的可能原因进行归纳时就可以建立起相关性和事件之间存在的概率关系,如培根所推崇的归纳法和“穆勒五法”。拥有因果推理能力是人类智能的重要表征之一、自然科学定律的
1. 下列对材料相关内容的理解和分析,不正确的一项是( )
A. 因果认知是人类智能的重要能力之一,实质是大脑对于因果关系的日常感知与认知频率的增加而产生的条件反射。
B. 人工智能通过概率与相关性的训练而实现对于因果关系的感知与识别,因此人工智能实质是拟人化的工具和手段。
C. ChatGPT等自然语言处理模型对因果认知能力的构建,是通过对概率与相关性的训练,从而实现对人类智能的模拟。
D. ChatGPT的因果认知将因果概率解释框架作为因果规则,并非真正如人类智能一样对因果性进行认知和把握。
2. 下列对材料相关内容的分析和评价,正确的一项是( )
A. 材料一中使用“噪声”一词,形象地强调了人类世界的数据是一个各种关系错综杂糅的复杂性系统。
B. 材料一通过图表的使用,直观地表明当下ChatGPT处理问题的认知水平只是相当于人类3-6岁的儿童。
C. 材料二最后一段使用“很明显”“并不能”“只能”等词语,强调了当前ChatGPT并没有超过人类的优势。
D. 材料一侧重阐释人工智能的认知原理,材料二侧重指出人工智能的认知局限,都指出了其底层逻辑的错误。
3. 根据原文内容,下列说法不正确的一项是( )
A. 人类对ChatGPT深度神经网络的训练,也只能获得弱人工智能,因为当前的ChatGPT的算法是基于因果概率解释框架的。
B. ChatGPT通过大数据技术、统计分析等的加持,对人类世界的认知和了解会加深,其解决问题的能力在未来会越来越强。
C. ChatGPT虽然与人类一样,都需要凭借人类知识结构中已有的内容解决问题,但ChatGPT数据分析却不能创新性地解决问题。
D. ChatGPT因果认知能力不及9岁儿童,但通过海量的数据分析,它在其他认知能力上远超9岁儿童,故可完成更难的事情。
4. 材料中“因果性”与“相关性”两个概念 关系该如何理解?请根据材料自行举例分析。
5. 材料二指出ChatGPT“无法成为为人类产生新知识、解决难问题的智能工具”,请根据材料和下面的图表简要分析其原因。
表2 ChatGPT与人类因果语言构建对比表
Table2 Comparison table between ChatGPT and human causal language construction
语境 输入 输出 结果
人类 主观语境 日常经验 伪/真因果语言 主观表达
ChatGPT 独立语境 语料库数据 相关语言 客观数据
【解析】
【导语】这篇文章通过两则材料探讨了人类因果认知与人工智能的区别。材料一强调人类因果认知的复杂性和人工智能在相关性认知上的局限性,指出ChatGPT的认知水平类似于低龄儿童。材料二则进一步分析了ChatGPT在因果推理上的不足,强调其无法产生新知识或解决复杂问题。整体上,文章揭示了人工智能在因果认知上的局限性和潜在发展方向。
【1题详解】
本题考查学生根据文本内容进行判断、推理的能力。
B.“因此人工智能实质是拟人化的工具和手段”错误。根据原文“因果关系成为人工智能与自然语言处理模型显示出拟人化的工具和手段”可知,因果关系是使人工智能显示出拟人化的工具和手段,而不是人工智能是拟人化的工具和手段。
故选B。
(二)现代文阅读Ⅱ(本题共4小题,16分)
阅读下面的文字,完成下面小题。
摧残
柔石
一个寒风凛冽的冬天晚上,是这位可怜的妇人产下她第一个儿子后的第三夜。青白的脸色对着青白的灯光,她坐在一堆破棉絮内,无力地对一位中年男子——她的丈夫说道:“照我的意思做去吧,这样决定好了。”
宽松的两眼向她怀内的小动物一看,——婴儿露出一头黄发在被外。妇人继续说:“现在,你抱他去吧。时候怕也不早了,天又冷,路又长,早些