据新华社北京10月28日电,美国斯坦福大学研究人员近日筹划召开全球首次以人工智能(AI)为主要作者和论文审稿人的在线公开会议。组织者表示,会议旨在创建一个“相对安全的试验场”,探索人工智能是否以及如何独立产生新的科学知识、假设和方法。如今,人工智能已经成为我们工作和生活的巨大帮助,但它也提供了“认知捷径”,让人们无需三思而后行就能得到自己想要的答案。起初只是搜索信息和翻译文本,但随着时间的推移,我们开始使用人工智能来帮助处理电子邮件、工作总结、研究论文甚至重要决策……如果我们过于依赖人工智能,用它来“外包思维”,我们可能会逐渐失去思维优势。 9月25日,联合国召开高级别会议启动全球机制al 人工智能治理对话机制。联合国秘书长安东尼奥·古特雷斯在致辞中表示,这是世界关注这一创新技术的重要平台。 (新华社 李锐 摄) 人机共生时代,人类如何保持独立思考?人工智能“思维外包”的隐忧 正如上一讲所讨论的那样,人工智能的应用,如大模型、智能体等,广泛改善了包括科学研究在内的多个领域的人类生产生活,促进了科研、生产、学术生活质量和效率的提高。但其带来的技术优势背后,也隐藏着隐忧。几项新研究表明,过度依赖人工智能模型会导致“人工智能脑雾”并降低工作积极性。 9月25日,在德国柏林国际消费电子展上,一名观众与人形机器人握手。(照片:张哈)新华社记者ofu)美国麻省理工学院的一项研究表明,长时间使用人工智能会导致认知功能下降。研究人员对受试者进行了脑电波扫描,发现长时间使用大规模人工智能语言模型的人的大脑与不使用人工智能工具的人相比。他们发现受试者或大脑内的神经连接数量减少,影响语言和行为。微软和卡内基梅隆大学的一项研究同样发现,生成式人工智能会削弱批判性思维能力,导致过度依赖,并降低人们独立解决问题的能力。研究人员认为,在设计生成式人工智能工具时,开发人员应该支持用户的批判性思维意识,例如通过生成需要测试的场景。特别是在设计高风险任务时,例如法律文件无论是医疗建议还是医疗建议,验证提醒(例如“审查人工智能引用的监管规定”)都应该被迫出现,以标记潜在风险,并打破用户对人工智能“全能”的认知偏见。浙江大学管理学院吴素清团队今年在英国《科学报告》杂志上发表的一项研究也表明,人工智能的应用正在造成认知需求的“空心化”。一旦人工智能完成了工作的“脑力”部分,人类就只剩下机械执行,将工作简化为“被动填空”任务,这可能会导致心理疏离和工作动力丧失。因此,企业、政府部门等在实施人工智能时必须“放慢脚步”。你可以先小范围测试,有控制地推广,边使用边观察对员工积极性和创造力的影响。为什么人们对人工智能“容易上当” 人们越来越信任人工智能的原因人工智能是因为近年来人工智能的专业能力取得了惊人的进步,并且可以轻松地与她互动。 AI产生的高度专业化的内容让很多人将AI视为专家,而交互式的交互方式则将AI变成了无话不谈的见多识广的“朋友”,有利于心理依赖和信任的形成。如今,“开箱即用”的大规模人工智能模型的便利性进一步缓解了这一问题。使用阈值。由于缺乏基础的人工智能教育,用户不太了解人工智能的技术缺陷,更容易“轻信”。今年6月,英国高等法院在向法院提交了几起可能由人工智能生成的虚假案例参考资料后,下令律师采取紧急行动,以防止人工智能被滥用。我要求的。今年,由卫生部领导的“让美国再次健康”委员会参加了。d 和 US Hum服务使用人工智能生成的内容还导致儿童慢性病报告出现重大错误。 3月31日,在德国汉诺威工业博览会上,参观者通过虚拟现实设备将物体扔进虚拟世界。 (新华社记者 张帆 摄) 荷兰阿姆斯特丹大学研究员詹姆斯·皮尔森表示,人工智能极大地促进了科学研究过程,例如绘制蛋白质结构和开发新抗生素。生物素还可以加快文献检索和其他过程的进度。然而,当人工智能产生的“幻觉”出现在文章评论和研究中时,令人非常担忧。人工智能训练数据还可能包含偏见,加剧种族和性别等问题。 “随着人工智能的使用”,如果我们无条件地接受人工智能提供的信息,这将导致人类独立性的下降,我们深度解释、思考和表达自己的能力也会下降。不。科幻作家、中国作协科幻文学委员会副会长陈秋芳在接受新华社记者采访时表示,要打造一个思考的“人工智能缓冲区”。未来,人工智能将更加深入地融入我们的工作和生活。在这个人与机器共存的新时代,我们必须更加聪明地与人工智能共存。美国人工智能教育公司Section 4首席执行官Greg Schoff。未来十年,使用人工智能的知识工作者将分为两类:“人工智能乘客”和“人工智能司机”。 “AI乘客”会很乐意让AI处理认知任务。在短期内,您可能会注意到工作效率的提高。但随着AI功能的重复,这些人最终会被AI取代。交换。 “AI控制者”指挥AI的运行,将AI生成的内容视为初稿,对结果进行严格验证,有时会关闭AI,坚持独立思考。“各种各样的学习和工作场景。我们需要学会区分哪些场景适合使用人工智能,哪些场景需要人工辅助来判断和区分人工智能所获得的结果。”陈秋帆也有类似的看法。他认为,人们应该在自己的思想和感知中主动建立一个“人工智能缓冲区”。也就是说,面对新的问题,首先要从自己的角度给出答案,然后再以人工智能为目标进行深化和拓展。你甚至可以进行“对抗一代”。换句话说,当AI给出的答案与我自己的观点高度一致时,我必须批判性地思考并问自己是否受到了AI的影响,或者AI是否变得与我正在进行的训练更加一致。我们能否摆脱思维惯性,做出不同的决定并给出我们意想不到的人工智能答案? ”他说。(记者彭谦)主编毛天宇。”