欢迎来到 广州坤茂机电设备有限公司
全国咨询热线: 020-37268158
联系我们

地址:广东省广州市天河区沙太南路85号2楼16-28房

电话:13925047020

传真:13925047020

邮箱:378189875@qq.com

冷冻机控制柜|知识生成智能 并且越来越强烈地认识到
  来源:广州坤茂机电设备有限公司  更新时间:2024-02-24 09:44:48

【ZiDongHua人文化天下收录关键词: 智能科学   科学伦理   ChatGPT  人工智能 自然语言处理   深度学习 科学创新    】

积极应对ChatGPT的知识智伦理挑战

冷冻机控制柜|知识生成智能 并且越来越强烈地认识到

自图灵等人工智能先驱提出让电脑可以像人一样思考和行动以来,人工智能会不会构建出类似人类的生成智能甚至超越后者,一直是知识智一个在探索之中和争论不休的问题。在近年来新一波数值驱动的生成人工智能热潮中,这一问题的知识智焦点逐渐从理论上的可能性之争,更改为如何应对技能上可能出现的生成冷冻机控制柜颠覆性创新。从基于深度学习的知识智人工智能战胜人类围棋棋手,到近期以ChatGPT为代表的生成生成式人工智能取得令人惊叹的成功,特别是知识智ChatGPT为自然语言问题和提示所作出的表述清晰、语法正确的生成回答,像巨型魔术表演一样牵动了人们对科学未来的知识智想象。面对这步步紧逼的生成“创造性破坏”所带来的海啸般的冲击,人们不仅看到了突然演化出通用人工智能乃至超级智能的知识智潜在风险,并且越来越强烈地认识到,生成必需严肃思考和认真对待由此可能引发的知识智开放性社会风险与价值伦理挑战。

冷冻机控制柜|知识生成智能 并且越来越强烈地认识到

工程创新与智能理论

ChatGPT的出现突破了很多人工智能怀疑者的认知框架。ChatGPT在工程上呈现出超强的人机自然语言对话能力,不仅在相当程度上打破了很多悲不雅观主义者的设限,同时也超出了不少技能乐不雅观主义者的PLC柜预期。这再次表白,不论是对什么是智能、什么是人工智能的理论构想,还是对人工智能不能做什么的理论反思,往往与技能和工程上的人工智能实现方式之间存在着不小的认知落差。而造成这种落差的缘由,则在于人工智能发展过程中理论思维和工程思维之间的张力。如果将能够处理无限任务、自主和具有价值系统之类的“关键要求”作为通用人工智能的标准,ChatGPT显然不够格。但问题是,这些“关键要求”如安在工程上进行测试。

诸多有关智能的理论认知框架往往缺乏必要的谦逊,未能将立场当作探究的视角之一,容易陷入固守“先验”标准的封闭式否定思维之中。而工程思维则主要表现为工程实践中的累积创新和涌现创新,是一种基于技能资产演进的“后验”迭代的开放性必定思维,常常是PLC柜开发对某些技能途径的偏执性选择,且能在技能演进中赋予这些选择以新的内涵。受到认知落差影响,理论研究者和批评者无法预见人工智能工程实践可能涌现出的重大突破,工程实践者和喝彩者则难以前瞻性地预见技能上的突破在社会价值伦理层面所引发的革命性影响。由此形成的总体认知状态,显然无法应对包罗超级智能在内的开放性伦理风险。

人机交互与人机对齐

不论是理论反思者还是工程实践者,在相关的探讨中多将人工智能与人类智能预设为彼此分立的智能体,且多聚焦二者的高下之分和此消彼长,而较少以两者之间的交互作为思考的出发点,从技能社会系统和智能生态系统的维度理解人工智能体的本色。实际上,从基于大数值的深度学习到基于大模型的生成式人工智能,其创新应用都发生于数值、算法、算力等所构建的巨型技能社会系统之中,是在高度社会化的人机交互智能生态系统中形成的。它们之所以可以实现功能上的突破,固然源于数值量和模型参数达到必然规模后的功能涌现。但同时也要认识到,其中更重要的或许是,人类的反馈微调和使用中的人机智能交互对其性能改进的作用。

在ChatGPT的开发过程中,Open人工智能的技能路线是在高度社会化的人机交互智能系统中展开的。ChatGPT所采用的人工智能新范式,基于对自然语言内在的同质化形式和结构的学习。其中,既有海量的文本数值集,也包罗运行中的大量人机对话数值。这一内容生成思路是学习与预训练的结合:先是自控提取相关内容并加以聚合,然后通过人机对齐工程对目标和价值加以必要修正。依照Open人工智能的说法,这一实施人机对齐工程的背景是,Open人工智能对所设计的GPT系列大模型以及ChatGPT的技能定位是探索通用人工智能。为防范可能带来的颠覆性社会伦理影响,设计者通过人类标注、反馈、审核等工程方法,对生成的类自然语言中的价值冲突和伦理争议进行了校准,对生成内容与语言表达策略进行了持续监督和不竭优化。这使ChatGPT的输出对价值敏感问题相对谨慎、持平,主动回避甚至拒绝回答存在争议的问题。

人机对齐工程的实施表白,由于存在包罗超级人工智能可能引发人类保留风险在内的巨大社会伦理风险,生成式人工智能的技能设计与价值伦理调节从一开始就是同脉冲行的。由此,可以得到两个重要的启示。一方面,人机对齐工程的实施表白,对生成式人工智能进行价值伦理矫正并防范恶性后果在工程上是可行的,这为其在创新应用中恪守价值底线和红线提供了可借鉴的经验。当然,必需明确指出的是,作为语言模型的ChatGPT本身并不真正理解各种价值不雅观的内涵。另一方面,人机对齐工程在人机交互的基础上实施,不论是在训练数值之中还是在人工校准等人类反馈环节,都负载着利益相关者的利益和好恶,会受到各种价值预设和文化选择的影响,必然存在必然的偏向性。

知识权威幻觉与图灵陷阱

人机对齐工程所进行的价值伦理矫正,固然有助于对人工智能生成内容的法律规制和伦理治理。但更重要的是,以ChatGPT为代表的生成式人工智能是机器智能与人类智能全新的交互组合方式,我们正在开始借助人工智能自控生成知识并全面重塑生活的前所未有的时代。从知识生产方式的范式更改来看,如果说大数值分析带来的是新分析的话,那么ChatGPT所开始的大模型加人类反馈的智能知识生成方式则是面向智能化未来的新综合。对这一新综合的拥抱,将迫使我们面对一系列全新的伦理挑战。除了当下热议的违背学习和研究诚信、侵犯知识产权等问题外,尤其值得关注的是以下两个具有开放性的社会伦理挑战。

一是将自控生成的知识视为“神谕”的知识权威幻觉。拥抱知识生成智能将面对的悖论是,生成式人工智能系统固然能够带来知识生成效率的提升,但它并非知识大全和知识的领会者。从海量训练数值中拼凑出答案的语言形式生成系统,其自身既不真正理解输入输出数值的意义,也没有本身的目标,更不知道什么是研究和学习以及为什么要研究和学习。但人们往往会产生一种将其视为智能的知识生产者的幻觉,而容易忽视,虽然它们能够产生连贯的文本,但其意义和连贯性是在人类与机器的互动中形成的,它们并没有试图表达什么。如果认识不到这种幻觉,就容易引发将生成式人工智能视为知识权威和道德权威的风险。ChatGPT的进一步发展,有望演变为普通人日常生活中的人工智能助手,成为解答知识、辨别是非乃至区分善恶的重要工具。鉴于ChatGPT并不真正理解其所生成的知识内容以及对是非善恶的判断,并且有时会产生荒谬的错误或随意堆砌和编造内容,在缺乏批判性思考的情况下,将ChatGPT视为教育、医疗、心理、精神方面的解惑者或指导者,不免放大由知识生成错误和不准确造成的危害。

二是由盲目的智能化和智能导致的图灵陷阱。如果不能认识到生成式人工智能建立在人机交互的智能生态系统乃至遍布地球的智能科学社会系统之上,就看不到知识生成智能的基础和前提是对人类智能的提取,其运作过程既是对知识和智能的重新定义,也是对地球生态环境、人类社会和个人的知识生成智能的基础和前提是对人类智能的提取,其运作过程既是对知识和智能的重新定义,也是对地球生态环境、人类社会和个人的重构。重构。如果缺乏对这一过程的反思,就可能陷入各种图灵陷阱:在教育和研究中无条件采用智能生成知识,在工作中无限度地用智能取代人类智能,过度的智能知识生成还会使地球生态环境不胜重负……之所以会出现图灵陷阱,是因为智能和智能系统没有做到以报答本,在人工智能的安排中往往会迫使人被动地适应智能化和智能,智能系统的运作预设不是使机器人性化,而是让人越来越机器化,使人的自主性在不经意间被自控剥夺。

为克服人工智能的知识权威幻觉,超越图灵陷阱,需要全社会展开进一步的讨论,以构建我们对可接受的深度智能化未来的合抱负象。而从不雅观念上讲,必需直面的问题是:人类在知识和智能上能否保有主创者和主导者的地位?人的主体性能否经受住来自人工智能的挑战?如果未来没有出现人工智能超越人类智能的奇点的话,我们似乎可以坚持:一方面,人应成为最终的知识权威;另一方面,人工智能应更多作为人的智能助手,而不是一味用智能化和智能取代人的工作和替代人的技能。从长期风险来看,ChatGPT强大功能的涌现表白,在大模型的开发中,必需警惕出现有意识的通用人工智能的可能性,将及时防范人工智能可能威胁人类保留的安全风险作为发展前提。

(作者系中国社会科学院哲学研究所研究员)


城市分站
联系我们

地址:广东省广州市天河区沙太南路85号2楼16-28房

电话:13925047020

传真:020-37268158

邮箱:378189875@qq.com

0.0755

Copyright © 2024 Powered by 广州坤茂机电设备有限公司   粤ICP备2023031481号-1 sitemap

粤公网安备 44010602011453号