-
乔恩·阿斯科纳斯、弗拉基米尔·波波夫:关于人工智能的常识
最后更新: 2023-11-30 09:10:34【导读】 近一年来,由ChatGPT引发的通用人工智能浪潮席卷了全世界,其背后的OpenAI也成为当之无愧的明星公司。然而,这几天OpenAI为全世界上演了一出震撼的“宫斗大戏”,其中似乎涉及公司高层对于通用人工智能未来发展的重大分歧。联系ChatGPT横空出世后出现的“暂停人工智能开发”的公开呼吁,围绕通用人工智能的辩论已经进入关键阶段。
本文分析了当前人工智能社区内的意见分化:从主张立即暂停大型AI模型训练,到将风险视为毫无根据的杞人忧天。作者主张区分“人工智能的风险”以及“对人工智能采取的安全措施的风险”这两类风险。对于前者,人工智能的恶意使用和“自身缺陷”(如算法偏见等)暂不具备“毁灭人类”的能力,真正的危机可能来自于大部分计算机行业领袖对于“机器超越/取代人类”的狂热追求,引发新一轮的军备竞赛。对于后者,一些面对极端后果的担忧可能引发应激性的安全措施,如围绕人工智能技术打造一个世界极权政府,让“人类友好的AGI”打败其他系统。
作者认为,当前围绕人工智能辩论的一大倾向是过度集中于计算机科技领域的圈子。我们必须在利用人工智能带来的生产力提升和日益复杂模型带来的危险之间取得平衡。对这些平衡方法的探讨,离不开对人类所有知识领域的见解的整合。
本文为欧亚系统科学研究会“关键技术中的竞争政治”系列编译成果,原刊于《美国事务》(American Affairs),仅代表作者本人观点。
【文/乔恩·阿斯科纳斯、弗拉基米尔·波波夫,翻译/慧诺】
图源:互联网
自ChatGPT发布之后,各种“先进的”人工智能层出不穷。与此同时,一群技术专家开始呼吁,各界应该立即停止六个月的大规模人工智能模型训练。他们的公开信得到了特斯拉创始人埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克的签署支持:“人工智能实验室陷入了无法控制的竞赛,不断开发和部署更强大的数字智能。甚至连它们的创建者都无法理解、预测或可靠控制这些模型。”
对于这封公开信,人工智能专家的意见分化非常严重。在一些主流媒体上,一些知名专家撰文认为,足够先进的人工智能系统有可能摧毁我们所知的文明。他们和一些工程师都相信,“超级智能”机器可能比人类更强大,而这个未来将变得不可控,这对一个以自然选择为基础的世界来说并不是一个好兆头。人工智能似乎激发了人类的“存在危机”。
其他资深专家则坚决反对暂停,并嘲笑这些人是“杞人忧天”。图灵奖得主、人工智能先驱杨立昆戏称,“在我们达到‘如上帝般的人工智能’之前,我们需要经过‘如狗般的人工智能’。”如果因为错误的、未经证明的科技恐惧而暂停人工智能发展,这将严重阻碍有各种可能促进人类繁荣的科学进步。
对于非专业人士来说,“人工智能”圈子内的争论实在是让人困惑,如果整个讨论不能被称为荒谬的话。这一次硅谷的炒作终于真的失控了吗?或者,我们真的有足够的理由去怀疑,人工智能科学家就是二十一世纪的核物理学家吗?
对于有效地监管人工智能,我们依然需要快速而明智地回答上述问题。不过,我们应该建立一种“常识性”方法,既能跟踪到人工智能系统那些令人费解的前沿动态,又能适度评估人工智能监管和不当使用的风险。
一、人工智能的风险
在考虑最严重的人工智能场景之前,首先应该探讨一下当前最近的风险。仅仅举几个例子,通过ChatGPT这样的新语言模型,全球虚假和错误信息的传播被明确加速,人工智能驱动的语音克隆已经在电信诈骗中很普遍。
对于恶意行为者来说,强大的人工智能很容易被武器化。随着人工智能在与人类心理和计算机系统的交互变得更加成熟,这些威胁很可能会不断升级。网络安全技术的可能被利用来实施新的黑客攻击,就像机器助手也可悲用来创造新的自动武器。
与恶意行为者无关,新兴的人工智能系统还带来了另一种“无意的”严重风险,这往往被研究人员归纳为“人工智能安全”问题。例如,偏见问题已经渗透到了各种各样的人工智能模型中,系统性地歧视各种群体的就业、贷款申请,甚至监禁时间。在自动驾驶、军事打击和健康诊断等生死攸关的领域,鲁棒性——系统可靠执行任务的能力——已经是一个明显问题。此外,未预见的人工智能与人类互动可能会产生灾难性后果,比如高级聊天机器人可能鼓励未成年人参与不适当的性关系或严重恶化精神疾病。随着人工智能越来越多地融入生活的各个方面,这些风险只有增加的可能。
然而,本文开篇“是否要暂停人工智能开发”的辩论并不来自于上述两类风险,而是来自强大人工智能的增长轨迹。
人工智能的风险场景有多种形式,但通常都遵循相似的模式。理论家们认为,随着人工智能变得越来越聪明和能干,某个时刻它们将能自主生成比人类更优秀的智能体。此后,人工智能及其能力将以指数方式不断增长,因为更聪明的系统继续建造更聪明的系统,形成一种良性循环。
理论认为,这种智能系统将远远超过人类的智能水平,很可能会偏离人类最初的意图,因为后续的迭代将更多地受到机器反馈的影响,而不是经过深思熟虑的人类设计。其结果将是,就像人类现在统治着不太聪明的生命形式一样,超级人工智能将统治人类。不用说,这将把人类置于一个岌岌可危的位置。无论是由于自然选择的压力还是与人类福祉不一致的其他动机,超级人工智能很可能会随着时间的推移将人类消灭。
这个理论可能听起来像一个科幻寓言,但它却在领先的工程师和商业领袖中获得了出人意料的广泛认可。为了强调这种结果的可能性,支持者指出,高度先进的模型会自发地发展出其制造者意料之外的技能;这种技能很难检测,更不用说减轻了。最先进的语言模型已被证明极难以可靠的方式去理解或控制。人工智能系统已经能在人类最复杂的策略游戏中一贯击败最优秀的人类选手,甚至包括一些需要欺骗和操纵的游戏。如果高级人工智能脱离我们的掌握,这是一个黑暗的前兆。
然而,即便你我不相信人工智能将达到“神”一样的地位,还是会有另一个平行的担忧:一些人过于痴迷人工智能,并且试图将整个千年的资源都投入其中。那些掌握着人工智能最大进展的人,都怀有实现超级人工智能的乌托邦愿景,并提供近乎宗教般的承诺。
头部企业OpenAI的CEO山姆·阿尔特曼(Sam Altman)宣称,构建超越人类的人工智能是“也许是人类历史上最重要、最有希望、最可怕的项目”。Google的CEO孙达尔·皮柴(Sundar Pichai)也认为人工智能是“人类正在投身的最深刻的技术变革——比火和电还要深刻”。这种狂热者的名单很长,包括该领域几乎所有最有影响力的机构的领导者。
历史上充斥着实现乌托邦梦想而走上歧途的灾难性尝试。每年涌入实验室的数百亿美元,用来实现那些全身心投入到上述目标的人的愿望。这并不是一个好兆头,因为越来越多的人工智能公司正在逐渐放弃安全,只追求速度。考虑到新兴人工智能技术的高度实验性质、行业缺乏安全规范和标准,以及其领导者的危险野心,我们必须采取措施来控制多个层面不断增长的风险。
二、人工智能安全措施的风险
在人工智能之外,其配套的安全措施也存在风险。当前一个关键观点是,我们必须在评估中包括“治疗性成本”(iatrogenic cost)。如果不这样做,微小的边际风险可能会导致巨大的成本。例如,美国食品药品监督管理局对Covid-19疫苗的安全评估模型中,就未能包含由于疫苗延迟部署而导致的额外死亡。
对于人工智能的安全措施,必须要在这一点上进行额外的审查,因为其政策建议和成本效益分析的许多依赖于“尾部风险”(tail risks,译者注:在金融学中,尾部风险是指在巨灾事件发生后,直到合约到期日或损失发展期的期末,巨灾损失金额或证券化产品的结算价格还没有被精确确定的风险)的权重,即极低概率、极高成本的事件。尾部风险无法被完全忽略,但要论证它们却十分困难,因为使其发生的情况非常脆弱,越是高成本期望的情景,其发生的概率越小。对于人工智能安全的担忧,必须同时分析其潜在危险的可能性及其对应的成本。
两个因素可能会使我们对尾部风险场景的可能性产生怀疑。首先,虽然“这一次真的不一样”是可能的,但许多新技术都曾引发了歇斯底里的“警情”。与基因编辑或核技术相比,人工智能系统将要进入的混乱人类世界似乎充满了各种缺陷。当今世界,大多数关键系统仍然需要沉闷的手动操作,核导弹仍然运行在软盘上,我们很难想象人工智能如何悄无声息地进入物理世界,并且能启动自组装的纳米机器工厂。
其次,使得当前人工智能运行的前提,即其理解背景的能力,往往会降低其风险。大多数让人工智能发生风险的情景,其所需要的上下文前提往往非常“离谱”。例如,在一个名为“曲别针制造机”(Paperclip maximizer)的思想实验中,一个通用人工智能(Artificial General Intelligence,AGI),其效用函数就是制造尽可能多的曲别针。换而言之,它的终极目的是制造曲别针这个看似无害的目标,并且它对人类没有特殊的情感。但是,这样一个看上去无害的人工智能却很有可能对人类造成威胁。(译者注:关于强人工智能/通用人工智能AGI,有一种理论叫做“工具趋同”理论,它认为无论目的为何,强人工智能总是会选择相同的手段来更加有效地达成自己的目标:保证自身的存续,自我改进,以及攫取更多资源。于是我们提到的这个专做曲别针的强人工智能在老实做一段时间的曲别针之后,就会以指数级的速度用周围的资源增强自己,直到它将全宇宙的资源纳入自己的系统中,并将所有的资源全部做成曲别针为止。即使不考虑这种极端情况,曲别针制造机也很可能会把人类的生活必需品甚至人类都收集来做曲别针,从而威胁到人类的生存。)
然而,要达到这样强人工智能,就需要为大语言模型(Large Language Model,LLM)添加足够的上下文和广度,这就依赖直观的人类限制。目前看来,改善LLM的大小和范围似乎与改善其对人类上下文的理解是一回事。虽然围绕这个问题的研究仍处于早期阶段,但迄今为止,改善模型性能似乎也有利于人工智能在其初始状态下与人类社会的对齐。
大语言模型(图源:网络)
- 原标题:OpenAI激烈内斗,曝光遏制派和加速派都无力应对的困局? 本文仅代表作者个人观点。
- 责任编辑: 周子怡 
-
0.1微米!超精密加工利器来了
2023-11-30 08:15 中国精造 -
打造世界一流科技期刊,中国底气在哪里?
2023-11-29 14:00 -
中国载人航天工程办公室:盼港澳航天员进驻祖国空间站
2023-11-29 10:19 航空航天 -
中国空间站第一组全构型工作照发布
2023-11-28 16:58 航空航天 -
中国首颗高精度地磁场探测卫星投入使用
2023-11-28 15:02 航空航天 -
朝中社:朝鲜加快“万里镜-1”号侦察卫星微调进程
2023-11-27 18:54 朝鲜现状 -
如果未来20年“机器人女友”成为现实,人类能收获AI爱情吗?
2023-11-27 17:41 -
高林:发展人工智能应坚持“智能向善”
2023-11-27 15:03 人工智能 -
刘伯超:真诚希望中美双方深化人工智能技术交流与合作
2023-11-27 15:03 人工智能 -
突破“卡脖子”难题,我国首次成功研发!
2023-11-27 14:59 中国精造 -
我国首张,初步建成!完整覆盖国土全境
2023-11-27 10:33 航空航天 -
95后天才少年曹原将赴伯克利任教,曾发现石墨烯超导角度轰动国际学界
2023-11-27 09:26 -
代表世界最高水平!这一核心装备研制成功
2023-11-26 18:36 -
中外合作获得高精度月表化学成分分布图
2023-11-25 19:17 -
金正恩观看侦察卫星拍摄的首尔等重要目标地区图片
2023-11-25 07:21 朝鲜现状 -
“墨子”发现潜在威胁小行星!
2023-11-24 13:14 航空航天 -
全球首个商用海底数据中心今日下水,为什么要沉入海底?
2023-11-24 10:48 科技前沿 -
首只全流程国产克隆猫降生!克隆技术全流程国产化意味着什么?
2023-11-24 06:54 -
颜宁回应当选中科院院士
2023-11-23 15:25 -
名单公布!46人当选2023年两院外籍院士
2023-11-23 13:41
相关推荐 -
中方严管,印企着急:几天内汽车生产将陷入停滞 评论 158“欧盟想‘投降’,只有法国公开反对” 评论 138被当面说“胆怯”,特朗普大破防 评论 163“简直势不可挡!”美议员又操心起中国了 评论 74“从零开始发展行不通,我们必须拥抱中国” 评论 49最新闻 Hot
-
马科斯任命新国家警察总长,曾带头逮捕杜特尔特
-
为抵制中国货吐槽象头神像“眼睛小”?莫迪被批种族歧视
-
“我们提议6月2日再次谈判,乌方尚未回应”
-
豪华大礼到了,特朗普:太大了
-
德国经济学家:虽反超日本,可我们投资水平一言难尽...
-
中方严管,印企着急:几天内汽车生产将陷入停滞
-
“卡塔尔坚持:写清楚是你们主动要的,我们不包售后”
-
“我们抱怨美国背叛没用,小心闹到‘愤怒离婚’”
-
湖南慈利县一溶洞因排污被污染,3家养殖户被立案调查
-
又来?特朗普政府被曝要禁止对华出售芯片设计软件
-
克宫:特朗普,根本不懂
-
被当面说“胆怯”,特朗普大破防
-
“美国头一个醒过来:中国用十年做到了,怎么整?”
-
美国等急了:稀土出口还不松,那不给中国航空技术
-
“美国退出,中欧要担起领导责任”
-
黄仁勋拍特朗普马屁:中国用美国的,赢了
-