Top
首页 > 新闻 > 九州 > 社会新闻 > 正文

未雨绸缪还是杞人忧天?ChatGPT可能将抢走你的饭碗

社会新闻 华商网-华商报 2023-03-31 06:45:44

  近日,未来生命研究所网站披露了一封公开信,呼吁所有AI实验室立即暂停比GPT-4更强大的AI系统训练至少6个月。

  公开信指出,当代人工智能系统在一般任务上已变得与人类具有竞争力,必须扪心自问:

  我们是否需要让机器宣传充斥着信息渠道?

  我们是否要自动化所有工作?

  是否最终发展成可能超过我们并取代我们的非人类思维?

  应该冒险失去对我们文明的控制吗?

  “高级人工智能可以代表地球生命史上的深刻变化,应该投入相应的关注和资源进行规划和管理。但不幸的是,这种级别的规划和管理并未发生。在最近几个月,人工智能实验室被锁在一场失控的竞赛之中,大家争相开发和部署更强大的人工智能系统,以至于没有人能够完全理解、预测或可靠地控制这些进程,即使他们的创造者也不能。”

  在对可能失去文明控制的风险作出预警后,公开信指出,“只有在我们确信强大的人工智能系统的效果将是积极的,风险是可控的,才应该开发。”

  “因此,针对任何比GPT-4更强大的人工智能系统的训练,我们呼吁所有人工智能实验室立即暂停至少6个月。这种暂停应该是公开的和可核查的,并囊括所有关键参与者。如果这种暂停不能迅速颁布,各国政府应该介入并制定暂停令。”

  公开信还提到,6个月的暂停并不意味着人工智能总体发展的暂停,只是从目前危险的竞赛中退后一步。在公开信的末尾,作者们将目前人工智能发展现状比作收获回报的盛夏,并再次强调对人工智能发展过快进行控制是为了让大家享受一个更漫长的盛夏,而非在毫无准备的情况下匆忙入秋。

  公开信是谁写的?

  生命未来研究所是2014年由Skype联合创始人让·塔林、麻省理工学院物理学教授马克斯·泰格马克在内的五位成员创立于美国波士顿的研究机构,在其科学顾问委员会成员中,埃隆·马斯克赫然在列。成立该研究所的目的一方面是为了促进对“未来乐观图景”的研究,一方面则是为了“降低人类面临的现存风险”。2017年制定了Asilo-marAI原则,这份原则的23项条款里涉及到人工智能的发展问题、伦理和指导方针,被公认最早和最有影响力的AI治理原则之一。

  公开信有啥影响?

  这封公开信已经获得了上千人签名支持,埃隆·马斯克于公开信下第三位签名,苹果联合创始人史蒂夫·沃兹尼亚克紧随其后,署名序列中还包括StabilityAI的创始人穆斯塔克、Skype的联合创始人和Pinterest联合创始人,以及一位图灵奖得主约书亚·本吉奥。签名人数还在持续增加中。

  据媒体报道,OpenAI的首席执行官阿尔特曼的名字曾短暂出现在署名名单中,此后消失。不过有四名谷歌员工在名单上署名,包括来自谷歌旗下人工智能实验室DeepMind的三名研究科学家。

  >>堪忧的当下

  随着ChatGPT热潮,当全社会都在为AI的进化而欢呼雀跃之时,很多科技界和学术界部分人却认为AI技术风险越来越高。

  忧患者:

  AI实验室陷入了失控的竞赛

  此次披露的公开信引用了AsilomarAI原则的内容——顶级实验室的深入研究表明,具有与人类能力相匹配的AI系统可能对未来社会和人文道德构成风险,正如广泛认可的AsilomarAI原则中所述,高级AI可能造成地球生命史上的深刻变化,应以相应的资源等进行规划和管理。不幸的是,为了开发和部署更强大的数字思维,最近几个月AI实验室陷入了一场失控的竞赛,但相应级别的规划和管理目前还没有。

  研究者:

  AI“杀死”人类不再是空谈

  随着ChatGPT和GPT-4风靡全球,一时与ChatGPT相关的各种信息遍布网络。但随着讨论热度转向通用AI技术带来的风险话题,ChatGPT“之父”阿尔特曼自身也加入其中,他提到,强大的AI杀死人类有一定可能性,“很多关于AI安全和挑战的预测被证明是错误的,我们必须正视这一点,并尽早尝试找到解决问题的方法。”在阿尔特曼看来,GPT-4已经让大家看到,AI“杀死”人类不再是空谈。他坦言,“客服”将会是受到大规模冲击的工作类型。

  当事者:

  公开信提出的呼吁不是终点

  ChatGPT是如何看待公开信中AI对人类社会的影响?华尔街见闻专门询问了ChatGPT3.5,其表示随着人工智能技术的不断发展和普及,人工智能可能对社会和人类造成的影响将越来越大。这封公开信提出的呼吁和建议,应该被视为引起更广泛和深入讨论的起点和参考,而不是一个终点或解决方案。

  >>设想的未来

  多位科技大咖和学术界人士对于AI技术带来的风险挑战表达诸多看法,对AI发展的潜在威胁表示关切,强调在推动技术进步的同时确保人类的安全和福祉。

  阿尔特曼:

  呼吁监管机构参与这项技术

  面对业内对AI“邪恶”想法的质疑,阿尔特曼称:“AI至今仍然是一种非常受人控制的工具。”但他也承认,一些拥有AI输入控制权的人可能无视人们对人工智能设置的一些安全限制。

  “我认为,社会只有有限的时间来弄清楚如何对此做出反应,如何对其进行监管,如何处理它。”阿尔特曼说道。他也呼吁监管机构和社会需要进一步参与这项技术,以防止对人类造成潜在的负面影响。

  彭雷:

  预测会出“AGI不扩散条约”

  脑机接口公司脑虎科技联合创始人、CEO彭雷表示,照这个发展速度,他预测未来两年内会出来一个类似“核不扩散条约”的“AGI不扩散条约”,限定超过一定量级的大模型被部署和训练,甚至安理会成员国来缔约签署,并搞个类似“国际原子能机构”来监督模型的参数和运行状态,类似管理离心机一样。

  周鸿祎:

  不发展才是最大的不安全

  3月30日,360集团创始人、董事长周鸿祎发文称,“马斯克呼吁暂停GPT-5的研发。我自己是做安全的,但我坚定地认为,不发展才是最大的不安全。”

  “不管你愿不愿意,GPT都将引领一场新的工业革命,意义超越互联网和iPhone的发明。它将带来生产力的大幅提升,进而提升国家竞争力。周鸿祎表示,最近人工智能的指数级跃变确实让人有点措手不及,“我一直预测,GPT-6到GPT-8的版本就会产生真正的意识,甚至进化成一个新物种。”

  在周鸿祎看来,GPT-4已经是超级人工智能的雏形,早就出现了一些连它的创造者都无法解释的现象,比如涌现、幻觉、能力的迁移和逻辑增强。就像猿猴进化成人,不知道在哪个节点会发生智力的突变。 综合

  有人把以ChatGPT为代表的AI技术革新称之为硅基生命开启。然而,对人类社会而言,灵魂从寄生碳基转向寄生硅基实属悲伤,但将来可能会成为事实,因为人工智能和人类灵魂的结合才是完美的和永恒的。



来源:华商网-华商报

编辑:唐港

相关热词搜索: 饭碗

上一篇:武汉发现一死亡江豚:身体几乎断成两截 已移交科研机构 下一篇:两少年被骗至缅北“挣大钱”:靠父母转钱吃饭 尚不知何时能回家

表达看法

本地 新闻 娱乐 财经 数码 教育