《碟中谍7》的超级AI令人胆寒现实可能更加凶险

来源:ayx爱游戏官方    发布时间:2023-08-22 11:17:59

  在深海里,一艘俄罗斯的潜艇疑似遭到未知鱼雷的攻击,船长下令发射鱼雷作回应。过一会儿敌方潜艇突然消失在雷达里。众人以为是仪器出了点故障,松了口气,不料刚才发出的鱼雷竟然自己拐了弯,将这艘潜艇炸个粉碎。

  这是好莱坞新片《碟中谍7》的第一幕。与以往不同,炸毁潜艇的反派是名叫“智体”的超级AI,它无处不在,可以瞬间清除实时视频,冒充任何人的声音,破解人的身份安全码(甚至是指纹码),轻松入侵全世界的赛博空间。

  只有一把金属钥匙可以关闭智体。为了争夺钥匙,阿汤哥饰演的主角伊森与智体及其党羽展开殊死搏斗。

  而在戏外,本月,好莱坞的演员和编剧爆发了一场浩大的罢工。这场罢工的一大原因是,生成式AI给影视圈带来的威胁。演员担忧AI创建的数字替身终有一天会取代自己,编剧则拒绝可能到来的现实:AI写剧本初稿,他们来润色修改。

  阿汤哥也公开支持好莱坞对AI的,向制片商喊话,不要忽视演员对AI的担忧。

  AI技术的进步是这个时代无法回避的话题。换个角度想,《碟中谍7》人与AI的对抗,像是好莱坞反抗人工智能的一个隐喻。

  《碟中谍7》导演克里斯托弗麦奎里认为,我们当下的时代精神就是技术带来的焦虑,技术怎么样影响人们的生活。他说,AI很像冷战期间的核弹,不用强调,任何一个人都感受到了。

  这个故事巧妙地迎合了今天一部人的情绪:对日益进步的AI的恐惧和担忧。不过,现在AI还远无法达到这种智能程度。

  在电影中,智体可能是男主角面对的最可怕的敌人,因为它已经进化到具备自我意识,能预测人类的每一步行动,因此几乎把伊森和他的团队逼入绝境。

  令人恐惧的另一个因素是,人类无法知道智体想要什么,它的动机始终处在神秘之中。也许下一部电影将解答这个疑问。但在现实中,AI本身就是一个巨大的黑箱,没有人有信心解释到底发生了什么。

  早在ChatGPT在全球爆红时,至少有一部分人坚信,生成式AI将造成人类生存威胁。恐惧建立在未知上,但事实是,生成式AI目前仍处在早期阶段,它的能力被夸大了。

  人工智能有可能获得自我意识,甚至拥有欲望和贪婪吗?牛津大学教授桑德拉瓦赫特否认了这一点,他在接受英国媒体Evening Standard采访时称,大众混淆了生成式AI和AGI(通用AI),“没有证据表示我们正在往AGI发展,甚至这条路存不存在都不好说。”

  智体可以每时每刻删掉监控里的部分画面,甚至侵入AR眼镜,冒充人类的声音。据英国媒体Evening Standard报道,IT安全公司F-Secure的专家劳拉康卡拉说,抹去监控录像画面理论上是可行的,但要想做到实时删除,背后需要的计算资源是巨大的,至少现在还办不到。

  至于影片开头的潜艇事件,网络安全公司Dargtrace的专家托比刘易斯则表示,AI可能趁潜艇在港口停靠时,或者浮出水面时,通过潜艇的通信渠道进入。

  另一个专家詹姆斯反对这个设想,他告诉Evening Standard,军用潜艇为了隐藏位置,和总部之间的通信渠道会受到严格限制。AI试图从通信渠道进入,攻击军用计算机系统,污染潜艇的声纳系统,不太可能会发生。“但这是个很棒的电影故事情节。”

  尽管如此,出于对AI失控的担忧,慢慢的变多人开始呼吁对其进行监管和限制。早在今年3月,马斯克和一系列硅谷名流及科学家共同签署了一封联名信,呼吁各方暂停开发生成式AI六个月。这封联名信征集了超过33000个人的签名。

  他们的担忧有一定道理,毕竟科学技术进步的速度可能超乎常人想象。一些看似遥远的技术已变成现实,比如电影里主角常用的指纹识别、无人机设备和AR眼镜等等。

  智体失控,本是一场不必要的灾难,然而整部电影中,只有阿汤哥想彻底摧毁它。编剧借一个角色的台词说出真相:不是要消灭它,而是要控制它。

  公平地说,AI威胁人类尚且还早,使用AI的人类相互对抗,才是正在加剧的威胁。换句话说,AI已经不可避免地涉足到国防军事领域,甚至被运用在现代战争里。

  AI技术将使战争可能减少人员受伤或死亡。搭载AI的无人机可以在复杂环境中导航,并以巨大的精度进行侦查,对目标发起精准打击。这种“斩首行动”也极具威慑力。据报道,美国国防部正在研发能驾驶战斗机的AI机器人。一位军方顾问道格拉斯肖说:“在未来,无人机的数量将远超武装部队的人数。”

  AI系统将改变战争决策。AI提供的情报分析,使决策窗口从几天或几小时,缩短到几分钟。斯坦福大学教授赫伯特林接受《》采访时说,因为AI的运算速度远超过人类,领导层可能过度依赖AI的情报。那么,万一AI给出虚假情报,甚至做出错误决策呢?

  这并非没有先例。早在伊拉克战争期间,美军的导弹系统就曾击落过友军战斗机,事后证明是系统的自主操作。

  2020年中东战场,被称为“游荡弹药”的无人机不需要人类的远程操作,就能自主巡逻。无人机内置炸药,自动识别地面目标,然后俯冲过去轰炸。AI自动杀人慢慢的变成了现实。如果AI将平民误认为,将医院误认为军事基地,后果不堪设想。

  为了避免这类悲剧,今年一月,美国国防部在关于使用AI武器系统的指令中规定,开发和部署AI武器系统必须至少有人为判断。

  反对AI武器的大有人在。年满100岁的基辛格刚出生时,人类的战争还要使用到马匹,现在这位美国前国务卿在思考AI战争,他呼吁道,国际社会应该暂停军事化AI的发展,“是时候用新的国际法来规范这些技术”。

  但是,暂停的可能性微乎其微,当前紧张的国际局势里,人工智能军备竞赛不可能彻底结束。

  五角大楼官员约翰谢尔曼公开表示,“如果我们停下来,海外的潜在对手不会停下来。我们一定要继续前进。”

  著名导演卡梅隆也有类似的担忧。上周,卡梅隆接受各个媒体采访时警告道:“我认为人工智能的武器化是最大的危险,我觉得我们会陷入一场类似核军备竞赛的人工智能竞赛,如果我们不去开发它,其他人肯定会去开发它,然后就会升级。”

  目前来看,各国能做的,就是呼吁一下,采取些限制措施,比如“负责任地部署与使用人工智能”;对核武器的所有方面做严格的“人为控制与参与”,不把发射权交给计算机;在军事AI的每个阶段进行严格的人为监督、测试和验证;AI系统应该从一开始就明确其任务,并能被关闭。

  7月18日,联合国安理会首次就AI威胁国际和平与稳定,召开会议。秘书长安东尼奥古特雷斯说,联合国必须在2026年前达成一项具有法律上的约束力的协议,禁止在自动武器中使用人工智能。

  说实话,没有人真正知道更新更强大的AI技术在军事领域能做什么。风险与日俱增。仅有的一点好消息是,在探索AI军事应用时,大国可能都会更加小心翼翼,这可不是玩笑。