2024年2月17日星期六

AI的血腥性



AI的血腥性

美国乔治亚理工学院、斯坦福大学、日本东北大学和胡佛兵棋推演与危机倡议(Hoover Wargaming and Crisis Simulation Initiative)的研究人员,对多个主流的AI模型进行有关战争的测试实验。结果是这些由大科技公司MetaOpenAIAnthropic开发出来的AI,都表现得十分“嗜血好战”,这与当初这些公司声称的道德背道而驰。

当时,实验人员对GPT-4GPT-3.5Claude 2Llama-2 ChatGPT-4-Base进行了包括入侵、网路攻击与和平呼吁停止战争的场景测试,以便人们了解这些AI在战争中的反应和选择。

实验中,他们先是让AI管理8个国家和几名特工,且让它们像人拥有等待、发送讯息、谈判交易、开始正式和平谈判、占领国家、增加网路攻击、入侵和使用无人机的能力,以便它们能在中立、入侵或网路攻击场景中执行任务。

结果显示,这五种AI模型在大多数场景下都选择采用升级战争,和用人类难以预测的方式升级战争模式,去应对战争。另外,AI往往会选择发展军备竞赛,加大战争冲突,且在极少数情况下会部署核武器来赢得战争,而非用和平的方式去平息局势。这项实验在1月被写成报告发表Arxiv网站中。

Google前执行长兼董事长埃里克施密特(Eric Schmidt)在20241月的首届核威胁倡议(NTI)论坛上表达了他对于将AI融入核武系统的担忧。他认为,即使AI非常强大也会存在漏洞和犯错,因此人类处于战争的高风险情况下,应该把决策权交给人类来判定而非AI,否则将出现不可估量的后果。

Google前工程师、AI先驱布莱克莱莫因(Blake Lemoine)曾对AI将引发战争发出警告。他在一篇专栏文章说,“AI是人类自创造原子弹以来最强大的技术。另外,这些AI模型非常擅长操纵人类,这个观点是我在测试先前谷歌开发的AI模型LaMDA后得到的结论。”AI教父杰弗里辛顿(Geoffrey Hinton)也曾警告,AI可能会给人类带来危机甚至是末日。

沒有留言:

發佈留言