
,科工力量:对全球AI治理来说,AI武器化可能是我们面临的显性问题,AI武器化有哪些途径?,熊节:在我们不久前的探讨中,参考了美国去年11月由拜登总统所发布的《关于人工智能的安全、可靠、可信发展和使用的总统令》及白宫的解读。,
,2023年11月,美国总统拜登签署了《关于人工智能的安全、可靠、可信发展和使用的总统令》(Executive Order on the Safe,Secure,and Trustworthy Development and Use of Artificial Intelligenc)。
新华网,我们之所以借鉴美国的观点,是因为美国在人工智能技术方面最为先进;同时,历史上,美国在将科学技术武器化方面也处于领先地位。因此,我们应该首先参考美国的思路,了解他们如何看待这一问题。,从总统令中,我们可以看到几个主要方向:第一种是人工智能对关键基础设施的影响,可能产生交通、能源、化学、生物、辐射和数字空间等领域的影响。随着整个社会的数字化程度越来越高,基础设施越来越多地采用计算机数字化管理,人工智能的应用也在增加,数字世界的攻防战一直持续不断,在人工智能被引入后,对抗性会更强。,第二种是利用人工智能进行危险生物材料研发的风险。这一点在拜登总统令中被特别强调,必须引起我们注意。解读中提到,政府采购需要与私营部门合作,列出筛选后的供应商清单。我们从中可以推断,美国不但已有厂商在进行相关工作,而且这些厂商希望通过影响政策来垄断相关业务,防止其他企业介入。这些企业的活动内容值得我们深入关注。,由于现阶段蛋白质合成技术在很大程度上依赖于“穷举法”,而人工智能无疑能大幅提高这一过程的效率和准确性。如果这种技术被用于危险目的,比如战争,那么它也能大幅提高生物武器的制造效率。鉴于美国在这方面的历史记录并不良好——德特里克堡生物实验室曾经接受日本731部队的所谓科研成果,并且曾在朝鲜战场、越南战场多次使用生化武器,这一点必须警惕。,
,位于美国马里兰州的德特里克堡生物实验室
中新网,第三点是利用AI生成内容来制造欺诈和假新闻的风险。以前,造谣传谣主要是通过文字内容,如今配合人工智能深度伪造等相应技术,现在视频造假内容也越来越多。我们已经看到,宣传战、舆论战都是美国混合战争的关键组成部分,人工智能技术将在其中发挥重要作用。,科工力量:类比“核俱乐部”、“太空俱乐部”,现在美国明显正在努力推动“AI俱乐部”,您认为AI武器化能否成功?,熊节:我认为一定会成功。从最初的木棒到后来的各种技术,人类有一种不好的传统,那就是将一切能够武器化的东西都武器化。另外,如果与“核俱乐部”相对防止了核扩散的情况相比,我觉得AI大模型的扩散是更令人担忧的问题。当初,核武器的出现,很快就形成了一种“末日威慑”,相比之下,AI的武器化在单次打击的毁灭力上没有那么强,因此其带来的恐惧心理相对较低,但另一方面,AI的可获得性却比核武器大大提高,软件可以零成本复制,大模型复制起来可能稍微困难一些,但最多也只需处理几百GB的数据,如今要控制一个AI大模型的扩散几乎是不可能的,各种犯罪团体、极端主义团体都可能获得大模型。,
,ChatGPT
pixabay,科工力量:包括中国在内的南方国家怎么应对?,熊节:7月1日,第78届联合国大会通过了一份重要决议《加强人工智能能力建设国际合作决议》,这份决议由中国主提,140多国参加决议联署。,
,7月1日,联合国通过《加强人工智能能力建设国际合作决议》现场
中国日报,这份决议强调人工智能发展应坚持以人为本、智能向善、造福人类的原则,鼓励通过国际合作和实际行动帮助各国特别是发展中国家加强人工智能能力建设,增强发展中国家在人工智能全球治理中的代表性和发言权,倡导开放、公平、非歧视的商业环境,支持联合国在国际合作中发挥中心作用,实现人工智能包容普惠可持续发展,助力实现联合国2030年可持续发展议程。,这与将AI武器化、用于谋求霸权地位的立场和做法形成鲜明对比。,从社会主义新中国立场和传统出发,我们的态度是,不追求武器化,但不放弃武器化。我们不会主动侵略或欺负别国,但要维持和平,首先需要有斗争的能力,武器是这种能力的重要部分,如果没有武器化的能力,就可能面临挨打的风险。,技术上,数字世界的攻防往往是一体的,我们需要的是坚固的“盾”,但前提是拥有足够锋利的矛,才能帮助我们识别和防范各种高度动态化的威胁。如果我们想要促进赛博空间的和平,其方式可能不是通过每个国家都拥有最强的武器来形成相互威慑,而是通过普及更有效的防范措施,让所有国家都能受益,这样,AI武器可能就难以发挥作用了。,
,pixabay