编译/夏洛特
人工智慧(AI)新创公司OpenAI的系统似乎比想像的更容易被破解,早在2023年初,一名骇客就成功入侵了 OpenAI 的内部消息系统,窃取了有关该公司AI技术设计的详细资讯,据两位知情人士透露,骇客从员工线上论坛中,获取了有关 OpenAI 最新技术的细节,但未能进入公司储存和建构AI的系统,而OpenAI也未曾向外部公开这一事件。
OpenAI 未向外公开
据报导,两位知情人士表示,OpenAI 的高层在 2023 年 4 月的一次全体会议上,向员工披露了这一事件并通知了董事会,然而,由於未有客户或合作夥伴的资讯被窃取,高层认为骇客只是一个「没有与外国政府有关联的私人个体」,并不构成国家安全威胁,公司决定不对外公开这一消息,也未向FBI或其他执法部门报告。
更多新闻:解决ChatGPT幻觉问题 OpenAI 推出第二个神经网路
引发内部担忧
然而对於一些 OpenAI 员工来说,这一消息引发了对外国对手(如中国)窃取AI技术的担忧,即使目前这些技术主要是工作和研究工具,但这也引发了对 OpenAI 如何对待安全问题的质疑,并暴露了公司内部在AI风险问题上的分歧,在此次安全漏洞後,OpenAI 的前技术项目经理 Leopold Aschenbrenner 就曾发送一份备忘录给公司董事会,指出公司在防止中国政府和其他外国对手窃取其机密上「做得不够」,但却被解雇。
揭露人被解雇
Aschenbrenner 表示,公司是因他外泄资讯而在今年春季解雇了他, 对此OpenAI 的女发言人 Liz Bourgeois 则表示,「我们感谢 Leopold 在 OpenAI 期间提出的担忧,但这并未导致他的离职,尽管我们与他一样致力於建立安全的通用人工智慧(AGI),但我们对他所作的许多关於我们工作的声明持不同意见,包括他对我们的安全措施的描述,特别是这次事件,我们在他加入公司之前就已经解决并与董事会分享。」
AI 技术对国家安全的风险评估
值得注意的是,目前还没有太多证据表明当今的AI技术会对国家安全构成重大风险。OpenAI、Anthropic 和其他公司过去一年的研究显示,AI与搜寻引擎相比并没有显着危险性,Anthropic 共同创始人兼公司总裁 Daniela Amodei 表示,若其最新的AI技术设计被窃取或与其他人自由分享,也不会对社会构成重大风险。
强化安全保护
包括 OpenAI 和 Anthropic 在内的一些公司都已经开始锁定其技术营运,OpenAI 最近就成立了一个安全委员会,探讨如何应对未来技术,委员会的成员包括曾是美国陆军将领、领导过国家安全局和美国网战司令部的 Paul Nakasone,此外,他还被任命为 OpenAI 董事会成员之一。
参考资料:The New York Times、Reuters