AI竞赛升级, 美国商业秘密保护陷入两难
保护AI核心技术资产已成为美国的战略要务。
随着全球AI技术的迅猛发展,一场事关国家技术优势与经济安全的激烈竞争已然展开。在这场没有硝烟的“AI竞赛”中,保护AI核心技术资产已成为美国的战略要务。
日前,美国众议院司法委员会下属的法院、知识产权与AI小组委员会举行了一场听证会,探讨了在AI时代,作为核心无形资产的商业秘密面临的挑战与监管困境,并为维护美国在AI领域的领导地位寻找前瞻性战略。
AI竞赛中的商业秘密与国家安全
听证会上,美国前网络安全高级官员尼古拉斯·安德森开宗明义地强调,在全球AI竞争日益激烈的背景下,保护美国的商业秘密至关重要。AI不仅仅是一项新技术,更是关键基础设施。一些外部攻击有时以隐蔽的“特洛伊木马”形式潜入,伪装成有潜力的初创公司。他提出的潜在解决方案包括:实施审查机制、禁止与外国军队或政府合作,并要求披露涉及上述组织的AI技术。
随着AI变得更智能、更高效、更深入地融入社会,其所持有的商业秘密价值也呈指数级增长。商业秘密的价值恰恰在于其不向公众披露的本质。过去,发明家可以依赖专利或版权来保护那些不易被反向工程的技术。然而,对于那些能被轻易“复制粘贴”或反向工程的AI创新来说,专利和版权等传统保护手段的效果大打折扣,导致美国公司几乎无法提起侵权诉讼。
在高科技领域,技术迭代速度非常快,如何保护前沿技术的知识产权,并在权益分享与知识扩散之间找到平衡,对全世界都是一个难题。新兴技术的知识产权法律政策日益成为保障国家安全的重要催化剂。为此,美国、欧盟和中国都在全力研究并进行战略部署,以保护和平衡各自的利益。
例如,欧盟“地平线”项目自2024年起不再对美国和中国企业开放。原因在于,该项目涉及知识产权共享,欧盟自认在应用开发和市场迭代方面,无法与美中两国竞争。
美国《经济间谍法》和《保护商业秘密法》将盗用商业秘密定为犯罪,并提供了民事诉讼权利。然而,这种权利仅限于美国法院,少数几个处理商业秘密盗用的国际途径普遍被认为效率低下且不切实际。美国软件与信息产业协会的克里斯托弗·莫尔建议:为小型公司提供更多网络安全支持、利用美国外国投资委员会的审查来阻止未经授权的数据和商业秘密转移,以及促进独立于外国供应商的AI系统发展。莫尔认为,减少训练数据、模型权重和其他AI敏感信息的披露是更好的选择。
2021年3月,美国国家AI安全委员会(NSCAI)发布了长达756页的报告,指出美国尚未为AI时代的国防和竞争做好准备,呼吁美国总统发布行政命令,将商业秘密、知识产权确认为国家优先事项,并将其深度整合到美国的国家安全、经济和技术竞争力战略中。
NSCAI指出,美国在知识产权制度方面存在一系列严峻问题。美国法院对计算机和生物技术相关发明的专利保护存在严格限制,导致许多关键的AI技术无法获得专利,发明者因此不得不转而依赖商业秘密。后者虽然能提供一定保护,但这并非理想的知识产权工具,因为它会阻碍技术知识的传播,损害AI创新生态的长期发展。NSCAI数据显示,中国已实现了在专利数量上超越美国的战略目标。2019年,源自中国的AI专利申请量已超过美国,彻底扭转了2009年美国在专利数量上对中国近乎两倍的领先优势。此外,美国在数据保护政策上的缺失也阻碍了AI创新和公私合作,因为AI和机器学习系统高度依赖于数据集,而明确的数据法律保护是吸引投资和国际合作的关键。
美国海军陆战队大学的本杰明·詹森博士认为,盗窃商业秘密必须被视为对国家安全的威胁,而不仅仅是民事诉讼问题。在他看来,AI的广泛应用是一场“争夺‘智能体时代’主导权的竞赛”,并且是“21世纪大国竞争的核心特征”,不应仅靠民事诉讼来解决。
2025年上半年,美国与AI相关的商业秘密诉讼案件数量激增,其中涉及AI的诉讼案高达36个,比2024年上半年增长了80%。在这一时期,计算机硬件、软件和服务行业的诉讼数量位居各行业之首。引人注目的案件包括特斯拉公司诉Proception公司案,其中特斯拉指控被告方盗窃了与其“Optimus”机器人相关的商业秘密。此外,一家医疗AI公司OpenEvidence公司也提起了两起诉讼,指控被告利用提示词注入盗用其专有源代码并侵害其商业秘密。
这些案件进一步印证了商业秘密已日益成为保护AI相关技术的合适法律机制。新近备受瞩目的xAI公司诉前雇员泄密案则为这一趋势提供了最新注脚。该案中,xAI指控一名前工程师在跳槽至竞争对手OpenAI前,窃取了其Grok聊天机器人完整的核心代码库。xAI声称,这些被盗的商业秘密包括“优于ChatGPT”的尖端AI技术,其价值高达数十亿美元。该案不仅凸显了AI行业人才争夺战的白热化,更揭示了在这一高风险领域,竞争优势与企业间谍活动之间的界限已变得异常模糊。
AI模型开放对商业秘密保护的挑战与监管困境
加州大学洛杉矶分校法律、电气工程和公共政策教授约翰·比利亚塞诺尔指出,即使是“开放”的AI模型也涉及商业秘密。他解释,“开放”是一个光谱概念,而非简单的二元对立。企业通常只会发布部分信息,例如训练过程产生的模型权重,同时保留那些更有价值的专有信息。他通过技术、经济和法律三个层面对此进行了详细论证:技术层面,AI模型的性能关键在于训练数据、算法细节和优化方法,这些信息很少被公开;经济层面,AI模型的开发成本高昂,商业秘密保护为企业提供了防止竞争对手“搭便车”的法律工具;法律层面,根据美国法律对商业秘密的定义,任何具有经济价值且未公开的信息都可被视为商业秘密,这完全涵盖了AI训练数据和算法等核心技术。
鉴于AI系统的自适应性和复杂性,导致AI设计者与系统实际行为之间存在脱节,比利亚塞诺尔就AI中的商业秘密保护提出了两个关键问题:首先,AI系统设计者是否可以拥有他们不完全理解的算法的商业秘密权益?他认为答案是肯定的,因为美国联邦商业秘密法并未要求AI保密信息持有者必须理解其内容,只要他使用该信息为其带来现实的或潜在的经济价值,且对其采取合理的保密措施,他就成为该算法商业秘密的所有人。
其次,AI的“黑箱”特性给商业秘密侵权诉讼带来了独特的挑战。尽管美国法律允许AI设计者拥有其不完全理解的算法的商业秘密权益,但在实践中主张这项权益却非常困难。因为在侵权诉讼中,原告必须向法庭提供关于算法的足够细节,以满足法庭对商业秘密构成三要件的严格要求。如果AI设计者自己都无法详细解释其算法的运作方式,他们就很难向法庭提供必要的证据,从而很难胜诉。
比利亚塞诺尔也对AI监管提出了警告。他认为,过于宽泛的AI报告法规和透明度要求可能会损害美国的AI领导地位。他举例说,一项已被撤销的前拜登政府行政令曾要求AI公司报告其模型权重和计算集群的位置及能力等信息。他指出,一旦政府强制公司提交这些专有且核心的技术信息,就等于创建了一个包含美国最顶尖AI技术的集中式数据库。灵活且包容的AI监管应仅限于解决现有法律框架无法处理的危害。
AI人才培养的挑战与机遇
美国国家安全委员会报告指出,人才赤字是美国政府在AI领域最显著的短板,也是其部署AI技术面临的最大障碍。委员会建议建立全新的数字服务学院(DigitalServiceAcademy)和国民数字预备队(NationalDigitalReserveCorps),以培养和招募数字人才。
比利亚塞诺尔也指出,“企业对AI商业秘密过度主张”可能带来的反竞争后果。他认为,美国AI生态系统之所以充满活力,部分原因在于其人才的自由流动性。如果对商业秘密权的主张过于宽泛,可能会阻碍有经验的工程师离开大公司创办自己的初创企业。卡姆拉格-多夫议员提出了一个不同的担忧。她强调,在AI领域,不仅要考虑“是什么”(what),还要关注“是谁”(who)。她引用白宫经济顾问委员会于2025年1月14日发布的一份“AI人才报告”,质疑如果美国不解决吸引、培养和留住外国顶尖人才的问题,那么任何旨在保护AI技术的法规都将效果有限。乔治城大学安全和新兴技术中心的海伦·托纳承认,美国相对于外国的最大优势之一是提供了世界一流的教育和机会。将AI人才库仅限于在美国出生的人才,将严重限制美国维持其在AI世界领导地位的能力。她引用了“超过三分之二的顶级AI初创公司都有一位移民创始人”这一事实来证明此观点。
综上,美国正处于一场复杂而紧迫的AI博弈之中,其核心议题是如何平衡商业秘密保护、技术开放、人才流动与国家安全。尽管存在政治分歧,但美国跨党派的共识正在逐步形成:保护商业秘密,对于美国来说,不仅仅是经济层面的选择,更是捍卫国家AI技术优势的战略必然。未来,美国在AI领域的领导地位,将高度依赖于其能否在复杂的地缘政治和技术环境中,成功驾驭这场高风险的博弈。
(作者系华中科技大学知识产权与竞争法中心主任、二级教授)