年初,DeepSeek-R1的问世及开源,掀起了底层基础大模型开源的风暴,似乎也终结了AI到底是开源好,还是闭源好的争论。
随之而来的是,开源大模型的浪潮,以及更低算力成本的高性能大模型。这也让更多的企业得以拥抱大模型带来的红利。
但开源AI仍处于发展的初期阶段,一方面是对各行业的革命才刚刚开始,另一方面,包括安全、商业化等在内,仍有很多问题需要解决。
“开源可以为创新提供非常好的平台。有了开源,创新就不再是说谁提出这个新点子,谁才能参与,而是全世界的任何一个人、每个人都可以参与到创新的过程当中来,这样就可以保证全世界有更高质量的、更安全的平台,以及创新的迭代速度也会更快。”在SUSE全球首席执行官DP Van Leeuwen(以下简称“DP”)看来,对于生成式AI而言,开源是一种更优的模式。
开源大模型的崛起如同一场无声的核爆,以摧枯拉朽之势重塑了全球产业格局。从DeepSeek以“成本断崖式下降”打破闭源巨头的技术垄断,到医疗、教育、金融等垂直领域涌现的千亿级应用场景,这场革命不仅颠覆了技术研发的范式,更在全球化竞争中开辟了“开放共赢”的新路径。
而在这场革命中,中国的开发者对开源AI贡献,尤为重要。在DP看来,生成式AI的开源与其他数字技术的开源一样,需要做到无国界的合作,而DP也站在国际视角上,对近年来中国的开发者对开源社区做出的贡献表示了肯定,他表示:“中国有非常多的开发者,他们对于开源社区做出了巨大的贡献,这些中国的开发者非常积极、非常活跃,我认为这样很好,正是因为这样,中国的创新和技术才可以助力全球的发展。”
SUSE大中华区总裁陈毅威补充道,在这场浪潮中,各种AI工具及组件(如大语言模型、库和框架)更新迭代很快,因此企业选择一款自由、开源的 AI 平台就显得格外重要。作为一款业内领先的安全、私有化、面向未来的企业级生成式AI (GenAI) 平台,SUSE AI 提供了开放的企业级 AI 基础架构,具备高度的可扩展性,无论是增加新的用例,还是在企业内部扩展 AI 应用,都能轻松满足需求,助力企业应对未来挑战。
另一方面,开源大模型带来的不仅是技术迭代,更是一场生产关系的重构。以DeepSeek-R1为例,其推理成本仅为OpenAI o1模型的1/30,但数学推理和代码生成能力却达到同等水平。成本断崖式下降”的突破,使得中小企业和开发者能以极低成本调用顶尖AI能力。例如,欧洲开发者基于DeepSeek-R1仅用两周时间便开发出本地化的法律文书生成工具,成本较闭源方案降低90%。
当中小开发者能以万元成本调用顶尖AI能力,当县级医院获得三甲水平的诊断工具,当农民通过端侧模型预测作物价格,这场革命便超越了商业竞争的范畴,成为推动整个社会变革的核心要素。
除了在成本上的变革之外,DeepSeek也给传统的云服务商的服务模式带来了改变,而且这种改变已经不仅局限于新增的MaaS服务领域。首先带来的改变就是MaaS服务的诞生,包括华为云、腾讯云等在内的众多云服务商,纷纷提出了“模型即服务”(MaaS)的服务模式,通过这种模式提供一键部署,使得初创企业无需自建算力即可开发智能客服、图像生成等应用,这让企业应用模型的技术门槛更低。
对此,SUSE组合解决方案& AI总经理 Abhinav Puri对笔者表示,生成式AI带来了更大的算力需求,即便是当DeepSeek降低了算力的需求和成本以后,目前来看,全球范围内对于算力的需求依旧是旺盛的,但是企业需要知道为什么消耗如此多的算力,以及这些算力都用来做了什么,“这时候,云服务商通过API调用的方式提供算力和模型服务就需要具备一个核心的能力—可观测性,需要让企业知道这些算力用在哪里,怎么用的。” Abhinav Puri指出。
在此基础上,安全一直是企业用云关注的焦点,而在MaaS时代,安全也是很关键的一点,正如DeepSeek问世之后,因为算力成本的下降,很多企业都开始选择用一体机的方式本地化部署模型,这也侧面反应了企业对于的云安全的“不信任”,在 Abhinav Puri看来,云安全能力的提升,对于云服务商提供MaaS服务而言,是首要条件,“因为在公司的运营过程当中会产生很多的数据,那么这些自有数据都是企业隐私的,或者是商业上非常机密的,企业不希望看到任何的数据泄露。”Abhinav Puri表示。
自从AI大模型开源之风刮起之后,安全就成为了最大的挑战,“据SUSE统计,隐私和数据安全(57%)以及人工智能驱动的网络攻击(55%)是生成式AI云安全的首要问题,只有 7% 的 IT 决策者认为不存在相关安全风险。”DP指出。
以国际知名的开源大模型平台Hugging Face为例,在2024年,Hugging Face发现其平台Spaces被未经授权访问(Spaces用于创建、共享和托管AI模型和资源)。据后续分析,这次入侵似乎与Space机密有关,这些私人信息充当了解锁受保护资源的钥匙。
Hugging Face怀疑某些机密信息可能已被第三方访问,并已撤销了一些令牌作为回应。受影响的用户已得到通知,建议所有用户刷新密钥或令牌。
在发生安全事件不久之后,Hugging Face承诺加强其安全基础设施,并被爆出与云安全公司Wiz合作,以提高整个平台的安全性。Wiz的研究主管Shir Tamari在后续曾公开表示,“Wiz建议,在共享环境中运行用户AI模型的提供商评估其环境中的类似问题,并通过隔离和分段来解决这些问题。隔离是关键,如果没有隔离,潜在的威胁参与者可能会向服务上传恶意模型,运行任意代码,并执行横向移动以访问其他客户或服务本身的敏感信息。”
另一方面,作为开源AI的“带头大哥”,DeepSeek也遭受到了不小的安全挑战。在不到一个月的时间内,DeepSeek就接连遭遇了大规模DDoS攻击、僵尸网络、仿冒网站泛滥、数据库安全隐患等各种安全威胁,甚至一度对正常服务造成严重影响,根据公开资料显示,DeepSeek主要面临的是DDoS攻击,先后经历了轻微的HTTP代理攻击、大量HTTP代理攻击、僵尸网络攻击等行为,参与攻击的两个僵尸网络分别为HailBot和RapperBot。
而这些安全挑战还不仅局限在开源的AI大模型上面。2023年11月,ChatGPT遭黑客组织DDoS攻击,多次发生严重的业务中断,甚至大面积瘫痪;2024年9月20日,秘塔AI搜索引擎受到Mirai变种攻击;2025年1月7日、11日、23日、24日,kimi.ai的也被DDoS攻击.....
显然,安全的挑战不仅是局限于开源大模型方面,只不过当模型底层代码开源之后,安全的挑战更为严重。在DP看来,采用AI技术的公司面临众多安全挑战,包括生成式AI的隐私和数据保护问题,以及AI供应链中的漏洞。为应对这些风险,私有AI平台的采用将会增加。“这些平台使企业能够完全掌控其数据,保护其运营免受未经授权的数据共享、合规性风险以及‘影子AI’滥用等日益增多的威胁。”DP指出。
奇安信安全专家也对笔者表示,在防御机制建设层面,大模型需要通过严密的安全技术保障和运行监测,确保自身的安全性、可靠性和稳定性。而目前绝大多数大模型的安全建设是非常欠缺的。这点尤其体现在开源大模型方面,因为其开源的特点,虽然能带来更多创新的机会,但相对闭源的大模型而言,也更容易被攻击者发现其漏洞所在,从而成为攻击者的攻击对象。
另一方面,在生成式AI应用的带动下,中国市场对供应链和边缘安全的需求显著上升。供应链的安全漏洞被视为AI应用中的一大威胁,据统计,42%的中国IT专业人士表示将加大对SBOM(软件物料清单)透明度与安全性的关注,确保供应链的安全性。
同时,DP对笔者表示,近年来,在大模型的带动下,边缘安全事件逐渐增多,中国企业在边缘计算与现有IT系统的集成中面临新的挑战,亟需通过边缘安全方案来保障多系统环境的安全性与一致性。“这一趋势反映出生成式AI与边缘计算的融合正在加速,要求企业IT团队在分布式环境中构建更复杂的安全防线。”DP指出。
另一方面,除了这些基础的系统性的安全以外,在数据已经成为企业重要资产的当下,数据的安全也成为AI大模型要面临的重要挑战。对此,Abhinav Puri表示,企业在部署AI大模型的过程中,无一例外的都需要确保数据在隐私保护的前提下,可靠的使用自身的数据,“尤其是在生成式通用人工智能的大背景下,如何保护数据隐私,并且保护在这样的AI部署过程当中所生成的所有结果或者数据是准确的、可信任的,不会违背公司政策或者品牌指南。”Abhinav Puri强调。
开源 AI 大模型的发展正以不可阻挡之势推动着各领域的变革。从技术突破到商业化应用,从成本降低到社会赋能,开源的力量正在释放巨大的潜力。然而,这一进程并非一帆风顺,安全问题、商业化困境等诸多挑战依然存在。而如何解决这些问题将成为接下来企业与服务商共同面对的话题。(本文首发于钛媒体APP,作者|张申宇,编辑丨盖虹达)