×

使用Ollma本地部署DeepSeek大模型有风险?院方该如何紧急规避?

hqy hqy 发表于2025-04-14 02:57:37 浏览4 评论0百度已收录

抢沙发发表评论

近期国家网络安全通报中心的一则公告,为正如火如荼推进DeepSeek大模型落地的医疗机构敲响警钟。通报称:鉴于目前DeepSeek等大模型的研究部署和应用非常广泛,多数用户使用Ollama私有化部署且未修改默认配置,存在数据泄露、算力盗取、服务中断等安全风险,极易引发网络和数据安全事件。

主要风险隐患详情如下

使用Ollma在本地部署DeepSeek等大模型时,会在本地启动一个Web服务,并默认开放11434端口且无任何鉴权机制。该服务直接暴露在公网环境,存在以下风险:

1、未授权访问:未授权用户能够随意访问模型,并利用特定工具直接对模型及其数据进行操作,攻击者无需认证即可调用模型服务、获取模型信息,甚至通过恶意指令删除模型文件或窃取数据。

2、数据泄露:通过特定接口可访问并提取模型数据,引发数据泄露风险。如:通过、/api/show接口,攻击者能够获取模型的license等敏感信息,以及其他接口获取已部署模型的相关敏感数据信息。

3、攻击者可利用Ollama框架历史漏洞(

CVE-2024-39720/39722/39719/39721),直接调用模型接口实施数据投毒、参数窃取、恶意文件上传及关键组件删除等操作,造成模型服务的核心数据、算法完整性和运行稳定性面临安全风险。

在模型部署过程中,医院该做好这八点

一、建立严格的数据访问权限控制体系

部署多层级身份认证与动态授权机制,限制仅授权人员可接触特定敏感数据,通过角色权限划分确保最小必要访问原则,避免数据越权调用。

二、实施全链路数据加密与匿名化处理

对存储、传输及计算过程中的医疗数据进行端到端加密,采用不可逆脱敏技术处理患者隐私字段,确保原始敏感信息无法通过算法反推或关联还原。

三、构建独立安全的模型训练环境

在隔离的私有化环境中部署大模型,切断与公共网络的物理连接,采用虚拟化容器技术实现数据沙箱隔离,防止训练数据泄露至外部系统。

四、强化数据使用审计与行为追溯能力

部署实时日志监控系统,完整记录数据调用、模型训练及结果输出的全流程操作,结合区块链技术实现不可篡改的审计追踪,确保异常操作可快速定位追溯。

五、制定模型输出内容安全过滤机制

建立医疗知识合规库与风险词过滤系统,对模型生成的诊断建议、报告结论进行自动合规性校验,嵌入人工复核节点阻断错误或敏感信息输出。

六、建立动态风险评估与应急预案

定期开展数据安全攻防演练,结合威胁情报更新漏洞检测规则,预设数据泄露、模型劫持等场景的自动化响应策略,确保安全事件处置时效性。

七、完善第三方服务商安全管理规范

与技术服务商签订具有法律约束力的数据保密协议,明确数据主权归属与销毁责任,部署硬件级可信执行环境(TEE)确保合作方无法接触原始医疗数据。

八、实施持续性的安全能力迭代升级

建立医疗AI伦理委员会监督机制,定期评估模型算法偏差风险,同步更新隐私计算、同态加密等新型防护技术,保持安全防护体系的前沿性。

福鑫科创为医疗机构提供大模型一站式解决方案,从硬件算力、算法、数据整合、微调训练、接口对接、场景应用的全链条服务,降低医疗机构在技术整合上的复杂性,确保院内部署模型安全性,帮助用户专注于核心业务,提升工作效率。

同时官方也给出了五项安全加固建议:

1、 限制Ollama监听范围:仅允许11434端口本地访问,并验证端口状态。

2、 配置防火墙规则:对公网接口实施双向端口过滤,阻断11434端口的出入站流量。

3、 实施多层认证与访问控制:启用API密钥管理,定期更换密钥并限制调用频率。部署IP白名单或零信任架构,仅授权可信设备访问。

4、 禁用危险操作接口:如push/delete/pull等,并限制chat接口的调用频率以防DDoS攻击。

5、 历史漏洞修复:及时更新Ollama至安全版本,修复已知安全漏洞。

更多DeepSeek部署方案及医疗AI应用场景解决方案可扫描下方二维码咨询~返回搜狐,查看更多