最近国产大模型DeepSeek的爆火,不少开发者通过Ollama工具将其部署在本地服务器上。但你知道吗?近九成Ollama服务器因配置疏忽,直接暴露在公网“裸奔”!通过网络空间测绘平台发现,截止2025年3月1日,共有14,359台裸奔在互联网,其中中国境内占比最高,攻击者可随意窃取模型、滥用算力,甚至让服务器沦为“挖矿肉鸡”。
如何快速堵住漏洞?别让辛苦训练的AI模型为他人做嫁衣。腾云悦智安全实验室为你提供5大必做防护措施,手把手教你从“裸奔”到“铁桶”!
一、漏洞描述: 未授权的身份认证
Ollama 是一款开源的大型语言模型(LLM)本地化运行框架,支持 DeepSeek-R1 等 1700+ 模型的高效部署与管理。近期安全研究显示,其默认配置存在严重安全风险:服务端口(11434)暴露公网且无身份认证机制时,攻击者可远程调用高危 API 接口进行未授权操作。
腾云悦智安全实验室已对该漏洞成功复现
二、风险速览:你的服务器可能正在被“白嫖”!
模型资产遭窃:攻击者可调用/api/push接口,将私有模型直接导出到远程服务器,核心AI资产秒变他人囊中之物。
算力疯狂被薅:未授权接口可被恶意调用模型推理功能,GPU资源被占满,轻则服务瘫痪,重则云服务器账单暴涨。
系统沦为跳板:利用路径遍历漏洞(如CVE-2024-37032),攻击者可覆盖系统文件并执行任意代码,进一步入侵内网。
三、紧急措施:立即封锁公网暴露!
步骤一:关闭“敞开的大门”
本地服务用户:在启动Ollama时添加环境变量,仅允许本机访问:
bash
OLLAMA_HOST=127.0.0.1 ollama serve
必须公网开放时,通过防火墙限制11434端口仅允许可信IP访问,拒绝0.0.0.0全开放。
步骤二:升级!升级!升级!
Ollama旧版本存在远程代码执行(CVE-2024-37032)、路径遍历(CVE-2024-45436)等高危漏洞。立即执行:
bash
ollama update # 升级至最新0.1.34+版本
注:0.1.34以下版本必须升级,否则服务器分分钟被黑。
四、核心加固:给API加把“双重锁”!
第一把锁:反向代理+密码认证
用Nginx为Ollama添加Basic Auth认证,示例配置如下:
nginx
location / {
proxy_pass http://localhost:11434;
auth_basic 'Ollama Admin';
auth_basic_user_file /etc/nginx/.htpasswd; # 生成密码文件:htpasswd -c .htpasswd admin
allow 192.168.1.0/24; # 限制内网IP段
deny all;
}
重启Nginx后,访问需输入账号密码+IP白名单,双重保险。
第二把锁:HTTPS加密防监听
申请免费SSL证书(如Let’s Encrypt),Nginx配置强制HTTPS:
nginx
server {
listen 443 ssl;
ssl_certificate /path/to/fullchain.pem;
ssl_certificate_key /path/to/privkey.pem;
# 其余配置同上
}
杜绝数据在传输中被窃取,尤其涉及敏感模型参数时。
五、长效防护:安全运维指南
修改默认服务端口:将服务端口修改为非常用的TCP端口,减低被扫描风险。
日志监控:定期检查Nginx访问日志,封禁异常IP(如频繁尝试爆破密码的地址)。
模型来源审核:仅从DeepSeek官网或可信渠道拉取模型:
bash
ollama run deepseek-r1:14b # 官方认证模型
定期漏洞扫描:使用各类漏扫软件或人工进行漏洞发现。
只需半小时完成上述操作,即可让Ollama服务器从“高危裸奔”进阶为“企业级防护”。
腾云悦智科技(深圳)有限责任公司,是中国领先的云计算与人工智能综合服务提供商,创立于2019年1月,专注于为企业客户提供专业的公有云、私有云、混合云等云计算及大数据、人工智能等专业技术服务。
悦智安全实验室为您提供专业安全风险评估与加固服务,深度检测隐患漏洞,构建全维度防护体系,让潜在威胁无处藏身,为您的数字资产打造铜墙铁壁级安全保障。