AI Plugins 是一个基于容器化技术构建的一站式大模型应用解决方案,它深度整合了 Open WebUI、Ollama 和 IPEX-LLM 三大核心组件。该应用不仅提供了便捷易用的用户交互界面,还通过高效调用 Intel GPU 的硬件加速能力,显著提升了大语言模型的运行效率与响应速度。

安装步骤详解
AI Plugins 可以通过绿联 NAS 的应用中心直接下载安装,操作过程简单便捷。
目前,该功能仅兼容绿联 DXP480T Plus、DXP4800 Plus、DXP6800 系列以及 DXP8800 系列设备。
对于其他系统用户,可参考先前教程部署 Open WebUI 和 Ollama 框架,依赖纯 CPU 运行本地模型,尽管性能受限但依然可行。
Open WebUI 自托管 AI 平台 Ollama 本地大模型框架
Docker Compose 配置示例如下:
services: open-webui: image: ghcr.io/open-webui/open-webui:main container_name: open-webui volumes: - /volume1/docker/open-webui:/app/backend/data ports: - "11433:8080" ollama: image: ollama/ollama:latest container_name: ollama volumes: - /volume1/docker/ollama:/root/.ollama ports:
- "11434:11434"
使用指南与界面操作
在浏览器中输入 http://NAS的IP:13888
即可访问 AI Plugins 的用户界面。
点击“开始”按钮进入应用主页面。
首次使用时需创建个人账号,按照提示填写必要信息完成注册。
点击“确认,开始使用”即可登录系统。
在右上角菜单中点击“设置”选项进行个性化调整。
例如,切换为深色主题可优化视觉体验,便于截图展示效果。
应用默认预装了 deepseek-r1:1.5b 模型供用户直接使用。
点击搜索栏可下载其他模型,扩展功能范围。
性能测试:GPU加速 vs 纯CPU推理
本次测试核心目标为对比 AI Plugins 调用核显加速与纯 CPU 推理在性能和速度上的差异。为确保结果客观,选取十个哲学问题作为提问样本,分别测试 deepseek-r1:7b 和 deepseek-r1:14b 两种模型规模。
测试硬件配置:
设备:绿联 DXP480T Plus
处理器:12th Gen Intel(R) Core(TM) i5-1235U
内存:8+32GB DDR5 4800MHz
测试对象:
AI Plugins:深度整合方案,调用核显加速推理
Ollama + Open WebUI:纯 CPU 推理环境
测试模型:
deepseek-r1:7b
deepseek-r1:14b
测试问题列表:
我们为什么存在?
什么是真理?
我们如何认识世界?
人是否有自由意志?
上帝存在吗?
什么是正义?
心灵和身体是什么关系?
什么是幸福?
美是什么?
死亡意味着什么?
提示:因测试数据量较大,仅展示关键指标表格,省略过程截图。
GPU加速推理性能数据
使用绿联封装的 AI Plugins 调用核显加速推理,启动未加载模型时资源占用:CPU 1%、GPU 0%、内存 632MB。
deepseek-r1:7b 模型测试结果:
deepseek-r1:14b 模型测试结果:
纯CPU推理性能数据
使用 Ollama + Open WebUI 进行纯 CPU 推理测试,启动未加载模型时资源占用:CPU 1%、GPU 0%、内存 566MB。
deepseek-r1:7b 模型首次测试结果:
因数据波动较大,进行 deepseek-r1:7b 模型二次测试:
提示:纯 CPU 运行 14b 模型效率极低,用户体验较差,不建议常规使用。 deepseek-r1:14b 模型测试结果:
QwQ-32B模型附加测试
QwQ-32B 大语言模型由阿里通义千问 Qwen 团队开发,这款 320 亿参数模型在性能上媲美甚至超越 DeepSeek-R1 的 6710 亿参数版本。
测试表明,QwQ-32B 回复质量较高,体现了较强的智能水平,但作为 32b 模型,核显推理速度较慢,具体数据如下表所示。
qwq:32b 模型测试结果:
总结与建议
总体而言,绿联NAS的AI Plugins表现极为出色。初始观点可能低估了其价值,但实测证实IPEX-LLM技术实现了显著性能飞跃。
测试数据清晰显示,相比纯CPU推理,GPU加速大幅提升响应速度并确保运行稳定性。核显资源的充分利用有效分担CPU负载,达成“事半功倍”的高效协同。
然而,当前方案仅限局域网访问构成局限。建议绿联优化界面设计,开发原生适配Ollama的交互系统,以降低用户门槛,真正实现AI技术的生活化应用。