在NAS上搭建私人AI搜索引擎Perplexica:完整部署与配置指南

Perplexica 是一款将隐私保护置于首位的智能问答搜索引擎,其全部运算过程均可部署在用户自有的硬件设备上。该引擎巧妙融合了互联网的广泛知识库,并支持本地运行的大型语言模型(通过 Ollama)或连接主流的云服务提供商(如 OpenAI、Claude、Groq 等),旨在为用户提供既精准又附带引用来源的答案,同时确保整个搜索过程的完全私密性。

核心功能特性:
- 🤖 广泛的模型支持 —— 兼容所有主流AI服务。既可以通过 Ollama 使用本地大语言模型,也能灵活接入 OpenAI、Anthropic Claude、Google Gemini、Groq 等云端 API。用户可以根据实际需求自由混搭和匹配不同的模型。
- ⚡ 智能搜索模式 —— 提供多种搜索策略以适应不同场景:需要快速获取答案时可选择“速度优先”模式;日常查询使用“均衡”模式;进行深度研究时则可启用“质量优先”模式以获得更详尽的分析。
- 🧭 可选的资料来源 —— 允许用户指定搜索范围,例如仅检索公开网络信息、聚焦于论坛讨论,或是专门查找学术论文。平台将持续集成更多数据源和整合方案。
- 🧩 实用小工具 —— 界面会在适当时机智能显示功能卡片,例如实时天气、计算器、股票报价以及其他快速查询工具,提升交互效率。
- 🔍 由 SearxNG 驱动的网页搜索 —— 集成 SearxNG 以同时查询多个搜索引擎,在获取丰富结果的同时有效保护用户身份隐私。未来还将加入对 Tavily 和 Exa 的支持,以进一步提升搜索质量。
- 📷 图片与视频搜索 —— 除了文本信息,用户还可以并行搜索相关的图片和视频内容,使得信息获取不再局限于文章形式。
- 📄 文件上传与分析 —— 支持上传各类文档(如 PDF、文本文件、图片等)并针对文件内容进行提问,Perplexica 能够理解文件内容并给出相关解答。
- 🌐 限定范围搜索 —— 当用户明确知道目标信息所在的网站时,可以设定仅在该特定网站或域名范围内进行搜索,这对于查找技术文档或研究论文尤为便捷。
- 💡 智能查询建议 —— 在用户输入搜索关键词的过程中,系统会实时提供智能补全和建议,帮助用户构建更有效、更精准的查询语句。
- 📚 内容发现流 —— “发现”页面会全天候展示有趣的文章和热门内容,即使用户没有主动搜索,也能保持对最新信息的同步。
- 🕒 本地搜索历史 —— 所有的搜索记录都会安全地保存在本地设备中,方便用户随时回溯和查阅过往的研究内容,确保重要发现不会丢失。
- ✨ 持续更新演进 —— 开发团队正基于社区反馈积极开发新功能。用户可加入 Discord 社区,共同参与塑造 Perplexica 的未来发展方向。
部署安装:Docker Compose快速启动
方案一:Docker Compose(集成版,内置SearxNG) 此方案包含了预配置的SearxNG搜索聚合器。
services:
perplexica:
image: itzcrazykns1337/perplexica:latest
container_name: perplexica
ports:
- 3000:3000
volumes:
- ./data:/home/perplexica/data
restart: always
方案二:Docker Compose(轻量版,需外置SearxNG) 此方案使用更精简的镜像,需单独部署并配置SearxNG服务。
services:
perplexica:
image: itzcrazykns1337/perplexica:slim-latest
container_name: perplexica
ports:
- 3000:3000
volumes:
- ./data:/home/perplexica/data
environment:
- SEARXNG_API_URL=http://your-searxng-url:8080
restart: always
searxng:
image: searxng/searxng:latest
container_name: searxng
ports:
- 8080:8080
volumes:
- ./searxng:/etc/searxng
environment:
- BASE_URL=http://your-searxng-url:8080
restart: always
配置与使用:一步步连接AI模型
-
在浏览器中访问
http://你的NAS_IP地址:3000即可进入 Perplexica 的主界面。
-
首次使用需要配置AI模型连接,点击“添加配置”。

-
系统支持众多模型提供商。由于暂未直接集成国内厂商,此处可选择兼容 OpenAI API 格式的服务。例如,可以使用硅基流动的API服务(注册链接:https://cloud.siliconflow.cn/i/1kFLquql)。

-
填写AI配置信息:
- 配置名称:可自定义,如
siliconflow - API URL:
https://api.siliconflow.cn/v1
- 配置名称:可自定义,如
-
点击“添加对话模型”。

-
输入模型名称(例如使用
deepseek-ai/DeepSeek-V3.2),并填入在对应平台获取的API密钥。
-
点击“添加嵌入模型”(用于理解搜索query和文档内容)。可以使用专用嵌入模型如
Qwen/Qwen3-Embedding-8B,为简化配置,也可直接复用上一步的对话模型。

-
至少完成对话模型和嵌入模型的添加后,点击“下一步”。

-
在模型选择页面,勾选刚才配置好的模型,然后点击“完成”。

-
配置成功,进入主面板。请注意,若部分信息(如发现流)无法加载,可能并非网络问题,也可能是由于当前访问未使用 HTTPS 协议。

-
使用默认设置进行首次提问测试,体验搜索效果。

-
可以看到,AI 生成的答案整合了网络搜索结果,信息获取效率相比传统搜索引擎显著提升。

-
与直接询问通用AI不同,Perplexica 的每一段回答都清晰地标注了信息来源链接,方便用户追溯和核实原文。

-
在答案页面的底部,AI 还会自动生成一系列相关问题,帮助用户拓展查询思路。

-
点击右上角的导出按钮,可以将完整的问答内容及其引用导出为 Markdown 或 PDF 格式的文档,便于保存和分享。

-
如果对快速搜索的结果深度不满意,可以切换到“质量”或“思考”等更深入的搜索模式。下图展示了在网络连通的情况下,开启全面搜索的界面。

-
在深度模式下,可以观察到AI的“思考”链条更复杂,搜索和生成耗时也更长。

-
生成的回答通常内容更丰富,细节更完善,整体答案质量更高。

-
探索“发现”页面,可以浏览众多由系统聚合和推荐的内容(此功能需要稳定的网络连接)。

-
“库”页面自动保存了所有历史搜索记录和对话,用户可以随时快速回顾之前的研究内容。

体验总结:提升信息获取效率的利器
最初仅是抱着尝试的心态部署了 Perplexica,实际体验后确认其确实是一款有价值的工具。对于需要高频、高效获取信息的用户而言,Perplexica 利用 AI 技术从海量网络信息中快速提炼出高质量内容,并且为每一条信息标注了可追溯的来源,极大增强了信息的可信度和验证便捷性,从而显著提升了信息调研的效率。
经过实际测试,在仅配置基础 API 而无需特殊网络设置的情况下,核心的搜索问答功能完全可以正常使用。对于有进阶需求的用户,可以选择单独部署 SearxNG 实例并进行更细致的配置,例如添加自定义搜索引擎或确保其返回结果为 JSON 格式,以获得更强大的搜索能力。
综合推荐指数:⭐⭐⭐⭐(并非噱头,能切实提升信息获取质量) 日常使用体验:⭐⭐⭐⭐(部分高级功能需依赖网络条件) 部署配置难度:⭐⭐(流程清晰,较为简单)