目录
概述
Perplexica 是一款开源的 AI 驱动的搜索引擎,能够深入互联网为用户提供精准答案。它的设计灵感来源于 Perplexity AI,是一个完全开源的工具。与普通搜索引擎不同,Perplexica 不仅能够搜索网络,还能理解用户的问题。它利用先进的机器学习算法(如相似性搜索和嵌入技术)优化结果,并提供清晰的答案及引用来源。
通过集成 SearxNG,Perplexica 确保用户始终获得最新信息,同时保护隐私。
核心功能
- 本地 LLM 支持:支持通过 Ollama 使用本地语言模型如 Llama3 和 Mixtral。
- 两种主要模式:
- Copilot 模式(开发中):生成多种查询以查找更多相关互联网资源。
- 普通模式:处理用户查询并执行网页搜索。
- 专注模式:针对特定问题提供更佳答案,现有 6 种模式:
- 全局模式:搜索整个网络以获取最佳结果。
- 写作助手模式:专注于写作任务,无需网络搜索。
- 学术搜索模式:查找学术文章和论文。
- YouTube 搜索模式:根据查询查找 YouTube 视频。
- Wolfram Alpha 搜索模式:解决需计算或数据分析的查询。
- Reddit 搜索模式:查找 Reddit 上的相关讨论和观点。
- 实时信息:通过 SearxNG 获取最新信息,避免过时数据。
- API 支持:可将 Perplexica 集成到现有应用中。
快速开始(Docker 推荐)
- 确保 Docker 已安装并运行。
-
克隆 Perplexica 仓库:
bash
git clone https://github.com/ItzCrazyKns/Perplexica.git -
进入项目目录。
- 将
sample.config.toml
重命名为config.toml
,并按需填写以下字段: OPENAI
:如需使用 OpenAI 模型,填写 API 密钥。OLLAMA
:如需使用 Ollama 模型,填写 API URL。GROQ
:如需使用 Groq 模型,填写 API 密钥。ANTHROPIC
:如需使用 Anthropic 模型,填写 API 密钥。-
执行以下命令启动:
bash
docker compose up -d -
访问
http://localhost:3000
使用 Perplexica。
非 Docker 安装
- 安装 SearXNG 并启用
JSON
输出格式。 - 克隆仓库并重命名
sample.config.toml
为config.toml
。 - 在
ui
文件夹中重命名.env.example
为.env
并填写必要字段。 - 在
ui
和根目录中分别运行npm i
和npm run build
。 - 启动前后端:
bash
npm run start
Ollama 连接问题解决
- 检查 API URL:确保设置中的 API URL 正确。
- 根据操作系统调整:
- Windows/Mac:使用
http://host.docker.internal:11434
。 - Linux:使用
http://<private_ip_of_host>:11434
。 - Linux 用户网络暴露:修改
/etc/systemd/system/ollama.service
,添加Environment="OLLAMA_HOST=0.0.0.0"
并重启 Ollama。
作为搜索引擎使用
- 打开浏览器设置。
- 进入“搜索引擎”部分。
- 添加新站点搜索,URL 为
http://localhost:3000/?q=%s
。 - 完成后即可通过浏览器搜索栏使用 Perplexica。
使用 Perplexica 的 API
Perplexica 提供 API,支持将搜索引擎集成到应用中。你可以运行搜索、使用多种模型并获取查询答案。
支持我们
如果 Perplexica 对你有帮助,请为我们在 GitHub 上点个星🌟!此外,我们也接受捐赠以支持项目发展。欢迎提交问题和建议,帮助 Perplexica 变得更强大!