mirror of
https://github.com/tcsenpai/agenticSeek.git
synced 2025-06-06 11:05:26 +00:00
readme update
This commit is contained in:
parent
ad9ca5e7cb
commit
56d5ec2d37
29
README.md
29
README.md
@ -87,7 +87,7 @@ python3 setup.py install
|
|||||||
**We recommend using at the very least Deepseek 14B, smaller models will struggle with tasks especially for web browsing.**
|
**We recommend using at the very least Deepseek 14B, smaller models will struggle with tasks especially for web browsing.**
|
||||||
|
|
||||||
|
|
||||||
### **Run the Assistant (Locally)**
|
### **Setup you local provider**
|
||||||
|
|
||||||
Start your local provider, for example with ollama:
|
Start your local provider, for example with ollama:
|
||||||
|
|
||||||
@ -117,19 +117,42 @@ provider_server_address = 127.0.0.1:11434
|
|||||||
| lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)|
|
| lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)|
|
||||||
| openai | Yes | Use API compatible |
|
| openai | Yes | Use API compatible |
|
||||||
|
|
||||||
start all services :
|
### **Start services & Run**
|
||||||
|
|
||||||
|
Activate you python env if needed.
|
||||||
|
```sh
|
||||||
|
source agentic_seek_env/bin/activate
|
||||||
|
```
|
||||||
|
|
||||||
|
Start required services. This will start all services from the docker-compose.yml, including:
|
||||||
|
- searxng
|
||||||
|
- redis (required by searxng)
|
||||||
|
- frontend
|
||||||
|
|
||||||
```sh
|
```sh
|
||||||
sudo ./start_services.sh # MacOS
|
sudo ./start_services.sh # MacOS
|
||||||
start ./start_services.cmd # Window
|
start ./start_services.cmd # Window
|
||||||
```
|
```
|
||||||
|
|
||||||
Run the assistant:
|
**Options 1:** Run with the CLI interface.
|
||||||
|
|
||||||
```sh
|
```sh
|
||||||
python3 cli.py
|
python3 cli.py
|
||||||
```
|
```
|
||||||
|
|
||||||
|
**Options 2:** Run with the Web interface.
|
||||||
|
|
||||||
|
Start the backend.
|
||||||
|
|
||||||
|
```sh
|
||||||
|
python3 api.py
|
||||||
|
```
|
||||||
|
|
||||||
|
Go to `http://localhost:3000/` and you should see the web interface.
|
||||||
|
|
||||||
|
Please note that the Web interface doesn't stream messages at the moment.
|
||||||
|
|
||||||
|
|
||||||
*See the **Usage** section if you don't understand how to use it*
|
*See the **Usage** section if you don't understand how to use it*
|
||||||
|
|
||||||
*See the **Known issues** section if you are having issues*
|
*See the **Known issues** section if you are having issues*
|
||||||
|
@ -115,19 +115,41 @@ provider_server_address = 127.0.0.1:11434
|
|||||||
| lm-studio | 是 | 使用 LM Studio 本地运行 LLM(将 `provider_name` 设置为 `lm-studio`)|
|
| lm-studio | 是 | 使用 LM Studio 本地运行 LLM(将 `provider_name` 设置为 `lm-studio`)|
|
||||||
| openai | 否 | 使用兼容的 API |
|
| openai | 否 | 使用兼容的 API |
|
||||||
|
|
||||||
启动所有服务:
|
|
||||||
|
### **启动服务并运行**
|
||||||
|
|
||||||
|
如果需要,请激活你的 Python 环境。
|
||||||
|
```sh
|
||||||
|
source agentic_seek_env/bin/activate
|
||||||
|
```
|
||||||
|
|
||||||
|
启动所需的服务。这将启动 `docker-compose.yml` 中的所有服务,包括:
|
||||||
|
- searxng
|
||||||
|
- redis(由 redis 提供支持)
|
||||||
|
- 前端
|
||||||
|
|
||||||
```sh
|
```sh
|
||||||
sudo ./start_services.sh # MacOS
|
sudo ./start_services.sh # MacOS
|
||||||
start ./start_services.cmd # Windows
|
start ./start_services.cmd # Windows
|
||||||
```
|
```
|
||||||
|
|
||||||
运行助手:
|
**选项 1:** 使用 CLI 界面运行。
|
||||||
|
|
||||||
```sh
|
```sh
|
||||||
python3 cli.py
|
python3 cli.py
|
||||||
```
|
```
|
||||||
|
|
||||||
|
**选项 2:** 使用 Web 界面运行。
|
||||||
|
|
||||||
|
启动后端服务。
|
||||||
|
|
||||||
|
```sh
|
||||||
|
python3 api.py
|
||||||
|
```
|
||||||
|
|
||||||
|
访问 `http://localhost:3000/`,你应该会看到 Web 界面。
|
||||||
|
|
||||||
|
请注意,目前 Web 界面不支持消息流式传输。
|
||||||
|
|
||||||
|
|
||||||
*如果你不知道如何开始,请参阅 **Usage** 部分*
|
*如果你不知道如何开始,请参阅 **Usage** 部分*
|
||||||
@ -448,6 +470,16 @@ https://googlechromelabs.github.io/chrome-for-testing/
|
|||||||
| 32B | 24GB+ VRAM(例如 RTX 4090) | 🚀 能完成大多数任务,但在任务规划上可能仍有困难。 |
|
| 32B | 24GB+ VRAM(例如 RTX 4090) | 🚀 能完成大多数任务,但在任务规划上可能仍有困难。 |
|
||||||
| 70B+ | 48GB+ VRAM(例如 Mac Studio) | 💪 表现优秀。推荐用于高级用例。 |
|
| 70B+ | 48GB+ VRAM(例如 Mac Studio) | 💪 表现优秀。推荐用于高级用例。 |
|
||||||
|
|
||||||
|
**Q: 是否支持中文以外的语言?**
|
||||||
|
|
||||||
|
DeepSeek R1 天生会说中文
|
||||||
|
|
||||||
|
但注意:代理路由系统只懂英文,所以必须通过 config.ini 的 languages 参数(如 languages = en zh)告诉系统:
|
||||||
|
|
||||||
|
如果不设置中文?后果可能是:你让它写代码,结果跳出来个"医生代理"(虽然我们根本没有这个代理... 但系统会一脸懵圈!)
|
||||||
|
|
||||||
|
实际上会下载一个小型翻译模型来协助任务分配
|
||||||
|
|
||||||
**Q:为什么选择 Deepseek R1 而不是其他模型?**
|
**Q:为什么选择 Deepseek R1 而不是其他模型?**
|
||||||
|
|
||||||
就其尺寸而言,Deepseek R1 在推理和使用方面表现出色。我们认为非常适合我们的需求,其他模型也很好用,但 Deepseek 是我们最后选定的模型。
|
就其尺寸而言,Deepseek R1 在推理和使用方面表现出色。我们认为非常适合我们的需求,其他模型也很好用,但 Deepseek 是我们最后选定的模型。
|
||||||
|
@ -114,19 +114,43 @@ provider_server_address = 127.0.0.1:11434
|
|||||||
| lm-studio | 是 | 使用 LM Studio 本地运行 LLM(将 `provider_name` 设置为 `lm-studio`)|
|
| lm-studio | 是 | 使用 LM Studio 本地运行 LLM(将 `provider_name` 设置为 `lm-studio`)|
|
||||||
| openai | 否 | 使用兼容的 API |
|
| openai | 否 | 使用兼容的 API |
|
||||||
|
|
||||||
启动所有服务:
|
|
||||||
|
### **启动服务并运行**
|
||||||
|
|
||||||
|
如果需要,请激活你的 Python 环境。
|
||||||
|
```sh
|
||||||
|
source agentic_seek_env/bin/activate
|
||||||
|
```
|
||||||
|
|
||||||
|
启动所需的服务。这将启动 `docker-compose.yml` 中的所有服务,包括:
|
||||||
|
- searxng
|
||||||
|
- redis(由 redis 提供支持)
|
||||||
|
- 前端
|
||||||
|
|
||||||
```sh
|
```sh
|
||||||
sudo ./start_services.sh # MacOS
|
sudo ./start_services.sh # MacOS
|
||||||
start ./start_services.cmd # Windows
|
start ./start_services.cmd # Windows
|
||||||
```
|
```
|
||||||
|
|
||||||
运行助手:
|
**选项 1:** 使用 CLI 界面运行。
|
||||||
|
|
||||||
```sh
|
```sh
|
||||||
python3 cli.py
|
python3 cli.py
|
||||||
```
|
```
|
||||||
|
|
||||||
|
**选项 2:** 使用 Web 界面运行。
|
||||||
|
|
||||||
|
启动后端服务。
|
||||||
|
|
||||||
|
```sh
|
||||||
|
python3 api.py
|
||||||
|
```
|
||||||
|
|
||||||
|
访问 `http://localhost:3000/`,你应该会看到 Web 界面。
|
||||||
|
|
||||||
|
请注意,目前 Web 界面不支持消息流式传输。
|
||||||
|
|
||||||
|
|
||||||
*如果你不知道如何開始,請參閱 **Usage** 部分*
|
*如果你不知道如何開始,請參閱 **Usage** 部分*
|
||||||
|
|
||||||
*如果遇到問題,請先參考 **Known issues** 部分*
|
*如果遇到問題,請先參考 **Known issues** 部分*
|
||||||
@ -471,6 +495,16 @@ https://googlechromelabs.github.io/chrome-for-testing/
|
|||||||
|
|
||||||
不不不,AgenticSeek 和 Manus 是不同取向的東西,我們優先考慮的是本地執行和隱私,而不是基於雲端。這是一個與 Manus 相比起來更有趣且易使用的方案!
|
不不不,AgenticSeek 和 Manus 是不同取向的東西,我們優先考慮的是本地執行和隱私,而不是基於雲端。這是一個與 Manus 相比起來更有趣且易使用的方案!
|
||||||
|
|
||||||
|
**Q: 是否支持中文以外的语言?**
|
||||||
|
|
||||||
|
DeepSeek R1 天生会说中文
|
||||||
|
|
||||||
|
但注意:代理路由系统只懂英文,所以必须通过 config.ini 的 languages 参数(如 languages = en zh)告诉系统:
|
||||||
|
|
||||||
|
如果不设置中文?后果可能是:你让它写代码,结果跳出来个"医生代理"(虽然我们根本没有这个代理... 但系统会一脸懵圈!)
|
||||||
|
|
||||||
|
实际上会下载一个小型翻译模型来协助任务分配
|
||||||
|
|
||||||
## 貢獻
|
## 貢獻
|
||||||
|
|
||||||
我們正在尋找開發者來改善 AgenticSeek!你可以在 Issues 查看未解決的問題或和我們討論更酷的新功能!
|
我們正在尋找開發者來改善 AgenticSeek!你可以在 Issues 查看未解決的問題或和我們討論更酷的新功能!
|
||||||
|
47
README_FR.md
47
README_FR.md
@ -108,23 +108,48 @@ provider_server_address = 127.0.0.1:11434
|
|||||||
| lm-studio | Oui | Exécutez un LLM localement avec LM studio (définissez `provider_name` sur `lm-studio`) |
|
| lm-studio | Oui | Exécutez un LLM localement avec LM studio (définissez `provider_name` sur `lm-studio`) |
|
||||||
| openai | Oui | Utilisez une API local compatible avec openai |
|
| openai | Oui | Utilisez une API local compatible avec openai |
|
||||||
|
|
||||||
démarrer tous les services :
|
|
||||||
|
|
||||||
|
### **Démarrer les services & Exécuter**
|
||||||
|
|
||||||
|
Activez votre environnement Python si nécessaire.
|
||||||
```sh
|
```sh
|
||||||
sudo ./start_services.sh
|
source agentic_seek_env/bin/activate
|
||||||
```
|
```
|
||||||
|
|
||||||
Lancer agenticSeek:
|
Démarrez les services requis. Cela lancera tous les services définis dans le fichier docker-compose.yml, y compris :
|
||||||
|
- searxng
|
||||||
|
- redis (nécessaire pour searxng)
|
||||||
|
- frontend
|
||||||
|
|
||||||
|
```sh
|
||||||
|
sudo ./start_services.sh # MacOS
|
||||||
|
start ./start_services.cmd # Windows
|
||||||
|
```
|
||||||
|
|
||||||
|
**Option 1 :** Exécuter avec l'interface CLI.
|
||||||
|
|
||||||
```sh
|
```sh
|
||||||
python3 cli.py
|
python3 cli.py
|
||||||
```
|
```
|
||||||
|
|
||||||
|
**Option 2 :** Exécuter avec l'interface Web.
|
||||||
|
|
||||||
|
Démarrez le backend.
|
||||||
|
|
||||||
|
```sh
|
||||||
|
python3 api.py
|
||||||
|
```
|
||||||
|
|
||||||
|
Allez sur `http://localhost:3000/` et vous devriez voir l'interface web.
|
||||||
|
|
||||||
|
Veuillez noter que l'interface web ne diffuse pas les messages en continu pour le moment.
|
||||||
|
|
||||||
|
|
||||||
Voyez la section **Utilisation** si vous ne comprenez pas comment l’utiliser
|
Voyez la section **Utilisation** si vous ne comprenez pas comment l’utiliser
|
||||||
|
|
||||||
Voyez la section **Problèmes** connus si vous rencontrez des problèmes
|
Voyez la section **Problèmes** connus si vous rencontrez des problèmes
|
||||||
|
|
||||||
Voyez la section **Exécuter** avec une API si votre matériel ne peut pas exécuter DeepSeek localement
|
Voyez la section **Exécuter avec une API** si votre matériel ne peut pas exécuter DeepSeek localement
|
||||||
|
|
||||||
Voyez la section **Configuration** pour une explication détaillée du fichier de configuration.
|
Voyez la section **Configuration** pour une explication détaillée du fichier de configuration.
|
||||||
|
|
||||||
@ -245,12 +270,7 @@ provider_model = deepseek-r1:14b
|
|||||||
provider_server_address = x.x.x.x:3333
|
provider_server_address = x.x.x.x:3333
|
||||||
```
|
```
|
||||||
|
|
||||||
Exécutez l’assistant :
|
Ensuite, exécutez avec le CLI ou l'interface graphique comme expliqué dans la section pour les fournisseurs locaux.
|
||||||
|
|
||||||
```sh
|
|
||||||
sudo ./start_services.sh
|
|
||||||
python3 cli.py
|
|
||||||
```
|
|
||||||
|
|
||||||
## **Exécuter avec une API**
|
## **Exécuter avec une API**
|
||||||
|
|
||||||
@ -268,12 +288,7 @@ provider_model = gpt-4o
|
|||||||
provider_server_address = 127.0.0.1:5000
|
provider_server_address = 127.0.0.1:5000
|
||||||
```
|
```
|
||||||
|
|
||||||
Exécutez l’assistant :
|
Ensuite, exécutez avec le CLI ou l'interface graphique comme expliqué dans la section pour les fournisseurs locaux.
|
||||||
|
|
||||||
```sh
|
|
||||||
sudo ./start_services.sh
|
|
||||||
python3 cli.py
|
|
||||||
```
|
|
||||||
|
|
||||||
## Config
|
## Config
|
||||||
|
|
||||||
|
Loading…
x
Reference in New Issue
Block a user