mirror of
https://github.com/tcsenpai/agenticSeek.git
synced 2025-06-05 02:25:27 +00:00
readme update
This commit is contained in:
parent
ad9ca5e7cb
commit
56d5ec2d37
29
README.md
29
README.md
@ -87,7 +87,7 @@ python3 setup.py install
|
||||
**We recommend using at the very least Deepseek 14B, smaller models will struggle with tasks especially for web browsing.**
|
||||
|
||||
|
||||
### **Run the Assistant (Locally)**
|
||||
### **Setup you local provider**
|
||||
|
||||
Start your local provider, for example with ollama:
|
||||
|
||||
@ -117,19 +117,42 @@ provider_server_address = 127.0.0.1:11434
|
||||
| lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)|
|
||||
| openai | Yes | Use API compatible |
|
||||
|
||||
start all services :
|
||||
### **Start services & Run**
|
||||
|
||||
Activate you python env if needed.
|
||||
```sh
|
||||
source agentic_seek_env/bin/activate
|
||||
```
|
||||
|
||||
Start required services. This will start all services from the docker-compose.yml, including:
|
||||
- searxng
|
||||
- redis (required by searxng)
|
||||
- frontend
|
||||
|
||||
```sh
|
||||
sudo ./start_services.sh # MacOS
|
||||
start ./start_services.cmd # Window
|
||||
```
|
||||
|
||||
Run the assistant:
|
||||
**Options 1:** Run with the CLI interface.
|
||||
|
||||
```sh
|
||||
python3 cli.py
|
||||
```
|
||||
|
||||
**Options 2:** Run with the Web interface.
|
||||
|
||||
Start the backend.
|
||||
|
||||
```sh
|
||||
python3 api.py
|
||||
```
|
||||
|
||||
Go to `http://localhost:3000/` and you should see the web interface.
|
||||
|
||||
Please note that the Web interface doesn't stream messages at the moment.
|
||||
|
||||
|
||||
*See the **Usage** section if you don't understand how to use it*
|
||||
|
||||
*See the **Known issues** section if you are having issues*
|
||||
|
@ -115,19 +115,41 @@ provider_server_address = 127.0.0.1:11434
|
||||
| lm-studio | 是 | 使用 LM Studio 本地运行 LLM(将 `provider_name` 设置为 `lm-studio`)|
|
||||
| openai | 否 | 使用兼容的 API |
|
||||
|
||||
启动所有服务:
|
||||
|
||||
### **启动服务并运行**
|
||||
|
||||
如果需要,请激活你的 Python 环境。
|
||||
```sh
|
||||
source agentic_seek_env/bin/activate
|
||||
```
|
||||
|
||||
启动所需的服务。这将启动 `docker-compose.yml` 中的所有服务,包括:
|
||||
- searxng
|
||||
- redis(由 redis 提供支持)
|
||||
- 前端
|
||||
|
||||
```sh
|
||||
sudo ./start_services.sh # MacOS
|
||||
start ./start_services.cmd # Windows
|
||||
```
|
||||
|
||||
运行助手:
|
||||
**选项 1:** 使用 CLI 界面运行。
|
||||
|
||||
```sh
|
||||
python3 cli.py
|
||||
```
|
||||
|
||||
**选项 2:** 使用 Web 界面运行。
|
||||
|
||||
启动后端服务。
|
||||
|
||||
```sh
|
||||
python3 api.py
|
||||
```
|
||||
|
||||
访问 `http://localhost:3000/`,你应该会看到 Web 界面。
|
||||
|
||||
请注意,目前 Web 界面不支持消息流式传输。
|
||||
|
||||
|
||||
*如果你不知道如何开始,请参阅 **Usage** 部分*
|
||||
@ -448,6 +470,16 @@ https://googlechromelabs.github.io/chrome-for-testing/
|
||||
| 32B | 24GB+ VRAM(例如 RTX 4090) | 🚀 能完成大多数任务,但在任务规划上可能仍有困难。 |
|
||||
| 70B+ | 48GB+ VRAM(例如 Mac Studio) | 💪 表现优秀。推荐用于高级用例。 |
|
||||
|
||||
**Q: 是否支持中文以外的语言?**
|
||||
|
||||
DeepSeek R1 天生会说中文
|
||||
|
||||
但注意:代理路由系统只懂英文,所以必须通过 config.ini 的 languages 参数(如 languages = en zh)告诉系统:
|
||||
|
||||
如果不设置中文?后果可能是:你让它写代码,结果跳出来个"医生代理"(虽然我们根本没有这个代理... 但系统会一脸懵圈!)
|
||||
|
||||
实际上会下载一个小型翻译模型来协助任务分配
|
||||
|
||||
**Q:为什么选择 Deepseek R1 而不是其他模型?**
|
||||
|
||||
就其尺寸而言,Deepseek R1 在推理和使用方面表现出色。我们认为非常适合我们的需求,其他模型也很好用,但 Deepseek 是我们最后选定的模型。
|
||||
|
@ -114,19 +114,43 @@ provider_server_address = 127.0.0.1:11434
|
||||
| lm-studio | 是 | 使用 LM Studio 本地运行 LLM(将 `provider_name` 设置为 `lm-studio`)|
|
||||
| openai | 否 | 使用兼容的 API |
|
||||
|
||||
启动所有服务:
|
||||
|
||||
### **启动服务并运行**
|
||||
|
||||
如果需要,请激活你的 Python 环境。
|
||||
```sh
|
||||
source agentic_seek_env/bin/activate
|
||||
```
|
||||
|
||||
启动所需的服务。这将启动 `docker-compose.yml` 中的所有服务,包括:
|
||||
- searxng
|
||||
- redis(由 redis 提供支持)
|
||||
- 前端
|
||||
|
||||
```sh
|
||||
sudo ./start_services.sh # MacOS
|
||||
start ./start_services.cmd # Windows
|
||||
```
|
||||
|
||||
运行助手:
|
||||
**选项 1:** 使用 CLI 界面运行。
|
||||
|
||||
```sh
|
||||
python3 cli.py
|
||||
```
|
||||
|
||||
**选项 2:** 使用 Web 界面运行。
|
||||
|
||||
启动后端服务。
|
||||
|
||||
```sh
|
||||
python3 api.py
|
||||
```
|
||||
|
||||
访问 `http://localhost:3000/`,你应该会看到 Web 界面。
|
||||
|
||||
请注意,目前 Web 界面不支持消息流式传输。
|
||||
|
||||
|
||||
*如果你不知道如何開始,請參閱 **Usage** 部分*
|
||||
|
||||
*如果遇到問題,請先參考 **Known issues** 部分*
|
||||
@ -471,6 +495,16 @@ https://googlechromelabs.github.io/chrome-for-testing/
|
||||
|
||||
不不不,AgenticSeek 和 Manus 是不同取向的東西,我們優先考慮的是本地執行和隱私,而不是基於雲端。這是一個與 Manus 相比起來更有趣且易使用的方案!
|
||||
|
||||
**Q: 是否支持中文以外的语言?**
|
||||
|
||||
DeepSeek R1 天生会说中文
|
||||
|
||||
但注意:代理路由系统只懂英文,所以必须通过 config.ini 的 languages 参数(如 languages = en zh)告诉系统:
|
||||
|
||||
如果不设置中文?后果可能是:你让它写代码,结果跳出来个"医生代理"(虽然我们根本没有这个代理... 但系统会一脸懵圈!)
|
||||
|
||||
实际上会下载一个小型翻译模型来协助任务分配
|
||||
|
||||
## 貢獻
|
||||
|
||||
我們正在尋找開發者來改善 AgenticSeek!你可以在 Issues 查看未解決的問題或和我們討論更酷的新功能!
|
||||
|
47
README_FR.md
47
README_FR.md
@ -108,23 +108,48 @@ provider_server_address = 127.0.0.1:11434
|
||||
| lm-studio | Oui | Exécutez un LLM localement avec LM studio (définissez `provider_name` sur `lm-studio`) |
|
||||
| openai | Oui | Utilisez une API local compatible avec openai |
|
||||
|
||||
démarrer tous les services :
|
||||
|
||||
### **Démarrer les services & Exécuter**
|
||||
|
||||
Activez votre environnement Python si nécessaire.
|
||||
```sh
|
||||
sudo ./start_services.sh
|
||||
source agentic_seek_env/bin/activate
|
||||
```
|
||||
|
||||
Lancer agenticSeek:
|
||||
Démarrez les services requis. Cela lancera tous les services définis dans le fichier docker-compose.yml, y compris :
|
||||
- searxng
|
||||
- redis (nécessaire pour searxng)
|
||||
- frontend
|
||||
|
||||
```sh
|
||||
sudo ./start_services.sh # MacOS
|
||||
start ./start_services.cmd # Windows
|
||||
```
|
||||
|
||||
**Option 1 :** Exécuter avec l'interface CLI.
|
||||
|
||||
```sh
|
||||
python3 cli.py
|
||||
```
|
||||
|
||||
**Option 2 :** Exécuter avec l'interface Web.
|
||||
|
||||
Démarrez le backend.
|
||||
|
||||
```sh
|
||||
python3 api.py
|
||||
```
|
||||
|
||||
Allez sur `http://localhost:3000/` et vous devriez voir l'interface web.
|
||||
|
||||
Veuillez noter que l'interface web ne diffuse pas les messages en continu pour le moment.
|
||||
|
||||
|
||||
Voyez la section **Utilisation** si vous ne comprenez pas comment l’utiliser
|
||||
|
||||
Voyez la section **Problèmes** connus si vous rencontrez des problèmes
|
||||
|
||||
Voyez la section **Exécuter** avec une API si votre matériel ne peut pas exécuter DeepSeek localement
|
||||
Voyez la section **Exécuter avec une API** si votre matériel ne peut pas exécuter DeepSeek localement
|
||||
|
||||
Voyez la section **Configuration** pour une explication détaillée du fichier de configuration.
|
||||
|
||||
@ -245,12 +270,7 @@ provider_model = deepseek-r1:14b
|
||||
provider_server_address = x.x.x.x:3333
|
||||
```
|
||||
|
||||
Exécutez l’assistant :
|
||||
|
||||
```sh
|
||||
sudo ./start_services.sh
|
||||
python3 cli.py
|
||||
```
|
||||
Ensuite, exécutez avec le CLI ou l'interface graphique comme expliqué dans la section pour les fournisseurs locaux.
|
||||
|
||||
## **Exécuter avec une API**
|
||||
|
||||
@ -268,12 +288,7 @@ provider_model = gpt-4o
|
||||
provider_server_address = 127.0.0.1:5000
|
||||
```
|
||||
|
||||
Exécutez l’assistant :
|
||||
|
||||
```sh
|
||||
sudo ./start_services.sh
|
||||
python3 cli.py
|
||||
```
|
||||
Ensuite, exécutez avec le CLI ou l'interface graphique comme expliqué dans la section pour les fournisseurs locaux.
|
||||
|
||||
## Config
|
||||
|
||||
|
Loading…
x
Reference in New Issue
Block a user