readme update

This commit is contained in:
martin legrand 2025-04-17 19:48:03 +02:00
parent ad9ca5e7cb
commit 56d5ec2d37
4 changed files with 127 additions and 23 deletions

View File

@ -87,7 +87,7 @@ python3 setup.py install
**We recommend using at the very least Deepseek 14B, smaller models will struggle with tasks especially for web browsing.**
### **Run the Assistant (Locally)**
### **Setup you local provider**
Start your local provider, for example with ollama:
@ -117,19 +117,42 @@ provider_server_address = 127.0.0.1:11434
| lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)|
| openai | Yes | Use API compatible |
start all services :
### **Start services & Run**
Activate you python env if needed.
```sh
source agentic_seek_env/bin/activate
```
Start required services. This will start all services from the docker-compose.yml, including:
- searxng
- redis (required by searxng)
- frontend
```sh
sudo ./start_services.sh # MacOS
start ./start_services.cmd # Window
```
Run the assistant:
**Options 1:** Run with the CLI interface.
```sh
python3 cli.py
```
**Options 2:** Run with the Web interface.
Start the backend.
```sh
python3 api.py
```
Go to `http://localhost:3000/` and you should see the web interface.
Please note that the Web interface doesn't stream messages at the moment.
*See the **Usage** section if you don't understand how to use it*
*See the **Known issues** section if you are having issues*

View File

@ -115,19 +115,41 @@ provider_server_address = 127.0.0.1:11434
| lm-studio | 是 | 使用 LM Studio 本地运行 LLM`provider_name` 设置为 `lm-studio`|
| openai | 否 | 使用兼容的 API |
启动所有服务:
### **启动服务并运行**
如果需要,请激活你的 Python 环境。
```sh
source agentic_seek_env/bin/activate
```
启动所需的服务。这将启动 `docker-compose.yml` 中的所有服务,包括:
- searxng
- redis由 redis 提供支持)
- 前端
```sh
sudo ./start_services.sh # MacOS
start ./start_services.cmd # Windows
```
运行助手:
**选项 1:** 使用 CLI 界面运行。
```sh
python3 cli.py
```
**选项 2:** 使用 Web 界面运行。
启动后端服务。
```sh
python3 api.py
```
访问 `http://localhost:3000/`,你应该会看到 Web 界面。
请注意,目前 Web 界面不支持消息流式传输。
*如果你不知道如何开始,请参阅 **Usage** 部分*
@ -448,6 +470,16 @@ https://googlechromelabs.github.io/chrome-for-testing/
| 32B | 24GB+ VRAM例如 RTX 4090 | 🚀 能完成大多数任务,但在任务规划上可能仍有困难。 |
| 70B+ | 48GB+ VRAM例如 Mac Studio | 💪 表现优秀。推荐用于高级用例。 |
**Q: 是否支持中文以外的语言?**
DeepSeek R1 天生会说中文
但注意:代理路由系统只懂英文,所以必须通过 config.ini 的 languages 参数(如 languages = en zh告诉系统
如果不设置中文?后果可能是:你让它写代码,结果跳出来个"医生代理"(虽然我们根本没有这个代理... 但系统会一脸懵圈!)
实际上会下载一个小型翻译模型来协助任务分配
**Q为什么选择 Deepseek R1 而不是其他模型?**
就其尺寸而言Deepseek R1 在推理和使用方面表现出色。我们认为非常适合我们的需求,其他模型也很好用,但 Deepseek 是我们最后选定的模型。

View File

@ -114,19 +114,43 @@ provider_server_address = 127.0.0.1:11434
| lm-studio | 是 | 使用 LM Studio 本地运行 LLM`provider_name` 设置为 `lm-studio`|
| openai | 否 | 使用兼容的 API |
启动所有服务:
### **启动服务并运行**
如果需要,请激活你的 Python 环境。
```sh
source agentic_seek_env/bin/activate
```
启动所需的服务。这将启动 `docker-compose.yml` 中的所有服务,包括:
- searxng
- redis由 redis 提供支持)
- 前端
```sh
sudo ./start_services.sh # MacOS
start ./start_services.cmd # Windows
```
运行助手:
**选项 1:** 使用 CLI 界面运行。
```sh
python3 cli.py
```
**选项 2:** 使用 Web 界面运行。
启动后端服务。
```sh
python3 api.py
```
访问 `http://localhost:3000/`,你应该会看到 Web 界面。
请注意,目前 Web 界面不支持消息流式传输。
*如果你不知道如何開始,請參閱 **Usage** 部分*
*如果遇到問題,請先參考 **Known issues** 部分*
@ -471,6 +495,16 @@ https://googlechromelabs.github.io/chrome-for-testing/
不不不AgenticSeek 和 Manus 是不同取向的東西,我們優先考慮的是本地執行和隱私,而不是基於雲端。這是一個與 Manus 相比起來更有趣且易使用的方案!
**Q: 是否支持中文以外的语言?**
DeepSeek R1 天生会说中文
但注意:代理路由系统只懂英文,所以必须通过 config.ini 的 languages 参数(如 languages = en zh告诉系统
如果不设置中文?后果可能是:你让它写代码,结果跳出来个"医生代理"(虽然我们根本没有这个代理... 但系统会一脸懵圈!)
实际上会下载一个小型翻译模型来协助任务分配
## 貢獻
我們正在尋找開發者來改善 AgenticSeek你可以在 Issues 查看未解決的問題或和我們討論更酷的新功能!

View File

@ -108,23 +108,48 @@ provider_server_address = 127.0.0.1:11434
| lm-studio | Oui | Exécutez un LLM localement avec LM studio (définissez `provider_name` sur `lm-studio`) |
| openai | Oui | Utilisez une API local compatible avec openai |
démarrer tous les services :
### **Démarrer les services & Exécuter**
Activez votre environnement Python si nécessaire.
```sh
sudo ./start_services.sh
source agentic_seek_env/bin/activate
```
Lancer agenticSeek:
Démarrez les services requis. Cela lancera tous les services définis dans le fichier docker-compose.yml, y compris :
- searxng
- redis (nécessaire pour searxng)
- frontend
```sh
sudo ./start_services.sh # MacOS
start ./start_services.cmd # Windows
```
**Option 1 :** Exécuter avec l'interface CLI.
```sh
python3 cli.py
```
**Option 2 :** Exécuter avec l'interface Web.
Démarrez le backend.
```sh
python3 api.py
```
Allez sur `http://localhost:3000/` et vous devriez voir l'interface web.
Veuillez noter que l'interface web ne diffuse pas les messages en continu pour le moment.
Voyez la section **Utilisation** si vous ne comprenez pas comment lutiliser
Voyez la section **Problèmes** connus si vous rencontrez des problèmes
Voyez la section **Exécuter** avec une API si votre matériel ne peut pas exécuter DeepSeek localement
Voyez la section **Exécuter avec une API** si votre matériel ne peut pas exécuter DeepSeek localement
Voyez la section **Configuration** pour une explication détaillée du fichier de configuration.
@ -245,12 +270,7 @@ provider_model = deepseek-r1:14b
provider_server_address = x.x.x.x:3333
```
Exécutez lassistant :
```sh
sudo ./start_services.sh
python3 cli.py
```
Ensuite, exécutez avec le CLI ou l'interface graphique comme expliqué dans la section pour les fournisseurs locaux.
## **Exécuter avec une API**
@ -268,12 +288,7 @@ provider_model = gpt-4o
provider_server_address = 127.0.0.1:5000
```
Exécutez lassistant :
```sh
sudo ./start_services.sh
python3 cli.py
```
Ensuite, exécutez avec le CLI ou l'interface graphique comme expliqué dans la section pour les fournisseurs locaux.
## Config