diff --git a/README.md b/README.md index 0eed547..5bb4632 100644 --- a/README.md +++ b/README.md @@ -87,7 +87,7 @@ python3 setup.py install **We recommend using at the very least Deepseek 14B, smaller models will struggle with tasks especially for web browsing.** -### **Run the Assistant (Locally)** +### **Setup you local provider** Start your local provider, for example with ollama: @@ -117,19 +117,42 @@ provider_server_address = 127.0.0.1:11434 | lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)| | openai | Yes | Use API compatible | -start all services : +### **Start services & Run** + +Activate you python env if needed. +```sh +source agentic_seek_env/bin/activate +``` + +Start required services. This will start all services from the docker-compose.yml, including: + - searxng + - redis (required by searxng) + - frontend ```sh sudo ./start_services.sh # MacOS start ./start_services.cmd # Window ``` -Run the assistant: +**Options 1:** Run with the CLI interface. ```sh python3 cli.py ``` +**Options 2:** Run with the Web interface. + +Start the backend. + +```sh +python3 api.py +``` + +Go to `http://localhost:3000/` and you should see the web interface. + +Please note that the Web interface doesn't stream messages at the moment. + + *See the **Usage** section if you don't understand how to use it* *See the **Known issues** section if you are having issues* diff --git a/README_CHS.md b/README_CHS.md index 0c7de89..d7b8e2c 100644 --- a/README_CHS.md +++ b/README_CHS.md @@ -115,19 +115,41 @@ provider_server_address = 127.0.0.1:11434 | lm-studio | 是 | 使用 LM Studio 本地运行 LLM(将 `provider_name` 设置为 `lm-studio`)| | openai | 否 | 使用兼容的 API | -启动所有服务: + +### **启动服务并运行** + +如果需要,请激活你的 Python 环境。 +```sh +source agentic_seek_env/bin/activate +``` + +启动所需的服务。这将启动 `docker-compose.yml` 中的所有服务,包括: +- searxng +- redis(由 redis 提供支持) +- 前端 ```sh sudo ./start_services.sh # MacOS start ./start_services.cmd # Windows ``` -运行助手: +**选项 1:** 使用 CLI 界面运行。 ```sh python3 cli.py ``` +**选项 2:** 使用 Web 界面运行。 + +启动后端服务。 + +```sh +python3 api.py +``` + +访问 `http://localhost:3000/`,你应该会看到 Web 界面。 + +请注意,目前 Web 界面不支持消息流式传输。 *如果你不知道如何开始,请参阅 **Usage** 部分* @@ -448,6 +470,16 @@ https://googlechromelabs.github.io/chrome-for-testing/ | 32B | 24GB+ VRAM(例如 RTX 4090) | 🚀 能完成大多数任务,但在任务规划上可能仍有困难。 | | 70B+ | 48GB+ VRAM(例如 Mac Studio) | 💪 表现优秀。推荐用于高级用例。 | +**Q: 是否支持中文以外的语言?** + +DeepSeek R1 天生会说中文 + +但注意:代理路由系统只懂英文,所以必须通过 config.ini 的 languages 参数(如 languages = en zh)告诉系统: + +如果不设置中文?后果可能是:你让它写代码,结果跳出来个"医生代理"(虽然我们根本没有这个代理... 但系统会一脸懵圈!) + +实际上会下载一个小型翻译模型来协助任务分配 + **Q:为什么选择 Deepseek R1 而不是其他模型?** 就其尺寸而言,Deepseek R1 在推理和使用方面表现出色。我们认为非常适合我们的需求,其他模型也很好用,但 Deepseek 是我们最后选定的模型。 diff --git a/README_CHT.md b/README_CHT.md index 2068a94..617ec2b 100644 --- a/README_CHT.md +++ b/README_CHT.md @@ -114,19 +114,43 @@ provider_server_address = 127.0.0.1:11434 | lm-studio | 是 | 使用 LM Studio 本地运行 LLM(将 `provider_name` 设置为 `lm-studio`)| | openai | 否 | 使用兼容的 API | -启动所有服务: + +### **启动服务并运行** + +如果需要,请激活你的 Python 环境。 +```sh +source agentic_seek_env/bin/activate +``` + +启动所需的服务。这将启动 `docker-compose.yml` 中的所有服务,包括: +- searxng +- redis(由 redis 提供支持) +- 前端 ```sh sudo ./start_services.sh # MacOS start ./start_services.cmd # Windows ``` -运行助手: +**选项 1:** 使用 CLI 界面运行。 ```sh python3 cli.py ``` +**选项 2:** 使用 Web 界面运行。 + +启动后端服务。 + +```sh +python3 api.py +``` + +访问 `http://localhost:3000/`,你应该会看到 Web 界面。 + +请注意,目前 Web 界面不支持消息流式传输。 + + *如果你不知道如何開始,請參閱 **Usage** 部分* *如果遇到問題,請先參考 **Known issues** 部分* @@ -471,6 +495,16 @@ https://googlechromelabs.github.io/chrome-for-testing/ 不不不,AgenticSeek 和 Manus 是不同取向的東西,我們優先考慮的是本地執行和隱私,而不是基於雲端。這是一個與 Manus 相比起來更有趣且易使用的方案! +**Q: 是否支持中文以外的语言?** + +DeepSeek R1 天生会说中文 + +但注意:代理路由系统只懂英文,所以必须通过 config.ini 的 languages 参数(如 languages = en zh)告诉系统: + +如果不设置中文?后果可能是:你让它写代码,结果跳出来个"医生代理"(虽然我们根本没有这个代理... 但系统会一脸懵圈!) + +实际上会下载一个小型翻译模型来协助任务分配 + ## 貢獻 我們正在尋找開發者來改善 AgenticSeek!你可以在 Issues 查看未解決的問題或和我們討論更酷的新功能! diff --git a/README_FR.md b/README_FR.md index 72351fc..17a2c37 100644 --- a/README_FR.md +++ b/README_FR.md @@ -108,23 +108,48 @@ provider_server_address = 127.0.0.1:11434 | lm-studio | Oui | Exécutez un LLM localement avec LM studio (définissez `provider_name` sur `lm-studio`) | | openai | Oui | Utilisez une API local compatible avec openai | -démarrer tous les services : +### **Démarrer les services & Exécuter** + +Activez votre environnement Python si nécessaire. ```sh -sudo ./start_services.sh +source agentic_seek_env/bin/activate ``` -Lancer agenticSeek: +Démarrez les services requis. Cela lancera tous les services définis dans le fichier docker-compose.yml, y compris : + - searxng + - redis (nécessaire pour searxng) + - frontend + +```sh +sudo ./start_services.sh # MacOS +start ./start_services.cmd # Windows +``` + +**Option 1 :** Exécuter avec l'interface CLI. ```sh python3 cli.py ``` +**Option 2 :** Exécuter avec l'interface Web. + +Démarrez le backend. + +```sh +python3 api.py +``` + +Allez sur `http://localhost:3000/` et vous devriez voir l'interface web. + +Veuillez noter que l'interface web ne diffuse pas les messages en continu pour le moment. + + Voyez la section **Utilisation** si vous ne comprenez pas comment l’utiliser Voyez la section **Problèmes** connus si vous rencontrez des problèmes -Voyez la section **Exécuter** avec une API si votre matériel ne peut pas exécuter DeepSeek localement +Voyez la section **Exécuter avec une API** si votre matériel ne peut pas exécuter DeepSeek localement Voyez la section **Configuration** pour une explication détaillée du fichier de configuration. @@ -245,12 +270,7 @@ provider_model = deepseek-r1:14b provider_server_address = x.x.x.x:3333 ``` -Exécutez l’assistant : - -```sh -sudo ./start_services.sh -python3 cli.py -``` +Ensuite, exécutez avec le CLI ou l'interface graphique comme expliqué dans la section pour les fournisseurs locaux. ## **Exécuter avec une API** @@ -268,12 +288,7 @@ provider_model = gpt-4o provider_server_address = 127.0.0.1:5000 ``` -Exécutez l’assistant : - -```sh -sudo ./start_services.sh -python3 cli.py -``` +Ensuite, exécutez avec le CLI ou l'interface graphique comme expliqué dans la section pour les fournisseurs locaux. ## Config