From 03c71368f5c67390d49d29a654ae9cbb92b08d41 Mon Sep 17 00:00:00 2001 From: martin legrand Date: Tue, 29 Apr 2025 21:19:09 +0200 Subject: [PATCH 1/2] update readme --- README.md | 69 +++++++++++++++++++++++++++++++++++++++++-------------- 1 file changed, 52 insertions(+), 17 deletions(-) diff --git a/README.md b/README.md index 0d2b27e..4c975c3 100644 --- a/README.md +++ b/README.md @@ -58,14 +58,44 @@ source agentic_seek_env/bin/activate ### 3️⃣ **Install package** -**Automatic Installation:** +**Automatic Installation (Recommanded):** +For Linux/Macos: ```sh ./install.sh ``` +For windows: +```sh +./install.bat +``` + **Manually:** +First, you need to install these packages: + +- *Linux*: + +Updates package list (apt-get update). + +Install these: +alsa-utils, portaudio19-dev, python3-pyaudio, libgtk-3-dev, libnotify-dev, libgconf-2-4, libnss3, libxss1, selenium + +Make sure to install docker + docker-compose if not already. + +- *Macos*: + +Update package list. +Install chromedriver. +Install portaudio. +Install chromedriver and selenium. + +- *Windows*: + +Install pyreadline3, selenium portaudio, pyAudio and chromedriver + +Then install pip requirements: + ```sh pip3 install -r requirements.txt # or @@ -124,7 +154,7 @@ Next step: [Start services and run AgenticSeek](#Start-services-and-Run) ## Setup to run with an API -Set the desired provider in the `config.ini` +Set the desired provider in the `config.ini`. See below for a list of API providers. ```sh [MAIN] @@ -133,12 +163,21 @@ provider_name = openai provider_model = gpt-4o provider_server_address = 127.0.0.1:5000 ``` +Warning: Make sure there is not trailing space in the config. -WARNING: Make sure there is not trailing space in the config. +Export your API key: `export <>_API_KEY="xxx"` -Set `is_local` to True if using a local openai-based api. +Example: export `TOGETHER_API_KEY="xxxxx"` -Change the IP address if your openai-based api run on your own server. +**List of API providers** + +| Provider | Local? | Description | +|-----------|--------|-----------------------------------------------------------| +| openai | Depends | Use ChatGPT API | +| deepseek-api | No | Deepseek API (non-private) | +| huggingface| No | Hugging-Face API (non-private) | +| togetherAI | No | Use together AI API (non-private) | +| google | No | Use google gemini API (non-private) | Next step: [Start services and run AgenticSeek](#Start-services-and-Run) @@ -185,18 +224,11 @@ Go to `http://localhost:3000/` and you should see the web interface. ## Usage -Make sure the services are up and running with `./start_services.sh` and run the AgenticSeek with `python3 main.py` +Make sure the services are up and running with `./start_services.sh` and run the AgenticSeek with `python3 cli.py` for CLI mode or `python3 api.py` then go to `localhost:3000` for web interface. -```sh -sudo ./start_services.sh -python3 cli.py -``` +You can also use speech to text by setting `listen = True` in the config. Only for CLI mode. -You will be prompted with `>>> ` -This indicate AgenticSeek await you type for instructions. -You can also use speech to text by setting `listen = True` in the config. - -To exit, simply say `goodbye`. +To exit, simply say/type `goodbye`. Here are some example usage: @@ -247,9 +279,9 @@ Instead, ask: --- -## **Bonus: Setup to run the LLM on your own server** +## **Setup to run the LLM on your own server** -If you have a powerful computer or a server that you can use, but you want to use it from your laptop you have the options to run the LLM on a remote server. +If you have a powerful computer or a server that you can use, but you want to use it from your laptop you have the options to run the LLM on a remote server using our custom llm server. On your "server" that will run the AI model, get the ip address @@ -303,6 +335,8 @@ Next step: [Start services and run AgenticSeek](#Start-services-and-Run) ## Speech to Text +Please note that currently speech to text only work in english. + The speech-to-text functionality is disabled by default. To enable it, set the listen option to True in the config.ini file: ``` @@ -393,6 +427,7 @@ The table below show the available providers: | deepseek-api | No | Deepseek API (non-private) | | huggingface| No | Hugging-Face API (non-private) | | togetherAI | No | Use together AI API (non-private) | +| google | No | Use google gemini API (non-private) | To select a provider change the config.ini: From 68d471bfc64beeaa806b91b5c6dbd96f15ffb90f Mon Sep 17 00:00:00 2001 From: martin legrand Date: Tue, 29 Apr 2025 21:38:29 +0200 Subject: [PATCH 2/2] update readmes --- README_CHS.md | 4 +++- README_CHT.md | 4 +++- README_FR.md | 17 +++++++++++------ README_JP.md | 8 +++++--- 4 files changed, 22 insertions(+), 11 deletions(-) diff --git a/README_CHS.md b/README_CHS.md index ed41cbf..5c1a0ce 100644 --- a/README_CHS.md +++ b/README_CHS.md @@ -313,6 +313,8 @@ provider_server_address = x.x.x.x:3333 ## 语音转文字 +请注意,目前语音转文字功能仅支持英语。 + 预设状况下,语音转文字功能是停用的。若要启用它,请在 `config.ini` 档案中,将 `listen` 选项设为 `True`: ``` @@ -469,7 +471,7 @@ https://googlechromelabs.github.io/chrome-for-testing/ 就其尺寸而言,Deepseek R1 在推理和使用方面表现出色。我们认为非常适合我们的需求,其他模型也很好用,但 Deepseek 是我们最后选定的模型。 -**Q:我在执行时 `main.py` 时出现错误。我该怎么办?** +**Q:我在执行时 `cli.py` 时出现错误。我该怎么办?** 1. 确保 Ollama 正在运行(ollama serve) 2. 你 `config.ini` 内 `provider_name` 的框架选择正确。 diff --git a/README_CHT.md b/README_CHT.md index 688721d..2e03443 100644 --- a/README_CHT.md +++ b/README_CHT.md @@ -314,6 +314,8 @@ provider_server_address = x.x.x.x:3333 ## 語音轉文字 +请注意,目前语音转文字功能仅支持英语。 + 預設狀況下,語音轉文字功能是停用的。若要啟用它,請在 `config.ini` 檔案中,將 `listen` 選項設為 `True`: ``` @@ -470,7 +472,7 @@ https://googlechromelabs.github.io/chrome-for-testing/ 就其尺寸而言,Deepseek R1 在推理和使用方面表現出色。我們認為非常適合我們的需求,其他模型也很好用,但 Deepseek 是我們最後選定的模型。 -**Q:我在執行時 `main.py` 時出現錯誤。我該怎麼辦?** +**Q:我在執行時 `cli.py` 時出現錯誤。我該怎麼辦?** 1. 確保 Ollama 正在運行(ollama serve) 2. 你 `config.ini` 內 `provider_name` 的框架選擇正確。 diff --git a/README_FR.md b/README_FR.md index 901de07..e4f9df3 100644 --- a/README_FR.md +++ b/README_FR.md @@ -274,22 +274,27 @@ provider_server_address = x.x.x.x:3333 Ensuite, exécutez avec le CLI ou l'interface graphique comme expliqué dans la section pour les fournisseurs locaux. -## **Exécuter avec une API** +## **Exécuter avec une API externe** AVERTISSEMENT : Assurez-vous qu’il n’y a pas d’espace en fin de ligne dans la configuration. -Définissez is_local sur True si vous utilisez une API basée sur OpenAI localement. - -Changez l’adresse IP si votre API basée sur OpenAI fonctionne sur votre propre serveur. - ```sh [MAIN] is_local = False provider_name = openai provider_model = gpt-4o -provider_server_address = 127.0.0.1:5000 +provider_server_address = 127.0.0.1:5000 # n'importe pas ``` +**Liste de provideurs API** +| Fournisseur | Local ? | Description | +|--------------|---------|-----------------------------------------------------------| +| openai | Non | Utilise l'API ChatGPT | +| deepseek-api | Non | API Deepseek (non privé) | +| huggingface | Non | API Hugging-Face (non privé) | +| togetherAI | Non | Utilise l'API Together AI (non privé) | +| google | Non | Utilise l'API Google Gemini (non privé) | + Ensuite, exécutez avec le CLI ou l'interface graphique comme expliqué dans la section pour les fournisseurs locaux. ## Config diff --git a/README_JP.md b/README_JP.md index 749c4ec..613947b 100644 --- a/README_JP.md +++ b/README_JP.md @@ -204,11 +204,11 @@ python3 api.py 警告: 現在、サポートされている言語は英語、中国語、フランス語のみです。他の言語でのプロンプトは機能しますが、適切なエージェントにルーティングされない場合があります。 -サービスが`./start_services.sh`で起動していることを確認し、`python3 main.py`でagenticSeekを実行します。 +サービスが`./start_services.sh`で起動していることを確認し、`python3 cli.py`でagenticSeekを実行します。 ```sh sudo ./start_services.sh -python3 main.py +python3 cli.py ``` `>>> `と表示されます @@ -320,6 +320,8 @@ provider_server_address = x.x.x.x:3333 ## 音声認識 +現在、音声認識は英語でのみ動作することに注意してください。 + 音声認識機能はデフォルトで無効になっています。有効にするには、config.iniファイルでlistenオプションをTrueに設定します: ``` @@ -453,7 +455,7 @@ https://googlechromelabs.github.io/chrome-for-testing/ Deepseek R1は、そのサイズに対して推論とツールの使用に優れています。私たちのニーズに最適だと考えています。他のモデルも問題なく動作しますが、Deepseekが私たちの主な選択です。 -**Q: `main.py`を実行するとエラーが発生します。どうすればよいですか?** +**Q: `cli.py`を実行するとエラーが発生します。どうすればよいですか?** Ollamaが実行中であることを確認してください(`ollama serve`)、`config.ini`がプロバイダーに一致していること、および依存関係がインストールされていることを確認してください。それでも解決しない場合は、問題を報告してください。