Merge pull request #144 from Fosowl/dev

Update readme
This commit is contained in:
Martin 2025-04-29 21:39:21 +02:00 committed by GitHub
commit db2eb6fbac
No known key found for this signature in database
GPG Key ID: B5690EEEBB952194
5 changed files with 74 additions and 28 deletions

View File

@ -58,14 +58,44 @@ source agentic_seek_env/bin/activate
### 3⃣ **Install package** ### 3⃣ **Install package**
**Automatic Installation:** **Automatic Installation (Recommanded):**
For Linux/Macos:
```sh ```sh
./install.sh ./install.sh
``` ```
For windows:
```sh
./install.bat
```
**Manually:** **Manually:**
First, you need to install these packages:
- *Linux*:
Updates package list (apt-get update).
Install these:
alsa-utils, portaudio19-dev, python3-pyaudio, libgtk-3-dev, libnotify-dev, libgconf-2-4, libnss3, libxss1, selenium
Make sure to install docker + docker-compose if not already.
- *Macos*:
Update package list.
Install chromedriver.
Install portaudio.
Install chromedriver and selenium.
- *Windows*:
Install pyreadline3, selenium portaudio, pyAudio and chromedriver
Then install pip requirements:
```sh ```sh
pip3 install -r requirements.txt pip3 install -r requirements.txt
# or # or
@ -124,7 +154,7 @@ Next step: [Start services and run AgenticSeek](#Start-services-and-Run)
## Setup to run with an API ## Setup to run with an API
Set the desired provider in the `config.ini` Set the desired provider in the `config.ini`. See below for a list of API providers.
```sh ```sh
[MAIN] [MAIN]
@ -133,12 +163,21 @@ provider_name = openai
provider_model = gpt-4o provider_model = gpt-4o
provider_server_address = 127.0.0.1:5000 provider_server_address = 127.0.0.1:5000
``` ```
Warning: Make sure there is not trailing space in the config.
WARNING: Make sure there is not trailing space in the config. Export your API key: `export <<PROVIDER>>_API_KEY="xxx"`
Set `is_local` to True if using a local openai-based api. Example: export `TOGETHER_API_KEY="xxxxx"`
Change the IP address if your openai-based api run on your own server. **List of API providers**
| Provider | Local? | Description |
|-----------|--------|-----------------------------------------------------------|
| openai | Depends | Use ChatGPT API |
| deepseek-api | No | Deepseek API (non-private) |
| huggingface| No | Hugging-Face API (non-private) |
| togetherAI | No | Use together AI API (non-private) |
| google | No | Use google gemini API (non-private) |
Next step: [Start services and run AgenticSeek](#Start-services-and-Run) Next step: [Start services and run AgenticSeek](#Start-services-and-Run)
@ -185,18 +224,11 @@ Go to `http://localhost:3000/` and you should see the web interface.
## Usage ## Usage
Make sure the services are up and running with `./start_services.sh` and run the AgenticSeek with `python3 main.py` Make sure the services are up and running with `./start_services.sh` and run the AgenticSeek with `python3 cli.py` for CLI mode or `python3 api.py` then go to `localhost:3000` for web interface.
```sh You can also use speech to text by setting `listen = True` in the config. Only for CLI mode.
sudo ./start_services.sh
python3 cli.py
```
You will be prompted with `>>> ` To exit, simply say/type `goodbye`.
This indicate AgenticSeek await you type for instructions.
You can also use speech to text by setting `listen = True` in the config.
To exit, simply say `goodbye`.
Here are some example usage: Here are some example usage:
@ -247,9 +279,9 @@ Instead, ask:
--- ---
## **Bonus: Setup to run the LLM on your own server** ## **Setup to run the LLM on your own server**
If you have a powerful computer or a server that you can use, but you want to use it from your laptop you have the options to run the LLM on a remote server. If you have a powerful computer or a server that you can use, but you want to use it from your laptop you have the options to run the LLM on a remote server using our custom llm server.
On your "server" that will run the AI model, get the ip address On your "server" that will run the AI model, get the ip address
@ -303,6 +335,8 @@ Next step: [Start services and run AgenticSeek](#Start-services-and-Run)
## Speech to Text ## Speech to Text
Please note that currently speech to text only work in english.
The speech-to-text functionality is disabled by default. To enable it, set the listen option to True in the config.ini file: The speech-to-text functionality is disabled by default. To enable it, set the listen option to True in the config.ini file:
``` ```
@ -393,6 +427,7 @@ The table below show the available providers:
| deepseek-api | No | Deepseek API (non-private) | | deepseek-api | No | Deepseek API (non-private) |
| huggingface| No | Hugging-Face API (non-private) | | huggingface| No | Hugging-Face API (non-private) |
| togetherAI | No | Use together AI API (non-private) | | togetherAI | No | Use together AI API (non-private) |
| google | No | Use google gemini API (non-private) |
To select a provider change the config.ini: To select a provider change the config.ini:

View File

@ -313,6 +313,8 @@ provider_server_address = x.x.x.x:3333
## 语音转文字 ## 语音转文字
请注意,目前语音转文字功能仅支持英语。
预设状况下,语音转文字功能是停用的。若要启用它,请在 `config.ini` 档案中,将 `listen` 选项设为 `True` 预设状况下,语音转文字功能是停用的。若要启用它,请在 `config.ini` 档案中,将 `listen` 选项设为 `True`
``` ```
@ -469,7 +471,7 @@ https://googlechromelabs.github.io/chrome-for-testing/
就其尺寸而言Deepseek R1 在推理和使用方面表现出色。我们认为非常适合我们的需求,其他模型也很好用,但 Deepseek 是我们最后选定的模型。 就其尺寸而言Deepseek R1 在推理和使用方面表现出色。我们认为非常适合我们的需求,其他模型也很好用,但 Deepseek 是我们最后选定的模型。
**Q我在执行时 `main.py` 时出现错误。我该怎么办?** **Q我在执行时 `cli.py` 时出现错误。我该怎么办?**
1. 确保 Ollama 正在运行ollama serve 1. 确保 Ollama 正在运行ollama serve
2. 你 `config.ini``provider_name` 的框架选择正确。 2. 你 `config.ini``provider_name` 的框架选择正确。

View File

@ -314,6 +314,8 @@ provider_server_address = x.x.x.x:3333
## 語音轉文字 ## 語音轉文字
请注意,目前语音转文字功能仅支持英语。
預設狀況下,語音轉文字功能是停用的。若要啟用它,請在 `config.ini` 檔案中,將 `listen` 選項設為 `True` 預設狀況下,語音轉文字功能是停用的。若要啟用它,請在 `config.ini` 檔案中,將 `listen` 選項設為 `True`
``` ```
@ -470,7 +472,7 @@ https://googlechromelabs.github.io/chrome-for-testing/
就其尺寸而言Deepseek R1 在推理和使用方面表現出色。我們認為非常適合我們的需求,其他模型也很好用,但 Deepseek 是我們最後選定的模型。 就其尺寸而言Deepseek R1 在推理和使用方面表現出色。我們認為非常適合我們的需求,其他模型也很好用,但 Deepseek 是我們最後選定的模型。
**Q我在執行時 `main.py` 時出現錯誤。我該怎麼辦?** **Q我在執行時 `cli.py` 時出現錯誤。我該怎麼辦?**
1. 確保 Ollama 正在運行ollama serve 1. 確保 Ollama 正在運行ollama serve
2. 你 `config.ini``provider_name` 的框架選擇正確。 2. 你 `config.ini``provider_name` 的框架選擇正確。

View File

@ -274,22 +274,27 @@ provider_server_address = x.x.x.x:3333
Ensuite, exécutez avec le CLI ou l'interface graphique comme expliqué dans la section pour les fournisseurs locaux. Ensuite, exécutez avec le CLI ou l'interface graphique comme expliqué dans la section pour les fournisseurs locaux.
## **Exécuter avec une API** ## **Exécuter avec une API externe**
AVERTISSEMENT : Assurez-vous quil ny a pas despace en fin de ligne dans la configuration. AVERTISSEMENT : Assurez-vous quil ny a pas despace en fin de ligne dans la configuration.
Définissez is_local sur True si vous utilisez une API basée sur OpenAI localement.
Changez ladresse IP si votre API basée sur OpenAI fonctionne sur votre propre serveur.
```sh ```sh
[MAIN] [MAIN]
is_local = False is_local = False
provider_name = openai provider_name = openai
provider_model = gpt-4o provider_model = gpt-4o
provider_server_address = 127.0.0.1:5000 provider_server_address = 127.0.0.1:5000 # n'importe pas
``` ```
**Liste de provideurs API**
| Fournisseur | Local ? | Description |
|--------------|---------|-----------------------------------------------------------|
| openai | Non | Utilise l'API ChatGPT |
| deepseek-api | Non | API Deepseek (non privé) |
| huggingface | Non | API Hugging-Face (non privé) |
| togetherAI | Non | Utilise l'API Together AI (non privé) |
| google | Non | Utilise l'API Google Gemini (non privé) |
Ensuite, exécutez avec le CLI ou l'interface graphique comme expliqué dans la section pour les fournisseurs locaux. Ensuite, exécutez avec le CLI ou l'interface graphique comme expliqué dans la section pour les fournisseurs locaux.
## Config ## Config

View File

@ -204,11 +204,11 @@ python3 api.py
警告: 現在、サポートされている言語は英語、中国語、フランス語のみです。他の言語でのプロンプトは機能しますが、適切なエージェントにルーティングされない場合があります。 警告: 現在、サポートされている言語は英語、中国語、フランス語のみです。他の言語でのプロンプトは機能しますが、適切なエージェントにルーティングされない場合があります。
サービスが`./start_services.sh`で起動していることを確認し、`python3 main.py`でagenticSeekを実行します。 サービスが`./start_services.sh`で起動していることを確認し、`python3 cli.py`でagenticSeekを実行します。
```sh ```sh
sudo ./start_services.sh sudo ./start_services.sh
python3 main.py python3 cli.py
``` ```
`>>> `と表示されます `>>> `と表示されます
@ -320,6 +320,8 @@ provider_server_address = x.x.x.x:3333
## 音声認識 ## 音声認識
現在、音声認識は英語でのみ動作することに注意してください。
音声認識機能はデフォルトで無効になっています。有効にするには、config.iniファイルでlistenオプションをTrueに設定します: 音声認識機能はデフォルトで無効になっています。有効にするには、config.iniファイルでlistenオプションをTrueに設定します:
``` ```
@ -453,7 +455,7 @@ https://googlechromelabs.github.io/chrome-for-testing/
Deepseek R1は、そのサイズに対して推論とツールの使用に優れています。私たちのニーズに最適だと考えています。他のモデルも問題なく動作しますが、Deepseekが私たちの主な選択です。 Deepseek R1は、そのサイズに対して推論とツールの使用に優れています。私たちのニーズに最適だと考えています。他のモデルも問題なく動作しますが、Deepseekが私たちの主な選択です。
**Q: `main.py`を実行するとエラーが発生します。どうすればよいですか?** **Q: `cli.py`を実行するとエラーが発生します。どうすればよいですか?**
Ollamaが実行中であることを確認してください`ollama serve`)、`config.ini`がプロバイダーに一致していること、および依存関係がインストールされていることを確認してください。それでも解決しない場合は、問題を報告してください。 Ollamaが実行中であることを確認してください`ollama serve`)、`config.ini`がプロバイダーに一致していること、および依存関係がインストールされていることを確認してください。それでも解決しない場合は、問題を報告してください。