mirror of
https://github.com/tcsenpai/agenticSeek.git
synced 2025-06-05 02:25:27 +00:00
upd all readme
This commit is contained in:
parent
ae8ff0640b
commit
3a9514629a
11
README.md
11
README.md
@ -118,7 +118,7 @@ provider_server_address = 127.0.0.1:11434
|
||||
|-----------|--------|-----------------------------------------------------------|
|
||||
| ollama | Yes | Run LLMs locally with ease using ollama as a LLM provider |
|
||||
| lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)|
|
||||
| openai | Yes | Use API compatible |
|
||||
| openai | Yes | Use openai compatible API |
|
||||
|
||||
|
||||
Next step: [Start services and run AgenticSeek](#Start-services-and-Run)
|
||||
@ -182,6 +182,8 @@ python3 cli.py
|
||||
|
||||
**Options 2:** Run with the Web interface.
|
||||
|
||||
Note: Currently we advice you run the CLI instead. Web interface is an active work in progress.
|
||||
|
||||
Start the backend.
|
||||
|
||||
```sh
|
||||
@ -397,10 +399,11 @@ The table below show the available providers:
|
||||
|-----------|--------|-----------------------------------------------------------|
|
||||
| ollama | Yes | Run LLMs locally with ease using ollama as a LLM provider |
|
||||
| server | Yes | Host the model on another machine, run your local machine |
|
||||
| lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)|
|
||||
| openai | No | Use ChatGPT API (non-private) |
|
||||
| deepseek-api | No | Deepseek API (non-private) |
|
||||
| lm-studio | Yes | Run LLM locally with LM studio (`lm-studio`) |
|
||||
| openai | Depends | Use ChatGPT API (non-private) or openai compatible API |
|
||||
| deepseek-api | No | Deepseek API (non-private) |
|
||||
| huggingface| No | Hugging-Face API (non-private) |
|
||||
| togetherAI | No | Use together AI API (non-private) |
|
||||
|
||||
To select a provider change the config.ini:
|
||||
|
||||
|
@ -165,6 +165,8 @@ python3 cli.py
|
||||
|
||||
**选项 2:** 使用 Web 界面运行。
|
||||
|
||||
注意:目前我們建議您使用 CLI 界面。Web 界面仍在積極開發中。
|
||||
|
||||
启动后端服务。
|
||||
|
||||
```sh
|
||||
|
@ -166,6 +166,8 @@ python3 cli.py
|
||||
|
||||
**选项 2:** 使用 Web 界面运行。
|
||||
|
||||
注意:目前我們建議您使用 CLI 界面。Web 界面仍在積極開發中。
|
||||
|
||||
启动后端服务。
|
||||
|
||||
```sh
|
||||
|
29
README_FR.md
29
README_FR.md
@ -157,18 +157,20 @@ Voyez la section **Configuration** pour une explication détaillée du fichier d
|
||||
|
||||
## Utilisation
|
||||
|
||||
Assurez-vous que les services sont en cours d’exécution avec ./start_services.sh et lancez AgenticSeek avec python3 cli.py
|
||||
Assurez-vous que les services sont en cours d’exécution avec ./start_services.sh et lancez AgenticSeek avec le CLI ou l'interface Web.
|
||||
|
||||
```sh
|
||||
sudo ./start_services.sh
|
||||
python3 cli.py
|
||||
```
|
||||
**CLI:**
|
||||
Vous verrez un prompt : ">>> "
|
||||
Cela indique qu’AgenticSeek attend que vous saisissiez des instructions.
|
||||
Vous pouvez également utiliser la reconnaissance vocale en définissant `listen = True` dans la configuration.
|
||||
Pour quitter, dites simplement `goodbye`.
|
||||
|
||||
Vous verrez un prompt: ">>> "
|
||||
Cela indique qu’AgenticSeek attend que vous saisissiez des instructions.
|
||||
Vous pouvez également utiliser la reconnaissance vocale en définissant listen = True dans la configuration.
|
||||
**Interface:**
|
||||
|
||||
Pour quitter, dites simplement `goodbye`.
|
||||
Assurez-vous d'avoir bien démarré le backend avec `python3 api.py`.
|
||||
Allez sur `localhost:3000` où vous verrez une interface web.
|
||||
Tapez simplement votre message et patientez.
|
||||
Si vous n'avez pas d'interface sur `localhost:3000`, c'est que vous n'avez pas démarré les services avec `start_services.sh`.
|
||||
|
||||
Voici quelques exemples d’utilisation :
|
||||
|
||||
@ -176,7 +178,7 @@ Voici quelques exemples d’utilisation :
|
||||
|
||||
> *Aide-moi avec la multiplication de matrices en Golang*
|
||||
|
||||
> *Initalize un nouveau project python, setup le readme, gitignore et tout le bordel et fait un premier commit*
|
||||
> *Initalize un nouveau project python, setup le readme, gitignore etc.. et fait un premier commit*
|
||||
|
||||
> *Fais un jeu snake en Python*
|
||||
|
||||
@ -351,9 +353,10 @@ Le tableau ci-dessous montre les LLM providers disponibles :
|
||||
| ollama | Yes | Exécutez des LLM localement avec facilité en utilisant Ollama comme fournisseur LLM
|
||||
| server | Yes | Hébergez le modèle sur une autre machine, exécutez sur votre machine locale
|
||||
| lm-studio | Yes | Exécutez un LLM localement avec LM Studio (définissez provider_name sur lm-studio)
|
||||
| openai | No | Utilise ChatGPT API (pas privé) |
|
||||
| deepseek-api | No | Deepseek API (pas privé) |
|
||||
| huggingface| No | Hugging-Face API (pas privé) |
|
||||
| openai | No | Utilise l'API ChatGPT (pas privé) |
|
||||
| deepseek-api | No | Utilise l'API Deepseek (pas privé) |
|
||||
| huggingface| No | Utilise Hugging-Face (pas privé) |
|
||||
| together| No | Utilise l'api Together AI |
|
||||
|
||||
Pour sélectionner un provider LLM, modifiez le config.ini :
|
||||
|
||||
|
Loading…
x
Reference in New Issue
Block a user