upd all readme

This commit is contained in:
martin legrand 2025-04-18 10:23:39 +02:00
parent ae8ff0640b
commit 3a9514629a
4 changed files with 27 additions and 17 deletions

View File

@ -118,7 +118,7 @@ provider_server_address = 127.0.0.1:11434
|-----------|--------|-----------------------------------------------------------|
| ollama | Yes | Run LLMs locally with ease using ollama as a LLM provider |
| lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)|
| openai | Yes | Use API compatible |
| openai | Yes | Use openai compatible API |
Next step: [Start services and run AgenticSeek](#Start-services-and-Run)
@ -182,6 +182,8 @@ python3 cli.py
**Options 2:** Run with the Web interface.
Note: Currently we advice you run the CLI instead. Web interface is an active work in progress.
Start the backend.
```sh
@ -397,10 +399,11 @@ The table below show the available providers:
|-----------|--------|-----------------------------------------------------------|
| ollama | Yes | Run LLMs locally with ease using ollama as a LLM provider |
| server | Yes | Host the model on another machine, run your local machine |
| lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)|
| openai | No | Use ChatGPT API (non-private) |
| deepseek-api | No | Deepseek API (non-private) |
| lm-studio | Yes | Run LLM locally with LM studio (`lm-studio`) |
| openai | Depends | Use ChatGPT API (non-private) or openai compatible API |
| deepseek-api | No | Deepseek API (non-private) |
| huggingface| No | Hugging-Face API (non-private) |
| togetherAI | No | Use together AI API (non-private) |
To select a provider change the config.ini:

View File

@ -165,6 +165,8 @@ python3 cli.py
**选项 2:** 使用 Web 界面运行。
注意:目前我們建議您使用 CLI 界面。Web 界面仍在積極開發中。
启动后端服务。
```sh

View File

@ -166,6 +166,8 @@ python3 cli.py
**选项 2:** 使用 Web 界面运行。
注意:目前我們建議您使用 CLI 界面。Web 界面仍在積極開發中。
启动后端服务。
```sh

View File

@ -157,18 +157,20 @@ Voyez la section **Configuration** pour une explication détaillée du fichier d
## Utilisation
Assurez-vous que les services sont en cours dexécution avec ./start_services.sh et lancez AgenticSeek avec python3 cli.py
Assurez-vous que les services sont en cours dexécution avec ./start_services.sh et lancez AgenticSeek avec le CLI ou l'interface Web.
```sh
sudo ./start_services.sh
python3 cli.py
```
**CLI:**
Vous verrez un prompt : ">>> "
Cela indique quAgenticSeek attend que vous saisissiez des instructions.
Vous pouvez également utiliser la reconnaissance vocale en définissant `listen = True` dans la configuration.
Pour quitter, dites simplement `goodbye`.
Vous verrez un prompt: ">>> "
Cela indique quAgenticSeek attend que vous saisissiez des instructions.
Vous pouvez également utiliser la reconnaissance vocale en définissant listen = True dans la configuration.
**Interface:**
Pour quitter, dites simplement `goodbye`.
Assurez-vous d'avoir bien démarré le backend avec `python3 api.py`.
Allez sur `localhost:3000` où vous verrez une interface web.
Tapez simplement votre message et patientez.
Si vous n'avez pas d'interface sur `localhost:3000`, c'est que vous n'avez pas démarré les services avec `start_services.sh`.
Voici quelques exemples dutilisation :
@ -176,7 +178,7 @@ Voici quelques exemples dutilisation :
> *Aide-moi avec la multiplication de matrices en Golang*
> *Initalize un nouveau project python, setup le readme, gitignore et tout le bordel et fait un premier commit*
> *Initalize un nouveau project python, setup le readme, gitignore etc.. et fait un premier commit*
> *Fais un jeu snake en Python*
@ -351,9 +353,10 @@ Le tableau ci-dessous montre les LLM providers disponibles :
| ollama | Yes | Exécutez des LLM localement avec facilité en utilisant Ollama comme fournisseur LLM
| server | Yes | Hébergez le modèle sur une autre machine, exécutez sur votre machine locale
| lm-studio | Yes | Exécutez un LLM localement avec LM Studio (définissez provider_name sur lm-studio)
| openai | No | Utilise ChatGPT API (pas privé) |
| deepseek-api | No | Deepseek API (pas privé) |
| huggingface| No | Hugging-Face API (pas privé) |
| openai | No | Utilise l'API ChatGPT (pas privé) |
| deepseek-api | No | Utilise l'API Deepseek (pas privé) |
| huggingface| No | Utilise Hugging-Face (pas privé) |
| together| No | Utilise l'api Together AI |
Pour sélectionner un provider LLM, modifiez le config.ini :