diff --git a/README.md b/README.md index 541fde3..caa2d58 100644 --- a/README.md +++ b/README.md @@ -118,7 +118,7 @@ provider_server_address = 127.0.0.1:11434 |-----------|--------|-----------------------------------------------------------| | ollama | Yes | Run LLMs locally with ease using ollama as a LLM provider | | lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)| -| openai | Yes | Use API compatible | +| openai | Yes | Use openai compatible API | Next step: [Start services and run AgenticSeek](#Start-services-and-Run) @@ -182,6 +182,8 @@ python3 cli.py **Options 2:** Run with the Web interface. +Note: Currently we advice you run the CLI instead. Web interface is an active work in progress. + Start the backend. ```sh @@ -397,10 +399,11 @@ The table below show the available providers: |-----------|--------|-----------------------------------------------------------| | ollama | Yes | Run LLMs locally with ease using ollama as a LLM provider | | server | Yes | Host the model on another machine, run your local machine | -| lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)| -| openai | No | Use ChatGPT API (non-private) | -| deepseek-api | No | Deepseek API (non-private) | +| lm-studio | Yes | Run LLM locally with LM studio (`lm-studio`) | +| openai | Depends | Use ChatGPT API (non-private) or openai compatible API | +| deepseek-api | No | Deepseek API (non-private) | | huggingface| No | Hugging-Face API (non-private) | +| togetherAI | No | Use together AI API (non-private) | To select a provider change the config.ini: diff --git a/README_CHS.md b/README_CHS.md index 3b2c843..5c4b2cf 100644 --- a/README_CHS.md +++ b/README_CHS.md @@ -165,6 +165,8 @@ python3 cli.py **选项 2:** 使用 Web 界面运行。 +注意:目前我們建議您使用 CLI 界面。Web 界面仍在積極開發中。 + 启动后端服务。 ```sh diff --git a/README_CHT.md b/README_CHT.md index cc5b4ab..1ce639a 100644 --- a/README_CHT.md +++ b/README_CHT.md @@ -166,6 +166,8 @@ python3 cli.py **选项 2:** 使用 Web 界面运行。 +注意:目前我們建議您使用 CLI 界面。Web 界面仍在積極開發中。 + 启动后端服务。 ```sh diff --git a/README_FR.md b/README_FR.md index 17a2c37..d96f792 100644 --- a/README_FR.md +++ b/README_FR.md @@ -157,18 +157,20 @@ Voyez la section **Configuration** pour une explication détaillée du fichier d ## Utilisation -Assurez-vous que les services sont en cours d’exécution avec ./start_services.sh et lancez AgenticSeek avec python3 cli.py +Assurez-vous que les services sont en cours d’exécution avec ./start_services.sh et lancez AgenticSeek avec le CLI ou l'interface Web. -```sh -sudo ./start_services.sh -python3 cli.py -``` +**CLI:** +Vous verrez un prompt : ">>> " +Cela indique qu’AgenticSeek attend que vous saisissiez des instructions. +Vous pouvez également utiliser la reconnaissance vocale en définissant `listen = True` dans la configuration. +Pour quitter, dites simplement `goodbye`. -Vous verrez un prompt: ">>> " -Cela indique qu’AgenticSeek attend que vous saisissiez des instructions. -Vous pouvez également utiliser la reconnaissance vocale en définissant listen = True dans la configuration. +**Interface:** -Pour quitter, dites simplement `goodbye`. +Assurez-vous d'avoir bien démarré le backend avec `python3 api.py`. +Allez sur `localhost:3000` où vous verrez une interface web. +Tapez simplement votre message et patientez. +Si vous n'avez pas d'interface sur `localhost:3000`, c'est que vous n'avez pas démarré les services avec `start_services.sh`. Voici quelques exemples d’utilisation : @@ -176,7 +178,7 @@ Voici quelques exemples d’utilisation : > *Aide-moi avec la multiplication de matrices en Golang* -> *Initalize un nouveau project python, setup le readme, gitignore et tout le bordel et fait un premier commit* +> *Initalize un nouveau project python, setup le readme, gitignore etc.. et fait un premier commit* > *Fais un jeu snake en Python* @@ -351,9 +353,10 @@ Le tableau ci-dessous montre les LLM providers disponibles : | ollama | Yes | Exécutez des LLM localement avec facilité en utilisant Ollama comme fournisseur LLM | server | Yes | Hébergez le modèle sur une autre machine, exécutez sur votre machine locale | lm-studio | Yes | Exécutez un LLM localement avec LM Studio (définissez provider_name sur lm-studio) -| openai | No | Utilise ChatGPT API (pas privé) | -| deepseek-api | No | Deepseek API (pas privé) | -| huggingface| No | Hugging-Face API (pas privé) | +| openai | No | Utilise l'API ChatGPT (pas privé) | +| deepseek-api | No | Utilise l'API Deepseek (pas privé) | +| huggingface| No | Utilise Hugging-Face (pas privé) | +| together| No | Utilise l'api Together AI | Pour sélectionner un provider LLM, modifiez le config.ini :