upd readme

This commit is contained in:
martin legrand 2025-04-16 22:36:11 +02:00
parent 1a2b790f2b
commit 3d1f42351f
3 changed files with 5 additions and 9 deletions

View File

@ -115,7 +115,7 @@ provider_server_address = 127.0.0.1:11434
|-----------|--------|-----------------------------------------------------------|
| ollama | Yes | Run LLMs locally with ease using ollama as a LLM provider |
| lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)|
| openai | No | Use API compatible |
| openai | Yes | Use API compatible |
start all services :
@ -218,8 +218,6 @@ ip a | grep "inet " | grep -v 127.0.0.1 | awk '{print $2}' | cut -d/ -f1
Note: For Windows or macOS, use ipconfig or ifconfig respectively to find the IP address.
**If you wish to use openai based provider follow the *Run with an API* section.**
Clone the repository and enter the `server/`folder.

View File

@ -16,11 +16,11 @@
https://github.com/user-attachments/assets/4bd5faf6-459f-4f94-bd1d-238c4b331469
> *Do a deep search of AI startup in Osaka and Tokyo, find at least 5, then save in the research_japan.txt file*
> *在大阪和東京深入搜尋人工智慧新創公司,至少找到 5 家,然後儲存在 research_japan.txt 檔案中*
> *Can you make a tetris game in C ?*
> *你可以用 C 語言製作俄羅斯方塊遊戲嗎?*
> *I would like to setup a new project file index as mark2.*
> *我想設定一個新的專案檔案索引,命名為 mark2。*
## Features:

View File

@ -106,7 +106,7 @@ provider_server_address = 127.0.0.1:11434
|-------------|---------|-----------------------------------------------------------|
| ollama | Oui | Exécutez des LLM localement avec facilité en utilisant ollama comme fournisseur LLM |
| lm-studio | Oui | Exécutez un LLM localement avec LM studio (définissez `provider_name` sur `lm-studio`) |
| openai | Non | Utilisez une API compatible |
| openai | Oui | Utilisez une API local compatible avec openai |
démarrer tous les services :
@ -207,8 +207,6 @@ ip a | grep "inet " | grep -v 127.0.0.1 | awk '{print $2}' | cut -d/ -f1
Remarque : Pour Windows ou macOS, utilisez respectivement ipconfig ou ifconfig pour trouver ladresse IP.
**Si vous souhaitez utiliser un fournisseur basé sur OpenAI, suivez la section Exécuter avec une API.**
Clonez le dépôt et entrez dans le dossier server/.