From 3d1f42351f0837c308c766c411ba5875f61aa798 Mon Sep 17 00:00:00 2001 From: martin legrand Date: Wed, 16 Apr 2025 22:36:11 +0200 Subject: [PATCH] upd readme --- README.md | 4 +--- README_CHS.md | 6 +++--- README_FR.md | 4 +--- 3 files changed, 5 insertions(+), 9 deletions(-) diff --git a/README.md b/README.md index 9264c0d..0eed547 100644 --- a/README.md +++ b/README.md @@ -115,7 +115,7 @@ provider_server_address = 127.0.0.1:11434 |-----------|--------|-----------------------------------------------------------| | ollama | Yes | Run LLMs locally with ease using ollama as a LLM provider | | lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)| -| openai | No | Use API compatible | +| openai | Yes | Use API compatible | start all services : @@ -218,8 +218,6 @@ ip a | grep "inet " | grep -v 127.0.0.1 | awk '{print $2}' | cut -d/ -f1 Note: For Windows or macOS, use ipconfig or ifconfig respectively to find the IP address. -**If you wish to use openai based provider follow the *Run with an API* section.** - Clone the repository and enter the `server/`folder. diff --git a/README_CHS.md b/README_CHS.md index 3f0499b..11aae30 100644 --- a/README_CHS.md +++ b/README_CHS.md @@ -16,11 +16,11 @@ https://github.com/user-attachments/assets/4bd5faf6-459f-4f94-bd1d-238c4b331469 -> *Do a deep search of AI startup in Osaka and Tokyo, find at least 5, then save in the research_japan.txt file* +> *在大阪和東京深入搜尋人工智慧新創公司,至少找到 5 家,然後儲存在 research_japan.txt 檔案中* -> *Can you make a tetris game in C ?* +> *你可以用 C 語言製作俄羅斯方塊遊戲嗎?* -> *I would like to setup a new project file index as mark2.* +> *我想設定一個新的專案檔案索引,命名為 mark2。* ## Features: diff --git a/README_FR.md b/README_FR.md index 2159b1b..c7cdc74 100644 --- a/README_FR.md +++ b/README_FR.md @@ -106,7 +106,7 @@ provider_server_address = 127.0.0.1:11434 |-------------|---------|-----------------------------------------------------------| | ollama | Oui | Exécutez des LLM localement avec facilité en utilisant ollama comme fournisseur LLM | | lm-studio | Oui | Exécutez un LLM localement avec LM studio (définissez `provider_name` sur `lm-studio`) | -| openai | Non | Utilisez une API compatible | +| openai | Oui | Utilisez une API local compatible avec openai | démarrer tous les services : @@ -207,8 +207,6 @@ ip a | grep "inet " | grep -v 127.0.0.1 | awk '{print $2}' | cut -d/ -f1 Remarque : Pour Windows ou macOS, utilisez respectivement ipconfig ou ifconfig pour trouver l’adresse IP. -**Si vous souhaitez utiliser un fournisseur basé sur OpenAI, suivez la section Exécuter avec une API.** - Clonez le dépôt et entrez dans le dossier server/.