mirror of
https://github.com/tcsenpai/agenticSeek.git
synced 2025-06-05 02:25:27 +00:00
upd readme
This commit is contained in:
parent
1a2b790f2b
commit
3d1f42351f
@ -115,7 +115,7 @@ provider_server_address = 127.0.0.1:11434
|
|||||||
|-----------|--------|-----------------------------------------------------------|
|
|-----------|--------|-----------------------------------------------------------|
|
||||||
| ollama | Yes | Run LLMs locally with ease using ollama as a LLM provider |
|
| ollama | Yes | Run LLMs locally with ease using ollama as a LLM provider |
|
||||||
| lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)|
|
| lm-studio | Yes | Run LLM locally with LM studio (set `provider_name` to `lm-studio`)|
|
||||||
| openai | No | Use API compatible |
|
| openai | Yes | Use API compatible |
|
||||||
|
|
||||||
start all services :
|
start all services :
|
||||||
|
|
||||||
@ -218,8 +218,6 @@ ip a | grep "inet " | grep -v 127.0.0.1 | awk '{print $2}' | cut -d/ -f1
|
|||||||
|
|
||||||
Note: For Windows or macOS, use ipconfig or ifconfig respectively to find the IP address.
|
Note: For Windows or macOS, use ipconfig or ifconfig respectively to find the IP address.
|
||||||
|
|
||||||
**If you wish to use openai based provider follow the *Run with an API* section.**
|
|
||||||
|
|
||||||
Clone the repository and enter the `server/`folder.
|
Clone the repository and enter the `server/`folder.
|
||||||
|
|
||||||
|
|
||||||
|
@ -16,11 +16,11 @@
|
|||||||
|
|
||||||
https://github.com/user-attachments/assets/4bd5faf6-459f-4f94-bd1d-238c4b331469
|
https://github.com/user-attachments/assets/4bd5faf6-459f-4f94-bd1d-238c4b331469
|
||||||
|
|
||||||
> *Do a deep search of AI startup in Osaka and Tokyo, find at least 5, then save in the research_japan.txt file*
|
> *在大阪和東京深入搜尋人工智慧新創公司,至少找到 5 家,然後儲存在 research_japan.txt 檔案中*
|
||||||
|
|
||||||
> *Can you make a tetris game in C ?*
|
> *你可以用 C 語言製作俄羅斯方塊遊戲嗎?*
|
||||||
|
|
||||||
> *I would like to setup a new project file index as mark2.*
|
> *我想設定一個新的專案檔案索引,命名為 mark2。*
|
||||||
|
|
||||||
|
|
||||||
## Features:
|
## Features:
|
||||||
|
@ -106,7 +106,7 @@ provider_server_address = 127.0.0.1:11434
|
|||||||
|-------------|---------|-----------------------------------------------------------|
|
|-------------|---------|-----------------------------------------------------------|
|
||||||
| ollama | Oui | Exécutez des LLM localement avec facilité en utilisant ollama comme fournisseur LLM |
|
| ollama | Oui | Exécutez des LLM localement avec facilité en utilisant ollama comme fournisseur LLM |
|
||||||
| lm-studio | Oui | Exécutez un LLM localement avec LM studio (définissez `provider_name` sur `lm-studio`) |
|
| lm-studio | Oui | Exécutez un LLM localement avec LM studio (définissez `provider_name` sur `lm-studio`) |
|
||||||
| openai | Non | Utilisez une API compatible |
|
| openai | Oui | Utilisez une API local compatible avec openai |
|
||||||
|
|
||||||
démarrer tous les services :
|
démarrer tous les services :
|
||||||
|
|
||||||
@ -207,8 +207,6 @@ ip a | grep "inet " | grep -v 127.0.0.1 | awk '{print $2}' | cut -d/ -f1
|
|||||||
|
|
||||||
Remarque : Pour Windows ou macOS, utilisez respectivement ipconfig ou ifconfig pour trouver l’adresse IP.
|
Remarque : Pour Windows ou macOS, utilisez respectivement ipconfig ou ifconfig pour trouver l’adresse IP.
|
||||||
|
|
||||||
**Si vous souhaitez utiliser un fournisseur basé sur OpenAI, suivez la section Exécuter avec une API.**
|
|
||||||
|
|
||||||
Clonez le dépôt et entrez dans le dossier server/.
|
Clonez le dépôt et entrez dans le dossier server/.
|
||||||
|
|
||||||
|
|
||||||
|
Loading…
x
Reference in New Issue
Block a user