agenticSeek/README_FR.md
2025-04-17 12:05:23 +02:00

15 KiB
Raw Blame History


English | 繁體中文 | Français

AgenticSeek: Une IA comme Manus mais à base d'agents DeepSeek R1 fonctionnant en local.

Une alternative entièrement locale à Manus AI, un assistant IA qui code, explore votre système de fichiers, navigue sur le web et corrige ses erreurs, tout cela sans envoyer la moindre donnée dans le cloud. Cet agent autonome fonctionne entièrement sur votre hardware, garantissant la confidentialité de vos données.

Visit AgenticSeek License Discord Twitter

🛠️ En cours de développement On cherche activement des contributeurs!

https://github.com/user-attachments/assets/4bd5faf6-459f-4f94-bd1d-238c4b331469

Recherche sur le web des activités à faire à Paris

Code le jeu snake en python

J'aimerais que tu trouve une api météo et que tu me code une application qui affiche la météo à Toulouse

Fonctionnalités:

  • 100% Local: Fonctionne en local sur votre PC. Vos données restent les vôtres.

  • Accès à vos Fichiers: Utilise bash pour naviguer et manipuler vos fichiers.

  • Codage semi-autonome: Peut écrire, déboguer et exécuter du code en Python, C, Golang et d'autres langages à venir.

  • Routage d'Agent: Sélectionne automatiquement lagent approprié pour la tâche.

  • Planification: Pour les taches complexe utilise plusieurs agents.

  • Navigation Web Autonome: Navigation web autonome.

  • Memoire efficace: Gestion efficace de la mémoire et des sessions.


Installation

Assurez-vous davoir installé le pilote Chrome, Docker et Python 3.10 (ou une version plus récente).

Pour les problèmes liés au pilote Chrome, consultez la section Chromedriver.

1 Cloner le repo et configurer

git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env

2 Créer un environnement virtuel

python3 -m venv agentic_seek_env
source agentic_seek_env/bin/activate     
# Sur Windows: agentic_seek_env\Scripts\activate

3 Installation

Automatique:

./install.sh

Manuel:

pip3 install -r requirements.txt

Faire fonctionner sur votre machine

Nous recommandons dutiliser au minimum DeepSeek 14B, les modèles plus petits ont du mal avec lutilisation des outils et oublient rapidement le contexte.

Lancer votre provider local, par exemple avec ollama:

ollama serve

Voyez la section Provider pour la liste de provideurs disponible.

Modifiez le fichier config.ini pour définir provider_name sur le nom d'un provideur et provider_model sur le LLM à utiliser.

[MAIN]
is_local = True
provider_name = ollama # ou lm-studio, openai, etc...
provider_model = deepseek-r1:14b
provider_server_address = 127.0.0.1:11434

Liste des provideurs locaux

Fournisseur Local ? Description
ollama Oui Exécutez des LLM localement avec facilité en utilisant ollama comme fournisseur LLM
lm-studio Oui Exécutez un LLM localement avec LM studio (définissez provider_name sur lm-studio)
openai Oui Utilisez une API local compatible avec openai

démarrer tous les services :

sudo ./start_services.sh

Lancer agenticSeek:

python3 cli.py

Voyez la section Utilisation si vous ne comprenez pas comment lutiliser

Voyez la section Problèmes connus si vous rencontrez des problèmes

Voyez la section Exécuter avec une API si votre matériel ne peut pas exécuter DeepSeek localement

Voyez la section Configuration pour une explication détaillée du fichier de configuration.


Utilisation

Assurez-vous que les services sont en cours dexécution avec ./start_services.sh et lancez AgenticSeek avec python3 cli.py

sudo ./start_services.sh
python3 cli.py

Vous verrez un prompt: ">>> " Cela indique quAgenticSeek attend que vous saisissiez des instructions. Vous pouvez également utiliser la reconnaissance vocale en définissant listen = True dans la configuration.

Pour quitter, dites simplement goodbye.

Voici quelques exemples dutilisation :

Programmation

Aide-moi avec la multiplication de matrices en Golang

Initalize un nouveau project python, setup le readme, gitignore et tout le bordel et fait un premier commit

Fais un jeu snake en Python

Recherche web

Fais une recherche sur le web pour trouver des startups technologiques au Japon qui travaillent sur des recherches avancées en IA

Peux-tu trouver sur internet qui a créé agenticSeek ?

Peux-tu trouver sur quel site je peux acheter une RTX 4090 à bas prix ?

Fichier

Hé, peux-tu trouver où est contrat.pdf ? Je lai perdu

Montre-moi combien despace il me reste sur mon disque

Trouve et lis le fichier README.md et suis les instructions dinstallation

Conversation

Parle-moi de la France

Quel est le sens de la vie ?

Donne moi une recette simple pour ce midi j'ai pas d'inspi

Après avoir saisi votre requête, AgenticSeek attribuera le meilleur agent pour la tâche.

Le système de routage des agents peut parfois ne pas toujours attribuer le bon agent en fonction de votre requête.

Par conséquent, vous devez être assez explicite sur ce que vous voulez et sur la manière dont lIA doit procéder. Par exemple, si vous voulez quelle effectue une recherche sur le web, ne dites pas :

Connait-tu de bons pays pour voyager seul ?

Dites plutôt :

Fait une recherche sur le web, quels sont les meilleurs pays pour voyager seul?


Exécuter le LLM sur votre propre serveur

Si vous disposez dun ordinateur puissant ou dun serveur que vous voulez utiliser, mais que vous souhaitez y accéder depuis votre ordinateur portable, vous avez la possibilité dexécuter le LLM sur un serveur distant.

1 Configurer et démarrer les scripts du serveur

Sur votre "serveur" qui exécutera le modèle IA, obtenez ladresse IP

ip a | grep "inet " | grep -v 127.0.0.1 | awk '{print $2}' | cut -d/ -f1

Remarque : Pour Windows ou macOS, utilisez respectivement ipconfig ou ifconfig pour trouver ladresse IP.

Clonez le dépôt et entrez dans le dossier server/.

git clone --depth 1 https://github.com/Fosowl/agenticSeek.git
cd agenticSeek/server/

Installez les dépendances spécifiques au serveur :

pip3 install -r requirements.txt

Exécutez le script du serveur.

python3 app.py --provider ollama --port 3333

Vous avez le choix entre utiliser ollama et llamacpp comme service LLM.

2 Lancer

Maintenant, sur votre ordinateur personnel :

Modifiez le fichier config.ini pour définir provider_name sur server et provider_model sur deepseek-r1:14b.

Définissez provider_server_address sur ladresse IP de la machine qui exécutera le modèle.

[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:14b
provider_server_address = x.x.x.x:3333

Exécutez lassistant :

sudo ./start_services.sh
python3 cli.py

Exécuter avec une API

AVERTISSEMENT : Assurez-vous quil ny a pas despace en fin de ligne dans la configuration.

Définissez is_local sur True si vous utilisez une API basée sur OpenAI localement.

Changez ladresse IP si votre API basée sur OpenAI fonctionne sur votre propre serveur.

[MAIN]
is_local = False
provider_name = openai
provider_model = gpt-4o
provider_server_address = 127.0.0.1:5000

Exécutez lassistant :

sudo ./start_services.sh
python3 cli.py

Config

Exemple de configuration :

[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:1.5b
provider_server_address = 127.0.0.1:11434
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False
work_dir =  /Users/mlg/Documents/ai_folder
jarvis_personality = False
languages = en fr
[BROWSER]
headless_browser = False
stealth_mode = False

Explication du fichier config.ini:

is_local -> Exécute lagent localement (True) ou sur un serveur distant (False).

provider_name -> Le fournisseur à utiliser (parmi : ollama, server, lm-studio, deepseek-api).

provider_model -> Le modèle utilisé, par exemple, deepseek-r1:1.5b.

provider_server_address -> Adresse du serveur, par exemple, 127.0.0.1:11434 pour local. Définissez nimporte quoi pour une API non locale.

agent_name -> Nom de lagent, par exemple, Friday. Utilisé comme mot déclencheur pour la reconnaissance vocale.

recover_last_session -> Reprend la dernière session (True) ou non (False).

save_session -> Sauvegarde les données de la session (True) ou non (False).

speak -> Active la sortie vocale (True) ou non (False).

listen -> Écoute les entrées vocales (True) ou non (False).

work_dir -> Dossier auquel lIA aura accès, par exemple : /Users/user/Documents/.

jarvis_personality -> Utilise une personnalité inspiré de Jarvis (True) ou non (False). Cela utilise simplement une prompt alternative. Marche moins bien en français.

headless_browser -> Exécute le navigateur sans fenêtre visible (True) ou non (False).

stealth_mode -> Rend la détection des bots plus difficile. Le seul inconvénient est que vous devez installer manuellement lextension anticaptcha.

languages -> La liste de languages supportés (nécessaire pour le routage d'agents). Plus la liste est longue. Plus un nombre important de modèles sera téléchargés.

Providers

Le tableau ci-dessous montre les LLM providers disponibles :

Provider Local? Description
ollama Yes Exécutez des LLM localement avec facilité en utilisant Ollama comme fournisseur LLM
server Yes Hébergez le modèle sur une autre machine, exécutez sur votre machine locale
lm-studio Yes Exécutez un LLM localement avec LM Studio (définissez provider_name sur lm-studio)
openai No Utilise ChatGPT API (pas privé)
deepseek-api No Deepseek API (pas privé)
huggingface No Hugging-Face API (pas privé)

Pour sélectionner un provider LLM, modifiez le config.ini :

is_local = False
provider_name = openai
provider_model = gpt-4o
provider_server_address = 127.0.0.1:5000

is_local : doit être True pour tout LLM exécuté localement, sinon False.

provider_name : Sélectionnez le fournisseur à utiliser par son nom, voir la liste des fournisseurs ci-dessus.

provider_model : Définissez le modèle à utiliser par lagent.

provider_server_address : peut être défini sur nimporte quoi si vous nutilisez pas le fournisseur server.

Problèmes connus

Problèmes avec Chromedriver

Erreur #1:incompatibilité

Exception: Failed to initialize browser: Message: session not created: This version of ChromeDriver only supports Chrome version 113 Current browser version is 134.0.6998.89 with binary path

Cela se produit sil y a une incompatibilité entre votre navigateur et la version de chromedriver.

Vous devez naviguer pour télécharger la dernière version :

https://developer.chrome.com/docs/chromedriver/downloads

Si vous utilisez Chrome version 115 ou plus récent, allez sur :

https://googlechromelabs.github.io/chrome-for-testing/

Et téléchargez la version de chromedriver correspondant à votre système dexploitation.

alt text

Si cette section est incomplète, merci de faire une nouvelle issue sur github.

FAQ

Q: Quel matériel est nécessaire ?

Taille du Modèle GPU Commentaire
7B 8 Go VRAM ⚠️ Non recommandé. Performances médiocres, hallucinations fréquentes, et l'agent planificateur échouera probablement.
14B 12 Go VRAM (par ex. RTX 3060) Utilisable pour des tâches simples. Peut rencontrer des difficultés avec la navigation web et les tâches de planification.
32B 24+ Go VRAM (par ex. RTX 4090) 🚀 Réussite avec la plupart des tâches, peut encore avoir des difficultés avec la planification des tâches.
70B+ 48+ Go VRAM (par ex. Mac Studio) 💪 Excellent. Recommandé pour des cas d'utilisation avancés.

Q: Pourquoi deepseek et pas un autre modèle

DeepSeek R1 excelle dans le raisonnement et lutilisation doutils pour sa taille. Nous pensons que cest un choix solide pour nos besoins, bien que dautres modèles fonctionnent également (bien que moins bien pour un nombre équivalent de paramètres).

Q: J'ai une erreur quand je lance le programme, je fait quoi?

Assurez-vous quOllama est en cours dexécution (ollama serve), que votre config.ini correspond à votre fournisseur, et que les dépendances sont installées. Si cela ne fonctionne pas, nhésitez pas à signaler un problème.

Q: C'est vraiment 100% local?

Oui, avec les fournisseurs Ollama, lm-studio ou Server, toute la reconnaissance vocale, le LLM et la synthèse vocale fonctionnent localement. Les options non locales (OpenAI ou autres API) sont facultatives.

Q: En quoi c'est supérieur à Manus

Il ne l'est certainement pas, mais nous privilégions lexécution locale et la confidentialité par rapport à une approche basée sur le cloud. Cest une alternative plus accessible et surtout moins cher !

Contribution

Nous recherchons des développeurs pour améliorer AgenticSeek ! Consultez la section "issues" github ou les discussions.

Star History Chart

Guide du contributeur

Auteurs/Mainteneurs:

Fosowl steveh8758