readme update

This commit is contained in:
martin legrand 2025-04-01 21:06:33 +02:00
parent d476cf91dc
commit 5992fdd659
2 changed files with 21 additions and 16 deletions

View File

@ -3,7 +3,7 @@
<p>
--------------------------------------------------------------------------------
English | [繁體中文](./README_CHT.md)
English | [繁體中文](./README_CHT.md) | [Français](./README_FR.md)
# AgenticSeek: Manus-like AI powered by Deepseek R1 Agents.

View File

@ -1,5 +1,9 @@
<p align="center">
<img align="center" src="./media/whale_readme.jpg">
<p>
--------------------------------------------------------------------------------
[English](./README.md) | [繁體中文](./README_CHT.md) | Français
# AgenticSeek: Une IA comme Manus mais à base d'agents DeepSeek R1 fonctionnant en local.
@ -387,38 +391,39 @@ Si cette section est incomplète, veuillez signaler un problème.
## FAQ
**Q: What hardware do I need?**
**Q: J'ai besoin d'un gros PC?**
Modèle 7B : GPU avec 8 Go de VRAM.
Modèle 14B : GPU 12 Go (par exemple, RTX 3060).
Modèle 32B : 24 Go+ de VRAM.
ça dépend du modèle!
Pour un modèle 7B : GPU avec 8 Go de VRAM.
Pour un modèle 14B : GPU 12 Go (par exemple, RTX 3060).
Et un modèle 32B : 24 Go+ de VRAM.
**Q: Why Deepseek R1 over other models?**
**Q: Pourquoi deepseek et pas un autre modèle**
DeepSeek R1 excelle dans le raisonnement et lutilisation doutils pour sa taille. Nous pensons que cest un choix solide pour nos besoins, bien que dautres modèles fonctionnent également bien, DeepSeek est notre choix principal.
DeepSeek R1 excelle dans le raisonnement et lutilisation doutils pour sa taille. Nous pensons que cest un choix solide pour nos besoins, bien que dautres modèles fonctionnent également (bien que moins bien pour un nombre identique de paramètre).
**Q: I get an error running `main.py`. What do I do?**
**Q: J'ai une erreur quand je lance le programme, je fait quoi?**
Assurez-vous quOllama est en cours dexécution (ollama serve), que votre config.ini correspond à votre fournisseur, et que les dépendances sont installées. Si cela ne fonctionne pas, nhésitez pas à signaler un problème.
**Q: Can it really run 100% locally?**
**Q: C'est vraiment 100% local?**
Oui, avec les fournisseurs Ollama ou Server, toute la reconnaissance vocale, le LLM et la synthèse vocale fonctionnent localement. Les options non locales (OpenAI ou autres API) sont facultatives.
**Q: How come it is older than manus ?**
**Q: Pourquoi le projet est plus vieux que la date de sortie de Manus?**
Nous avons commencé cela comme un projet amusant pour créer une IA locale de type Jarvis. Cependant, avec lémergence de Manus, nous avons vu lopportunité de réorienter certaines tâches pour en faire une autre alternative.
**Q: How is it better than manus ?**
**Q: En quoi c'est supérieur à Manus**
Il ne lest pas, mais nous privilégions lexécution locale et la confidentialité par rapport à une approche basée sur le cloud. Cest une alternative amusante et accessible !
Il ne l'est pas mais nous privilégions lexécution locale et la confidentialité par rapport à une approche basée sur le cloud. Cest une alternative plus accessible et surtout moins cher !
## Contribute
Nous recherchons des développeurs pour améliorer AgenticSeek ! Consultez les problèmes ouverts ou les discussions.
Nous recherchons des développeurs pour améliorer AgenticSeek ! Consultez la section "issues" github ou les discussions.
[![Star History Chart](https://api.star-history.com/svg?repos=Fosowl/agenticSeek&type=Date)](https://www.star-history.com/#Fosowl/agenticSeek&Date)
## Auteurs:
> [Fosowl](https://github.com/Fosowl)
> [steveh8758](https://github.com/steveh8758)
> [Fosowl](https://github.com/Fosowl) - Epitech 2024, France
> [steveh8758](https://github.com/steveh8758) - Université Feng Chia, Taiwan