agenticSeek/README_JP.md
2025-05-03 16:48:20 +02:00

21 KiB
Raw Blame History


English | 中文 | 繁體中文 | Français | 日本語

AgenticSeek: Deepseek R1エージェントによって動作するManusのようなAI。

Manus AIの完全なローカル代替品、音声対応のAIアシスタントで、コードを書き、ファイルシステムを探索し、ウェブを閲覧し、ミスを修正し、データをクラウドに送信することなくすべてを行います。DeepSeek R1のような推論モデルを使用して構築されており、この自律エージェントは完全にハードウェア上で動作し、データのプライバシーを保護します。

Visit AgenticSeek License Discord Twitter

🛠️ 進行中の作業 貢献者を探しています!

https://github.com/user-attachments/assets/fe9e8006-0462-4793-8b31-25bd42c6d1eb

そしてもっと多くのことができます!

大阪と東京のAIスタートアップを深く調査し、少なくとも5つ見つけて、research_japan.txtファイルに保存してください

C言語でテトリスゲームを作れますか

新しいプロジェクトファイルインデックスをmark2として設定したいです。

特徴:

  • 100%ローカル: クラウドなし、ハードウェア上で動作。データはあなたのものです。

  • ファイルシステムの操作: bashを使用してファイルを簡単にナビゲートおよび操作します。

  • 自律的なコーディング: Python、C、Golangなどのコードを書き、デバッグし、実行できます。

  • エージェントルーティング: タスクに最適なエージェントを自動的に選択します。

  • 計画: 複雑なタスクの場合、複数のエージェントを起動して計画および実行します。

  • 自律的なウェブブラウジング: 自律的なウェブナビゲーション。

  • メモリ: 効率的なメモリとセッション管理。


インストール

chrome driver、docker、およびpython3.10(またはそれ以降)がインストールされていることを確認してください。

chrome driverに関連する問題については、Chromedriverセクションを参照してください。

1 リポジトリをクローンしてセットアップ

git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env

2 仮想環境を作成

python3 -m venv agentic_seek_env
source agentic_seek_env/bin/activate     
# Windowsの場合: agentic_seek_env\Scripts\activate

3 パッケージをインストール

自動インストール:

./install.sh

** テキスト読み上げTTS機能で日本語をサポートするには、fugashi日本語分かち書きライブラリをインストールする必要があります**

pip3 install --upgrade pyopenjtalk jaconv mojimoji unidic fugashi
pip install unidic-lite
python -m unidic download

手動で:

pip3 install -r requirements.txt
# または
python3 setup.py install

ローカルマシンでLLMを実行するためのセットアップ

少なくともDeepseek 14Bを使用することをお勧めします。小さいモデルでは、特にウェブブラウジングのタスクで苦労する可能性があります。

ローカルプロバイダーをセットアップする

たとえば、ollamaを使用してローカルプロバイダーを開始します:

ollama serve

以下に、サポートされているローカルプロバイダーのリストを示します。

config.iniを更新する

config.iniファイルを変更して、provider_nameをサポートされているプロバイダーに設定し、provider_modeldeepseek-r1:14bに設定します。

注意: deepseek-r1:14bは例です。ハードウェアが許可する場合は、より大きなモデルを使用してください。

[MAIN]
is_local = True
provider_name = ollama # または lm-studio、openai など
provider_model = deepseek-r1:14b
provider_server_address = 127.0.0.1:11434

ローカルプロバイダーのリスト

プロバイダー ローカル? 説明
ollama はい ollamaをLLMプロバイダーとして使用して、ローカルでLLMを簡単に実行
lm-studio はい LM studioを使用してローカルでLLMを実行provider_namelm-studioに設定)
openai はい OpenAI互換APIを使用

次のステップ: サービスを開始してAgenticSeekを実行する

問題が発生している場合は、既知の問題セクションを参照してください。

ハードウェアがDeepseekをローカルで実行できない場合は、APIを使用した実行セクションを参照してください。

詳細な設定ファイルの説明については、設定セクションを参照してください。


APIを使用したセットアップ

config.iniで希望するプロバイダーを設定してください。

[MAIN]
is_local = False
provider_name = openai
provider_model = gpt-4o
provider_server_address = 127.0.0.1:5000

警告: config.iniに末尾のスペースがないことを確認してください。

ローカルのOpenAIベースのAPIを使用する場合は、is_localをTrueに設定してください。

OpenAIベースのAPIが独自のサーバーで実行されている場合は、IPアドレスを変更してください。

次のステップ: サービスを開始してAgenticSeekを実行する

問題が発生している場合は、既知の問題セクションを参照してください。

詳細な設定ファイルの説明については、設定セクションを参照してください。


サービスの開始と実行

必要に応じてPython環境をアクティブにしてください。

source agentic_seek_env/bin/activate

必要なサービスを開始します。これにより、docker-compose.ymlから以下のサービスがすべて開始されます:

  • searxng
  • redis (searxngに必要)
  • フロントエンド
sudo ./start_services.sh # MacOS
start ./start_services.cmd # Windows

オプション1: CLIインターフェースで実行。

python3 cli.py

オプション2: Webインターフェースで実行。

注意: 現在、CLIの使用を推奨しています。Webインターフェースは開発中です。

バックエンドを開始します。

python3 api.py

http://localhost:3000/にアクセスすると、Webインターフェースが表示されます。

現在、Webインターフェースではメッセージのストリーミングがサポートされていないことに注意してください。


使い方

警告: 現在、サポートされている言語は英語、中国語、フランス語のみです。他の言語でのプロンプトは機能しますが、適切なエージェントにルーティングされない場合があります。

サービスが./start_services.shで起動していることを確認し、python3 cli.pyでagenticSeekを実行します。

sudo ./start_services.sh
python3 cli.py

>>> と表示されます これは、agenticSeekが指示を待っていることを示します。 configでlisten = Trueを設定することで、音声認識を使用することもできます。

終了するには、単にgoodbyeと言います。

以下は使用例です:

コーディング/バッシュ

Pythonでスネークゲームを作成

C言語で行列の掛け算を教えて

Golangでブラックジャックを作成

ウェブ検索

日本の最先端のAI研究を行っているクールなテックスタートアップを見つけるためにウェブ検索を行う

agenticSeekを作成したのは誰かをインターネットで見つけることができますか

オンラインの燃料計算機を使用して、ニースからミラノまでの旅行の費用を見積もることができますか?

ファイルシステム

契約書.pdfがどこにあるか見つけてくれませんか

ディスクにどれだけの空き容量があるか教えて

READMEを読んでプロジェクトを/home/path/projectにインストールしてください

カジュアル

フランスのレンヌについて教えて

博士号を追求すべきですか?

最高のワークアウトルーチンは何ですか?

クエリを入力すると、agenticSeekはタスクに最適なエージェントを割り当てます。

これは初期のプロトタイプであるため、エージェントルーティングシステムはクエリに基づいて常に適切なエージェントを割り当てるとは限りません。

したがって、何を望んでいるか、AIがどのように進行するかについて非常に明確にする必要があります。たとえば、ウェブ検索を行いたい場合は、次のように言わないでください:

一人旅に良い国を知っていますか?

代わりに、次のように尋ねてください:

ウェブ検索を行い、一人旅に最適な国を見つけてください


ボーナス: 自分のサーバーでLLMを実行するためのセットアップ

強力なコンピュータやサーバーを持っていて、それをラップトップから使用したい場合、リモートサーバーでLLMを実行するオプションがあります。

AIモデルを実行する「サーバー」で、IPアドレスを取得します。

ip a | grep "inet " | grep -v 127.0.0.1 | awk '{print $2}' | cut -d/ -f1 # ローカルIP
curl https://ipinfo.io/ip # 公開IP

注意: WindowsまたはmacOSの場合、IPアドレスを見つけるには、それぞれipconfigまたはifconfigを使用してください。

リポジトリをクローンし、server/フォルダーに移動します。

git clone --depth 1 https://github.com/Fosowl/agenticSeek.git
cd agenticSeek/server/

サーバー固有の依存関係をインストールします:

pip3 install -r requirements.txt

サーバースクリプトを実行します。

python3 app.py --provider ollama --port 3333

ollamallamacppのどちらかをLLMサービスとして選択できます。

次に、個人用コンピュータで以下を行います:

config.iniファイルを変更し、provider_nameserverに、provider_modeldeepseek-r1:xxbに設定します。 provider_server_addressをモデルを実行するマシンのIPアドレスに設定します。

[MAIN]
is_local = False
provider_name = server
provider_model = deepseek-r1:70b
provider_server_address = x.x.x.x:3333

次のステップ: サービスを開始してAgenticSeekを実行する


音声認識

現在、音声認識は英語でのみ動作することに注意してください。

音声認識機能はデフォルトで無効になっています。有効にするには、config.iniファイルでlistenオプションをTrueに設定します:

listen = True

有効にすると、音声認識機能はトリガーキーワード(エージェントの名前)を待ちます。その後、入力を処理します。エージェントの名前はconfig.iniファイルのagent_name値を更新することでカスタマイズできます:

agent_name = Friday

最適な認識のために、"John"や"Emma"のような一般的な英語の名前をエージェント名として使用することをお勧めします。

トランスクリプトが表示され始めたら、エージェントの名前を大声で言って起動します(例:"Friday")。

クエリを明確に話します。

リクエストを終了する際に確認フレーズを使用してシステムに進行を通知します。確認フレーズの例には次のようなものがあります:

"do it", "go ahead", "execute", "run", "start", "thanks", "would ya", "please", "okay?", "proceed", "continue", "go on", "do that", "go it", "do you understand?"

設定

設定例:

[MAIN]
is_local = True
provider_name = ollama
provider_model = deepseek-r1:1.5b
provider_server_address = 127.0.0.1:11434
agent_name = Friday
recover_last_session = False
save_session = False
speak = False
listen = False
work_dir =  /Users/mlg/Documents/ai_folder
jarvis_personality = False
languages = en ja
[BROWSER]
headless_browser = False
stealth_mode = False

説明:

  • is_local -> エージェントをローカルで実行するTrueか、リモートサーバーで実行するFalse
  • provider_name -> 使用するプロバイダー(ollamaserverlm-studiodeepseek-apiのいずれか)。
  • provider_model -> 使用するモデル、例: deepseek-r1:1.5b。
  • provider_server_address -> サーバーアドレス、例: 127.0.0.1:11434ローカルの場合。非ローカルAPIの場合は何でも設定できます。
  • agent_name -> エージェントの名前、例: Friday。TTSのトリガーワードとして使用されます。
  • recover_last_session -> 最後のセッションから再開するTrueか、しないFalse
  • save_session -> セッションデータを保存するTrueか、しないFalse
  • speak -> 音声出力を有効にするTrueか、しないFalse
  • listen -> 音声入力を有効にするTrueか、しないFalse
  • work_dir -> AIがアクセスするフォルダー。例: /Users/user/Documents/。
  • jarvis_personality -> JARVISのようなパーソナリティを使用するTrueか、しないFalse。これは単にプロンプトファイルを変更するだけです。
  • headless_browser -> ウィンドウを表示せずにブラウザを実行するTrueか、しないFalse
  • stealth_mode -> ボット検出を難しくします。唯一の欠点は、anticaptcha拡張機能を手動でインストールする必要があることです。
  • languages -> List of supported languages. Required for agent routing system. The longer the languages list the more model will be downloaded.

プロバイダー

以下の表は利用可能なプロバイダーを示しています:

プロバイダー ローカル? 説明
ollama はい ollamaをLLMプロバイダーとして使用して、ローカルでLLMを簡単に実行
server はい モデルを別のマシンでホストし、ローカルマシンで実行
lm-studio はい LM studiolm-studioを使用してローカルでLLMを実行
openai 場合による ChatGPT API非プライベートまたはopenai互換APIを使用
deepseek-api いいえ Deepseek API非プライベート
huggingface いいえ Hugging-Face API非プライベート
togetherAI いいえ together AI API非プライベートを使用

プロバイダーを選択するには、config.iniを変更します:

is_local = False
provider_name = openai
provider_model = gpt-4o
provider_server_address = 127.0.0.1:5000

is_local: ローカルで実行されるLLMの場合はTrue、それ以外の場合はFalse。

provider_name: 使用するプロバイダーを名前で選択します。上記のプロバイダーリストを参照してください。

provider_model: エージェントが使用するモデルを設定します。

provider_server_address: サーバープロバイダーを使用しない場合は何でも設定できます。

既知の問題

Chromedriverの問題

既知のエラー#1: chromedriverの不一致

Exception: Failed to initialize browser: Message: session not created: This version of ChromeDriver only supports Chrome version 113 Current browser version is 134.0.6998.89 with binary path

これは、ブラウザとchromedriverのバージョンが一致しない場合に発生します。

最新バージョンをダウンロードするには、次のリンクにアクセスしてください:

https://developer.chrome.com/docs/chromedriver/downloads

Chromeバージョン115以降を使用している場合は、次のリンクにアクセスしてください:

https://googlechromelabs.github.io/chrome-for-testing/

お使いのOSに対応するchromedriverバージョンをダウンロードします。

alt text

このセクションが不完全な場合は、問題を報告してください。

FAQ

Q: どのようなハードウェアが必要ですか?

モデルサイズ GPU コメント
7B 8GB VRAM ⚠️ 推奨されません。パフォーマンスが低く、頻繁に幻覚を起こし、プランナーエージェントが失敗する可能性が高いです。
14B 12GB VRAM (例: RTX 3060) 簡単なタスクには使用可能です。ウェブブラウジングや計画タスクには苦労する可能性があります。
32B 24GB以上のVRAM (例: RTX 4090) 🚀 ほとんどのタスクで成功しますが、タスク計画にはまだ苦労する可能性があります。
70B+ 48GB以上のVRAM (例: Mac Studio) 💪 優れた性能。高度なユースケースに推奨されます。

Q: なぜ他のモデルではなくDeepseek R1を選ぶのですか

Deepseek R1は、そのサイズに対して推論とツールの使用に優れています。私たちのニーズに最適だと考えています。他のモデルも問題なく動作しますが、Deepseekが私たちの主な選択です。

Q: cli.pyを実行するとエラーが発生します。どうすればよいですか?

Ollamaが実行中であることを確認してくださいollama serve)、config.iniがプロバイダーに一致していること、および依存関係がインストールされていることを確認してください。それでも解決しない場合は、問題を報告してください。

Q: 本当に100%ローカルで実行できますか?

はい、OllamaまたはServerプロバイダーを使用すると、すべての音声認識、LLM、および音声合成モデルがローカルで実行されます。非ローカルオプションOpenAIまたは他のAPIはオプションです。

Q: Manusを持っているのに、なぜAgenticSeekを使用する必要があるのですか

これは、AIエージェントに関する興味から始まったサイドプロジェクトです。特別な点は、ローカルモデルを使用し、APIを避けることです。 私たちは、JarvisやFridayアイアンマン映画からインスピレーションを得て、「クール」にしようとしましたが、機能性に関してはManusから多くのインスピレーションを得ています。なぜなら、人々が最初に求めているのはローカルのManusの代替品だからです。 Manusとは異なり、AgenticSeekは外部システムからの独立性を優先し、より多くの制御、プライバシーを提供し、APIのコストを回避します。

貢献

AgenticSeekを改善するための開発者を探していますオープンな問題やディスカッションを確認してください。

Star History Chart

著者:

Fosowl steveh8758