AI Toolkitでモデルを探す
AI Toolkitは、Small Language Models(SLM)とLarge Language Models(LLM)の両方を含む、幅広い種類の生成AIモデルを包括的にサポートしています。
モデルカタログ内で、複数のホスティングソースからモデルを探索し、利用できます。
- Llama3、Phi-3、MistralなどのGitHubでホストされているモデル(従量課金制オプションを含む)。
- OpenAIのChatGPT、AnthropicのClaude、GoogleのGeminiなど、パブリッシャーが直接提供するモデル。
- Azure AI Foundryでホストされているモデル。
- OllamaやONNXなどのリポジトリからローカルにダウンロードされたモデル。
- Bring-Your-Own-Model (BYOM) 統合を介してアクセス可能な、カスタムの自己ホスト型または外部展開モデル。
モデルカタログ内から直接Azure AI Foundryにモデルをデプロイすることで、ワークフローを効率化します。
モデルを見つける
モデルカタログでモデルを見つけるには
-
アクティビティバーで「AI Toolkit」ビューを選択します
-
MODELS > Catalog を選択してモデルカタログを開きます
-
フィルターを使用して、利用可能なモデルのリストを絞り込みます
- ホスト元: AI Toolkitは、GitHub、ONNX、OpenAI、Anthropic、Googleをモデルホスティングソースとしてサポートしています。
- 発行元: Microsoft、Meta、Google、OpenAI、Anthropic、Mistral AIなど、AIモデルの発行元。
- 機能:
Text Attachment
、Image Attachment
、Web Search
、Structured Outputs
など、モデルがサポートする機能。 - モデルタイプ: リモートまたはローカルでCPU、GPU、NPUで実行できるモデルをフィルタリングします。このフィルターはローカルの可用性に依存します。
- ファインチューニングサポート: ファインチューニングの実行に使用できるモデルを表示します。
-
次のような異なるカテゴリのモデルを参照します。
- 人気モデルは、さまざまなタスクやドメインで広く使用されているモデルを厳選したリストです。
- GitHubモデルは、GitHubでホストされている人気モデルへの簡単なアクセスを提供します。高速なプロトタイピングや実験に最適です。
- ONNXモデルはローカル実行用に最適化されており、CPU、GPU、またはNPUで実行できます。
- Ollamaモデルは、Ollamaを使用してローカルで実行できる人気のあるモデルで、GGUF量子化によるCPUをサポートしています。
-
または、検索ボックスを使用して、名前または説明で特定のモデルを検索します。
カタログからモデルを追加する
モデルカタログからモデルを追加するには
-
モデルカタログで追加したいモデルを見つけます。
-
モデルカードの 追加 を選択します
-
モデルの追加フローは、プロバイダーによって若干異なります。
-
GitHub: AI ToolkitはモデルリポジトリにアクセスするためにGitHubの資格情報を求めます。認証されると、モデルはAI Toolkitに直接追加されます。
注AI Toolkitは現在、GitHubの従量課金制モデルをサポートしているため、無料利用枠の制限を超えても作業を継続できます。
-
ONNX: モデルはONNXからダウンロードされ、AI Toolkitに追加されます。
-
Ollama: モデルはOllamaからダウンロードされ、AI Toolkitに追加されます。
ヒント後でモデルを右クリックして編集を選択することでAPIキーを編集し、
${HOME}/.aikt/models/my-models/yml
ファイルで暗号化された値を確認できます。 -
OpenAI、Anthropic、Google: AI ToolkitはAPIキーの入力を求めます。
-
カスタムモデル: 詳細な手順については、「カスタムモデルを追加する」セクションを参照してください。
-
追加されると、モデルはツリービューのMY MODELSの下に表示され、PlaygroundまたはAgent Builderで使用できます。
カスタムモデルを追加する
外部でホストされている、またはローカルで実行されている独自のモデルを追加することもできます。いくつかのオプションがあります。
- OllamaライブラリまたはカスタムOllamaエンドポイントからOllamaモデルを追加します。
- 自己ホスト型モデルやクラウドサービスで実行されているモデルなど、OpenAI互換エンドポイントを持つカスタムモデルを追加します。
- AI Toolkitのモデル変換ツールを使用して、Hugging FaceなどのカスタムONNXモデルを追加します。
AI Toolkitにモデルを追加するためのいくつかのエントリーポイントがあります。
-
ツリービューのMY MODELSから、カーソルを合わせて
+
アイコンを選択します。 -
モデルカタログから、ツールバーの+ モデルを追加ボタンを選択します。
-
モデルカタログのカスタムモデルの追加セクションから、+ 自分のモデルを追加を選択します。
Ollamaモデルを追加する
Ollamaは、GGUF量子化により、多くの人気のある生成AIモデルをCPUでローカルに実行することを可能にします。ローカルマシンにOllamaがインストールされており、Ollamaモデルがダウンロードされている場合、それらをAI Toolkitに追加してモデルプレイグラウンドで使用できます。
AI ToolkitでOllamaモデルを使用するための前提条件
- AI Toolkit v0.6.2以降。
- Ollama (Ollama v0.4.1でテスト済み)
AI ToolkitにローカルOllamaを追加するには
-
上記のいずれかのエントリーポイントから、Ollamaモデルを追加を選択します。
-
次に、Ollamaライブラリからモデルを選択を選択します
Ollamaランタイムを別のエンドポイントで起動する場合は、カスタムOllamaエンドポイントを提供するを選択してOllamaエンドポイントを指定します。
-
AI Toolkitに追加したいモデルを選択し、OKを選択します
注AI Toolkitは、Ollamaに既にダウンロードされており、まだAI Toolkitに追加されていないモデルのみを表示します。Ollamaからモデルをダウンロードするには、
ollama pull
を実行します。Ollamaがサポートするモデルのリストについては、Ollamaライブラリを参照するか、Ollamaドキュメントを参照してください。 -
これで、ツリービューのモデルリストに選択したOllamaモデルが表示されるはずです。
注Ollamaモデルの添付ファイルはまだサポートされていません。これは、OpenAI互換エンドポイントを介してOllamaに接続していますが、まだ添付ファイルをサポートしていないためです。
OpenAI互換エンドポイントを持つカスタムモデルを追加する
OpenAI互換エンドポイントを使用してインターネットからアクセスできる自己ホスト型またはデプロイ済みモデルがある場合、それをAI Toolkitに追加してプレイグラウンドで使用できます。
- 上記のエントリーポイントのいずれかから、カスタムモデルを追加を選択します。
- OpenAI互換エンドポイントのURLと必要な情報を入力します。
自己ホスト型またはローカルで実行されているOllamaモデルを追加するには
- モデルカタログで+ モデルを追加を選択します。
- モデルクイックピックで、Ollamaまたはカスタムモデルを選択します。
- モデルを追加するために必要な詳細情報を入力します。
カスタムONNXモデルを追加する
カスタムONNXモデルを追加するには、まずモデル変換ツールを使用してAI Toolkitモデル形式に変換します。変換後、モデルをAI Toolkitに追加します。
Azure AI Foundryにモデルをデプロイする
AI Toolkitから直接Azure AI Foundryにモデルをデプロイできます。これにより、モデルをクラウドで実行し、エンドポイントを介してアクセスできます。
-
モデルカタログから、デプロイしたいモデルを選択します。
-
以下のスクリーンショットのように、ドロップダウンメニューまたはAzure AI Foundryにデプロイボタンから直接、Azure AI Foundryにデプロイを選択します。
-
モデルデプロイタブで、モデル名、説明、追加設定など、必要な情報を以下のスクリーンショットのように入力します。
-
Azure AI Foundryにデプロイを選択してデプロイプロセスを開始します。
-
デプロイを確認するダイアログが表示されます。詳細を確認し、デプロイを選択して続行します。
-
デプロイが完了すると、モデルはAI ToolkitのMY MODELSセクションで利用可能になり、プレイグラウンドまたはエージェントビルダーで使用できます。
テストするモデルを選択する
チャットの完了のためにプレイグラウンドでモデルをテストできます。
モデルカタログのモデルカードのアクションを使用する
- Playgroundで試す: 選択したモデルをPlaygroundにロードしてテストします。
- Agent Builderで試す: 選択したモデルをAgent BuilderにロードしてAIエージェントを構築します。
モデルの管理
AI ToolkitビューのMY MODELSセクションでモデルを管理できます。ここでは、次のことができます。
-
AI Toolkitに追加したモデルのリストを表示します。
-
モデルを右クリックして、次のようなオプションにアクセスします。
- Playgroundにロード: テストのためにモデルをPlaygroundにロードします。
- モデル名をコピー: モデル名をクリップボードにコピーして、コード統合など、他のコンテキストで使用します。
- 更新: モデル設定を更新して、最新の設定になっていることを確認します。
- 編集: APIキーやエンドポイントなど、モデル設定を変更します。
- 削除: AI Toolkitからモデルを削除します。
- このモデルについて: 発行元、ソース、サポートされる機能など、モデルの詳細情報を表示します。
-
ONNX
セクションタイトルを右クリックして、次のようなオプションにアクセスします。- サーバーを起動: ONNXモデルをローカルで実行するためにONNXサーバーを起動します。
- サーバーを停止: ONNXサーバーが実行中の場合は停止します。
- エンドポイントをコピー: ONNXサーバーのエンドポイントをクリップボードにコピーして、コード統合など、他のコンテキストで使用します。
ライセンスとサインイン
一部のモデルは、発行元またはホスティングサービスのライセンスとアカウントのサインインが必要です。その場合、モデルプレイグラウンドでモデルを実行する前に、この情報の提供を求められます。
学習内容
この記事では、次のことを学びました。
- AI Toolkitで生成AIモデルを探索し、管理する方法。
- GitHub、ONNX、OpenAI、Anthropic、Google、Ollama、カスタムエンドポイントなど、さまざまなソースからモデルを見つける方法。
- ツールキットにモデルを追加し、Azure AI Foundryにデプロイする方法。
- OllamaおよびOpenAI互換モデルを含むカスタムモデルを追加し、プレイグラウンドまたはエージェントビルダーでテストする方法。
- モデルカタログを使用して利用可能なモデルを表示し、AIアプリケーションのニーズに最適なモデルを選択する方法。
- フィルターと検索を使用してモデルを素早く見つける方法。
- 人気、GitHub、ONNX、Ollamaなどのカテゴリ別にモデルを参照する方法。
- モデル変換ツールを使用してカスタムONNXモデルを変換し、追加する方法。
- MY MODELSでモデルを管理する方法(編集、削除、更新、詳細表示を含む)。
- ONNXサーバーを起動および停止し、ローカルモデルのエンドポイントをコピーする方法。
- 一部のモデルをテストする前に、ライセンスとサインイン要件を処理する方法。