AI Toolkit よくある質問
モデル
リモートモデルのエンドポイントと認証ヘッダーはどのように見つけられますか?
一般的なOpenAIサービスプロバイダーでエンドポイントと認証ヘッダーを見つける方法の例をいくつか示します。その他のプロバイダーについては、チャット補完エンドポイントと認証ヘッダーに関するドキュメントを確認してください。
例1: Azure OpenAI
-
Azure OpenAI Studioのデプロイブレードに移動し、
gpt-4o
などのデプロイを選択します。まだデプロイがない場合は、デプロイの作成方法についてAzure OpenAIドキュメントを確認してください。 -
エンドポイントセクションのターゲットURIフィールドでチャット補完エンドポイントを取得します。
-
エンドポイントセクションのキープロパティからAPIキーを取得します。
APIキーをコピーしたら、AI Toolkitの認証ヘッダーとして
api-key: <YOUR_API_KEY>
の形式で追加します。認証ヘッダーの詳細については、Azure OpenAIサービスドキュメントを参照してください。
例2: OpenAI
-
現在、チャット補完エンドポイントは
https://api.openai.com/v1/chat/completions
に固定されています。詳細については、OpenAIドキュメントを参照してください。 -
OpenAIドキュメントに移動し、
API Keys
またはProject API Keys
を選択してAPIキーを作成または取得します。APIキーをコピーしたら、AI Toolkitの認証ヘッダーとして
Authorization: Bearer <YOUR_API_KEY>
の形式で入力します。詳細については、OpenAIドキュメントを参照してください。
エンドポイントURLまたは認証ヘッダーを編集するには?
間違ったエンドポイントまたは認証ヘッダーを入力すると、推論でエラーが発生する可能性があります。
-
VS Codeの
setting.json
ファイルを開きます。-
認証失敗の通知で
Edit settings.json
を選択します。 -
または、コマンドパレット (⇧⌘P (Windows、Linuxの場合は Ctrl+Shift+P))で
Open User Settings (JSON)
と入力します。
-
-
windowsaistudio.remoteInfereneEndpoints
設定を検索します。 -
既存のエンドポイントURLまたは認証ヘッダーを編集または削除します。
設定を保存すると、ツリービューまたはプレイグラウンドのモデルリストが自動的に更新されます。
OpenAI o1-miniまたはOpenAI o1-previewの待機リストに参加するには?
OpenAI o1シリーズモデルは、推論や問題解決タスクに特化して設計されており、集中力と能力が向上しています。これらのモデルは、ユーザーの要求を処理して理解するためにより多くの時間を費やし、科学、コーディング、数学などの分野で非常に優れています。例えば、o1は医療研究者が細胞シーケンスデータにアノテーションを付けたり、物理学者が量子光学に必要な複雑な数式を生成したり、あらゆる分野の開発者が多段階ワークフローを構築・実行したりするために使用できます。
o1-previewモデルは、制限付きアクセスで利用できます。プレイグラウンドでモデルを試すには登録が必要であり、Microsoftの資格基準に基づいてアクセスが許可されます。
OpenAI o1-miniまたはOpenAI o1-previewを見つけて待機リストに参加するには、GitHubモデルマーケットにアクセスしてください。
独自のモデルやHugging Faceの他のモデルを使用できますか?
独自のモデルがOpenAI APIコントラクトをサポートしている場合、クラウドでホストし、カスタムモデルとしてAI Toolkitにモデルを追加できます。モデルのエンドポイントURL、アクセスキー、モデル名などの主要情報を提供する必要があります。
ファインチューニング
ファインチューニングの設定がたくさんあります。すべてを気にする必要がありますか?
いいえ、テストにはデフォルト設定とサンプルデータセットを使用するだけでかまいません。独自のデータセットを選択することもできますが、いくつかの設定を調整する必要があります。詳細については、ファインチューニングのチュートリアルを参照してください。
AI Toolkitはファインチューニングプロジェクトをスキャフォールディングしません。
拡張機能をインストールする前に、必ず拡張機能の前提条件を確認してください。
NVIDIA GPUデバイスを持っていますが、前提条件チェックが失敗します。
NVIDIA GPUデバイスをお持ちで、前提条件チェックが「GPUが検出されません」と表示されて失敗する場合、最新のドライバーがインストールされていることを確認してください。NVIDIAサイトでドライバーを確認・ダウンロードできます。
また、パスにインストールされていることを確認してください。確認するには、コマンドラインからnvidia-smi
を実行します。
プロジェクトを生成しましたが、Conda activateが環境を見つけられません。
環境設定に問題があった可能性があります。ワークスペース内からbash /mnt/[PROJECT_PATH]/setup/first_time_setup.sh
を使用して、手動で環境を初期化できます。
Hugging Faceデータセットを使用する場合、どのように取得しますか?
python finetuning/invoke_olive.py
コマンドを開始する前に、必ずhuggingface-cli login
コマンドを実行してください。これにより、データセットがユーザーに代わってダウンロードされることが保証されます。
環境
拡張機能はLinuxや他のシステムで動作しますか?
はい、AI ToolkitはWindows、Mac、Linuxで動作します。
WSLでCondaの自動アクティベーションを無効にするには?
WSLでCondaのインストールを無効にするには、conda config --set auto_activate_base false
を実行します。これにより、ベース環境が無効になります。
現在、コンテナをサポートしていますか?
現在、コンテナサポートに取り組んでおり、今後のリリースで有効になる予定です。
GitHubとHugging Faceの資格情報が必要なのはなぜですか?
すべてのプロジェクトテンプレートはGitHubでホストされており、ベースモデルはAzureまたはHugging Faceでホストされています。これらの環境は、APIからアクセスするためにアカウントが必要です。
Llama2のダウンロード中にエラーが発生します。
Llama 2サインアップページからLlamaへのアクセスを要求していることを確認してください。これはMetaの貿易コンプライアンスに準拠するために必要です。
WSLインスタンス内でプロジェクトを保存できません。
AI Toolkitのアクションを実行している間はリモートセッションが現在サポートされていないため、WSLに接続したままプロジェクトを保存することはできません。リモート接続を閉じるには、画面左下で「WSL」を選択し、「リモート接続を閉じる」を選択してください。
エラー: GitHub APIが禁止されています。
プロジェクトテンプレートはmicrosoft/windows-ai-studio-templates
GitHubリポジトリでホストされており、拡張機能はGitHub APIを使用してリポジトリの内容をロードします。Microsoftの社内ネットワークにいる場合、このような禁止問題を回避するためにMicrosoft組織を承認する必要がある場合があります。
回避策についてはこの問題を参照してください。詳細な手順は次のとおりです。
-
VS CodeからGitHubアカウントをサインアウトします。
-
VS CodeとAI Toolkitをリロードすると、再度GitHubにサインインするよう求められます。
-
重要: ブラウザの承認ページで、アプリがMicrosoft組織にアクセスすることを承認していることを確認してください。
ONNXモデルを一覧表示、ロード、またはダウンロードできません。
VS Codeの出力パネルでAI Toolkitのログを確認してください。エージェントエラーまたはダウンロードされたモデルの取得に失敗しましたと表示される場合は、すべてのVS Codeインスタンスを閉じてからVS Codeを再度開いてください。
(この問題は、基盤となるONNXエージェントが予期せず終了したことが原因であり、上記の手順はエージェントを再起動するためのものです。)