AIツールキット FAQ
モデル
リモートモデルのエンドポイントと認証ヘッダーはどこで確認できますか?
一般的なOpenAIサービスプロバイダーでエンドポイントと認証ヘッダーを見つける方法の例をいくつか示します。他のプロバイダーについては、チャット補完エンドポイントと認証ヘッダーに関するドキュメントを確認してください。
例1:Azure OpenAI
-
Azure OpenAI Studioの[デプロイ]ブレードに移動し、デプロイを選択します(例:gpt-4o)。まだデプロイがない場合は、デプロイの作成方法に関するAzure OpenAIのドキュメントを確認してください。
-
[エンドポイント]セクションの[ターゲットURI]フィールドでチャット補完エンドポイントを取得します
-
[エンドポイント]セクションの[キー]プロパティからAPIキーを取得します。
APIキーをコピーしたら、AI Toolkitの認証ヘッダーとして `api-key: <YOUR_API_KEY>` の形式で追加します。認証ヘッダーの詳細については、Azure OpenAIサービスのドキュメントを参照してください。
例2:OpenAI
-
現在のところ、チャット補完エンドポイントは
https://api.openai.com/v1/chat/completions
に固定されています。詳細については、OpenAIのドキュメントを参照してください。 -
OpenAIのドキュメントに移動し、[APIキー]または[プロジェクトAPIキー]を選択して、APIキーを作成または取得します。
APIキーをコピーしたら、AI Toolkitの認証ヘッダーとして `Authorization: Bearer <YOUR_API_KEY>` の形式で入力します。詳細については、OpenAIのドキュメントを参照してください。
エンドポイントURLまたは認証ヘッダーを編集する方法
誤ったエンドポイントまたは認証ヘッダーを入力すると、推論でエラーが発生する可能性があります。
-
VS Codeの `settings.json` ファイルを開きます
-
認証失敗の通知で[settings.jsonを編集]を選択します
-
または、コマンドパレット(⇧⌘P (Windows、Linux Ctrl+Shift+P))に `Open User Settings (JSON)` と入力します
-
-
`windowsaistudio.remoteInfereneEndpoints` 設定を検索します
-
既存のエンドポイントURLまたは認証ヘッダーを編集または削除します。
設定を保存すると、ツリービューまたはプレイグラウンドのモデルリストが自動的に更新されます。
OpenAI o1-miniまたはOpenAI o1-previewのウェイティングリストに参加するにはどうすればよいですか?
OpenAI o1シリーズモデルは、推論および問題解決タスクに、より高い集中力と能力で取り組むように特別に設計されています。これらのモデルは、ユーザーのリクエストの処理と理解により多くの時間を費やすため、科学、コーディング、数学、および同様の分野で非常に強力です。たとえば、o1は、ヘルスケア研究者が細胞配列データを注釈を付けるために、物理学者が量子光学に必要な複雑な数式を生成するために、そしてすべての分野の開発者が多段階ワークフローを構築および実行するために使用できます。
o1-previewモデルは、アクセスが制限されています。プレイグラウンドでモデルを試すには、登録が必要であり、アクセスはマイクロソフトの資格基準に基づいて許可されます。
GitHubモデルマーケットにアクセスして、OpenAI o1-miniまたはOpenAI o1-previewを見つけてウェイティングリストに参加してください。
自分のモデルやHugging Faceの他のモデルを使用できますか?
独自のモデルがOpenAI APIコントラクトをサポートしている場合は、クラウドでホストし、カスタムモデルとしてAI Toolkitにモデルを追加できます。モデルのエンドポイントURL、アクセスキー、モデル名などの主要情報を提供する必要があります。
ファインチューニング
ファインチューニングの設定がたくさんありますが、すべてを気にする必要はありますか?
いいえ、デフォルト設定とテスト用のサンプルデータセットで実行するだけで大丈夫です。独自のデータセットを選択することもできますが、いくつかの設定を調整する必要があります。詳細については、ファインチューニングチュートリアルを参照してください。
AI Toolkitはファインチューニングプロジェクトをスキャフォールドしません
拡張機能をインストールする前に、拡張機能の前提条件を確認してください。
NVIDIA GPUデバイスがありますが、前提条件チェックが失敗します
NVIDIA GPUデバイスがあるにもかかわらず、前提条件チェックが「GPUが検出されません」で失敗する場合は、最新のドライバーがインストールされていることを確認してください。ドライバーはNVIDIAサイトで確認およびダウンロードできます。
また、パスにインストールされていることを確認してください。確認するには、コマンドラインから `nvidia-smi` を実行します。
プロジェクトを生成しましたが、Conda activateが環境を見つけられません
環境の設定に問題があった可能性があります。ワークスペース内から `bash /mnt/[PROJECT_PATH]/setup/first_time_setup.sh` を使用して、手動で環境を初期化できます。
Hugging Faceデータセットを使用する場合、どのように入手できますか?
`python finetuning/invoke_olive.py` コマンドを開始する前に、`huggingface-cli login` コマンドを実行してください。これにより、データセットがユーザーの代わりにダウンロードされるようになります。
環境
この拡張機能はLinuxまたは他のシステムで動作しますか?
はい、AI ToolkitはWindows、Mac、およびLinuxで動作します。
WSLからCondaの自動アクティベーションを無効にするにはどうすればよいですか?
WSLでCondaのインストールを無効にするには、`conda config --set auto_activate_base false` を実行します。これにより、ベース環境が無効になります。
現在コンテナーをサポートしていますか?
現在コンテナーのサポートに取り組んでおり、今後のリリースで有効になる予定です。
GitHubとHugging Faceの認証情報が必要な理由
すべてのプロジェクトテンプレートをGitHubでホストし、ベースモデルはAzureまたはHugging Faceでホストしています。これらの環境には、APIからアクセスするためのアカウントが必要です。
Llama2のダウンロード中にエラーが発生しています
Llama 2サインアップページからLlamaへのアクセスをリクエストしていることを確認してください。これは、Metaの貿易コンプライアンスに準拠するために必要です。
WSLインスタンス内にプロジェクトを保存できません
AI Toolkitアクションの実行中にリモートセッションが現在サポートされていないため、WSLに接続している間はプロジェクトを保存できません。リモート接続を閉じるには、画面左下の[WSL]を選択し、[リモート接続を閉じる]を選択します。
エラー:GitHub APIが禁止されています
プロジェクトテンプレートは `microsoft/windows-ai-studio-templates` GitHubリポジトリでホストされており、拡張機能はGitHub APIを使用してリポジトリの内容をロードします。マイクロソフトに所属している場合は、そのような禁止問題を回避するためにマイクロソフト組織を承認する必要がある場合があります。
回避策については、このissueを参照してください。詳細な手順は次のとおりです
-
VS CodeからGitHubアカウントをサインアウトします
-
VS CodeとAI Toolkitをリロードすると、GitHubへの再サインインを求められます
-
重要:ブラウザの承認ページで、アプリがMicrosoft組織にアクセスすることを承認してください
ONNXモデルをリスト、ロード、またはダウンロードできません
VS Codeの[出力]パネルでAI Toolkitログを確認してください。[Agent]エラーまたは[ダウンロードされたモデルの取得に失敗しました]が表示される場合は、すべてのVS Codeインスタンスを閉じて、VS Codeを再度開いてください。
(この問題は、基盤となるONNXエージェントが予期せず終了したことが原因であり、上記の手順はエージェントを再起動するためのものです。)