注: 以下の翻訳の正確性は検証されていません。AIPを利用して英語版の原文から機械的に翻訳されたものです。
以下は、モデリングの目的 ライブデプロイメントに関するよくある質問です。これらは、モデルページから構成される直接デプロイメントとは異なります。ライブデプロイメントの作成と設定やライブデプロイメントと直接デプロイメントの違いについてさらに詳しく学んでください。
リリースされた Python モデルには、デフォルトでどの Conda パッケージ/環境が含まれますか?
モデルは、公開されたモデルの Model Adapter に構成された Conda パッケージ/環境と共にパッケージ化されます。Palantir は、ユーザーのプロダクションモデルを提供するために必要な軽量パッケージも追加します。
ライブへのリクエストで送信できるデータの最大量はどれくらいですか?
デフォルトでは、ライブは 1 回のリクエストで最大 50MB まで受け付けます。この上限は構成可能です。詳細については、Palantir の担当者にお問い合わせください。
モデリングの目的 ライブデプロイメントのために監視を作成できますか?
はい。モデリングの目的 ライブデプロイメントの稼働時間は、Data Health アプリケーションの監視ビューで監視できます。
環境のカスタマイズの一環として、パブリックライブラリに加えてプライベートライブラリを含めることができますか?
プライベートおよびパブリックライブラリをサブミッション環境にインポートすることをサポートしています。
インスタンス上でライブデプロイメントを作成できるユーザーを制限できますか?
はい。ライブデプロイメントを作成する権限は、バッチデプロイメントを作成する権限とは別に許可できます。ガイダンスについては、Palantir の担当者にお問い合わせください。
Python モデルをスケールアップできますか?
はい。Foundry は現在、Palantir のコンテナインフラストラクチャ内でデプロイされた場合のトラフィックスケーリングを提供しています。
デフォルトでは、各デプロイメントは 2 つのレプリカで構成されており、アップグレード中のダウンタイムはありません。デフォルトの CPU とメモリのフットプリントも低く、低コストプロファイルを実現しています。
これを個別のデプロイメントに対して上書きして、より大きなモデルや予想される高負荷をサポートすることができます。また、デフォルトのプロファイルは Control Panel を介してすべてのライブデプロイメントに対して上書きできます。
Python モデルを GPU で実行できますか?
はい。これは現在ベータ機能です。詳細については、Palantir の担当者にお問い合わせください。
コストを抑えるためにデプロイメントを停止できますか?
はい、個別のデプロイメントページからライブデプロイメントを無効にすることができます。
再度使用する準備ができたら、UI を介して再度有効にすることもできます。再有効化されると、デプロイメントは最新のリリースにアップグレードされます。
また、デプロイメントを削除することもできます。ただし、この操作は元に戻せず、同じ Target RID を保持することはできません。
Foundry の ML Python モデルは外部 API にアクセスできますか?
はい。ただし、ユーザー(または認可された管理者)がライブデプロイメントのネットワーク egress を構成する必要があります。
ライブデプロイメントリクエスト中にタイムアウトが発生しますか?
推論の実行は同期プロセスであるため、デフォルトのダイアログリードタイムアウトにより 5 分のタイムアウトが発生します。