注: 以下の翻訳の正確性は検証されていません。AIPを利用して英語版の原文から機械的に翻訳されたものです。
各ノーコード言語モデルに対して、FoundryはデフォルトのModel Adapterを提供します。このデフォルトのModel Adapterは、言語モデルと対話するための合理的なデフォルトパラメーターと構造を提供します。以下にリストされているデフォルトの言語モデルアダプターは、デプロイメントインフラストラクチャでの利用可能性に応じて、CPUおよびGPUデバイスに正しくルーティングされます。
使用中のModel Adapterは、Modeling Objectivesアプリケーションのモデル提出ページで確認できます。
このModel Adapterは、シーケンスツーシーケンス言語モデル ↗をサポートします。このadapterは、提供された入力テキストに基づいてテキストを生成します。
例: 期待される入力テキストとその構造は、選択されたモデルによって異なります。正しいプロンプトエンジニアリングを確実にするために、モデルの詳細を読むことを強くお勧めします。たとえば、flan-t5-large ↗モデルは、翻訳から要約、質問応答まで幅広いプロンプトを実行できます。
このModel Adapterは、固有表現抽出パイプライン ↗をサポートします。このModel Adapterはテキスト内のエンティティを抽出し、それらをリストで返します。
例: テキスト「My name is Max and I live in Germany」をサンドボックスまたはライブデプロイメントを通じてモデルに送信すると、モデルは2個のエンティティ、MaxとGermanyを認識します。
5
の場合、認識されたエンティティは入力テキストの5番目のトークンです)。このModel Adapterは、モデルのアテンションマスク ↗に基づいて与えられたテキストの埋め込みを計算します。このadapterは"平均プーリング"と正規化を行い、sentenced-transformers ↗のデフォルトに一致します。
例:
このModel Adapterは、あらかじめ定義されたクラスのセットに対して入力テキストを分類します。テキスト分類の一般的な例として、感情分析や言語検出があります。
例:
このModel Adapterは、予測時に提供されるクラスリストに基づいて入力テキストを分類します。この動作により、特定のユースケースに言語モデルを微調整する必要なく、テキストを分類できます。
例: テキスト「I love to develop new language models」と候補ラベル「Travel」、「Sports」、「Work」、「Entertainment」を送信すると、モデルはラベルをスコアリングし、「Work」を最も可能性の高い分類としてランク付けします。