現在LLMのセルフホストはProプランでのプレビュー機能です。使用を希望される場合はダッシュボード上からProプランに更新の上ウェイトリストにお申し込みください。
LLMを利用する
1
LLMをデプロイする
ダッシュボードのLLMタブを押下しLLM作成画面に遷移します。任意の
現在以下のモデルが使用可能です。
LLM Name
を入力し、使用するModel Name
を選択します。
Model | Parameters |
---|---|
deepseek-r1 | 1.5b, 7b, 8b, 14b |
llama3.2 | 8b |
phi4 | 14b |
qwen | 0.5b, 1.8b, 4b, 7b, 14b |
2
作成したモデルを確認する
LLMタブから作成したLLMを選択します。
Logsの欄で選択したモデルのステータスが

Deployment Succeeded
であれば作成が成功しています。まだ進行中の場合は作成完了までお待ちください。App URLはMorphにホストされたLLMのURLです。このURLとMorphのAPI Key
を使用してLLMにリクエストを送ることが可能です。3
LLMにリクエストを送る
先ほどのApp URLとMorphのAPI Keyを使用してLLMにリクエストを送ります。以下はPythonとcURLによるリクエストのサンプルです。
Pythonで使用する場合は
langchain-ollama
パッケージをインストールする必要があります。