
QwenやDeepSeekの配布遅延に備える!APIとローカルを自動切替するLLM実装術
所要時間: 約40分 | 難易度: ★★★☆☆ この記事で作るもの 中国系LLM(Qwen, DeepSeek等)の「API版」と「ローカル版(Ollama等)」を、モデルの公開状況や通信状態に応じて1秒以内に自動で切り替える、可用性の高いPython推論スクリプトを作ります。 前提知識: Pythonの基本的な文法(関数、例外処理)がわかること。 必要なもの: Python 3.10以上、DashScope(Qwen)やDeepSeekのAPIキー、ローカル実行用のLLM環境(Ollama等)。 📦 この記事に関連する商品 ...