
Qwen 3.6 35B A3B 使い方 | ローカルLLMでプロ級のコード解析環境を作る方法
所要時間: 約40分 | 難易度: ★★★★☆ この記事で作るもの ローカル環境(Ollama)で「Qwen 3.6 35B A3B」を立ち上げ、自作プロジェクトのソースコードを読み込ませて、バグ修正とリファクタリング案を自動生成するPythonスクリプト。 特定のドメイン(学術、金融、製造など)で書かれた「他人が書いた難解なコード」を、文脈を維持したまま数秒で解説させる環境。 必要なもの:Python 3.10以降、VRAM 16GB以上のGPU(推奨24GB以上)、またはメモリ32GB以上のApple Silicon Mac。 📦 この記事に関連する商品(楽天メインで価格確認) ...