AI generated thumbnail

Qwen3.6-27BとOllamaで高精度なローカル検索AIを作る方法

所要時間: 約40分 | 難易度: ★★★☆☆ この記事で作るもの Qwen3.6-27Bを中核とし、外部検索結果を統合して回答する「Agentic Search(自律型検索)」スクリプト。 RTX 3090/4090(24GB VRAM)1枚で、SimpleQA精度95.7%という商用モデル級の性能をローカルで実現します。 前提知識:Pythonの基礎、コマンドライン操作、Dockerまたは環境構築の基礎。 必要なもの:NVIDIA製GPU(VRAM 24GB推奨)、Ollama、Python 3.10以上。 📦 この記事に関連する商品 ...

2026年5月3日 · 8 分 · 3544 文字 · Negi AI Lab
AI generated thumbnail

Qwen3.6-35B-A3B 使い方 入門:MoEモデルをローカル環境で爆速動作させる方法

所要時間: 約40分 | 難易度: ★★★☆☆ この記事で作るもの この記事では、最新のSparse MoE(混合エキスパート)モデル「Qwen3.6-35B-A3B」をローカルPCに導入し、ソースコードの修正案を自動生成する「AIコーディングレビュー・スクリプト」を作成します。 PythonからLlama-cpp-pythonを経由してモデルを制御し、35Bクラスの知能を3Bクラスの速度で引き出す実装を目指します。 ...

2026年4月16日 · 10 分 · 4772 文字 · Negi AI Lab
AI generated thumbnail

MiniMax M2.7 使い方 入門:オープンソース版をローカル環境で動かす手順

所要時間: 約30分 | 難易度: ★★★☆☆ この記事で作るもの MiniMax M2.7のオープンウェイト版を、PythonとHugging Faceのライブラリを用いてローカルPC上で実行し、日本語のプロンプトに対して高速にレスポンスを返す推論スクリプトを作成します。 前提知識: Python 3.10以上の基本的な操作ができること pipによるライブラリのインストール経験があること NVIDIA製GPU(VRAM 12GB以上推奨)の環境があること 必要なもの: ...

2026年3月23日 · 8 分 · 3717 文字 · Negi AI Lab
AI generated thumbnail

Qwen2.5-Coder 使い方 | ローカルでGPT-4o級の開発環境をPythonで構築する

所要時間: 約40分 | 難易度: ★★★☆☆ この記事で作るもの 特定のディレクトリ内のソースコードを全スキャンし、バグの発見とリファクタリング案を自動生成する「AIコードレビュアー」 前提知識: Pythonの基本的な読み書き、ターミナル(コマンドプロンプト)の操作ができること 必要なもの: Python 3.10以上、8GB以上のVRAM(GPU)を推奨(CPUでも動作可能だが低速) 📦 この記事に関連する商品 ...

2026年3月21日 · 7 分 · 3422 文字 · Negi AI Lab