AI generated thumbnail

Qwen3.6-27BとOllamaで高精度なローカル検索AIを作る方法

所要時間: 約40分 | 難易度: ★★★☆☆ この記事で作るもの Qwen3.6-27Bを中核とし、外部検索結果を統合して回答する「Agentic Search(自律型検索)」スクリプト。 RTX 3090/4090(24GB VRAM)1枚で、SimpleQA精度95.7%という商用モデル級の性能をローカルで実現します。 前提知識:Pythonの基礎、コマンドライン操作、Dockerまたは環境構築の基礎。 必要なもの:NVIDIA製GPU(VRAM 24GB推奨)、Ollama、Python 3.10以上。 📦 この記事に関連する商品 ...

2026年5月3日 · 8 分 · 3544 文字 · Negi AI Lab
AI generated thumbnail

Xiaomi 12 Proを24時間稼働のAIサーバーにする手順:Snapdragon 8 Gen 1とOllamaでプライベートLLM環境を構築する方法

所要時間: 約45分 | 難易度: ★★★★☆ この記事で作るもの 古くなったAndroidスマホを、外部からAPI経由で叩ける「24時間稼働のHeadless AIサーバー」に変貌させます。 Pythonからスマホ内のGemma 2やLlama 3に推論リクエストを送り、レスポンスを取得するシステムを構築します。 前提知識:Linuxコマンドの基本操作、Pythonの基礎(HTTPリクエストの扱い)。 必要なもの:Android端末(Snapdragon 8 Gen 1以上推奨)、安定したWi-Fi、冷却ファン(常時稼働用)。 📦 この記事に関連する商品 ...

2026年4月15日 · 7 分 · 3455 文字 · Negi AI Lab
AI generated thumbnail

Qwen2.5-Coder 使い方 | ローカルでGPT-4o級の開発環境をPythonで構築する

所要時間: 約40分 | 難易度: ★★★☆☆ この記事で作るもの 特定のディレクトリ内のソースコードを全スキャンし、バグの発見とリファクタリング案を自動生成する「AIコードレビュアー」 前提知識: Pythonの基本的な読み書き、ターミナル(コマンドプロンプト)の操作ができること 必要なもの: Python 3.10以上、8GB以上のVRAM(GPU)を推奨(CPUでも動作可能だが低速) 📦 この記事に関連する商品 ...

2026年3月21日 · 7 分 · 3422 文字 · Negi AI Lab