AI generated thumbnail

llama-swap 使い方:Ollama超えのローカルLLM切り替え環境を構築

所要時間: 約30分 | 難易度: ★★★☆☆ この記事で作るもの llama-swapを介して、複数のローカルLLM(Llama 3やMistralなど)をAPI経由で瞬時に切り替えて呼び出すPython実行環境 OllamaやLM Studioに依存せず、llama.cppやvLLMなどの高性能バックエンドを自由に選べる柔軟な推論サーバー PythonのOpenAI SDKを利用し、コード側で「model=“llama-3”」と指定するだけでバックエンドが自動でモデルをロード・スワップする仕組み 📦 この記事に関連する商品 ...

2026年3月6日 · 9 分 · 4226 文字 · Negi AI Lab
AI generated thumbnail

Qwen2.5とPythonで技術文書を自動で構造化データに変換するツールの作り方

所要時間: 約40分 | 難易度: ★★★☆☆ この記事で作るもの ローカルLLMのQwen2.5を活用し、PDFやマークダウン形式の技術文書から特定の項目(作成日、技術スタック、アーキテクチャの要点など)を正確に抽出してJSON形式で保存するPythonスクリプトを作ります。 外部API(OpenAIなど)へデータを送信せず、すべて自分のPC内で完結させるため、機密性の高い社内ドキュメントも安全に処理できます。 前提知識として、Pythonの基本的な文法(変数、関数、pipでのライブラリインストール)を理解している必要があります。 必要なものは、16GB以上のメモリを搭載したPC(GPU推奨ですがCPUでも動作可能)とPython環境です。 📦 この記事に関連する商品 ...

2026年3月5日 · 9 分 · 4013 文字 · Negi AI Lab
AI generated thumbnail

Qwen3.5-9Bをローカル環境のPythonで動かし自分専用の超高速AIアシスタントを作る方法

所要時間: 約30分 | 難易度: ★★★☆☆ この記事で作るもの Qwen3.5-9B(GGUF版)をPythonから制御し、日本語で自然な対話ができるストリーミング形式のチャットスクリプト。 前提知識: Pythonの基本的な読み書きができること、コマンドライン操作に抵抗がないこと。 必要なもの: NVIDIA製GPU(VRAM 8GB以上推奨)、Python 3.10以降。 📦 この記事に関連する商品 ...

2026年3月2日 · 7 分 · 3260 文字 · Negi AI Lab
AI generated thumbnail

Claude APIで高度なリスク分析エージェントを構築する方法

所要時間: 約40分 | 難易度: ★★★☆☆ この記事で作るもの Claude 3.5 SonnetのAPIを活用し、大量のテキストデータから即座に「脅威レベル」を判定し、具体的な「推奨アクション」を構造化データとして出力するPythonスクリプトを作成します。 この記事のゴールは、単にチャットを動かすことではありません。 軍事作戦のような一分一秒を争う現場でも通用する「指示への忠実度」と「出力の安定性」を備えた実用的な分析エンジンを構築することです。 ...

2026年3月1日 · 8 分 · 3543 文字 · Negi AI Lab
AI generated thumbnail

DeepSeek V4 使い方先取りガイド!Pythonでマルチモーダル基盤を作る

所要時間: 約40分 | 難易度: ★★★☆☆ この記事で作るもの DeepSeek V4のリリース直後に、テキスト・画像・動画生成をシームレスに切り替えて実行できる「マルチモーダル対応型AIエージェント基盤」をPythonで構築します。 現行のV3 API(OpenAI互換)を利用して、V4で追加される画像・動画生成パラメータをあらかじめ想定した柔軟なラッパークラスを完成させます。 ...

2026年2月28日 · 8 分 · 3847 文字 · Negi AI Lab
AI generated thumbnail

Qwen3.5-35BをVRAM 16GBで爆速動作させるローカルLLM構築術

所要時間: 約45分 | 難易度: ★★★☆☆ この記事で作るもの RTX 3060/4060 Ti 16GBやRTX 5080(16GB)環境で、Qwen3.5-35B-A3Bを秒間70トークン以上の超高速で動作させるローカルAPIサーバー Pythonの基礎(venv環境構築、pip操作)ができること 16GB以上のVRAMを搭載したNVIDIA製GPU(12GBでも量子化次第で動作可能) 📦 この記事に関連する商品 ...

2026年2月27日 · 7 分 · 3360 文字 · Negi AI Lab
AI generated thumbnail

DeepSeek API 使い方入門!V4時代を見据えた高精度RAG構築ガイド

所要時間: 約40分 | 難易度: ★★★☆☆ この記事で作るもの DeepSeek API(V3/R1)とLangChainを組み合わせ、手元のPDF資料から回答を生成する「現場で使えるRAG(検索拡張生成)システム」を構築します。 前提知識:Pythonの基本的な文法、ターミナルでのコマンド操作ができること。 必要なもの:DeepSeekのAPIキー(クレジットカード登録推奨、5ドル程度のチャージで十分動きます)、Python 3.10以上の環境。 📦 この記事に関連する商品 ...

2026年2月26日 · 8 分 · 3857 文字 · Negi AI Lab
AI generated thumbnail

Qwen3.5-35B-A3BとAiderで爆速コーディング環境を構築する方法

所要時間: 約40分 | 難易度: ★★★☆☆ この記事で作るもの Qwen3.5-35B-A3Bをローカルで動かし、AIエージェント「Aider」と連携させて、既存のPythonコードのバグ修正と機能追加を全自動で行う環境を構築します。 前提知識:Pythonの基本的な読み書きができること、ターミナルの操作に抵抗がないこと。 必要なもの:VRAM 12GB以上のGPU(RTX 3060 12GB / 4070以上推奨)、Docker(任意だが推奨)。 📦 この記事に関連する商品 ...

2026年2月25日 · 7 分 · 3463 文字 · Negi AI Lab
AI generated thumbnail

Claude 3.5 Sonnetのアイデンティティを検証しモデルの汚染を確認するスクリプト

所要時間: 約30分 | 難易度: ★★★☆☆ この記事で作るもの Claude 3.5 Sonnetに対して特定の言語やプロンプトを用いて「アイデンティティの混乱」を引き起こし、モデルの学習データに他社モデル(DeepSeek-V3等)の回答が混入していないかを自動判定する検証スクリプトを作成します。 PythonからAnthropic APIを叩き、システムプロンプトの制約をすり抜けて「モデルの素性」を告白させるための自動化コードを実装します。 前提知識として、Pythonの基本的な文法と、環境変数の設定方法を理解している必要があります。 必要なものは、Anthropic APIキー(クレジットが残っているもの)と、Python 3.10以上の実行環境です。 📦 この記事に関連する商品 ...

2026年2月24日 · 8 分 · 3852 文字 · Negi AI Lab
AI generated thumbnail

Qwen3の音声エンベディング機能を活用し、わずか数秒の音声サンプルから高精度なボイスクローンを作成して対話システムを構築する方法を解説します。この記事を最後まで読めば、従来のような膨大な学習データなしに、特定の誰かの声でAIを喋らせるための具体的な実装手順がすべて理解できるはずです。

この記事で学べること Qwen3における「音声エンベディング(Voice Embeddings)」の仕組みと利点 ローカル環境でQwen3音声モデルをセットアップする手順 独自の音声ファイルから特徴量を抽出し、TTS(音声合成)に適用するコード実装 音声合成の品質を安定させるためのパラメータ調整テクニック 前提条件 Python 3.10以上の実行環境 NVIDIA製GPU(VRAM 16GB以上推奨。最低でも8GB以上) 基本的なPyTorchおよびTransformersライブラリの知識 数秒程度の参照用音声ファイル(.wav形式、16kHz推奨) なぜこの知識が重要なのか これまでのボイスクローン技術、いわゆるTTS(Text-to-Speech)のカスタマイズは、非常に高いハードルがありました。特定の声で喋らせるためには、数時間分のクリーンな音声データを用意し、数日かけてモデルを微調整(ファインチューニング)する必要があったからです。 ...

2026年2月23日 · 7 分 · 3371 文字 · Negi AI Lab