<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>VRAM容量 on Negi AI Lab</title><link>https://ai.negi-lab.com/tags/vram%E5%AE%B9%E9%87%8F/</link><description>Recent content in VRAM容量 on Negi AI Lab</description><image><title>Negi AI Lab</title><url>https://ai.negi-lab.com/images/og-default.png</url><link>https://ai.negi-lab.com/images/og-default.png</link></image><generator>Hugo -- 0.154.5</generator><language>ja</language><lastBuildDate>Wed, 13 May 2026 03:56:54 +0900</lastBuildDate><atom:link href="https://ai.negi-lab.com/tags/vram%E5%AE%B9%E9%87%8F/index.xml" rel="self" type="application/rss+xml"/><item><title>ローカルLLMの「嘘」を克服する機材選び｜RTX 4090からMac Studioまで実務者が比較</title><link>https://ai.negi-lab.com/posts/local-llm-gpu-mac-comparison-guide/</link><pubDate>Wed, 13 May 2026 00:00:00 +0900</pubDate><guid>https://ai.negi-lab.com/posts/local-llm-gpu-mac-comparison-guide/</guid><description>1981年の予言通りLLMは「もっともらしい嘘」をつくが、現代はVRAM容量とRAGの実装でこれを制御できる。業務でハルシネーションを最小化するなら、最低...</description></item></channel></rss>