<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>生成AI検知 on Negi AI Lab</title><link>https://ai.negi-lab.com/tags/%E7%94%9F%E6%88%90ai%E6%A4%9C%E7%9F%A5/</link><description>Recent content in 生成AI検知 on Negi AI Lab</description><image><title>Negi AI Lab</title><url>https://ai.negi-lab.com/images/og-default.png</url><link>https://ai.negi-lab.com/images/og-default.png</link></image><generator>Hugo -- 0.154.5</generator><language>ja</language><lastBuildDate>Sun, 05 Apr 2026 14:21:54 +0900</lastBuildDate><atom:link href="https://ai.negi-lab.com/tags/%E7%94%9F%E6%88%90ai%E6%A4%9C%E7%9F%A5/index.xml" rel="self" type="application/rss+xml"/><item><title>「AIを使っていない証明」を求められる時代：クリエイターが生存のために取るべき技術的防衛策</title><link>https://ai.negi-lab.com/posts/c2pa-content-provenance-for-creators-survival/</link><pubDate>Sun, 05 Apr 2026 00:00:00 +0900</pubDate><guid>https://ai.negi-lab.com/posts/c2pa-content-provenance-for-creators-survival/</guid><description>生成AIの精度向上により「人間が作った作品」がAI製だと疑われる冤罪リスクが急増しています。。C2PA規格などの「デジタル署名」による制作工程の証明が、ク...</description></item></channel></rss>