3行要約

  • Grammarlyの「Expert Review」機能が、実在・故人を含む専門家のペルソナを無断で使用していたことが判明。
  • RAG(検索拡張生成)や高度なプロンプティングにより、特定の人物の文体や思考を模倣する「アイデンティティの盗用」が商用サービスで表面化した。
  • AI開発における「データの権利」だけでなく「出力の演出」に対する法的・倫理的な境界線が、企業導入の新たな障壁になる。

📦 この記事に関連する商品

AI倫理と法的責任の解説書

AI開発における著作権やアイデンティティ侵害のリスクを学ぶために必須の一冊

Amazonで見る 楽天で見る

※アフィリエイトリンクを含みます

何が起きたのか

AIが「誰かのフリをする」ことの危うさが、ついに大手サービスの致命的な脆弱性として露呈しました。

Grammarlyが提供を開始した「Expert Review(専門家によるレビュー)」機能。これが、実は本人の許可を得ていない実在の人物、あるいは最近亡くなった高名な教授などのアイデンティティを、AIのペルソナとして勝手に利用していたことがWiredやThe Vergeの調査で明らかになりました。

最も衝撃的なのは、ある記者がこの機能を試したところ、AIが生成したフィードバックの中に「自分の上司」の名前と肩書きが含まれていたという事実です。これは単なる情報の誤り(ハルシネーション)ではなく、システム側が意図的に特定の個人を「専門家モデル」として設定し、その権威を借りて回答を生成していたことを示唆しています。

なぜ今、この問題が重要なのか。それは、私たちがこれまで議論してきた「AIの学習にデータが使われることへの是非」というフェーズを超えて、「AIが特定の個人として振る舞い、その評判を勝手に利用する」という次のレベルの侵害に突入したからです。

実務家として言わせてもらえば、これはプロダクト設計における致命的な判断ミスです。SIer時代、数多くの機密情報を扱ってきましたが、個人のアイデンティティを商用アルゴリズムの「ガワ」として使うなど、コンプライアンスの観点からすればあり得ない設計です。Grammarlyは「専門家にインスパイアされた」という表現を使っていますが、その「インスパイア」のソースが、墓の下にいる教授や、現役で働く上司であるならば、それはもはやリサーチではなく、アイデンティティの搾取に他なりません。

このニュースは、単なる一企業の不祥事ではありません。今後、AIエージェントが「特定の誰かの思考を模倣する」ことが一般化する中で、どこまでが「スタイルの模倣」で、どこからが「権利の侵害」になるのかという、極めてグレーな領域に私たちが立たされていることを示しています。

技術的に何が新しいのか

技術的な観点から言えば、Grammarlyがやっていることは魔法ではありません。しかし、その「実装の解像度」が、意図せず高すぎたことが問題の根源にあります。

従来のLLM(例えばGPT-4やClaude 3)で特定の人物を模倣させる場合、ユーザーが自ら「〜のように書いて」と指示するのが一般的でした。しかし、今回のケースでは、システム側があらかじめ「専門家セット」を用意しています。これにはおそらく、以下の3つの技術要素が組み合わされています。

  1. RAG(検索拡張生成)による外部知識の注入 特定の専門家の論文、著書、あるいはネット上の公開記事をベクトルデータベースに保存し、クエリ(ユーザーの入力)に応じて関連する文章を抽出。それをプロンプトに埋め込むことで、あたかもその人物が語っているかのような「知識の再現」を行います。

  2. System Promptによる文体(トーン&マナー)の固定 「あなたは○○大学の××教授です。彼の著書『△△』の論理構成に基づき、批判的かつ建設的なアドバイスをしてください」といった、非常に詳細なシステムプロンプトが設定されているはずです。

  3. Few-shotプロンプティングによる口調の調整 その人物特有の言い回しや、好んで使う語彙を数例プロンプトに含めることで、LLMの出力分布を特定の個人に寄せることができます。

例えば、Pythonで実装するなら以下のような構造に近いでしょう。

# アイデンティティを盗用するプロンプトのイメージ
system_instruction = f"""
Input User: {user_name}
Context: {target_expert_bio}
Writing Style: {target_expert_patterns}

あなたは{target_expert_name}として振る舞ってください。
過去の執筆物に基づき、ユーザーの文章を添削してください。
"""

問題は、この target_expert_name に、許可を得ていない実名を入れてしまったことです。OpenAIなどは、スカヨハの件でも話題になった通り、有名人の声を模倣することに非常に慎重になっています。それに対し、Grammarlyは「ニッチな専門家ならバレないだろう」あるいは「教育目的の引用なら許されるだろう」という、甘い法的解釈をしていた可能性があります。

これは、技術が「できること」と「やっていいこと」の乖離を、開発チームが制御できていなかった典型例です。RTX 4090を2枚挿してローカルLLMを回している私のような人間からすれば、特定の誰かの文体をLoRA(Low-Rank Adaptation)で学習させて遊ぶのは個人の自由です。しかし、それを月額$12〜$30のサブスクリプションサービスとして、企業や学生に売るとなれば、話は180度変わります。

数字で見る競合比較

項目Grammarly (問題の機能)ChatGPT (GPT-4o)Claude 3.5 Sonnet
ペルソナ設定特定の個人名を使用(無断)一般的な役割(プロ、教師等)控えめで中立なトーン
権利への配慮低(故人や実在者を利用)中(有名人の模倣を制限)高(安全性を最優先)
パーソナライズ強制的・固定ユーザーの指示次第ユーザーの指示次第
出典の明示「〜にインスパイアされた」基本なし(RAG時はあり)基本なし(RAG時はあり)
企業利用の安全性リスクあり(法的・倫理的)比較的高い非常に高い

この比較から分かるのは、Grammarlyが「特化型AI」としての差別化を急ぐあまり、汎用LLMが避けて通った「権利の地雷原」に自ら飛び込んでしまったということです。

ChatGPTやClaudeは、特定の個人のフリをさせることをデフォルトの機能として提供していません。それは、パブリシティ権や著作権の侵害に直結することを知っているからです。Grammarlyは「添削の精度」だけでは勝てないと判断し、「誰が添削するか」という付加価値に手を出しました。

しかし、その「誰」が、利用者の隣に座っている上司だったり、先週亡くなった恩師だったりした場合、ユーザーが感じるのは「便利さ」ではなく「恐怖」です。このブランド毀損による損失は、数百万ドルの損害賠償請求よりも重くのしかかるでしょう。

開発者が今すぐやるべきこと

この記事を読んでいるあなたが、AIアプリやエージェントの開発に携わっているなら、今すぐ以下の3点を確認してください。

  1. システムプロンプトから「実在する個人名」を削除する 「スティーブ・ジョブズのように」といった著名人であっても、商用利用ではリスクになります。「情熱的な起業家のように」といった抽象的な属性に書き換えてください。もし特定の人物のスタイルが必要なら、必ずその人物(または遺族)との契約をエビデンスとして残すべきです。

  2. RAGのデータソースに「プライベートな個人情報」が含まれていないか再検証する 今回の「上司がペルソナになった」ケースは、社内のメールやドキュメントが、意図せずペルソナ生成のソースとして使われた可能性があります。RAGに食わせるデータから、個人名や特定の肩書きをマスクする前処理(Anonymization)を徹底してください。

  3. 「AI生成であること」以上のディスクレイマーを実装する 単に「AIの回答です」と書くだけでは不十分です。「特定の個人の見解を代表するものではありません」「この文体は統計的な推論に基づき生成されたものであり、実在の人物とは関係ありません」といった、アイデンティティに関する免責事項を明確に表示するUIが必要です。

「後で直せばいい」という考えは、AI開発では通用しません。一度「プライバシーを軽視するサービス」というレッテルを貼られれば、企業のデータ活用案件からは一生外されることになります。

私の見解

正直に言って、今回のGrammarlyの挙動は「エンジニアの傲慢」が生んだ事故だと私は考えています。

「故人の文体を蘇らせる」というのは、技術デモとしては面白い。しかし、それを有料サービスとして、しかも「Expert Review」という信頼性が求められる機能に組み込んだのは、あまりにもセンスがありません。SIer時代、数多くの要件定義をこなしてきましたが、こんな仕様をクライアントに提案したら、その場で出禁になるレベルの話です。

AIは「ツール」であるべきで、「他人のなりすまし」であるべきではありません。私がRTX 4090を回してローカルLLMを検証しているのも、データの主権を自分に取り戻したいからです。特定の企業が、世界中の人々の文体を学習し、それを「専門家」というラベルを貼って再販する。これは知的な植民地支配に近いものを感じます。

一方で、今回の騒動で「AIによるアイデンティティ模倣」の限界が明確になったことは、業界全体にとってはプラスかもしれません。これからは「より人間らしいAI」ではなく、「出所がはっきりした、責任の取れるAI」が選ばれる時代になります。

私は、自分のブログの文章が誰かのAIのペルソナに使われることを許可しません。皆さんも、自分の「言葉の癖」や「思考のプロセス」が、知らないうちに誰かの月額プランのパーツになっていないか、もっと敏感になるべきです。

よくある質問

Q1: なぜGrammarlyは実在の人物だと分かる形でペルソナを出したのですか?

AIが学習データの中から「専門家」として最も関連性の高い人物を抽出し、その名前をそのままプロンプトの出力に反映させてしまったと考えられます。ハルシネーション(幻覚)の一種ですが、設計段階でのフィルタリングが機能していませんでした。

Q2: 故人の文章をAIに学習させ、ペルソナ化することは法律で禁止されていますか?

現在の日本の著作権法や米国のパブリシティ権では、故人の扱いは非常にグレーです。しかし、遺族による損害賠償請求や、何よりブランドイメージの著しい低下を招くため、商用サービスでの無断利用は実質的に不可能です。

Q3: 自分の文章が勝手にAIのペルソナに使われないようにする対策はありますか?

Web上に公開する際は robots.txt でAIのクローリングを拒否する設定を入れるのが最低限の防衛策です。しかし、一度学習された後の対策は難しく、今回のGrammarlyのようなサービス側のガバナンスを注視し、問題があれば声を上げるしかありません。


あわせて読みたい