3行要約

  • Grammarlyが導入した「専門家レビュー」機能は、実際には著名な作家や専門家が直接監修するものではなく、AIによる模倣と限定的なヒアリングに基づくものであることが判明しました。
  • 技術的には既存のLLMに特定のライティングスタイルを学習・プロンプト注入した「ペルソナ設定」の域を出ておらず、高度な専門性を担保する仕組みが欠如しています。
  • ユーザーは「専門家の知見」というマーケティング用語を鵜呑みにせず、出力された助言のファクトチェックを自ら行う実務的なワークフローが不可欠です。

何が起きたのか

Grammarlyが鳴り物入りで導入した「エキスパート・レビュー(Expert Review)」という新機能が、実は「専門家」不在のまま運用されているという事実がTechCrunchの調査で明らかになりました。この機能は、世界中の偉大な作家や思想家、あるいはテックジャーナリストの視点を借りて文章を改善できると謳っています。しかし、その実態は、彼らが直接あなたの文章を読んだり、アルゴリズムに独自の秘伝のタレを注入したりしたものではありません。

なぜこのニュースが重要なのか。それは、AI企業が「人間らしさ」や「専門性」をマーケティングの武器にする際、どこまでが真実でどこからが欺瞞なのかという境界線が極めて曖昧になっていることを示唆しているからです。私はSIerで5年間、血を吐くような思いで仕様書を書き、その後フリーランスとして20件以上の機械学習案件に関わってきましたが、常に「AIは嘘をつく」という前提でシステムを組んできました。Grammarlyのような巨大SaaSが、あたかも背後に本物の人間がいるかのような見せ方で機能を展開するのは、実務者から見れば非常に危うい兆候です。

今回の騒動の背景には、ChatGPTやClaudeといった汎用LLM(大規模言語モデル)の台頭により、Grammarlyのような「文章校正特化型AI」の存在意義が問われているという焦りがあります。単なる文法修正なら、今のGPT-4oやClaude 3.5 Sonnetの方がよほど文脈を読み取った高度な提案をしてくれます。そこでGrammarlyは「専門家の視点」という付加価値を乗せることで、月額料金を正当化しようとしたのでしょう。しかし、その中身が単なる「特定のスタイルを模倣したプロンプト」であるならば、それはユーザーに対する誠実さを欠いた設計と言わざるを得ません。

技術的に何が新しいのか

技術的な観点から言えば、今回のGrammarlyの機能は「目新しいブレイクスルー」ではなく、既存のLLM技術の「UXによるパッケージング」に過ぎません。従来のGrammarlyは、独自に構築したルールベースのエンジンと、比較的小規模な深層学習モデルを組み合わせて文法ミスを指摘してきました。一方で今回の「エキスパート・レビュー」は、明らかにGPT-4クラスの強力なLLMをバックエンドに採用し、そこに「専門家のペルソナ」を被せています。

具体的には、以下のような仕組みで動作していると推測されます。

  1. ペルソナ・プロンプティング: 著名な作家の著作やインタビュー、公開されている文体を分析し、それをSystem PromptとしてLLMに注入します。「あなたはヘミングウェイのような簡潔さを重んじる編集者です」といった指示を与え、ユーザーの文章を評価させる手法です。
  2. RAG(検索拡張生成)の限定的活用: 特定の専門分野のガイドラインや、過去の質の高い記事データをベクトルデータベースに蓄積。ユーザーの入力に対して関連性の高い「書き方のコツ」を検索してコンテキストに含めることで、あたかも専門的な知識に基づいているかのように見せています。
  3. マルチエージェント・ワークフロー: 複数の異なるペルソナを持つエージェント(論理担当、エモーション担当、技術担当など)に文章を回し、最終的に統合したアドバイスを出力する仕組みです。

例えば、Pythonで同様の「擬似専門家レビュー」を実装する場合、以下のようなコード構造になります。

import openai

def expert_review(text, expert_type="tech_journalist"):
    prompts = {
        "tech_journalist": "技術ジャーナリストとして、この記事の論理的整合性と読者の関心を引く要素を厳しく批評してください。",
        "creative_writer": "小説家として、文章ののリズムと比喩表現の豊かさを評価してください。"
    }

    response = openai.ChatCompletion.create(
        model="gpt-4",
        messages=[
            {"role": "system", "content": prompts[expert_type]},
            {"role": "user", "content": f"以下の文章をレビューして:\n{text}"}
        ]
    )
    return response.choices[0].message.content

この手法自体は、APIを叩けば誰でも実装できるものです。Grammarlyの「新しさ」は、これをシームレスなエディタUIに組み込み、あたかも「裏側で本物の専門家が監修したモデルが動いている」かのような物語を付与したことにあります。しかし、TechCrunchが指摘したように、そこに「実際の専門家によるフィードバックループ」が欠落しているのであれば、それは単なるロールプレイに過ぎません。私たちが本当に必要としているのは、AIによる「もっともらしい模倣」ではなく、実務に裏打ちされた「本物の知見」のはずです。

数字で見る競合比較

実務で文章を扱う私たちが、どのツールに投資すべきかを判断するための比較表を作成しました。

項目Grammarly (Expert)ChatGPT (Plus/Team)Claude 3.5 Sonnet人間のプロ校正者
月額コスト$30程度 (Premium)$20$201万円〜 (1記事)
専門性の根拠AIペルソナ汎用知識 (GPT-4o)高度な文脈理解実務経験・学位
修正の具体性高(UI統合)中(指示次第)極めて高最高
反映スピード数秒数秒数秒数日
信頼性 (Hallucination)中(改善のふりをする)極めて低

この数字を見てわかるのは、Grammarlyが競合の汎用LLMよりも高い価格設定を維持している点です。月額$20のChatGPTやClaudeがあれば、自分で「専門家としてレビューして」とプロンプトを打つだけで、Grammarlyの「エキスパート・レビュー」と同等、あるいはそれ以上の結果が得られます。Grammarlyが生き残るには、単なるペルソナの付与ではなく、例えば「社内の独自の用語集や過去の成功事例を完璧に反映する」といった、より深いコンテキスト結合が必要になるでしょう。

今のGrammarlyは、月額$30を払って「専門家っぽい雰囲気」を買わされている状態に近いと言えます。特にエンジニアや専門職の人間にとって、表面的な「リライト案」はノイズになることが多いため、この価格差を埋めるだけの価値があるかは非常に疑わしいです。

開発者が今すぐやるべきこと

この記事を読んだ後、ただ「Grammarlyはダメだ」で終わらせてはいけません。AIを仕事で使うプロとして、以下の3つのアクションを推奨します。

  1. 「AIペルソナ」の限界を知るテスト: 自分の専門分野について、あえて間違った前提を含んだ文章をGrammarlyのエキスパート・レビューにかけてみてください。AIがその間違いを指摘できるか、あるいは「専門家風の口調」で間違いを肯定してしまうかを確認してください。これにより、そのツールがどの程度のファクトチェック能力を持っているかを肌感覚で理解できます。
  2. 独自の「Review Prompt」をClaude 3.5 Sonnetで構築する: Grammarlyに月額$30払うなら、月額$20のClaude 3.5 Sonnetに「あなたは私の会社のシニアエンジニアで、技術ドキュメントの正確性を10点満点で採点する役割です」というSystem Promptを設定して自分専用の校正エージェントを作る方が、実務上のメリットは大きいです。
  3. UIによる「権威への服従」を疑う: 洗練されたUIや「Expert」というラベルは、私たちの判断を鈍らせます。出力された修正案を適用する前に、必ず「なぜその修正が必要なのか」という根拠をAIに問い詰めてください。根拠が曖昧なら、それは単なる統計的な「確率の高い単語の羅列」に過ぎません。

私の見解

私は正直に言って、今回のGrammarlyのやり方には強い不信感を抱いています。かつてSIerで仕様書の一言一句に責任を持っていた人間からすると、「専門家」という言葉は非常に重いものです。それを、裏側に本物の専門家がいないにもかかわらず、あたかも介在しているかのようなブランディングで売るのは、テック業界の不誠実な側面が凝縮されています。

自宅でRTX 4090を2枚回してローカルLLMを検証しているとよく分かりますが、モデルに「専門家のフリ」をさせるのは最も簡単なプロンプトエンジニアリングの一つです。しかし、その「フリ」には責任が伴いません。誤った医療アドバイス、法的なリスク、あるいは技術的な致命的ミスを、AIが「自信満々な専門家」として出力したとき、責任を取るのは常にユーザーです。

Grammarlyは、優れた「文法チェッカー」から、不誠実な「擬似コンサルタント」へ変質しようとしているように見えます。AI時代において、私たちが求めているのは「もっともらしい嘘」を吐く洗練されたUIではなく、真に価値のある情報へのアクセスです。3ヶ月後、この機能は「期待外れ」というレッテルを貼られ、より透明性の高い、あるいはより安価な汎用LLMにユーザーを奪われ続けていると私は予測します。

よくある質問

Q1: Grammarlyの無料版でもこの機能は使えますか?

いいえ。エキスパート・レビューは主に有料プラン(PremiumまたはBusiness)のユーザー向けに提供されています。しかし、今回の報道を鑑みると、追加料金を払ってまで利用する価値があるかは慎重に判断すべきです。

Q2: ChatGPTやClaudeで代用する場合のコツは?

「専門家としてレビューして」という曖昧な指示ではなく、「過去に○枚の論文を執筆した教授の視点で、論理の飛躍を3箇所指摘して」といった、具体的かつ制約条件を設けたプロンプトを与えることで、Grammarly以上の精度を引き出せます。

Q3: Grammarlyは今後どうなると思いますか?

単なる文章校正ソフトとしての寿命は近づいています。今後3ヶ月以内に、より企業特化型のデータ連携(SlackやNotionとの深い同期)を強化し、単なる「文章術」ではなく「業務コンテキストの理解」に舵を切らざるを得ないでしょう。