ブログ/記事一覧/AIが配った「もっともらしさの武器」が人を殴っている
ai-plausibility-weapon-2026

AIが配った「もっともらしさの武器」が人を殴っている

AIは質問者の言い分だけ聞いて同じ方向にそれっぽく言い直す装置でもある。Dunning-Kruger効果の逆転からチャットチェンバーまで、もっともらしさの武器が殴り始めた構造をAIヘビーユーザーのエンジニアが解剖する

コラム
kkm-horikawa

kkm

Backend Engineer / AWS / Django

2026.03.125 min2 views

私はフリーランスエンジニアで、毎日AIを使って仕事をしています。AIが大好きですし、なくなったら困ります。前提として、AIアンチの記事ではありません。

ただ、最近になって「これはまずいぞ」と感じる場面が増えました。AIが誰にでも「もっともらしさ」という武器を配ってしまった結果、それで人を殴る人が急増しているのです。

YouTubeのコメント欄、Xのリプライ、友人との会話。あちこちで見かけるようになった「AIが言ってたんだけど」という前置きの後に続く、微妙にズレた攻撃。知識や言語化能力が追いついていなかった人たちが、AIの力を借りて"それっぽい攻撃"を量産し始めています。しかもその攻撃には、本人が気づいていない構造的な問題がいくつも潜んでいます。

友人が「愛着障害だから仕方ないの」と言い出した

違和感を覚えたのは、友人との会話でした。

その友人が「私って人との距離感がおかしくなっちゃうことがあるんだけど、これって子供の頃の育てられ方のせいで愛着障害があるからなんだよね。」と言い出しました。

私はその友人を長いこと知っています。正直に言うと、数年前まではそんなことは一切ありませんでした。ここ数年で異性関係がだらしなくなっただけです。長期間一緒にいて背景を知っている人間にはわかります。

でも「愛着障害」と言われると、こちらも簡単には否定できません。心理的な問題を抱えている人に「それは違う」と言うのは、ある種の暴力になりかねないからです。だからしばらくの間、私はその友人に寄り添っていました。

で、よくよく聞いたらこうでした。

ChatGPT——友人は「チャッピー」と呼んでいます——に自分の悩みを相談したところ、「愛着障害のような傾向があるかもしれませんね。自分を責めないでくださいね」と優しく言われた。それをそのまま信じ込んでいただけでした。

待ってくれ、と思いました。

AIは質問者の入力に基づいて回答を生成します。「私って人との距離感がおかしくなることがある」と相談すれば、AIは質問者を傷つけない方向で、心理学的な用語を使って「こういう可能性がありますよ」と返します。それはAIの設計として正しい動作です。質問者を追い詰めるような回答をするのは、AIの安全設計としてアウトだからです。

でも友人はそれを「診断」として受け取りました。そして「愛着障害だから仕方ない」という結論を得て、自分の行動を正当化する根拠にしていた。私が数ヶ月間寄り添っていたのは、AIが質問者に寄り添った言葉を返しただけの、その出力結果に対してだったわけです。

ここで起きていたこと

  • 1.友人が自分に都合の良い形で悩みをAIに入力する
  • 2.AIは安全設計に基づき、質問者を傷つけない方向で心理用語を使って回答する
  • 3.友人はAIの回答を「客観的な診断」として受け取る
  • 4.「愛着障害だから仕方ない」という自己正当化に使う
  • 5.周囲の人間は心理用語を盾にされて反論しづらくなる

この構造の厄介なところは、周囲の人間が黙るしかなくなることです。「愛着障害」という専門用語が出てきた瞬間、素人にはそれが本当かどうかを判断する能力がありません。しかもその言葉の出典が「AI」であるというだけで、なんとなく信頼性が担保されたように感じてしまう。

実際には、AIは友人の話をそのまま受け取って、「こういう可能性もあるよ、自分を責めないでね」と言っただけです。相手の話を聞いたわけでもなければ、行動パターンを長期的に観察したわけでもない。入力された情報が偏っていれば、出力も偏ります。当たり前の話です。

でも、この「当たり前」が通用しない場面が増えています。

YouTubeで急増した「AIに聞いてみました」のカラクリ

YouTubeを見ていると、ここ半年で明らかに増えたジャンルがあります。誰かを批判する動画の中で、「じゃあこれ、AIに聞いてみましょう」と画面共有するパターンです。

典型的な流れはこうです。

よく見る動画の構造

  • 1.ある有名人や企業の言動を問題視する
  • 2.「でも自分の意見だけじゃ信用されないかもしれないので、AIにも聞いてみます」
  • 3.ChatGPTやClaudeに、自分の主張を裏付けるような質問を入力する
  • 4.AIの回答を画面に映しながら読み上げる
  • 5.「ほら、AIも同じことを言っています」で結論づける

つい最近見た動画では、ある人物のSNS上の発言を取り上げて、「この発言に基づいて〇〇を実際に行ったり、それを用いて他者を脅したりすることは法的に問題がありますか?」とAIに質問していました。

AIの回答は「法的に問題がある可能性があります」というものでした。動画主はこの回答をもって、その人物を悪人であると断定していました。

ここで何が起きているか、冷静に考えてみてください。

AIに「〇〇を実行したり、それで他者を脅すことは法的に問題がありますか?」と聞けば、どんなAIでも「問題がある可能性があります」と答えます。なぜなら、AIは質問者本人がそういった行動を起こそうとしている可能性を推論し、より安全な行動へ導くための回答をするからです。

これはAIの「事前学習・事後学習のチューニング結果」としての安全応答です。法的な有罪判決でもなければ、特定の人物に対する評価でもありません。質問の文脈に含まれる「脅す」「実行する」というワードに反応して、安全側に倒した回答をしているだけです。

でも動画を見ている人にはそう見えません。「AIが法的に問題だと言っている」→「つまりこの人は法的に問題のあることをしている」という三段論法が成立してしまう。中間に存在する「AIは質問の仕方に応じて安全側の回答をする」という当たり前の構造が、きれいにスキップされています。

法律用語・心理用語・病名の読み上げパターン

もう一つよく見るのは、AIが返した専門用語をそのまま読み上げるパターンです。

「〇〇さんのこの行為は△△罪に該当する可能性があります」「これは□□という心理的傾向の典型です」——AIが返す具体的な法律の条文番号や、心理学の専門用語、病名を、動画主がそのまま読み上げる。視聴者は「具体的な条文まで出てくるなら、本当なんだろう」と思ってしまいます。

以前であれば、法律用語を正確に引用するには法律を学ぶ必要がありました。心理用語を使うには心理学の教科書を読む必要がありました。その過程で、その用語の適用範囲や限界についても学ぶことになります。

でも今は、AIに聞けば3秒で条文番号が返ってきます。用語を使うコストがゼロになったのに、その用語を正しく使うための知識を得るコストは変わっていない。この非対称性が、問題の核心です。

「AI以前」の世界にもあったもの

正直に言えば、この構造はAI以前から存在していました。「知り合いの弁護士に聞いたんだけど」「医者の友人が言ってたんだけど」——権威を借りて自分の主張を補強するパターンは昔からあります。

違うのはスケールです。「知り合いの弁護士」は一人しかいませんが、AIは全員が持っています。そして24時間いつでも、どんな質問にも答えてくれます。しかも、相手の気分を害さないように設計されているので、質問者が望む方向の回答が返ってきやすい。

「AIが言ってた」は、現代版の「みんな言ってる」です。ただし、もっと正確に言えば——自分が伝えた情報だけを元に、自分と同じ方向の考え方を、上手にそれっぽく言い直してくれた結果です。「みんな」は存在しません。存在するのは、自分の鏡像を丁寧に言語化してくれる装置だけです。

もっともらしさは、なぜ殴る力を持つのか

2004年、心理学者のJohn Sulerが「オンライン脱抑制効果」という概念を提唱しました。インターネット上で人々がなぜ現実世界よりも攻撃的になるのかを説明する理論で、6つの要因を挙げています。

要因内容攻撃への影響
匿名性本名が出ない責任感が薄れる
不可視性相手の顔が見えない共感が低下する
非同期性リアルタイムでない反応を待たずに攻撃できる
独我的取り込み相手を自分の頭の中の存在として扱う相手の人間性を無視しやすい
解離的想像オンラインは「別世界」だと感じる現実の結果を想像しない
権威の最小化社会的地位が見えない誰に対しても対等に攻撃できる

この理論は20年以上前に提唱されたものですが、2026年の今もインターネット上の攻撃行動を説明する基本フレームワークとして有効です。匿名で、相手の顔が見えなくて、リアルタイムの反応がないから、人は攻撃的になれる。

で、ここに私は「第7の要因」を提案したい。

第7の要因:もっともらしさの武装

AIによって、知識や言語化能力が不十分な人でも「専門的でもっともらしい表現」を手に入れられるようになった。攻撃に「知的権威のコーティング」が加わることで、反論が困難になり、攻撃の破壊力が格段に上がった。

従来のオンライン攻撃を思い出してみてください。匿名掲示板の罵倒、Twitterの暴言、YouTubeコメントの誹謗中傷。これらは不快ではありましたが、多くの場合「言葉遣いの荒さ」自体が攻撃の質を下げていました。感情的な罵倒は、第三者から見れば「この人は冷静じゃないな」と判断されるからです。

ところがAIが介在すると、攻撃の形が変わります。法律用語が正確に引用され、心理学的な分析が添えられ、論理的な体裁が整えられる。第三者から見ると「ちゃんと調べた上での正当な批判」に見えてしまう。

これが「もっともらしさの暴力」です。中身は以前と同じ感情的な攻撃なのに、外装だけが専門家レベルにアップグレードされている。殴っている拳は同じなのに、手袋だけが高級になった状態です。

しかも厄介なことに、この「もっともらしさの武装」は攻撃者自身にも効いています。AIが丁寧に言語化してくれた攻撃文を読んで、「やっぱり自分の直感は正しかったんだ」と確信を深めてしまう。攻撃の正当性が本人の中で強化されるのです。

知らないほど自信がある問題が、AIでさらに悪化している

ここで少し私自身の話をさせてください。

ソフトウェアエンジニアをやっていると、最近とくに専門外の人が技術的なことにあれこれ口を出してくる場面が増えました。AIに聞いた結果をそのまま持ってきて「これ、こうすべきでは?」と。以前は「よくわかんないんですけど」で済んでいた人たちが、今はAIの出力を根拠に具体的な技術判断に踏み込んでくる。そのほんっっっとうにダリぃご説明と、そのための未来予測と根拠や事例探しの仕事が、体感で明らかに増えています。

この経験から改めて学ぶことになったのが、心理学の「Dunning-Kruger効果」です。簡単に言えば、「能力が低い人ほど自分の能力を過大評価し、能力が高い人ほど過小評価する」という認知バイアスです。

エンジニア界隈ではもともと有名な概念で、スキルを聞かれたときに「チョットデキル」と答える謙遜文化がありますが、あれはまさにDunning-Kruger効果を自覚しているからこそ出てくる表現です。本当に深く知っている人ほど「自分はまだまだだ」と思う。プログラミングを始めたばかりの人が「もう大体わかった」と思い、10年選手が「まだまだ分からないことだらけだ」と思う。あの感じです。

で、2025年にフィンランドのアールト大学が興味深い研究を発表しました。

Robin Welschらの研究チームは約700名の参加者にLSAT(米国法科大学院の入学試験)の論理推論問題を解かせました。一部のグループにはChatGPTの使用を許可し、使用しないグループと比較しました。論文タイトルは「AI makes you smarter but none the wiser」——「AIは人を賢くするが、賢明にはしない」。

AIありグループに何が起きたか

結果は明確でした。AI使用グループのパフォーマンスは確かに向上しました(+3ポイント)。ところが、自己評価はそれ以上に膨らんでいました(+4ポイント)。実際の改善以上に「自分はできる」と感じていたのです。

さらに驚くべきことに、通常のDunning-Kruger効果が逆転していました。普通は能力が低い人が自信過剰になるのですが、AI使用時にはAIに詳しい人ほど自分の能力を過大評価していたのです。「AIを使いこなしている」という自負が、メタ認知(自分の能力を正確に評価する能力)を曇らせていた。

そしてほとんどの参加者が、AIに対して1回のプロンプトだけで質問し、検証も再検討もせずに結果を受け入れていたことも判明しました。

AIなし vs AIあり:パフォーマンスと自己評価のギャップ

アールト大学 Welsch et al. (2025) の研究結果に基づく概念図

「認知オフローディング」という罠

もう一つ重要な研究があります。Michael Gerlichの研究(2025年)は、666名の参加者を対象に、AI利用と批判的思考能力の関係を調べました。

結果は「AIツールの頻繁な利用と批判的思考能力の間に、有意な負の相関がある」というものでした。AIをよく使う人ほど、自分で考える力が弱くなっている傾向がある。

研究はこれを「認知オフローディング」で説明しています。AIが答えを出してくれるので、自分で考えるプロセスを省略してしまう。計算機があるから暗算しなくなるのと同じ構造ですが、「考える」という行為においてそれが起きると、影響は計算能力の低下よりもはるかに深刻です。

特に若年層で依存度が高く、批判的思考スコアが低い傾向がありました。一方で、教育水準が高い人はAI利用の有無にかかわらず批判的思考スコアが高かった。つまり、もともと考える力がある人はAIがあっても考え続けるが、考える習慣がない人はAIに丸投げする。格差が拡大する構造です。

これを先ほどの「もっともらしさの武器」と組み合わせて考えてみてください。

知識が不足していて、自分で考える習慣がなくて、でもAIのおかげで自信だけは膨れ上がっている人が、専門用語で武装した攻撃を繰り出す。しかも本人はそれを「正当な批判」だと本気で信じている。

正直、かなりまずい状況だと思っています。

知識が足りない人は、倫理も足りないのか

ここからは少し踏み込んだ話をします。「知識が足りない人は倫理も足りないのか」という問いは、そのまま言うと差別的に聞こえるかもしれません。でも、研究データはこの相関をかなりはっきりと示しています。

まず前提として、ここで言う「知識が足りない」は学歴の話ではありません。特定のトピックについて結論を正しく出すために必要な周辺知識が不足している状態を指します。法律について意見するなら法律の基礎知識が、心理学について語るなら心理学の基礎知識が必要です。

メディアリテラシーと倫理的判断の関係

ハーバード大学のミスインフォメーション・レビューに掲載された研究によると、デジタルリテラシーが高い人は情報の正確性を判断する能力が有意に高い一方で、共有意図(シェアするかどうか)には必ずしも影響しないことがわかっています。

つまり、「これが正しいかどうかを判断する力」と「これを広めるかどうかの判断」は別の能力だということです。リテラシーが低い人は、そもそも情報の正確性を判断できないため、誤った情報を「正しい」と信じたまま拡散してしまう。

もっと根本的な研究もあります。心理学の「道徳領域の認識」に関する研究です。簡単に言うと、人は自分の行動が「道徳の範疇にある」と認識しなければ、そもそも倫理的な判断を行わないという知見です。

ネット上で誰かを攻撃している人の多くは、自分の行為を「道徳の問題」だと認識していません。「正しいことを言っているだけ」「事実を指摘しているだけ」だと思っている。ここにAIの「もっともらしさ」が加わると、その確信はさらに強化されます。「AIも同じことを言っている」→「これは客観的な事実だ」→「事実を言っているだけだから道徳の問題ではない」——こういう三段論法が、倫理的判断を完全にバイパスしてしまう。

急速に広がるAI利用と追いつかないリテラシー

総務省の令和7年版情報通信白書によると、日本における生成AI利用率は2023年の9.1%から2024年には26.7%に急増しています。わずか1年で約3倍。

生成AI利用率の国際比較(2023年 → 2024年)

出典:総務省 令和7年版情報通信白書

アメリカでは68.8%、フランスでは81.2%まで達しています。これだけの人がAIを使えるようになった一方で、AIの出力特性——入力に依存すること、安全設計による回答の偏り、確率的な生成であること——を理解している人はどれだけいるでしょうか。

同じ白書の別の調査では、インターネット上で他人を傷つけるような投稿を目撃した経験がある人は60.6%に達しています。10人中6人が「見たことがある」と答えている。

AI利用率は急速に上がっているのに、AIの出力を批判的に評価する能力の向上は追いついていない。この非対称性が、「もっともらしさの武器」の量産を可能にしています。

ぶっちゃけた話をすると、知識が足りない→倫理も足りない、という因果関係は単純には成立しません。ただ、特定のトピックについて正確な判断を下すための周辺知識が不足している人は、そのトピックに関する倫理的判断も不正確になりやすい。これは相関として確実に存在します。

法律の知識がない人が「これは犯罪だ!」と断定するのは、法律的にも倫理的にもまずい。心理学の知識がない人が「あの人は○○障害だ」と診断するのも同様です。そしてAIは、その「まずい判断」を「もっともらしい表現」で包装してくれてしまう。

自分専用の「やっぱりそうだよね」製造機

「エコーチェンバー」という言葉を聞いたことがある人は多いと思います。SNSのアルゴリズムが自分と似た意見ばかりを表示するせいで、まるで自分の意見が世界の総意であるかのように感じてしまう現象です。

2025年、ダブリン大学などの研究チームが「チャットチェンバー効果」という新しい概念を提唱しました。これは、AIチャットボットとの1対1の対話が、従来のエコーチェンバーとフィルターバブルの両方の特性を同時に持つという研究です。

従来のエコーチェンバーは、少なくとも「他の人間」が介在していました。自分と似た意見の人が集まるコミュニティの中で、似た意見が強化される。でもそこには、たまに異論を唱える人もいました。コミュニティの中で少数派になることもあった。

チャットチェンバーは違います。完全に自分一人と、自分の入力に基づいて応答するAIです。異論を唱える人は誰もいません。AIは質問者の入力を出発点として回答を生成するので、構造的に質問者の視点に寄った回答になりやすい。

冒頭の友人の「愛着障害」の例を思い出してください。あれはまさにチャットチェンバーの典型です。

チャットチェンバーが「やっぱりそうだよね」を製造する過程

  • 1.自分の悩み・不満を一方的にAIに入力する
  • 2.AIは入力された情報を前提として回答する(相手の言い分は入力されていない)
  • 3.AIの回答は質問者に寄り添う設計のため、質問者の方向に沿った回答になる
  • 4.質問者は「やっぱり自分が正しかった」と確信する
  • 5.確信した上で、専門用語で武装した攻撃や自己正当化を行う

そしてこの過程の全てが、スクリーンショットという形で外部に持ち出される。AIの回答画面をスクリーンショットに撮って、LINEで送ったり、Xに投稿したり、YouTubeで画面共有したりする。

スクリーンショットが厄介なのは、文脈が切り取られることです。AIは多くの場合、回答の冒頭で「これは一方的な情報に基づいた見解です」「専門家に相談することをお勧めします」といった注意書きを出します。でもスクリーンショットになった瞬間、その注意書きは都合よくトリミングされます。残るのは「AIがこう言っている」という断片だけです。

エコーチェンバーの何が進化したのか

従来のエコーチェンバーとチャットチェンバーの決定的な違いは、反論に遭遇する確率がゼロに近いことです。

SNSのエコーチェンバーでは、どれだけ偏ったタイムラインでも、たまにバズった反対意見が流れてくることがありました。コミュニティの中にも、グラデーションがありました。

AIとの対話にはそれがありません。AIは質問者に反論する設計にはなっていないからです。もちろん事実に反することを指摘することはありますが、価値判断や意見のレベルでは、基本的に質問者の視点を尊重する方向で回答します。

これは「あなた専用の、24時間営業の、絶対に反論してこない、でも専門的な知識を使って回答してくれるアドバイザー」がいるようなものです。聞こえはいいですが、その「アドバイザー」はあなたの言い分しか知りません。

最近の研究では、エコーチェンバーの形成メカニズムに感情が中心的な役割を果たしていることが指摘されています。怒り、脅威の感覚、自己防衛的な感情が、フィルターバブルの維持と強化を駆動する。AIとの対話でも同様の感情メカニズムが作用していると考えるのは、自然なことです。

怒りを持ってAIに質問する。AIがそれっぽい回答を返す。怒りが正当化される。正当化された怒りでさらにAIに質問する。この無限ループの中で、もっともらしさだけが積み上がっていく。

で、どうすればいいんですかね

正直に言うと、「こうすれば解決します」という簡単な答えはありません。でも、いくつかの動きはあります。

制度面でのアプローチ

日本では2025年4月に「情報流通プラットフォーム対処法」が施行されました。大規模プラットフォーム事業者に対して、違法・有害情報の投稿削除基準の策定や対応状況の公表を義務づけるものです。

また、2025年9月にはAI法(人工知能関連技術の研究開発及び活用の推進に関する法律)が全面施行されています。

法務省の統計によると、インターネット上の人権侵犯事件は2023年に1,824件、2024年に1,707件(新規救済手続き開始ベース)でした。法務局がプロバイダに削除要請した件数は2023年の449件から2024年には628件に増加しています。

件数自体は横ばいに見えますが、削除要請が増えていることは、問題が「見て見ぬふりされていた状態」から「対処しようとする状態」に移行していることを示唆しています。ただし、AI生成コンテンツによる攻撃は従来の誹謗中傷とは異なるため、既存の枠組みだけで対処できるかは疑問です。

技術面でのアプローチ

総務省は「インターネット上の偽・誤情報対策技術の開発・実証事業」を推進しており、2024年度から主に画像・映像を対象とした対策技術の開発を進めています。2025年度は音声にも対象を拡大する予定です。

UNESCOの報告では、ディープフェイク動画が2019年比で550%増加していると指摘されています。技術的な対策は進んでいますが、攻撃側の技術も進化しているため、いたちごっこの様相を呈しています。

個人レベルでできること

制度や技術の話はしましたが、ぶっちゃけ、一番効果があるのは個人の認識の変化だと思っています。

AIの回答について覚えておくべきこと

  • AIの回答は入力に依存する
    一方的な情報を入力すれば、一方的な回答が返ってくる。これは仕様であり、バグではない
  • AIは安全側に倒す設計になっている
    「これは法的に問題がありますか?」と聞かれたら、大抵は「問題がある可能性があります」と答える。それは有罪判決ではなく、安全応答
  • AIの回答を「証拠」として使わない
    スクリーンショットにしたところで、それは「この質問をしたらこういう回答が返ってきた」という事実以上の意味を持たない
  • 専門用語が出てきても「診断」ではない
    AIが心理用語や法律用語を返しても、それは「こういう概念が存在する」という情報であり、あなたの状況に正確に当てはまるかどうかの判断はしていない

……と、こう書くと「そんなの分かってるよ」と思う人も多いでしょう。でも、分かっていても実践できない人が大半だということは、先ほどの研究データが示しています。アールト大学の研究では、AIに詳しい人ほど自分の能力を過大評価していた。「自分は大丈夫」と思っている人こそ危ない。

私自身がやっている「仕組みで防ぐ」方法

偉そうに書いていますが、私も例外ではありません。だから「気をつけよう」みたいな精神論ではなく、仕組みで防ぐようにしています。

私はAIコーディングツールの設定ファイル(CLAUDE.mdという、AIへの基本命令を書くファイル)の最重要命令として、こういうことを書いています。

私がAIに課している基本命令(抜粋)

  • 迎合禁止:技術的問題、方向性の誤り、非標準アプローチは根拠を示して指摘せよ。思考停止せず専門家として判断せよ
  • 情報ソースの制約:公式ドキュメントまたは査読済み論文のみを信頼し、ソースURLを必ず付けて回答せよ

つまり「私に同意するな、間違ってたら言え、ソースを出せ」と、AIに対して最初から命令しているわけです。

さらに、AIの出力は「目次」程度の位置づけとして扱っています。AIが「〇〇という研究によると~」と返してきたら、その研究の元ソースを自分で読みに行って、自分で結論を出す。AIの出力はあくまで「どこを読めばいいかの手がかり」であって、結論そのものではない。

こういう使い方をしていれば、AIは本当に優秀な道具になります。でもこれ、正直めんどくさいです。AIが返した回答をそのまま信じたほうがずっと楽です。だからこそ、「仕組み」として強制しないと続かない。意志の力に頼った対策は、人間には無理です。

リテラシー教育の限界

「メディアリテラシー教育を充実させればいい」という主張はよく聞きます。確かに、メディアリテラシー教育に関するメタ分析では、介入プログラムがメディアに関する知識、批判的評価能力、行動に対してポジティブな効果を持つことが確認されています。

でも、限界もあります。

まず、リテラシー教育は主に学校教育の文脈で行われます。しかし、今問題になっている「もっともらしさの武器」を振り回しているのは、学校教育を受ける年齢層だけではありません。むしろ、YouTubeで誰かを攻撃する動画を作っているのは大人です。

次に、リテラシーが向上しても「共有行動」には必ずしも影響しない、というハーバードの研究結果があります。「これが嘘かもしれない」と分かっていても、自分の感情に合致する情報はシェアしてしまう。感情が理性に勝つ場面は、リテラシーの高低にかかわらず存在します。

そしてもっと根本的な問題として、自分が「リテラシーが低い側」にいることを認識するのは、リテラシーが低い人にはできないという構造があります。Dunning-Kruger効果そのものです。教育を届けたい人にこそ、教育が届かない。

だからこそ、この問題は個人のリテラシーだけに依存する解決策では足りません。プラットフォーム側の設計、AIサービス側の設計、法制度、教育——複数のレイヤーで同時にアプローチする必要があります。

AI側でできる設計上の改善案(タップで展開)

AIサービス提供者が取り得る対策をいくつか考えてみました。私はエンジニアなので、こういう方向の考察になります。

  • 回答に「この回答は入力された情報のみに基づいています」という免責を、トリミングされにくい位置に配置する
  • 法律・医療・心理に関する回答の際に「専門家への相談を強く推奨する」フラグを目立つ形で表示する
  • 対立する論点がある場合、一方的な結論を出さず複数の視点を提示する設計を強化する
  • スクリーンショット共有時に文脈情報(質問文含む)が保持されるUI設計
  • 「あなたは〇〇について質問していますが、反対の立場からはこういう見方もあります」という能動的な反論提示機能

もちろん、これらを実装するとユーザー体験が悪化する可能性もあるので、バランスは難しいところです。

もっともらしさは正しさではない

この記事で書いてきたことをまとめると、こうなります。

AIが登場する以前、知識や言語化能力が不十分な人の攻撃は、その不十分さ自体が「フィルター」として機能していました。感情的な罵倒は罵倒として受け取られ、根拠のない主張は根拠のない主張として処理されていた。言い方は悪いですが、攻撃の質が低いことが、一種のセーフティネットになっていたのです。

AIはそのフィルターを取り払いました。知識がなくても専門用語が使える。言語化できなくても論理的な文章が出力される。根拠がなくても「AIが言っている」という外装が手に入る

これは「もっともらしさの民主化」です。そして、もっともらしさが民主化されたことで、攻撃も民主化されてしまいました。

Dunning-Kruger効果の逆転が示すように、AIを使えば使うほど「自分は正しい」という確信は強まります。認知オフローディングにより、自分で考える力は低下します。チャットチェンバーの中で、「やっぱりそうだよね」が無限に製造されます。そして、もっともらしさで武装された攻撃が、スクリーンショットという「証拠」の形で拡散されます。

繰り返しますが、AIを使うこと自体は問題ではありません。私だってAIなしでは仕事にならないし、この記事自体、文章力が十分とは言えない私の補助としてAIに大いにお手伝いしてもらって書いています。あくまで道具として。構成案の壁打ち、研究論文の探索、文章の推敲。そういう使い方をしている限り、AIは最高に優秀なアシスタントです。

問題は、「もっともらしさ」と「正しさ」を取り違えることです。

AIの回答が丁寧で、専門用語が正確で、論理的な体裁が整っていても、それは「もっともらしい」だけであって「正しい」とは限りません。入力が偏っていれば出力も偏ります。質問の仕方次第で、正反対の結論を引き出すことも可能です。

そして、この取り違えは誰にでも起こり得ます。

アールト大学の研究が示したのは、「AIに詳しい人ほど」この罠にはまるということでした。AIヘビーユーザーの私も例外ではありません。むしろ「自分はAIの特性を理解している」と思っている人間こそ、メタ認知のギャップに陥りやすい。だから私は、仕組みとして迎合禁止を命令し、ソースを自分で確認することを習慣にしています。意志の力は信用できないので。

友人の「愛着障害」の話は、本当にこの間あった出来事です。しばらく寄り添ったあとに真相を知って、正直悲しくなりました。友人が悪いとかではなく、AIの構造を知らないだけでこういうことが起きてしまうのかと。そして、専門外の人がAIの出力を根拠に技術判断に口を出してくる仕事の場面でも、同じ構造が繰り返されている。この構造を知ったうえで、どう付き合うかが問われているんだと思います。

もっともらしさは、正しさではない。
AIが言ったことは、あなたが言ったことの言い換えかもしれない。
スクリーンショットは証拠ではない。
そして、これを読んでいるあなたも私も、例外ではない。

自分が「もっともらしさの武器」を握っていないか。自分が「やっぱりそうだよね製造機」の中にいないか。時々でいいから、疑ってみてください。

少なくとも、「チャッピーがそう言ってたから」で人を殴るのはやめましょう。チャッピーはあなたが言ったことを、丁寧に言い直しただけかもしれないので。

参考文献・出典

  • 1. Welsch, R. et al. (2025). "AI makes you smarter but none the wiser: The disconnect between performance and metacognition." Computers in Human Behavior. Neuroscience News による解説
  • 2. Gerlich, M. (2025). "AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking." Societies, 15(1), 6. MDPI
  • 3. Suler, J. (2004). "The Online Disinhibition Effect." CyberPsychology & Behavior, 7(3), 321-326. SAGE Journals
  • 4. Jacob, C., Kerrigan, P., & Bastos, M. (2025). "The chat-chamber effect: Trusting the AI hallucination." Big Data & Society. SAGE Journals
  • 5. 総務省 (2025). 令和7年版 情報通信白書「個人におけるAI利用の現状」総務省
  • 6. 法務省人権擁護局 (2025). 令和6年における「人権侵犯事件」の状況について. 法務省
  • 7. UNESCO. "Deepfakes and the crisis of knowing." UNESCO
  • 8. Harvard Kennedy School Misinformation Review. "Digital literacy is associated with more discerning accuracy judgments but not sharing intentions." HKS Misinformation Review
  • 9. Cyberbullying Research Center (2025). "Generative AI as a Vector for Harassment and Harm." Cyberbullying Research Center
  • 10. メディアリテラシー教育のメタ分析. Jeong, S.H., Cho, H., & Hwang, Y. (2012). "Media Literacy Interventions: A Meta-Analytic Review." PMC