Wikipedia、AI記事を全面禁止。44対2の圧倒的多数で可決
英語版Wikipediaが44対2でAI生成記事を全面禁止。例外は校正と翻訳の2つだけ。架空の町や捏造引用などAI汚染が深刻化し、245人のボランティアが清掃に追われている。
ニュース
kkm
Backend Engineer / AWS / Django
英語版Wikipediaが44対2でAI生成記事を全面禁止。例外は校正と翻訳の2つだけ。架空の町や捏造引用などAI汚染が深刻化し、245人のボランティアが清掃に追われている。
WikipediaがAIで書いた記事を禁止した
2026年3月20日、英語版WikipediaがAI生成記事の全面禁止を正式に決定しました。TechCrunchやEngadgetなど複数のメディアが3月26日に一斉に報じています。
Wikipediaとは、世界中のボランティアが執筆・編集するインターネット百科事典です。誰でも編集できることが特徴で、英語版だけで700万件を超える記事があります。その「誰でも書ける場所」に、AIが書いた文章はもう入れないでください、というルールができました。
RfC(Request for Comment)と呼ばれるWikipediaの正式な意見募集プロセスで投票が行われ、結果は賛成44、反対2。圧倒的多数で可決されました。
これまでのルールは「LLM(大規模言語モデル)は新しいWikipedia記事を最初から生成するために使用すべきではない」という、ややぼんやりした表現でした。今回の改訂では「LLMを使用して記事コンテンツを生成または改稿することは禁止」と、明確に禁止する文言に変わっています。
なぜWikipediaはAIを問題視しているのか
Wikipediaの新ポリシーにはこう書かれています。「LLMが生成したテキストは、Wikipediaのコアコンテンツポリシーに違反することが多い」。具体的には、AIが「もっともらしい嘘」を大量に持ち込んでいるのです。
2023年1月に作成された「Amberlihisar」という記事がその象徴です。トルコに実在する町のように書かれていましたが、完全な架空でした。AIが「本物に見える」架空の引用文献まで生成しており、WikiProject AI Cleanupのボランティアに発見されるまで11ヶ月間、誰にも気づかれませんでした。
これだけではありません。「Leninist historiography」という記事は完全にAIが生成したもので、ロシア語やハンガリー語の架空の参考文献が引用されていました。甲虫の一種「Estola albosignata」の記事では、実在するフランス語・ドイツ語の文献が引用されていたものの、その内容はこの甲虫とは全く無関係でした。文献が存在すること自体は事実なので、確認する側もだまされやすいのです。
問題の根は、LLMの仕組みそのものにあります。ChatGPTに代表されるLLMは「次に来る確率が高い単語」をつなげて文章を生成します。事実かどうかではなく、「それらしいか」で文を作るため、嘘が本当に混ざった文章が出来上がります。百科事典にとって、これは致命的です。
何が禁止で、何が許されるのか
新ポリシーで明確に禁止されたのは、LLMを使った記事コンテンツの「生成」と「改稿」です。つまり、ChatGPTやClaude、Geminiなどに記事を書かせたり、既存の記事をAIに書き直させたりすることが禁止されました。トークページ(記事の議論欄)でのAI生成コメントも禁止です。
ただし、2つだけ例外があります。
1つ目は校正です。自分が書いた文章の誤字脱字やぎこちない表現をAIに直してもらうことは許されます。ただし条件があります。AIは「頼まれた以上のことをやりがち」で、出典に裏付けられていない意味の変更を勝手にやってしまうことがあるため、必ず人間が内容を確認しなければなりません。
2つ目は翻訳です。他の言語のWikipedia記事を英語に翻訳する際にAIを補助的に使えます。ただし、編集者が翻訳元と翻訳先の両方の言語に十分な能力を持ち、誤りを検出できることが条件です。
いずれの例外も、「AIの出力を鵜呑みにしない」ことが大前提です。
違反した場合はどうなるのか。Wikipediaには段階的な警告テンプレート(uw-ai1からuw-ai4まで)が用意されており、繰り返し違反すると編集ブロック、つまりWikipediaの編集権限を剥奪される可能性があります。BLP(存命人物の記事)に対するAI生成コンテンツの投稿は、即座に削除される場合もあります。
245人が「AI汚染」を掃除している
WikiProject AI Cleanupは、2023年12月に発足したボランティアプロジェクトです。AI生成コンテンツの検出と削除を専門に行っており、現在245人以上の編集者が参加しています。
彼らの仕事は地道です。「AIが書いた文章の特徴リスト」を手がかりに、一つずつ記事を検証していきます。引用文献が実在するかを確認し、その文献の内容が本当に記事の主張を裏付けているかをチェックします。先ほどのAmberlihisarのように、「存在しない町」が何ヶ月も放置されていた事例があるため、既存記事の再検証も必要です。
困ったことに、AI検出ガイドが逆に「AIが書いた記事を人間らしく見せるマニュアル」として悪用される可能性も指摘されています。INTERNET Watchの報道でも、この皮肉な状況が取り上げられています。検出と回避のいたちごっこは、今後も続くことになりそうです。
他の言語版ではどうなっているのか
今回のルールが適用されるのは英語版Wikipediaだけです。Wikipediaは一枚岩の組織ではなく、各言語版がそれぞれ独立したルールと編集チームを持っています。
すでに英語版より厳しい対応をとっている言語版もあります。How-To Geekによると、スペイン語版Wikipediaは校正や翻訳といった例外も一切認めず、AI使用を完全に禁止しています。
日本語版Wikipediaには、現時点でAI生成コンテンツに関する独自のポリシーは確認されていません。ただし、英語版の決定は他の言語版に影響を与える傾向があります。700万記事を抱える英語版が「AI記事はダメ」と公式に宣言した以上、日本語版でも同様の議論が今後活発になる可能性があります。
一方で、MIT Technology Reviewは、マイナー言語のWikipediaがAI翻訳による低品質記事で「汚染」されている問題を報じています。編集者が少ない言語版ほどAI記事の影響が大きく、検出・削除も追いつかない状況です。
AIが書いた文章は見抜けるのか
率直に言えば、完全には見抜けません。
AI生成テキストの検出ツールは存在しますが、精度は完璧ではありません。LLMは急速に進化しており、最新モデルが書いた文章はますます人間の文章と区別がつきにくくなっています。Wikipediaのポリシーページ自身も、この問題を認めています。
特にリスクが高いのは、モデレーション頻度の低いページです。毎日何千人も閲覧する人気記事であれば不審な編集はすぐ発見されますが、ほとんど人が見ないマイナーな記事では、AI生成コンテンツが長期間残り続ける可能性があります。Amberlihisarが11ヶ月も放置されたのは、まさにこのパターンです。
結局のところ、検出技術だけでは限界があります。だからこそWikipediaは「入口で止める」(ルールで禁止する)と「出口で掃除する」(WikiProject AI Cleanupで検出・削除する)の両面で対処する方針をとっています。今回のポリシー改訂は、その「入口」を明確にした決定です。
今後どうなるのか
英語版Wikipediaは44対2という圧倒的多数で、AI生成記事を正式に禁止しました。校正と翻訳の2つだけが例外として認められていますが、いずれも人間による確認が条件です。
このポリシーは進化中です。TechCrunchは、Wikimedia Foundationが編集コミュニティからのフィードバックに基づいて今後も調整を続ける見通しだと報じています。AI技術は日々進歩しているため、ルールもそれに合わせて変わっていく必要があります。
Wikipediaは「誰でも編集できる百科事典」として20年以上の歴史を持っています。その信頼性は、ボランティア編集者たちの地道な検証作業によって支えられてきました。AIが書いた文章は効率的に見えますが、「それが本当かどうか」を保証する仕組みを持っていません。
245人のボランティアが毎日AIの痕跡を探し回っている現状を見ると、「AIに書かせて楽をする」つもりが、結局は別の誰かの負担を増やしているだけなのかもしれません。
参照元
- • Wikipedia:Large language models(Wikipedia公式ポリシーページ)
- • WikiProject AI Cleanup(Wikipedia公式プロジェクトページ)
- • Wikipedia cracks down on the use of AI in article writing(TechCrunch, 2026/3/26)
- • Wikipedia has banned AI-generated articles(Engadget, 2026/3/26)
- • Wikipedia Bans AI-Generated Content(404 Media, 2026/3/26)
- • Wikipedia has banned AI-generated text, with two exceptions(How-To Geek, 2026/3/26)
- • Wikipedia、記事の生成と書き換えにおける生成AIの利用を禁止(INTERNET Watch, 2026/3/27)
- • AI翻訳のゴミに汚染されたウィキペディア(MIT Technology Review, 2026)