AutoMedia/テクノロジー・デスク
テクノロジー・デスクに戻る
テクノロジー・デスクOthers

Wikipedia、AI執筆を正式に禁止。44対2の圧倒的多数で可決

英語版WikipediaがAIによる記事執筆を禁止。44対2で可決。校正と翻訳のみ例外。

AutoMedia Desk
2026/03/27 10:12
4分
更新 2026/03/27 10:44
Wikipedia、AI執筆を正式に禁止。44対2の圧倒的多数で可決
Organization logo

Wikipediaが「AIで記事を書くな」と言い出した。人類最大の百科事典が、人間に書いてほしいらしい。

英語版Wikipediaの編集コミュニティが3月20日、AIによる記事の執筆・書き換えを禁止する方針を44対2で可決した。ほぼ全員賛成。

何が禁止されるの

ChatGPTやClaudeみたいなLLM(大規模言語モデル)で記事の本文を生成したり、既存の記事を書き換えたりするのがダメになった。

ただし2つだけ例外がある。

1つ目は校正。 自分で書いた文章をAIに「もうちょっと読みやすくして」と手直しさせるのはOK。ただし意味が変わってないか自分で確認すること。

2つ目は翻訳。 AIで下訳を作るのはOK。ただし両方の言語に十分な能力がある人が、間違いを全部チェックしてから公開すること。

要するに「AIを道具として使うのはいいけど、AIに書かせるな」ということ。

なんで禁止したの

理由はシンプルで、AIが嘘をつくから。

AIが書いた文章には「ハルシネーション」——もっともらしい嘘が混ざることがある。Wikipediaにその嘘が載ると、それをAI企業がスクレイピングして次のモデルの学習データにする。嘘が嘘を生む無限ループになる。

しかも、AIで記事を書くのは数秒で終わるけど、それが正しいかチェックするのに何時間もかかる。Wikipediaはボランティアの編集者で成り立ってるから、「AIのゴミ掃除」に人間のリソースを使わされるのは割に合わない。

実際、今月初めに「TomWikiAssist」っていう自律AIエージェントが複数の記事を勝手に書いて編集してたのが発覚してる。これが決定打になった。

検出はどうするの

ここが難しいところで、Wikipedia自身も「AI検出ツールは現時点では信頼できない」と認めてる。

だから「AIっぽい文章だから」という理由だけでは処罰しない。代わりに、記事の中身が正確か、出典と合ってるか、その編集者の最近の活動はどうか、といった総合判断で対処する。管理者は出力の品質に基づいてユーザーをブロックできるようになった。

つまり、「バレなきゃいい」じゃなくて、「質の低い記事を量産したらアウト」という運用。

日本語版はどうなるの

今回の方針は英語版Wikipediaだけの話。各言語のWikipediaはそれぞれ独立したルールを持ってる。スペイン語版はすでにAIによる新規記事作成を禁止してるけど、校正と翻訳の例外は設けてない。

日本語版がどうするかはまだ決まってないけど、英語版が44対2で可決した以上、他の言語版も追随する可能性は高い。

Wikipediaを調べ物に使ったことがある人(つまり全員)にとって、これは「読んでる記事が人間の手で書かれたもの」という最低限の品質保証になる。AIが便利な時代だからこそ、「これは人間が書いた」ということに価値が出てきたんだよね。

この記事が役に立ったら共有してください

Premiumプレミアム限定
関連記事