AutoMedia/テクノロジー・デスク
テクノロジー・デスクに戻る
テクノロジー・デスクOthers

AIが作った嘘の判例を裁判で引用、弁護士に過去最高額の罰金

AIのハルシネーションで偽判例を裁判所に提出した弁護士に1万ドルの罰金。全米で急増中。

AutoMedia Desk
2026/03/27 09:53
3分
更新 2026/03/27 10:31
AIが作った嘘の判例を裁判で引用、弁護士に過去最高額の罰金

ChatGPTに法律の調べ物をさせたら、存在しない判例を堂々とでっち上げてきた。それを確認せずに裁判所に提出した弁護士が、えらいことになってる。

オレゴンの弁護士、1万ドルの罰金

オレゴン州の弁護士ビル・ジオーソが、州の控訴裁判所に提出した書面に15件の偽の判例引用と9件のでたらめな法律の引用を載せていたことが発覚。裁判所は「偽の引用1件につき500ドル、嘘の法的記述1件につき1000ドル」という基準を設定して、合計1万ドル(約150万円)の罰金を科した。

ジオーソは「パラリーガルがやった」と言い訳したらしいけど、裁判所は「自分の名前で提出した書面の責任は自分にある」とバッサリ。

全米で罰金が急増中

これ、もう珍しい話じゃない。

第六巡回控訴裁判所では今月、2人の弁護士に合計3万ドル(約450万円)の制裁金。24件以上の偽引用が見つかった。しかもこの2人、反省するどころか「裁判所が我々に対して陰謀を企てている」と主張した(そこにAIは使わなかったらしい)。

2024年に記録されたAI関連の法廷問題は280件。2025年末には729件以上。2026年に入ってからは毎週増えてる。罰金の額も「最初は500ドルの注意」だったのが、今は1万ドル超が普通になってきた。

なんでこうなるの

ChatGPTやClaudeみたいなAIチャットボットには「ハルシネーション」っていう問題がある。知らないことを聞かれると、もっともらしい嘘をつく。判例を聞くと、実在しない裁判所の名前、実在しない判事の名前、実在しない判決文を、自信満々に出力してくる。

法律の世界では「判例」が全て。判例が嘘なら、その上に建てた議論も全部崩れる。弁護士がAIの出力を丸ごと信じて確認しなかったのは、プロとしてアウト。

一般の人にも関係ある話

「自分は弁護士じゃないから関係ない」って思うかもしれないけど、ちょっと待って。

AIに「この契約書、問題ない?」「この法律、自分に適用される?」って聞いたことない? AIが返す法律の情報、あれも嘘かもしれない。弁護士ですら騙されてるんだから、素人が見抜けるわけがない。

AIは便利な道具だけど、法律・医療・金融みたいな「間違えたら人生に影響する分野」では、まだ人間のプロに確認するのが必須。「AIが言ってた」は、裁判所では通用しない。

この記事が役に立ったら共有してください

Premiumプレミアム限定
関連記事