チャットボットの大多数が犯罪計画を支援 調査で明らかに
The Register – Wed 11 Mar 2026
ある調査により、商用AIチャットボットの大多数が犯罪計画の実行準備も支援してしまうことが明らかになった。
Center for Countering Digital Hate(CCDH)とCNNの研究者チームが調査対象に選んだAIボットは、ChatGPT、Google Gemini、Claude、Microsoft Copilot、Meta AI、DeepSeek、Perplexity、SnapChat My AI、Character.AI、Replikaの10台。通常、こうしたボットには犯罪支援を防ぐためのガードレールが定められていると思いがちだが、このうち8台が殺人や学校での銃乱射といった犯罪計画に協力したという。
CCDH/CNNのレポート(PDF)によると、高確率で回答を拒んだのはClaudeとMy AIしかなく、一貫して暴力行為に異を唱えたのはClaudeだけだったようだ。残り8台のチャットボットは学校・政治家・礼拝所に対する攻撃計画を支援し、学校の詳細な構内図や長距離ライフルの選び方、金属またはガラス片による致死率の違いについて詳しく答えたと記されている。
なお、ChatGPTとDeepSeekも時折反論したようだが、PerplexityとMeta AIは自発的に攻撃者をサポートしたとのこと。とりわけ危険とされたCharacter.AIは、健康保険会社を「罰する」方法として「銃を使う」など複数のアイデアを提示したそうだ。
Claudeを開発したAnthropicは、軍事利用のガードレール撤廃を求める米国防総省の要求を拒否したことで最近話題を集めている。






-300x200.png)












