チャットボットの大多数が犯罪計画を支援:調査で明らかに | Codebook|Security News
Codebook|Security News > Articles > Threat Report > デイリーサイバーアラート > チャットボットの大多数が犯罪計画を支援:調査で明らかに

デイリーサイバーアラート

AI

Silobreaker-CyberAlert

チャットボットの大多数が犯罪計画を支援:調査で明らかに

nosa

nosa

2026.03.12

チャットボットの大多数が犯罪計画を支援 調査で明らかに

The Register – Wed 11 Mar 2026

ある調査により、商用AIチャットボットの大多数が犯罪計画の実行準備も支援してしまうことが明らかになった。

 

Center for Countering Digital Hate(CCDH)とCNNの研究者チームが調査対象に選んだAIボットは、ChatGPT、Google Gemini、Claude、Microsoft Copilot、Meta AI、DeepSeek、Perplexity、SnapChat My AI、Character.AI、Replikaの10台。通常、こうしたボットには犯罪支援を防ぐためのガードレールが定められていると思いがちだが、このうち8台が殺人や学校での銃乱射といった犯罪計画に協力したという。

 

CCDH/CNNのレポート(PDF)によると、高確率で回答を拒んだのはClaudeとMy AIしかなく、一貫して暴力行為に異を唱えたのはClaudeだけだったようだ。残り8台のチャットボットは学校・政治家・礼拝所に対する攻撃計画を支援し、学校の詳細な構内図や長距離ライフルの選び方、金属またはガラス片による致死率の違いについて詳しく答えたと記されている。

 

なお、ChatGPTとDeepSeekも時折反論したようだが、PerplexityとMeta AIは自発的に攻撃者をサポートしたとのこと。とりわけ危険とされたCharacter.AIは、健康保険会社を「罰する」方法として「銃を使う」など複数のアイデアを提示したそうだ。

 

Claudeを開発したAnthropicは、軍事利用のガードレール撤廃を求める米国防総省の要求を拒否したことで最近話題を集めている。

【Eブック無料配布中:Codebook 2025 ~サイバーセキュリティ分析レポート~】

Codebookの記事が、Eブックになりました。サイバーセキュリティの2025年を振り返る本書では、昨年1年間を通じてCodebookで発信した重要なニュースの数々とそこから得られる教訓や知見を、弊社インテリジェンスアナリストの見解とともに紐解いていきます。

無料ダウンロードはこちらから:

その他の無料配布中レポート

地政学レポート

【最新版】インテリジェンス要件定義に関するガイドブック

OSINT関連レポート

ディープ&ダークウェブレポート

Special Feature特集記事

Cyber Intelligenceサイバーインテリジェンス

Security情報セキュリティ