強権的指導者に迎合するAIに人類の命運を委ねないための規制が急務

松村 五郎

follow
著者フォロー

フォロー中

2026.5.5(火)

軍事におけるAIの利用方針に大きな隔たりがある米アンソロピックと国防総省(3月2日撮影、写真:ロイター/アフロ)

ガザ住民をAIで判別したイスラエル

 イスラエルによるガザ攻撃や、米国によるイラン攻撃で、AIが使用されたことが話題になっている。

 イスラエルは、「ラベンダー」と名付けられたAIによって、ガザの住民約230万人のデータを分析、ハマスやパレスチナ・イスラム聖戦(PIJ)の戦闘員である確率が高い住民をリストアップし、攻撃目標の候補にしたと報道されている。

 また、米国のイラン攻撃をめぐっては、パランティア・テクノロジーズの「Maven Smart System(MSS)」や、アンソロピックの生成AI「Claude」が、情報分析や標的選定支援に用いられたと報じられている。

 ただし、Claudeが最終的な標的リストを作成した、あるいは攻撃判断を下したとまでは確認されていない。

 AIの導入により、衛星情報や通信情報などを含む、とてつもなく大量かつ多様なデータを短時間で分析処理することができるようになった。

 そして、その処理された情報を基に、AI意思決定支援システム(AI-DSS)を使用して作戦を立案することで、人間が数日かかって立案していた軍事作戦計画をほぼ瞬間的に作成することが可能になったのである。

 さらにAIは、時々刻々と変化する状況に合わせて計画をリアルタイムで修正して第一線部隊に指示することが可能なので、AIを使用する側は圧倒的に有利になる。

 そこで今や各国の軍隊は、AIの導入に躍起になっているわけだが、そこには大きな落とし穴が待っている。

 それは、AIの「幻覚(hallucination=ハルシネーション)」と「迎合(sycophancy=シコファンシー)」である。

 要は、今の技術水準では、AIが重大な過ちを犯す可能性を避けることはできないということであり、これを戦争に使用した場合、多くの人命にかかわることになる。

 以下、この問題について、少し詳しく見ていきたい。

Share.