
2025年04月23日 [色々なこと]
軍事AI
お疲れ様です。院長です。
4月23日の水曜日でございます。
何でも今日は「世界図書・著作権デー」なんだそうですよ。
では元気にネタいきましょう。
AIは戦場でも存在感を強めつつあります。
そんな状況を受け、米国国防高等研究計画局(DARPA)が、AI専門のホワイトハッカーチームを設立し、米軍が採用するAIシステムの脆弱性を探っていく計画を発表したそうです。
このミッションは「Securing AI for Battlefield Effective Robustness」頭文字をとって「SABAR計画」というそうで、その名の通りサーベル(洋刀)のごとき鋭さで人工知能の弱点を突き、米軍の軍事技術的な優位性の確保に貢献していくことになるそうです。
AIの影響力は、日常生活だけでなく、軍事の領域でも急速に拡大しています。
偵察ドローンから自動脅威検出システムまで、すでにAIが採用されたシステムは多岐にわたっており、今後もこの勢いが続くだろうと予測されています。
ですが、どんなに高度なAIであっても弱点は存在します。
そもそも機械学習モデルは、巧妙に操作されたデータでシステムを欺くような攻撃に弱く、たとえば、人間の視覚を模倣するコンピュータビジョンは、人間ならばすぐに見抜けるようなシグナルに騙されて、誤認することがあったりするそうです。
さらに深刻なのは、大金を投じて開発されたAIが、複製されて勝手に利用されてしまう恐れです。
たとえば、最近中国の企業が発表したディープシークは、主流のAIに遜色のない性能があるとされる一方で、その開発費の安さが世界に衝撃を与えました。
ですが、その開発は既存モデルへの質問を通じて行う「蒸留」という方法なのではないかとの疑いがあります。
こうしたAIに内在する弱点は、過去10年間にわたって研究されてきましたが、現実にAIを利用した軍事システムにどのような影響があるのか、はっきりしたことはまだわかっていません。
このような弱点がよくわからないAIシステムを性急に採用すれば、当然ながらリスクをもまた抱え込むことになりますが、米国国防総省がついに動き出したわけです。
このほど国防高等研究計画局(DARPA)が発表した「SABER計画」では、各分野の専門家を集めてAI専門の「レッドチーム」が結成されることになるそうなんです。
レッドチームとは、それが所属する組織の弱点を炙り出すために、敵の立場から自分の組織の分析し、攻撃を仕掛けるチームのことを指します。
システムにハッキングを仕掛け、問題があることを伝える善意のハッカーを「ホワイトハッカー」というそうですが、SABERレッドチームはいわばAI専門のホワイトハッカー集団といえるかもしれません。
差し当たってSABERレッドチームがターゲットにするのは、今後1〜3年以内に配備が見込まれる地上・航空AIシステムです。
そのために高度な敵対的AIやサイバー・電子戦技術を駆使して、システムの脆弱性を評価し、その対策を考案していくという流れです。
また最終的な目標として、軍用AIが実践配備される前にそのセキュリティを評価できるような、持続可能モデルの開発が掲げられています。
なお、来たる2025年3月12日にはバージニア州アーリントンで、SABER計画の説明会が催されるとのことですが、残念なことに一般公開はされず、あくまで研究者や業界関係者にその趣旨を説明するためのものになるそうです。
軍事目的に利用されるなんてことは、もう最初っから分かってたことですし、驚くことは何もないですが、まぁ、どんな機械でも故障することはありますし、そこは言っても仕方ないで仕方ないですが、この軍事産業ってものだけはどうもねぇ…。
ま、戦争がなくならないのが悪いんでしょうけどね。
そこを論じても仕方ないもんね(笑)
ではまた〜。
京都 中京区 円町 弘泉堂鍼灸接骨
4月23日の水曜日でございます。
何でも今日は「世界図書・著作権デー」なんだそうですよ。
では元気にネタいきましょう。
AIは戦場でも存在感を強めつつあります。
そんな状況を受け、米国国防高等研究計画局(DARPA)が、AI専門のホワイトハッカーチームを設立し、米軍が採用するAIシステムの脆弱性を探っていく計画を発表したそうです。
このミッションは「Securing AI for Battlefield Effective Robustness」頭文字をとって「SABAR計画」というそうで、その名の通りサーベル(洋刀)のごとき鋭さで人工知能の弱点を突き、米軍の軍事技術的な優位性の確保に貢献していくことになるそうです。
AIの影響力は、日常生活だけでなく、軍事の領域でも急速に拡大しています。
偵察ドローンから自動脅威検出システムまで、すでにAIが採用されたシステムは多岐にわたっており、今後もこの勢いが続くだろうと予測されています。
ですが、どんなに高度なAIであっても弱点は存在します。
そもそも機械学習モデルは、巧妙に操作されたデータでシステムを欺くような攻撃に弱く、たとえば、人間の視覚を模倣するコンピュータビジョンは、人間ならばすぐに見抜けるようなシグナルに騙されて、誤認することがあったりするそうです。
さらに深刻なのは、大金を投じて開発されたAIが、複製されて勝手に利用されてしまう恐れです。
たとえば、最近中国の企業が発表したディープシークは、主流のAIに遜色のない性能があるとされる一方で、その開発費の安さが世界に衝撃を与えました。
ですが、その開発は既存モデルへの質問を通じて行う「蒸留」という方法なのではないかとの疑いがあります。
こうしたAIに内在する弱点は、過去10年間にわたって研究されてきましたが、現実にAIを利用した軍事システムにどのような影響があるのか、はっきりしたことはまだわかっていません。
このような弱点がよくわからないAIシステムを性急に採用すれば、当然ながらリスクをもまた抱え込むことになりますが、米国国防総省がついに動き出したわけです。
このほど国防高等研究計画局(DARPA)が発表した「SABER計画」では、各分野の専門家を集めてAI専門の「レッドチーム」が結成されることになるそうなんです。
レッドチームとは、それが所属する組織の弱点を炙り出すために、敵の立場から自分の組織の分析し、攻撃を仕掛けるチームのことを指します。
システムにハッキングを仕掛け、問題があることを伝える善意のハッカーを「ホワイトハッカー」というそうですが、SABERレッドチームはいわばAI専門のホワイトハッカー集団といえるかもしれません。
差し当たってSABERレッドチームがターゲットにするのは、今後1〜3年以内に配備が見込まれる地上・航空AIシステムです。
そのために高度な敵対的AIやサイバー・電子戦技術を駆使して、システムの脆弱性を評価し、その対策を考案していくという流れです。
また最終的な目標として、軍用AIが実践配備される前にそのセキュリティを評価できるような、持続可能モデルの開発が掲げられています。
なお、来たる2025年3月12日にはバージニア州アーリントンで、SABER計画の説明会が催されるとのことですが、残念なことに一般公開はされず、あくまで研究者や業界関係者にその趣旨を説明するためのものになるそうです。
軍事目的に利用されるなんてことは、もう最初っから分かってたことですし、驚くことは何もないですが、まぁ、どんな機械でも故障することはありますし、そこは言っても仕方ないで仕方ないですが、この軍事産業ってものだけはどうもねぇ…。
ま、戦争がなくならないのが悪いんでしょうけどね。
そこを論じても仕方ないもんね(笑)
ではまた〜。
京都 中京区 円町 弘泉堂鍼灸接骨