AI 巨人たちは人類の安全を蔑ろにしているのか?新レポートが衝撃の成績を明らかに

テクノロジーとのやり取りを形成する上で人工知能(AI)が重要な役割を果たす時代において、最近の安全性レポートがAI企業の人類の安全優先度について警鐘を鳴らしています。シリコンバレーに拠点を置く非営利団体であるFuture of Life Instituteは、AIをより安全な方向に導くために厳格な規制と監視が急務であることを示すAIセーフティインデックスを発表しました。

AI企業の不十分な取り組み

AIの潜在的な利点は、大きなリスクと共にあります。自殺につながるカウンセリングにAI搭載チャットボットが使用されたり、サイバー攻撃にAIが利用されるなど、暗い側面が浮かび上がっています。AIが武器化されたり、政府の転覆に使用されるといった未来の脅威も軽く見てはいけません。しかし、これらの差し迫った危機にもかかわらず、AI企業は安全を優先する動機に欠けているように見えます。

AI セーフティインデックスの分析

AIセーフティインデックスは主要企業を格付けし、憂慮すべき状況を浮き彫りにしました。OpenAIとAnthropicが安全性努力に対してわずかに平凡なC+を獲得しました。Google DeepMindはC、Meta、xAI、そして中国企業のZ.aiやDeepSeekは失望のD評価を受けました。Alibaba Cloudは最低のD-となりました。

このインデックスは、存在安全やリスク評価を含む6つのカテゴリーにわたる35の指標を調査しました。特に、評価された企業はすべて存在安全において劣っており、内部監視と制御の欠如を強調しています。

主要企業からの声明

OpenAIとGoogle DeepMindは、安全への投資を宣言し、厳格な安全策が必要であることを認めました。「安全はAIを構築し展開するための基本です」とOpenAIは述べ、安全研究とフレームワークの共有へのコミットメントを強調しました。

一方で、MetaやxAIなどの企業は、安全措置への実質的な投資の証拠を示すことができませんでし た。存在安全戦略に関する公開文書が欠如しており、Future of Life Instituteからの批判を呼んでいます。

拘束力のある安全基準の推進

同研究所のマックス・テグマーク会長は、規制がなければAIの進化がテロを助長したり、操作を強化したり、政府を不安定化させる可能性があると警告しました。「AI企業には拘束力のある安全基準が必要だ」と彼は主張し、問題が解決可能なほど簡単であることを強調しました。

カリフォルニア州のSB 53法案のように、安全プロトコル共有とインシデント報告を義務付ける立法努力が一部進展を見せていますが、テグマークはさらに多くが必要だとし、業界専門家たちも同感しています。

監督の必要性

Enderle Groupのロブ・エンダーレ氏はインデックスの重要性を指摘しましたが、現在の米国の規制枠組みの効果の欠如について懸念を表明しました。「意味のある監督を実施するには、思慮深い規則と実質的な施行が必要です」と彼は警告し、意味のある監視を実行する複雑さを強調しました。

テクノロジーが進化を続ける中、このレポートはそれを優先し、AIの安全性を規制するための協調努力の必要性を示す重要な指摘です。詳細はLos Angeles Timesをご覧ください。