AI(人工知能)の分野で、技術の危険性を認識し始めた開発企業が増えている。かつてのSF映画のように「暴走するAI」を想像するのではなく、現実的なリスクに対する懸念が高まっているのだ。インフラの脆弱性、プライバシー侵害、セキュリティリスク、そして公私を分ける境界線の曖昧化──。これらはAIがもたらす具体的な脅威として議論されてきた。
長年にわたり、テック業界は「スピード重視」で技術を推進してきたが、AIに関しては一部の企業が「ブレーキ」をかけ始めた。その象徴的な動きが、AnthropicによるAIモデル「Claude Mythos Preview」のリリース制限だ。
同社は、この最先端モデルが「主要なOSやWebブラウザに深刻な脆弱性を数千件発見した」と発表。しかし、一般公開せず、Amazon Web Services、Apple、Google、Microsoft、NVIDIAなどの主要企業や団体で構成されるコンソーシアムに限定して提供する方針を打ち出した。その目的は、悪意のある第三者による悪用を防ぐための「防御的措置」だという。
この決定には、もちろん企業としての利益も含まれている。ライバル企業による模倣を遅らせることで競争優位を維持し、自社を「技術の管理者」として位置づける狙いもある。しかし、業界が「進歩は避けられない」と主張し、新たな機能を即座に公開し続けてきた中で、このような判断は異例と言える。十分に強力なAIモデルを「無条件で公開すべきではない」と結論づけた企業の姿勢は、業界全体に新たな倫理基準を示すものだ。
軍事利用への制限:Anthropicの「二つの例外」
AnthropicのCEO、ダリオ・アモディ氏は、同社のAIモデルの軍事利用に関して「二つの例外」を設けたと公表した。それは「国内大規模監視」と「完全自律型兵器」の使用だ。
監視に関してアモディ氏は、AIが「商用データから個人の包括的な生活像を自動的かつ大規模に構築できる」と指摘。完全自律型兵器については、「現状のAIは人間を排除してターゲットを選定・攻撃するほどの信頼性がない」と述べた。
同社は政府による「通常の殺傷行為」には協力を続ける一方で、これら二つの用途に関しては明確な制限を設ける方針を示した。これは、業界他社が「あらゆる合法的な用途に対応する」との条件を受け入れる中で、際立った判断と言える。
しかし、米国防総省はこれに反発。同省は「あらゆる合法的な用途に対応する企業とのみ契約する」と主張し、Anthropicの制限を受け入れなかった。その結果、防衛長官は同社を「国家安全保障上のリスク」と指定するに至った。
「技術の進歩は避けられない」という呪縛から解き放たれ、企業が自らの倫理基準を示す時代が来た。Anthropicの動きは、その象徴的な一歩だ。
業界全体に広がる倫理的な議論
Anthropicの動きは、業界全体に倫理的な議論を巻き起こしている。かつては「技術を早く世に出すことが正義」とされてきたが、今や多くの企業がリスク管理の重要性を認識し始めた。特に、AIがもたらすセキュリティリスクやプライバシー侵害への懸念は、もはや無視できないレベルに達している。
一方で、軍事利用に関する議論はさらに複雑だ。多くのテック企業は政府との協力を続ける一方で、倫理的な制限を設ける動きが見られる。これは、技術の進歩と倫理的責任のバランスを模索する動きの表れと言えるだろう。
今後、AI開発企業がどのような判断を下すのか、そして業界全体がどのように対応するのか──。その行方が注目される。