AIアシスタントが拒否すべきタスクのリストは年々拡大している。その中に「絶滅をもたらす病原体の設計」が含まれるべきか。残念ながら、すべてのAI企業がそう考えているわけではないようだ。

ニューヨーク・タイムズ紙の新たな報道によると、少なくとも1つの最先端AIモデルが、研究者に対し、致死性病原体の設計と大規模な生物テロ攻撃への転用方法を具体的に指示していたという。

専門家がAIに「テスト」を実施、衝撃的な結果に

幸いなことに、この研究者、スタンフォード大学の生物安全保障専門家デイビッド・レルマン氏は、実際にその指示に従うつもりはない。同氏は未発表のAI企業から依頼を受け、自社のチャットボットシステムの脆弱性を突く「ストレステスト」を実施していた。同紙の取材に対し、レルマン氏は、特定の病原体や関与した企業名を明かすことを拒否した。誰かが悪用する可能性を懸念したためだという。

チャットボットが提案した方法は極めて残虐な内容で、病原体の改良方法や犠牲者数の最大化、実行者の逮捕リスクの最小化、既存の治療法への耐性獲得など、具体的なテロ実行計画にまで及んでいた。

「私は自分で思いつかなかった質問に対し、そのAIは巧妙で悪辣な回答を返してきた。そのレベルの狡さに背筋が凍った」
— デイビッド・レルマン氏

レルマン氏の指摘を受け、匿名の企業はチャットボットに若干の安全対策を施したが、同氏は「不十分だ」と批判した。

AI企業の反応は?専門家の懸念を一蹴

最先端AI企業のOpenAIとAnthropicは、専門家の意見を軽視する姿勢を示した。

  • Anthropicのアレックス・サンダーフォード氏(信頼性・安全性政策・執行責任者)は「AIモデルがもっともらしいテキストを生成することと、実際の行動に必要な情報を提供することは大きく異なる」と主張した。
  • OpenAIの広報担当者は「この種の専門家によるストレステストは、現実の被害を引き起こす能力を実質的に高めるものではない」と述べた。

2024年のAIモデルが生物兵器開発を支援?米政府系シンクタンクが警告

米政府系シンクタンク「ランド研究所」が2025年に発表した報告書によると、2024年にリリースされた最先端AIモデルは、一般市民であっても「さまざまなウイルスを用いた生物兵器の製造と攻撃方法」を案内できるレベルに達しているという。

AIによる大規模な生物テロの発生リスクは現時点では低いとされるが、モチベーションの高いテロリストにとって、必要な情報を入手するハードルがかつてないほど低くなっている事実に、多くの専門家が危機感を募らせている。

関連記事:AIチャットボットが精神疾患を悪化させる可能性、研究で指摘

出典: Futurism