AIチャットボットが殺人計画の「相談相手」に
米国では、AI技術が犯罪に悪用される新たな事例が相次いでいる。最近の事件では、容疑者がChatGPTを使って殺人計画の詳細を尋ねていたことが明らかになった。
フロリダ州立大学銃乱射事件とAIの関連
今月初め、フロリダ州立大学で発生した銃乱射事件の容疑者、フェニックス・イクナーがChatGPTに武器の安全装置解除方法や使用弾薬、ターゲットの場所などを尋ねていたことが判明した。これらのやり取りは、AIがいかに悪用されうるかを示す衝撃的な事例となった。
南フロリダ大学院生殺害事件の容疑者もAIを悪用
さらに、南フロリダ大学の博士課程学生2人が殺害された事件でも、ChatGPTが関与していたことが検察側により明らかにされた。容疑者のヒシャム・アブガルビエ(26歳)は、ChatGPTに「人間を黒いゴミ袋に入れてゴミ箱に捨てたらどうなるか」と尋ねていたという。
「人間を黒いゴミ袋に入れてゴミ箱に捨てたらどうなる?」
— ChatGPTの回答:「非常に危険な行為です」
— 容疑者の返答:「どうやって見つかるのか」
現場からは殺害を裏付ける証拠が
捜査当局によると、容疑者のルームメイトが彼がゴミ圧縮機のゴミ箱に段ボールを運び込むのを目撃していた。その後の捜索で、被害者の1人であるザミル・リモンの学生証を含む所持品が見つかった。
リモンの遺体は、タンパ湾に架かる橋の脇で重いゴミ袋に入れられた状態で発見された。検死報告によると、遺体には「複数の刃物による傷」が確認された。もう1人の被害者、ナヒダ・ブリスティの遺体は、週末に人骨として回収されたが、身元の特定には至っていない。
容疑者に科せられた容疑とAIの法廷証拠化
アブガルビエは、第一級殺人罪、暴行罪、不法監禁罪、遺体の不適切な保管などの容疑で起訴されている。捜査当局は動機について明らかにしていないが、ChatGPTとのやり取りは、犯罪捜査におけるAIの悪用が深刻化していることを示す事例となった。
AIとのやり取りが法廷で証拠として扱われるケースは増加しており、犯罪者がAIチャットボットとのやり取りを残すことで、自己に不利な証拠を残してしまうケースが相次いでいる。
AI犯罪のリスクとOpenAIの対応
昨年、カナダの鉱山町タンブラーリッジで発生した銃乱射事件でも、加害者の18歳の少女がChatGPTを悪用していたことが判明した。この事件では、OpenAIが法執行機関に通報しなかったことで、複数の訴訟が起こされている。
OpenAIは先週、ブログ記事で「銃乱射事件、公務員への脅迫、爆破未遂、コミュニティや個人への攻撃」などの事例を受け、今後は「学習し、改善し、軌道修正する」と表明した。しかし、AI技術の悪用リスクは依然として深刻な課題となっている。
AI犯罪の現状と今後の課題
- AIの悪用事例増加:犯罪者がAIチャットボットを使って計画を立てるケースが相次いでいる。
- 法廷でのAI証拠:AIとのやり取りが犯罪の証拠として扱われる事例が増加している。
- OpenAIの責任問題:AI企業の法執行機関への通報義務や責任の在り方が問われている。
- 技術の二面性:AIは生活の利便性を向上させる一方で、犯罪に悪用されるリスクも高まっている。