OpenAI Perluas Program Cybersecurity
OpenAI mengumumkan perluasan program Trusted Access for Cyber yang kini mencakup ribuan individu dan organisasi. Mereka dapat memanfaatkan teknologi perusahaan untuk mendeteksi dan memperbaiki kerentanan serta celah keamanan dalam sistem mereka.
GPT 5.4 Cyber: Model Khusus Keamanan
Sebagai bagian dari program ini, OpenAI meluncurkan GPT 5.4 Cyber, varian khusus dari ChatGPT yang dioptimalkan untuk tugas-tugas keamanan siber. Model ini dirancang untuk meningkatkan aksesibilitas alat keamanan siber tingkat lanjut.
OpenAI menekankan bahwa akses ke program dan model ini tetap diawasi dengan ketat melalui sistem Know-Your-Customer dan verifikasi identitas. Langkah ini bertujuan mencegah penyalahgunaan oleh pihak yang tidak bertanggung jawab.
"Tujuan kami adalah membuat alat-alat ini tersedia seluas mungkin sembari mencegah penyalahgunaan. Kami merancang mekanisme untuk menghindari keputusan sewenang-wenang mengenai siapa yang berhak mengakses untuk penggunaan yang sah," tulis OpenAI dalam blog resminya.
Perbandingan dengan Upaya Serupa
Pengumuman ini muncul seminggu setelah Anthropic meluncurkan Project Glasswing, yang menawarkan model Claude Mythos kepada perusahaan teknologi besar. Model ini diklaim terlalu berbahaya untuk dijual secara komersial.
OpenAI tidak secara langsung membandingkan programnya dengan Mythos. Namun, para ahli keamanan siber di AS dan Inggris menyebut Mythos sebagai peningkatan signifikan dalam mendeteksi dan berpotensi mengeksploitasi kerentanan keamanan dibandingkan model sebelumnya.
Sementara itu, GPT 5.4 Cyber telah disempurnakan untuk pengujian dan penelitian kerentanan. OpenAI berencana melakukan perbaikan secara iteratif berdasarkan pembelajaran yang diperoleh. Perusahaan juga berencana memperluas akses model ini kepada lebih banyak operator keamanan siber untuk melindungi infrastruktur kritis dan sistem digital lainnya.
Prinsip Akses yang Terbuka
OpenAI menegaskan tidak ingin terlalu banyak mempengaruhi sektor mana yang dapat berpartisipasi dalam program ini. Perusahaan percaya bahwa keputusan untuk mempertahankan diri harus berasal dari pihak yang membutuhkan.
"Kami tidak berpikir praktis atau tepat untuk memutuskan secara sentral siapa yang boleh mempertahankan diri. Sebaliknya, kami bertujuan untuk memungkinkan sebanyak mungkin pembela sah untuk mengakses, dengan landasan verifikasi, sinyal kepercayaan, dan akuntabilitas," tulis OpenAI.
Masa Depan Program Keamanan Siber
OpenAI terus berupaya meningkatkan program ini dengan mempelajari dampaknya terhadap keamanan informasi. Perusahaan juga berkomitmen untuk memastikan bahwa model ini digunakan secara bertanggung jawab dan hanya oleh pihak yang terverifikasi.