OpenAI erweitert sein Trusted Access for Cyber-Programm und ermöglicht damit tausenden Nutzern und Organisationen den Zugang zu fortschrittlichen Cybersicherheitstools. Ziel ist es, Schwachstellen in Produkten und Systemen effizienter zu identifizieren und zu beheben.

Im Rahmen des Programms wird das neue Modell GPT 5.4 Cyber eingesetzt – eine speziell für Cybersicherheitsaufgaben optimierte Variante von ChatGPT. OpenAI betont, dass der Fokus auf der breiten Verfügbarkeit moderner Sicherheitslösungen liegt, ohne dabei Missbrauch zu ermöglichen.

Strenge Zugangsregeln für mehr Sicherheit

Der Zugang zu GPT 5.4 Cyber bleibt streng reguliert. OpenAI setzt auf Know-Your-Customer-Prinzipien und umfassende Identitätsprüfungen, um sicherzustellen, dass das Modell nicht in falsche Hände gerät. In einem kürzlich veröffentlichten Blogbeitrag erklärte das Unternehmen:

„Unser Ziel ist es, diese Tools so weit wie möglich zugänglich zu machen, während wir gleichzeitig Missbrauch verhindern. Wir entwickeln Mechanismen, die nicht willkürlich entscheiden, wer Zugang erhält – sondern auf Vertrauen und Verantwortung basieren.“

Abgrenzung zu Konkurrenzmodellen wie Mythos

Die Ankündigung von OpenAI folgt nur eine Woche nach dem Start von Project Glasswing durch Anthropic. Dieses Programm bietet ausgewählten Tech-Unternehmen Zugang zu Claude Mythos, einem Modell, das Anthropic als zu gefährlich für den kommerziellen Verkauf einstuft. OpenAI verzichtet bewusst auf direkte Vergleiche mit Mythos und betont stattdessen die eigenen Sicherheitsmechanismen.

Expertenmeinungen: GPT 5.4 Cyber als Game-Changer?

Cybersicherheitsexperten aus den USA und Großbritannien sehen in Mythos bereits eine deutliche Verbesserung bei der Erkennung und Ausnutzung von Schwachstellen. Auch GPT 5.4 Cyber wurde speziell für Penetrationstests und Schwachstellenforschung trainiert. OpenAI plant jedoch iterative Verbesserungen des Programms, basierend auf den gewonnenen Erkenntnissen.

Langfristig soll der Kreis der Nutzer ausgeweitet werden, um kritische Infrastrukturen, öffentliche Dienstleistungen und digitale Systeme besser zu schützen. Gleichzeitig distanziert sich OpenAI von der Idee, selbst über die Teilnahme bestimmter Branchen oder Sektoren zu entscheiden:

„Es ist weder praktikabel noch angemessen, zentral zu bestimmen, wer sich verteidigen darf. Stattdessen wollen wir möglichst vielen legitimen Verteidigern Zugang ermöglichen – gestützt auf Verifizierung, Vertrauenssignale und Rechenschaftspflicht.“

Zukunft des Programms: Mehr Nutzer, mehr Verantwortung

OpenAI betont, dass das Programm kontinuierlich weiterentwickelt wird. Neben der technischen Optimierung steht die Frage im Mittelpunkt, wie sich der Zugang fair und sicher gestalten lässt. Das Unternehmen setzt dabei auf Transparenz und Zusammenarbeit mit der Cybersicherheits-Community.

Quelle: CyberScoop