OpenAI stellt Daybreak vor: KI-basierte Cybersicherheit für Unternehmen
OpenAI hat mit Daybreak eine neue Initiative im Bereich Cybersicherheit vorgestellt. Die Plattform nutzt die fortschrittlichen Sprachmodelle des Unternehmens in Kombination mit dem Codex-Agenten-Framework, um Organisationen dabei zu unterstützen, Software-Schwachstellen über den gesamten Entwicklungszyklus hinweg zu identifizieren, zu patchen und zu validieren.
Drei Modellvarianten für unterschiedliche Sicherheitsanforderungen
Daybreak basiert auf drei verschiedenen Modellvarianten:
- GPT-5.5: Standardmodell für allgemeine Unternehmens- und Entwickleranwendungen.
- GPT-5.5 mit Trusted Access for Cyber: Spezialisiert auf defensive Sicherheitsworkflows wie Schwachstellen-Triage, Malware-Analyse und Patch-Validierung für zertifizierte Sicherheitsexperten.
- GPT-5.5-Cyber: Höchste Leistungsstufe für spezialisierte Anwendungen wie autorisierte Penetrationstests und Red-Teaming unter kontrollierten Bedingungen.
Jede Variante verfügt über unterschiedliche Sicherheitsmechanismen und Zugriffskontrollen. Die leistungsstärkste Version erfordert eine stärkere Identitätsprüfung und zusätzliche Überwachung auf Kontoebene.
„Für die Cybersicherheit bedeutet dies, Risiken früher zu erkennen, schneller zu handeln und Software von vornherein widerstandsfähiger zu gestalten.“
OpenAI äußerte sich auf Anfrage von CyberScoop nicht weiter zu Daybreak. Die Plattform erscheint nur wenige Wochen nach der Vorstellung von Project Glasswing durch Anthropic, das auf dem KI-Modell Claude Mythos Preview basiert. Dieses Modell soll in der Lage sein, Software-Schwachstellen autonom und in großem Maßstab zu identifizieren. Anthropic hat den Zugang zu Mythos jedoch stark eingeschränkt und verweist auf Sicherheits- und nationale Sicherheitsbedenken. Eine kommerzielle Nutzung ist derzeit nicht möglich.
Abgestufte Zugriffskontrollen für verantwortungsvolle Nutzung
Die Struktur von Daybreak spiegelt den Versuch wider, den Zugriff auf die Modelle an das damit verbundene Risiko anzupassen. Während das Standardmodell GPT-5.5 für allgemeine Anwendungen verfügbar ist, richtet sich GPT-5.5 mit Trusted Access for Cyber speziell an Sicherheitsexperten in defensiven Workflows. Die höchste Stufe, GPT-5.5-Cyber, befindet sich derzeit in der Preview-Phase und ist nur unter kontrollierten Bedingungen nutzbar.
OpenAI betont, dass die Technologie zwar defensiven Zwecken dient, aber auch missbraucht werden könnte. Die Plattform kombiniert erweiterte Fähigkeiten mit Vertrauen, Verifizierung, angemessenen Sicherheitsvorkehrungen und Rechenschaftspflicht. In einem früheren Blogbeitrag erklärte das Unternehmen:
„Es ist weder praktisch noch angemessen, zentral zu entscheiden, wer sich verteidigen darf. Stattdessen möchten wir möglichst vielen legitimen Verteidigern den Zugang ermöglichen – basierend auf Verifizierung, Vertrauenssignalen und Rechenschaftspflicht.“
Unterstützung durch Industriepartner und Regierung
Mehrere große Technologie- und Cybersicherheitsunternehmen arbeiten bereits im Rahmen des Trusted Access for Cyber-Programms mit OpenAI zusammen. Dazu gehören unter anderem Cisco, Oracle, CrowdStrike, Palo Alto Networks, Cloudflare, Fortinet, Akamai und Zscaler.
Anthony Grieco, Chief Security and Trust Officer bei Cisco, bezeichnete die Technologie als „Kraftvervielfacher für Verteidiger“. Er betonte, dass Modelle wie GPT-5.5 die Geschwindigkeit von Sicherheitsoperationen verändern – von der Incident-Untersuchung bis zur proaktiven Reduzierung von Schwachstellen. Der Wert liege dabei nicht allein im Modell, sondern im gesamten Unternehmensrahmen, der darum herum aufgebaut wird.
Auf Regierungsebene prüft die Trump-Administration derzeit, wie Anthropics Mythos-Modell zum Schutz staatlicher Netzwerke eingesetzt werden könnte. Greg Barbaccia, Federal CIO, äußerte sich kürzlich gegenüber CyberScoop und betonte das Potenzial des Modells zur Stärkung der Cybersicherheit der Bundesbehörden. Gleichzeitig wies er auf die bestehenden Unsicherheiten hinsichtlich der praktischen Umsetzung hin.