Schlagwort: GPTCyber

  • OpenAI bringt spezielles Cyber-Sicherheitsmodell heraus und weitet Zugang für Verteidiger aus

    OpenAI veröffentlicht mit GPT-5.4-Cyber ein Modell, das gezielt für defensive Cybersicherheit trainiert wurde. Der Zugang bleibt vorerst auf verifizierte Sicherheitsexperten beschränkt.

    Der Artikel OpenAI bringt spezielles Cyber-Sicherheitsmodell heraus und weitet Zugang für Verteidiger aus erschien zuerst auf The Decoder.

  • OpenAI startet GPT-5.4-Cyber für Hacker-Abwehr

    Sam Altman als Programmierer

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI veröffentlicht mit GPT-5.4-Cyber ein speziell für Cybersicherheit trainiertes Modell mit gelockerten Ablehnungsraten.
    Verifizierte Experten erhalten über das Programm Trusted Access for Cyber Zugang zu diesen erweiterten Funktionen.
    Die KI beherrscht tiefgreifende Analysen wie das Reverse-Engineering von Binärdateien ohne vorhandenen Quellcode.
    Zusätzlich behebt das System Codex Security bereits automatisiert Tausende kritische Schwachstellen im Code von Entwicklern.

    OpenAI: Trusted access for the next era of cyber defense

    OpenAI veröffentlicht GPT-5.4-Cyber. Das spezialisierte Modell zielt exklusiv auf Cybersicherheit ab und senkt die üblichen Ablehnungsraten für legitime Aufgaben. Parallel öffnet der Entwickler ein erweitertes Zugangsprogramm für verifizierte Experten. Weniger Filter für tiefe Code-Analysen Herkömmliche KIs verweigern oft den Dienst, wenn Nutzer nach potenziellem Schadcode suchen. GPT-5.4-Cyber umgeht diese Hürde für authentifizierte Anwender gezielt. Das Modell beherrscht beispielsweise das Reverse-Engineering von Binärdateien auf einem sehr hohen Niveau. Sicherheitsprofis analysieren mit dieser Funktion kompilierte Software direkt auf Malware. Sie prüfen die Robustheit der Systeme, ohne den ursprünglichen Quellcode zu benötigen. Dieser Schritt beschleunigt die Suche nach Sicherheitslücken im professionellen Alltag enorm. Anzeige Mehrstufige Verifizierung kontrolliert den Zugang Die erweiterten Funktionen stehen der Allgemeinheit nicht zur Verfügung. Ein mehrstufiges Programm namens Trusted Access for Cyber regelt die Freigabe und den Zugriff auf die Systeme. Interessierte Fachleute weisen ihre Identität auf einer speziellen Plattform nach. Unternehmen und Einzelpersonen erhalten nach der strengen Prüfung eine Einstufung in verschiedene Berechtigungsstufen. In den höchsten Stufen agiert die künstliche Intelligenz deutlich freier und blockiert weniger Anfragen. Diese Freigaben erfordern allerdings eine fast vollständige Transparenz bei der Nutzung. Bestimmte Datenschutzfunktionen, die den Einblick des Anbieters in die Prompts verhindern, bleiben für die unzensierten Modelle vorerst gesperrt. Der Entwickler koppelt die steigenden Fähigkeiten der Modelle an strengere Kontrollmechanismen für die Nutzer. Automatisierte Fehlerbehebung im Hintergrund Neben dem neuen Sprachmodell liefert das System Codex Security erste handfeste Ergebnisse. Die Software überwacht Codebasen kontinuierlich und schlägt Programmierern eigenständig passende Reparaturen vor. Entwickler erhalten direkt beim Schreiben des Codes konkretes Feedback zu potenziellen Gefahren. Seit dem Start der Beta-Phase schloss diese KI bereits über 3.000 kritische und hochgradige Schwachstellen. Die Cybersicherheit rückt damit weg von punktuellen Kontrollen hin zu einer permanenten Risikoüberwachung. Zukünftige Modelle erfordern laut Entwickler noch weitreichendere Schutzmaßnahmen, um die sichere Skalierung der Technologie zu gewährleisten.