Schlagwort: Schwachstellen

  • OpenAI enthüllt Aardvark

    Ein Aardvark saugt KI-Bugs ein

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI hat Aardvark vorgestellt, einen neuen KI-Agenten für Cybersicherheit. Das Tool basiert auf GPT-5 und kann autonom Sicherheitslücken in Code finden, validieren und Patches vorschlagen. In internen Tests erkannte Aardvark 92% der Schwachstellen und hat bereits zehn reale Lücken in Open-Source-Projekten aufgedeckt. Aardvark befindet sich aktuell in einer privaten Beta-Phase für ausgewählte Partner.

    OpenAI Official Blog – Introducing Aardvark: OpenAI’s agentic security researcher OpenAI – Aardvark Private Beta Interest Form Axios – OpenAI’s new agent hunts software bugs like a human ZDNet – OpenAI unveils ‚Aardvark,‘ a GPT-5-powered agent for autonomous cybersecurity research StartupHub AI – OpenAI Aardvark is a GPT-5 agent that hunts security bugs

    OpenAI betritt mit einem neuen Werkzeug die Arena der Cybersicherheit. Das Unternehmen hat Aardvark angekündigt, einen autonomen KI-Agenten, der als Sicherheitsforscher agiert. Das System nutzt die kommende Modellgeneration GPT-5 und soll Codebasen eigenständig nach Schwachstellen durchsuchen und diese sogar beheben. Ein Agent als digitaler Spürhund Aardvark arbeitet grundlegend anders als traditionelle Sicherheitstools. Statt auf etablierte Methoden wie Fuzzing zu setzen, nutzt der Agent eine auf großen Sprachmodellen basierende Logik, um Fehler im Code aufzuspüren. Dieser Ansatz ermöglicht es der KI, komplexe Schwachstellen zu identifizieren, die menschlichen Experten oder älteren Programmen möglicherweise entgehen. Der Prozess läuft dabei weitgehend automatisch ab. Aardvark identifiziert nicht nur potenzielle Sicherheitslücken, sondern validiert diese auch selbstständig. Im Anschluss schlägt das System direkt konkrete Patches, also Korrektur-Codes, vor, um die gefundenen Lücken zu schließen. Entwickler könnten so erhebliche Unterstützung bei der Absicherung ihrer Software erhalten. + Quelle: OpenAI Erste Erfolge in der Testphase Obwohl sich Aardvark noch in einer privaten Beta-Phase befindet, liefert OpenAI bereits erste beeindruckende Zahlen. In internen Tests, bei denen bekannte und künstlich eingeschleuste Schwachstellen genutzt wurden, soll die KI eine Erkennungsrate von 92 Prozent erreicht haben. Die Fähigkeiten des Agenten beschränken sich aber nicht nur auf Testumgebungen. Laut OpenAI hat Aardvark bereits in frei verfügbarer Open-Source-Software reale Schwachstellen aufgespürt. Diese Funde führten zur Erstellung von zehn offiziellen CVE-Identifikatoren, die weltweit zur Katalogisierung von Sicherheitsproblemen dienen. Die KI hat ihre Praxistauglichkeit damit schon unter Beweis gestellt. Die Zukunft der Code-Sicherheit Mit Aardvark treibt OpenAI das Konzept der „agentischen KI“ weiter voran – Systeme, die komplexe Aufgaben autonom über längere Zeiträume bearbeiten können. Das Tool wird derzeit ausgewählten Partnern in einer geschlossenen Testphase zur Verfügung gestellt. Interessierte Entwickler können sich über ein Formular für den Zugang bewerben. Die Einführung eines solchen Werkzeugs könnte die Softwareentwicklung nachhaltig verändern. Eine KI, die proaktiv und rund um die Uhr Code absichert, verspricht einen enormen Effizienzgewinn. Gleichzeitig zeigt es, wie stark fortschrittliche KI-Modelle wie GPT-5 künftig in spezialisierte, kritische Bereiche vordringen werden. Die digitale Jagd nach Sicherheitslücken wird damit zunehmend automatisiert.

  • Claude’s ultimativer Test

    Anthropic Bild mit Agenten

    Claude’s ultimativer Test Kann eine KI den besten Hackern der Welt widerstehen? Anthropic hat es drauf ankommen lassen und die US-Regierung auf seine Modelle losgelassen. Kurzfassung | Andreas Becker, 13.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Das KI-Unternehmen Anthropic hat eine ungewöhnliche Kooperation bekannt gegeben: Es ließ seine fortschrittlichsten KI-Modelle gezielt von staatlichen Sicherheitsexperten aus den USA und Großbritannien angreifen. Ziel der Übung war es, Schwachstellen und Missbrauchspotenziale aufzudecken, bevor es Kriminelle oder feindliche Akteure tun. Diese Public-Private-Partnership markiert einen neuen Ansatz im Rennen um die Entwicklung sicherer künstlicher Intelligenz. NEWS Vertrauen ist gut, staatliche Kontrolle ist besser Im Zentrum der Zusammenarbeit stand das sogenannte Red-Teaming. Dabei versuchen Experten, ein Sicherheitssystem mit allen Mitteln zu überlisten, um dessen Schwachstellen aufzudecken. Anthropic gewährte dem US Center for AI Standards and Innovation (CAISI) und dem britischen AI Security Institute (AISI) dafür tiefen Einblick in seine Systeme, darunter die Claude-Modelle Opus 4 und 4.1. Die staatlichen Teams erhielten sogar Zugriff auf ungeschützte Basisversionen der Modelle und Prototypen von Sicherheitsmechanismen, noch bevor diese implementiert wurden. Der Grund für diese Öffnung liegt in der speziellen Expertise der Regierungsstellen. Sie bringen tiefgehendes Wissen aus den Bereichen nationale Sicherheit, Geheimdienstanalyse und Cybersicherheit mit. Diese Fähigkeiten ermöglichen es ihnen, Angriffsvektoren zu simulieren, die über das hinausgehen, was zivile Forscher oder Bug-Bounty-Jäger typischerweise im Blick haben. Statt blind nach Fehlern zu suchen, konnten die staatlichen Tester gezielt die wunden Punkte der KI-Architektur ins Visier nehmen. Vom Universal-Jailbreak zum besseren Schutz Die Ergebnisse der Tests waren aufschlussreich und führten zu konkreten Verbesserungen. Die Red-Teams identifizierten eine Reihe von kritischen Anfälligkeiten. Dazu zählten klassische Prompt-Injection-Angriffe, bei denen versteckte Befehle die KI zu unerwünschten Handlungen verleiten. Zudem wurden Angriffe mit verschlüsselten oder anderweitig verschleierten Anfragen (Cipher-based Attacks) erfolgreich durchgeführt, um die Inhaltsfilter der KI zu umgehen. Besonders alarmierend war die Entwicklung eines universellen Jailbreaks. Dieser nutzte komplexe Verschleierungsmethoden, um schädliche Anfragen in scheinbar harmlose Fragmente zu zerlegen und so die Schutzmechanismen zu täuschen. Anstatt nur diese eine Lücke zu schließen, veranlasste die Entdeckung Anthropic dazu, die grundlegende Architektur seiner Schutzsysteme zu überarbeiten. Die Kooperation hat laut dem Unternehmen die Sicherheit der Claude-Modelle maßgeblich erhöht und beweist die Wirksamkeit solcher Partnerschaften. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Das KI-Unternehmen Anthropic arbeitet mit Sicherheitsbehörden aus den USA und Großbritannien zusammen.
    Ziel der Kooperation ist es, durch gezielte Angriffe (Red-Teaming) Schwachstellen in den KI-Modellen wie Claude zu finden.
    Die staatlichen Experten entdeckten kritische Lücken, darunter einen universellen Jailbreak, der die KI-Schutzmaßnahmen umgehen konnte.
    Die Erkenntnisse halfen Anthropic, die grundlegende Sicherheitsarchitektur seiner Systeme zu verbessern und widerstandsfähiger zu machen.
    QUELLEN
    Anthropic Blog
    UK Government (AISI)
    The Verge
    Reuters
    NIST (CAISI)

  • Tencents Bild-KI X-Omni vereint Open-Source-Komponenten zu einem GPT-4o-Konkurrenten

    Das Tencent-Team hinter X-Omni zeigt, dass Reinforcement Learning die Schwachstellen von Hybrid-Systemen behebt. Das System rendert recht präzise lange Texte in Bildern und erreicht teilweise neue Bestleistungen.

    Der Artikel Tencents Bild-KI X-Omni vereint Open-Source-Komponenten zu einem GPT-4o-Konkurrenten erschien zuerst auf THE-DECODER.de.

  • Umfangreiche Studie deckt kritische Sicherheitslücken in KI-Agenten auf

    Roter Kapuzen-Hacker tippt auf Laptop, daneben Warnschild, gesperrter Bildschirm, blockierte Datei und Netzwerk-Icon.

    Eine umfassende Red-Teaming-Studie zeigt alarmierende Schwachstellen in aktuellen KI-Agenten. Alle getesteten Systeme verschiedener Hersteller verletzten ihre eigenen Sicherheitsrichtlinien.

    Der Artikel Umfangreiche Studie deckt kritische Sicherheitslücken in KI-Agenten auf erschien zuerst auf THE-DECODER.de.