
Nano Banana
Kurzfassung
▾
Quellen
▾
Interne KI-Programmierassistenten von Amazon haben fehlerhaften Code generiert, der zu Ausfällen bei den Cloud-Diensten von AWS führte.
Die verantwortlichen Entwickler hatten die von der künstlichen Intelligenz vorgeschlagenen Code-Zeilen offensichtlich ungeprüft in die produktiven Systeme übernommen.
Amazon weist der KI jedoch keine Schuld zu und sieht die Verantwortung allein bei den Mitarbeitern, die ihre Prüfpflicht vernachlässigten.
Die Vorfälle unterstreichen die technischen Risiken und Sicherheitslücken beim unkontrollierten Einsatz von Sprachmodellen in kritischen IT-Infrastrukturen.
Amazon service was taken down by AI coding bot (Financial Times)
Amazon’s cloud unit hit by at least two outages involving AI tools, FT says (Reuters)
Interne KI-Programmierassistenten von Amazon haben offenbar zu mindestens zwei Systemausfällen bei den Cloud-Diensten von AWS geführt. Laut Informationen der Financial Times generierten die Modelle fehlerhaften Code, der von den Entwicklern in kritische Produktionsumgebungen übernommen wurde. Mangelnde Code-Prüfung führt zu Störungen Bei den Vorfällen stehen die Amazon-eigenen KI-Assistenten Kiro und Q Developer im Zentrum. Diese Systeme generieren eigenständig Code-Vorschläge, um Softwareentwickler bei ihrer täglichen Arbeit zu entlasten und Prozesse zu beschleunigen. Der ausgegebene Code enthielt jedoch in mindestens zwei Fällen schwerwiegende Logikfehler. Die zuständigen Mitarbeiter überprüften die vorgeschlagenen Zeilen offensichtlich nicht ausreichend und pflegten sie direkt in die aktiven Systeme ein. Dies löste in der Folge messbare Ausfälle innerhalb der Cloud-Infrastruktur aus. Anzeige Amazon sieht menschliches Versagen Der Konzern weist eine direkte Schuld der künstlichen Intelligenz an den Abstürzen strikt zurück. Das Unternehmen argumentiert, dass die KI lediglich als Assistenz fungiere und keine eigenständigen Änderungen an den Servern vornehme. Die finale Verantwortung für die Qualitätssicherung liege laut Amazon ausschließlich bei den Entwicklern. Diese müssen jeden von der KI generierten Code-Block manuell verifizieren und testen, bevor er für den Live-Betrieb freigegeben wird. Entwickler verursachten die Störungen direkt mit, weil sie die fehlerhaften KI-Ausgaben ungeprüft akzeptierten. Technische Tücken der Code-Generierung Die Ausfälle verdeutlichen ein generelles Problem beim Einsatz großer Sprachmodelle in der professionellen Softwareentwicklung. Die künstliche Intelligenz produziert oft syntaktisch korrekt wirkenden, aber im spezifischen Kontext logisch fehlerhaften Code. Sie erfasst komplexe Systemabhängigkeiten in umfassenden Architekturen nicht immer vollständig. Zudem wiesen die genutzten Plugins laut jüngsten Security Bulletins von AWS eigene technische Schwachstellen auf. Sicherheitsforscher entdeckten in der Vergangenheit beispielsweise Anfälligkeiten für Prompt Injections innerhalb der Entwicklungsumgebungen. Unternehmen müssen daher zwingend mehrstufige Testverfahren etablieren, um unbrauchbare KI-Vorschläge vor dem produktiven Einsatz abzufangen.
