Schlagwort: Fehler

  • Claude Code reviewt jetzt Pull Requests mit einem ganzen Team aus KI-Agenten

    Terminalfenster mit „Welcome to the Claude Code research preview!“-Meldung, ASCII-Art-Logo „CLAUDE CODE“ und Login-Erfolgshinweis.

    Claude Code kann ab sofort automatisch Code-Änderungen auf Fehler prüfen, bevor sie in ein Projekt einfließen.

    Der Artikel Claude Code reviewt jetzt Pull Requests mit einem ganzen Team aus KI-Agenten erschien zuerst auf The Decoder.

  • Anthropics KI-Modell Claude findet mehr als 100 Sicherheitslücken in Firefox

    Anthropics KI-Modell Claude hat in Firefox über 100 Fehler gefunden, darunter Schwachstellen, die jahrzehntelange Tests übersehen hatten.

    Der Artikel Anthropics KI-Modell Claude findet mehr als 100 Sicherheitslücken in Firefox erschien zuerst auf The Decoder.

  • Microsoft-365-Bug: Copilot verarbeitet geschützte und vertrauliche E-Mails

    Ein Copilot Roboter ließt heimlich Emails

    Nano Banana

    Kurzfassung

    Quellen

    Ein Softwarefehler im Microsoft 365 Copilot führte dazu, dass die KI vertrauliche E-Mails trotz aktiver Schutzrichtlinien verarbeitete.
    Der KI-Assistent ignorierte sogenannte Data-Loss-Prevention-Vorgaben und Sensibilitäts-Labels in Outlook vollständig.
    Ein unautorisierter Zugriff auf fremde Postfächer fand jedoch nicht statt, da Nutzer ohnehin Lesezugriff auf die verarbeiteten Mails hatten.
    Microsoft hat das Problem bestätigt und den Fehler durch ein automatisches Update auf seinen Servern inzwischen behoben.

    Microsoft says bug causes Copilot to summarize confidential emails

    Microsoft says Office bug exposed customers‘ confidential emails to Copilot AI

    Ein Softwarefehler in Microsoft 365 führte in den vergangenen Wochen dazu, dass der KI-Assistent Copilot vertrauliche Outlook-E-Mails auslas und in seinen Zusammenfassungen wiedergab. Die Künstliche Intelligenz ignorierte dabei aktiv gesetzte Sicherheitsrichtlinien und Schutzetiketten der Administratoren. Schutzmechanismen ausgehebelt Der Fehler betraf das Zusammenspiel zwischen dem Copilot Chat und den sogenannten Data-Loss-Prevention-Richtlinien (DLP) von Microsoft. Diese DLP-Vorgaben scannen Dokumente sowie Nachrichten nach sensiblen Mustern wie Kreditkartennummern oder internen Projektcodes und blockieren definierte Aktionen. Im konkreten Fall durchbrach die KI-Assistenz diese administrativen Barrieren jedoch vollständig. E-Mails, die von Absendern mit spezifischen Sensibilitäts-Labels markiert wurden, flossen ungehindert in die generierten Chat-Antworten ein. Nutzer erhielten dadurch Zusammenfassungen von Nachrichten, deren Verarbeitung durch algorithmische Systeme eigentlich auf Netzwerkebene untersagt war. Anzeige Patch auf den Servern verteilt Microsoft bestätigte die Schwachstelle und implementierte mittlerweile ein serverseitiges Update, das die fehlerhafte Rechteprüfung korrigiert. Der Redmonder Konzern verzichtete auf genaue Angaben darüber, wie viele Unternehmenskunden von der fehlerhaften Datenverarbeitung innerhalb ihrer IT-Umgebungen betroffen waren. Technisch betrachtet beschränkte sich das Auslesen der geschützten Daten auf den jeweiligen Nutzerkontext. Der Copilot gab die Informationen aus den blockierten E-Mails nur an jene Anwender aus, die ohnehin einen regulären Lesezugriff auf das jeweilige Postfach besaßen. Eine Ausweitung der Zugriffsrechte, durch die Nutzer auf fremde Postfächer hätten zugreifen können, fand laut den vorliegenden Fehlerberichten nicht statt. Dennoch stellt die Umgehung der DLP-Richtlinien einen harten Verstoß gegen gängige Compliance-Vorgaben dar. Wachsende Skepsis bei Unternehmens-KI Fehler bei der Zugriffssteuerung verstärken die aktuelle Skepsis gegenüber der tiefen Integration von Sprachmodellen in Unternehmensnetzwerke. Solche Compliance-Risiken rufen zunehmend institutionelle Gegenmaßnahmen auf den Plan. Erst vor wenigen Tagen blockierte das Europäische Parlament die Nutzung von generativen KI-Tools auf den Dienstgeräten seiner Abgeordneten und verwies dabei explizit auf unkontrollierbare Sicherheitsrisiken im Umgang mit sensiblen Daten. Microsoft hat das erforderliche Update für den Copiloten nun automatisch auf seinen Servern eingespielt, sodass Systemadministratoren keine weiteren manuellen Schritte auf den Endgeräten der Mitarbeiter durchführen müssen.

  • Nett, aber falsch: Sprachmodelle machen mehr Fehler, wenn sie schmeicheln

    Vektor mit Vernetzungsdiagramm, Like-Icon, geteiltem Erdball über flacher Scheibe und Nutzer-Silhouette.

    Ein Forschungsteam der University of Oxford hat Sprachmodelle darauf trainiert, wärmer und empathischer zu antworten – mit unerwarteten Folgen: Die wärmer trainierten Modelle machten deutlich mehr Fehler und neigten zu übertriebenem Schmeicheln.

    Der Artikel Nett, aber falsch: Sprachmodelle machen mehr Fehler, wenn sie schmeicheln erschien zuerst auf THE-DECODER.de.