Schlagwort: Quellen

  • Microsoft baut Windows 11 zum autonomen KI-Betriebssystem um

    Eine Windows Copilot Oberfläche

    Microsoft

    Kurzfassung

    Quellen

    Microsoft integriert den KI-Assistenten Copilot tief in die Architektur von Windows 11.
    Die klassische Taskleisten-Suche wird durch ein Eingabefeld für komplexe Prompts ersetzt.
    Autonome KI-Agenten übernehmen künftig proaktiv die Analyse und Verwaltung von lokalen Dateien direkt im Explorer.
    Erste Tests zeigen jedoch noch Schwächen bei der Systemleistung und werfen Fragen zur Datensicherheit auf.

    Windows Blog Copilot

    YouTube: AI in Windows 11 (Microsoft Mechanics / Jeremy Chapman)

    Microsoft verankert den KI-Assistenten Copilot tief in der Architektur von Windows 11. Neue Funktionen verwandeln die klassische Systemsuche und den Datei-Explorer in direkte Schnittstellen für autonome KI-Agenten, die komplexe Dateianalysen eigenständig abarbeiten. Autonome Prozesse in der Taskleiste Die sichtbarste Änderung betrifft die zentrale Suchleiste des Betriebssystems am unteren Bildschirmrand. Copilot ersetzt die bisherige indexbasierte Windows-Suche vollständig und fungiert künftig als primärer Knotenpunkt für sämtliche Nutzereingaben. Anwender steuern das System dort nicht mehr über simple Stichworte, sondern direkt über ausführliche Instruktionen per Prompt. Im Hintergrund übersetzt ein großes Sprachmodell die Anfragen und delegiert die Ausführung an sogenannte KI-Agenten. Diese Algorithmen agieren proaktiv, generieren also nicht nur Text, sondern setzen vordefinierte Handlungsabläufe ohne ständige Nutzerfreigabe um. Sie beschränken sich nicht auf das reine Auffinden von Dateien, sondern extrahieren gezielt Datenpunkte aus PDFs und bereiten diese strukturiert in Tabellen auf.

    Tiefe Systemintegration im Explorer Auch der Datei-Explorer nutzt künftig die erweiterten KI-Schnittstellen für eine intelligente lokale Dateiverwaltung. Ein überarbeitetes Kontextmenü übergibt markierte Ordner, Bilder oder Textdokumente auf Knopfdruck direkt an die Copilot-API. Das System durchleuchtet anschließend den semantischen Inhalt der Dokumente. Das Sprachmodell gleicht selbstständig Informationen aus verschiedenen Quellen ab, fasst lange Berichte zusammen oder übersetzt markierte Code-Schnipsel. Die Berechnung der Token erfolgt dabei dynamisch und priorisiert bei entsprechender Hardware die lokale Verarbeitung über eine dedizierte Neural Processing Unit, um Latenzen minimal zu halten. Fehlt die lokale Rechenleistung, lagert das Betriebssystem die Rechenlast auf die Cloud-Infrastruktur aus. Anzeige Skepsis bei der Umsetzung Erste Testläufe offenbaren jedoch Leistungsschwankungen und unpräzise Reasoning-Ergebnisse bei tiefgehenden Systemabfragen. Die permanente Hintergrundaktivität der KI-Modelle fordert die Hardware und belastet die Systemressourcen spürbar. Zudem erzeugt die automatische Datenübergabe an externe Server bei Administratoren ernsthafte Bedenken. Professionelle Anwender fordern eine stringente Steuerung darüber, welche lokalen Dokumente von den Agenten überhaupt indiziert und verarbeitet werden dürfen. Erst eine feingranulare Rechteverwaltung macht die Technologie für den kritischen Unternehmenseinsatz attraktiv. Die neuen Funktionen werden aktuell außerhalb von Europa ausgerollt. Es ist daher nur eine Frage der Zeit, bis die Updates auch uns erreichen.

  • OpenAI setzt KI-Modell GEGEN eigene Mitarbeiter ein

    Sam Altman sucht nach einem Leaker

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI setzt eine modifizierte Version von ChatGPT ein, um interne Quellen von Medienberichten zu identifizieren. Das System vergleicht externe Artikel semantisch mit internen Daten aus Slack, E-Mails und Dokumenten. Diese automatisierte Forensik ersetzt manuelle Untersuchungen und wirft neue Fragen zur Mitarbeiterüberwachung auf. Technisch basiert das Tool auf RAG-Methoden, um Zusammenhänge präziser als reine Stichwortsuchen zu erkennen.

    The Information – How OpenAI Uses ChatGPT to Catch ‘Leakers’

    The Decoder – OpenAI nutzt angepasste ChatGPT-Version zur Jagd auf interne Whistleblower

    Techmeme – OpenAI uses custom ChatGPT to catch leakers

    DTNS Substack – AI Builds Itself — And Might Be Coming for Your Job

    OpenAI setzt offenbar eine speziell angepasste Version des eigenen Sprachmodells ein, um interne Informationslecks aufzuspüren. Das System gleicht veröffentlichte Medienberichte automatisch mit internen Kommunikationsdaten aus Slack und E-Mails ab, um die Ursprünge vertraulicher Informationen zu identifizieren. Automatisierte Forensik statt manueller Suche Berichten von The Information zufolge hat das KI-Unternehmen ein internes Werkzeug entwickelt, das die Suche nach sogenannten „Leakern“ signifikant beschleunigt. Während Sicherheitsabteilungen in Technologieunternehmen traditionell manuell Protokolle durchsuchen mussten, übernimmt nun eine spezialisierte Instanz von ChatGPT diese Aufgabe. Das System analysiert externe Artikel, extrahiert Kernaussagen und spezifische Formulierungen und vergleicht diese mit der internen Datenbank. Diese umfasst Logs aus Kommunikationsplattformen wie Slack, E-Mail-Verkehr und Dokumentenablagen. Das Ziel ist es, Muster zu erkennen, die auf eine Weitergabe von Betriebsgeheimnissen hindeuten. Dies markiert einen Übergang von passiven Sicherheitsprotokollen hin zu einer aktiven, KI-gestützten Überwachung der Mitarbeiterkommunikation. Anzeige Semantische Analyse und Datenintegration Technisch betrachtet handelt es sich bei diesem Vorgehen um eine Anwendung von fortgeschrittenem „Retrieval-Augmented Generation“ (RAG) in Kombination mit semantischer Suche. Das Modell sucht nicht nur nach exakten Wortübereinstimmungen, sondern erkennt sinngemäße Parallelen zwischen einem Pressebericht und internen Chats. Dies setzt eine tiefe Integration des Modells in die IT-Infrastruktur voraus. Um effektiv zu arbeiten, benötigt die KI Zugriff auf riesige Mengen unstrukturierter Textdaten des Unternehmens. Die Fähigkeit des Modells, den Kontext von Diskussionen zu verstehen – etwa wer wann Zugriff auf ein spezifisches Dokument hatte –, erlaubt eine präzisere Eingrenzung potenzieller Quellen als herkömmliche Keyword-Suchmaschinen. Es demonstriert die Leistungsfähigkeit moderner KI-Agenten, die zunehmend komplexe analytische Aufgaben autonom bewältigen. Implikationen für Datenschutz und Arbeitskultur Der Einsatz solcher Technologien wirft Fragen hinsichtlich der Fehleranfälligkeit auf. Sprachmodelle sind dafür bekannt, Zusammenhänge gelegentlich falsch zu interpretieren oder „Halluzinationen“ zu erzeugen. Eine falsche Beschuldigung auf Basis einer KI-Analyse könnte arbeitsrechtliche Konsequenzen nach sich ziehen. Zudem verändert der Einsatz solcher Tools das interne Klima. Wenn Mitarbeiter wissen, dass ihre Kommunikation permanent durch eine KI auf Übereinstimmungen mit externen Leaks geprüft wird, dürfte dies die offene Diskussionskultur, die in der Tech-Branche oft beschworen wird, hemmen. Es bleibt abzuwarten, ob die bloße Existenz dieses Tools als Abschreckung dient oder ob es tatsächlich zu einer höheren Aufklärungsquote bei Datenlecks führt.

  • OpenAI mit starken Änderungen für die Deep Research Funktion

    Sam Altman benutzt Deep Research

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI stellt die technische Basis von Deep Research auf das leistungsfähigere Modell GPT-5.2 um. Nutzer können nun externe Apps via Connectors verbinden und spezifische Webseiten als exklusive Quellen definieren. Der Rechercheprozess lässt sich in Echtzeit steuern und die Ergebnisse werden in einer neuen Vollbildansicht präsentiert.

    OpenAI (X): Deep research powered by GPT-5.2

    OpenAI (X): Feature-Liste Deep Research

    OpenAI Help Center: ChatGPT Release Notes

    OpenAI: Introducing deep research

    OpenAI Help Center: GPT-5.2 in ChatGPT

    OpenAI hat ein umfangreiches Update für die Deep-Research-Funktion in ChatGPT veröffentlicht. Die automatisierte Recherche-Umgebung basiert ab sofort auf dem Modell GPT-5.2 und ermöglicht erstmals die direkte Anbindung externer Applikationen sowie eine gezielte Steuerung laufender Suchprozesse. Modellwechsel als technische Basis Kern der Aktualisierung ist die Umstellung des zugrundeliegenden Modells auf GPT-5.2. Bislang nutzte der „Deep Research“-Modus – ein Agenten-System, das eigenständig komplexe Suchaufträge im Web durchführt und synthetisiert – eine modifizierte Version der Vorgängergeneration. Mit dem Wechsel auf GPT-5.2 verspricht der Hersteller eine signifikant höhere Logik-Leistung bei der Verknüpfung disparater Informationen. In der Praxis soll dies die Fehlerquote bei der Zusammenfassung technischer oder wissenschaftlicher Quellen reduzieren. Während frühere Versionen dazu neigten, bei widersprüchlichen Quellen Details zu halluzinieren, soll die neue Architektur den Kontext besser gewichten. Anzeige Erweiterte Quellensteuerung und App-Integration Funktional markiert das Update einen Schritt weg vom reinen Web-Crawler hin zu einem integrativen Recherche-Werkzeug. Anwender können nun spezifische Webseiten definieren, auf die sich die Recherche beschränken soll („Site-Specific Search“). Dies ist besonders relevant für Szenarien, in denen nur verifizierte Fachportale oder interne Dokumentationen als Wissensbasis dienen dürfen. Zusätzlich führt OpenAI „App Connectors“ ein. Diese Schnittstellen erlauben es dem System, nicht nur öffentliche Webdaten, sondern auch Informationen aus verknüpften Drittanbieter-Anwendungen in den Recherchebericht einzubeziehen. Dies deutet auf eine tiefere Integration in bestehende Software-Ökosysteme hin, wirft jedoch zwangsläufig Fragen zum Datenschutz und zur Zugriffskontrolle auf, die Nutzer vor der Aktivierung prüfen sollten. + Quelle: OpenAI Interaktion in Echtzeit und Darstellung Die Benutzerführung wurde dahingehend überarbeitet, dass der Rechercheprozess transparenter abläuft. Anstatt auf ein fertiges Ergebnis zu warten, können Nutzer den Fortschritt nun in Echtzeit verfolgen und intervenieren. Erkennt das System beispielsweise eine falsche Fährte, lässt sich der Prozess unterbrechen, um mit neuen Parametern oder Quellenangaben nachzusteuern. Abschließend ändert sich die Präsentation der Ergebnisse: Die generierten Reports werden nun in einer Vollbildansicht dargestellt, was die Lesbarkeit umfangreicher Textmengen und Tabellen auf Desktop-Monitoren verbessern soll. Mit diesen Anpassungen zielt OpenAI offensichtlich darauf ab, das Tool stärker in professionellen Arbeitsabläufen zu verankern, wo Präzision und Nachvollziehbarkeit Vorrang vor Geschwindigkeit haben. + Quelle: OpenAI

  • Eine KI lügt mit Internet-Wissen nicht mehr? Falsch gedacht!

    Ein Mini Roboter sagt, du bist der Beste!

    Nano Banana

    Kurzfassung

    Quellen

    Der neue Benchmark HalluHard zeigt, dass KI-Modelle trotz Internetzugriff in längeren Dialogen weiterhin häufig falsche Fakten generieren. Besonders bei komplexen Gesprächsverläufen scheitern die Algorithmen daran, gefundene Informationen logisch korrekt in den Kontext einzubetten. Die Studie widerlegt die Annahme, dass die RAG-Technologie (Retrieval Augmented Generation) das Halluzinationsproblem bei Sprachmodellen vollständig löst. Anwender müssen KI-Antworten weiterhin kritisch prüfen, da die Fehleranfälligkeit bei fortlaufenden Nachfragen signifikant ansteigt.

    HalluHard: A Hard Multi-Turn Hallucination Benchmark (arXiv Abstract)

    HalluHard: A Hard Multi-Turn Hallucination Benchmark (PDF)

    HalluHard Projektseite / Leaderboard

    epfml/halluhard (GitHub Repository)

    Trotz integrierter Websuche und riesiger Kontextfenster bleiben Faktenfehler die Achillesferse aktueller KI-Modelle. Der neue Benchmark „HalluHard“ zeigt auf, dass Sprachmodelle besonders in fortlaufenden Dialogen deutlich häufiger halluzinieren, als es die Herstellerversprechen vermuten lassen. Die Integration von Echtzeit-Internetzugriffen (Retrieval Augmented Generation, kurz RAG) galt lange als das effektivste Mittel gegen die chronische „Fantasie“ großer Sprachmodelle (LLMs). Die Theorie: Wenn das Modell Zugriff auf aktuelle Quellen hat, muss es nichts erfinden. Eine neue Untersuchung von Forschern der EPFL und weiterer Institute widerlegt diese Annahme nun teilweise. Mit dem Benchmark „HalluHard“ demonstrieren sie, dass die bloße Verfügbarkeit von Informationen nicht ausreicht, um Halluzinationen in komplexen Gesprächsverläufen zu verhindern. + Quelle: arxiv.org/abs/2602.01031 Der Kontext als Fehlerquelle „HalluHard“ unterscheidet sich von bisherigen Testszenarien durch den Fokus auf Multi-Turn-Dialoge. Während viele Benchmarks lediglich einzelne Frage-Antwort-Paare bewerten, simuliert dieser Test realistische Unterhaltungen, in denen Nutzer nachfragen, den Kontext wechseln oder präzisere Details fordern. Genau hier brechen die Leistungen der Modelle ein. Laut der Studie steigt die Fehlerrate signifikant an, sobald ein Dialog über mehrere Runden geführt wird. Die Modelle scheitern oft am sogenannten „Content Grounding“. Das bedeutet, sie sind technisch zwar in der Lage, die korrekte Information per Websuche zu finden, scheitern aber daran, diese logisch konsistent in den bestehenden Gesprächsverlauf einzubetten. Statt die gefundene Quelle korrekt wiederzugeben, vermischen die Algorithmen diese oft mit veraltetem Trainingswissen oder erfinden plausible, aber falsche Details hinzu, um den Antwortfluss aufrechtzuerhalten. Anzeige Systemische Überforderung Ein Kernproblem scheint die Priorisierung von Informationen zu sein. LLMs stehen in einem ständigen Konflikt zwischen ihrem parametrischen Gedächtnis (dem antrainierten Wissen) und dem Kontext-Wissen (den Suchergebnissen). In einfachen Szenarien gewinnt meist die Suchmaschine. In komplexen „HalluHard“-Szenarien, wo Nuancen entscheidend sind, greift das Modell jedoch oft fälschlicherweise auf interne Muster zurück, wenn die Suchergebnisse nicht eindeutig genug interpretiert werden können. Besonders kritisch ist dies für die geplante Autonomie von KI-Agenten. Wenn ein System bereits in einem kontrollierten Chat-Benchmark den Faden verliert und Quellen falsch attribuiert, sind komplexe Aufgaben im Unternehmensumfeld risikobehaftet. Fazit: Distanz zur Realität Die Ergebnisse zeigen, dass die Skalierung der Modellgröße und das bloße Anbinden an das Internet das Halluzinationsproblem nicht final lösen. Die Fehlerquote in anspruchsvollen Dialogen bleibt hoch. Für Anwender bedeutet dies weiterhin: Eine faktische Kontrolle jeder KI-Aussage ist unabdingbar, besonders wenn der Chatverlauf länger wird. Vertrauen ist gut, Verifizierung bleibt besser.

  • Läuft KI wegen Inzucht in eine Mauer?

    2 liebende Roboter laufen vor eine Mauer

    Nano Banana

    Kurzfassung

    Quellen

    Tech-Konzerne haben das frei verfügbare Internet für das KI-Training nahezu komplett ausgelesen, was zu einer massiven Datenknappheit für zukünftige Modelle führt. Der Einsatz von synthetischen, also KI-generierten Daten als Ersatztraining führt zum sogenannten „Hapsburg-KI“-Effekt, einer Art digitaler Inzucht mit steigender Fehlerquote. Wissenschaftliche Studien warnen vor einem drohenden „Modellkollaps“, bei dem KI-Systeme durch rekursives Lernen unwahrscheinliche Ereignisse vergessen und nur noch Durchschnittswissen wiedergeben.

    SDU – Synthetic Data: A Potential Time Bomb Under the Internet

    Nature – AI models collapse when trained on recursively generated data

    TechCrunch – ‘Model collapse’: Scientists warn against letting AI eat its own tail

    Künstliche Intelligenz steuert auf eine unsichtbare Mauer zu, die den Fortschritt der letzten Jahre massiv ausbremsen könnte. Während neue Modelle an Geschwindigkeit gewinnen, droht durch den Mangel an frischen Trainingsdaten und die Nutzung synthetischer Inhalte eine qualitative Stagnation – Experten warnen vor einer digitalen Inzucht. Das Ende des freien Internets Die großen Tech-Konzerne haben das öffentlich zugängliche Internet effektiv leergelesen. Hochwertige Texte aus Büchern, Artikeln und Foren sind bereits in die Trainingssätze von ChatGPT, Claude und Co. eingeflossen. Es gibt kaum noch unverbrauchte Quellen, die menschliche Nuancen und echtes Weltwissen liefern. Dieser Mangel zwingt Unternehmen zu drastischen Maßnahmen. OpenAI transkribierte beispielsweise über eine Million Stunden YouTube-Videos, um den Datenhunger seiner Systeme zu stillen. Doch auch diese Ressourcen sind endlich. Ohne neuen Input droht die Entwicklungskurve abzuflachen, da reine Rechenpower allein keine Intelligenzsprünge mehr garantiert. Anzeige Wenn KI von KI lernt Die Industrie setzt als Lösung zunehmend auf synthetische Daten. Dabei erzeugen aktuelle KI-Modelle Texte und Bilder, die dann wiederum als Trainingsmaterial für die nächste Generation dienen. Dieser rekursive Prozess birgt jedoch eine gefährliche Falle: den „Hapsburg-KI“-Effekt. Ähnlich wie bei der Inzucht in der historischen Adelsfamilie, bei der sich genetische Defekte über Generationen verstärkten, multiplizieren sich Fehler in KI-Systemen. Trainiert ein Modell auf den Ausgaben seines Vorgängers, verliert es den Bezug zur Realität. Die Varianz der Antworten nimmt ab, während Halluzinationen und verzerrende Artefakte zunehmen. Das Modell wirkt zwar kohärent, verliert aber an inhaltlicher Tiefe und Präzision. Die Gefahr des Modellkollapses Wissenschaftliche Untersuchungen stützen diese Sorge massiv. Studien zeigen, dass Modelle, die überwiegend mit synthetischen Daten trainiert werden, nach wenigen Generationen unbrauchbar werden. Forscher bezeichnen dies als „Model Collapse“. Die Algorithmen vergessen unwahrscheinliche Ereignisse und geben nur noch den statistischen Durchschnitt wieder. Das Ergebnis ist ein Einheitsbrei ohne kreative Spitzen. Zwar gibt es Ansätze, synthetische Daten durch strenge Filterung nutzbar zu machen, doch das Risiko bleibt hoch. Ohne einen stetigen Zufluss echter, von Menschen erzeugter Daten, könnte die nächste Generation der künstlichen Intelligenz zwar blitzschnell antworten, dabei aber weniger verstehen als ihre Vorgänger.

  • ChatGPTs API und Web-Version nutzen laut Studie völlig verschiedene Quellen

    Eine aktuelle Studie zeigt deutliche Unterschiede in ChatGPTs Nachrichtenempfehlungen: Während die API überwiegend auf enzyklopädische Inhalte verweist, bevorzugt das Web-Interface lizenzierte Medien – in Deutschland häufig Angebote aus dem Springer-Verlag.

    Wie genau OpenAIs KI-Modell seine Quellen auswählt, bleibt jedoch weitgehend intransparent und erinnert in seiner Undurchsichtigkeit an Googles Vorgehen, mit dem Unterschied, dass Google zumindest darauf ausgelegt ist (oder war), dass Nutzer die Originalquellen tatsächlich anklicken.

    Der Artikel ChatGPTs API und Web-Version nutzen laut Studie völlig verschiedene Quellen erschien zuerst auf The Decoder.

  • Common Pile: Größter Datensatz für KI-Training mit lizenzierten Inhalten veröffentlicht

    Illustration: Daten-Kacheln (Diagramme, %, Zahlen) als Berg, oben Netzwerk-Symbol; symbolisiert vernetzte Datenanalyse.

    Mit dem Common Pile steht erstmals ein umfangreicher Textdatensatz aus offen lizenzierten Quellen zur Verfügung, der das Training großer Sprachmodelle ermöglichen soll – als Alternative zu urheberrechtlich fragwürdigen Webdaten.

    Der Artikel Common Pile: Größter Datensatz für KI-Training mit lizenzierten Inhalten veröffentlicht erschien zuerst auf THE-DECODER.de.