Schlagwort: University

  • Umfrage zeigt: KI-Nutzung steigt rapide, doch das Vertrauen fehlt

    Frau mit Roboterarmen hält Tablets und Smartphones, umgeben von Monitoren mit Diagrammen und Code vor urbanem Hintergrund.

    Eine neue Umfrage der Quinnipiac University zeigt ein wachsendes Paradox: Die KI-Nutzung in den USA steigt deutlich, doch die Skepsis wächst noch schneller. Besonders die Generation Z, die KI am besten kennt, blickt am düstersten auf den Arbeitsmarkt.

    Der Artikel Umfrage zeigt: KI-Nutzung steigt rapide, doch das Vertrauen fehlt erschien zuerst auf The Decoder.

  • Harvard-Studie: So werden KI-Modelle dauerhaft kreativ

    Ein kreatives Schaubild

    Nano Banana

    Kurzfassung

    Quellen

    Künstliche Intelligenz verfällt bei längeren Texten oft in einen sehr monotonen und vorhersehbaren Stil.
    Forscher der Harvard University haben nun ein neues Framework für dauerhafte Kreativität und Vielfalt entwickelt.
    Der Ansatz greift direkt in die Verarbeitung der Embeddings ein und verhindert den Verlust an Varianz.
    Die Methode erhöht die Halluzination der Modelle nicht und lässt sich auf Open Source Systeme übertragen.

    X (Twitter) – Ethan Mollick Statement

    Harvard University – Project QUEST

    Harvard University – Inducing sustained creativity and diversity in LLMs

    Harvard University – Supplementary Material

    KI-Modelle schreiben oft vorhersehbare und gleichförmige Texte. Eine aktuelle Studie der Harvard University zeigt nun einen Weg auf, wie Sprachmodelle dauerhaft kreative und vielfältige Antworten generieren. Das Team um den Forscher Gary King hat dafür ein neues Framework entwickelt. Das Problem der schwindenden Vielfalt Textgeneratoren verfallen bei längeren Aufgaben schnell in einen monotonen Durchschnitt, den Forscher als Homogenisierung bezeichnen. Nutzer versuchen oft, durch aufwendiges Prompting gegenzusteuern. Die KI-Modelle ignorieren diese spezifischen Vorgaben jedoch häufig nach wenigen Sätzen wieder. Das führt zu vorhersehbaren Mustern im Text. Das Harvard-Projekt QUEST analysierte dieses Verhalten im Detail. Die Wissenschaftler erkannten, dass aktuelle Architekturen fast immer den sichersten mathematischen Pfad wählen. Dadurch geht jede Varianz verloren. + Quelle: https://gking.harvard.edu/quest Ein Eingriff in die interne Zahlensprache Die aktuelle Publikation beschreibt eine konkrete technische Lösung für dieses Problem. Das Team greift direkt in die sogenannten Embeddings ein. Das ist die abstrakte Ebene, auf der ein KI-Modell alle Wörter in Zahlen übersetzt. Anstatt nur das nächste logische Token zu berechnen, erzwingt das Framework eine breitere Suche in diesem mathematischen Raum. Das Modell verknüpft dadurch weiter entfernte Begriffe miteinander. Diese Methode bewahrt das komplexe Reasoning der Systeme. Die Qualität der Fakten bleibt stabil, während die Textvielfalt spürbar steigt. Anzeige Training statt Chatfenster Im Alltag bedeutet das: Anwender können diese neue Kreativität nicht selbst durch cleveres Prompting erzwingen. Entwickler müssen die Modelle stattdessen zwingend mit dem neuen Ansatz trainieren. Das Framework der Forscher setzt dafür exakt beim Fine-Tuning an. Programmierer können diese Methode direkt auf bestehende Open Source Modelle und Architekturen mit Open Weights anwenden. Eine häufige Sorge bei kreativeren Ausgaben ist die Erfindung falscher Fakten. Die Studie belegt jedoch, dass das neue Verfahren die Rate der Halluzination nicht erhöht. Praktischer Nutzen für die Zukunft Auf der Plattform X betonte der Experte Ethan Mollick die praktische Bedeutung dieser Forschung. Er sieht darin einen wichtigen Schritt, um KI im Alltag vielseitiger einzusetzen. Die Entwicklung einer AGI steht zwar noch aus, aber die Fähigkeit zu dauerhafter Kreativität schließt eine spürbare Lücke in der aktuellen Technik. Die Forschungsergebnisse stehen der Entwicklergemeinde ab sofort zur Verfügung. Anzeige

  • Tausende Beschaffungsdokumente zeigen, wie Chinas Armee KI zur Waffe machen will

    Forscher der Georgetown University haben Tausende Beschaffungsanträge der chinesischen Volksbefreiungsarmee analysiert. Die Dokumente zeigen, wie breit Peking KI bereits militärisch erprobt, von Drohnenschwärmen über Deepfake-Werkzeuge bis hin zu autonomen Entscheidungssystemen.

    Der Artikel Tausende Beschaffungsdokumente zeigen, wie Chinas Armee KI zur Waffe machen will erschien zuerst auf The Decoder.

  • Web World Models sollen KI-Agenten konsistente Spielwiesen geben

    Sieben kreisförmige Vorschaubilder der Web World Model-Demos auf hellgrauem Hintergrund: Bookshelf zeigt eine Leseoberfläche, AI Spire ein Kartenspiel-Interface, Cosmic Voyager ein Sonnensystem, WWMPedia einen generierten Lexikonartikel, AI Alchemy eine Sandbox mit Partikeln, Galaxy Travel bunte Planetencluster und World Travel einen interaktiven Erdglobus.

    Forscher der Princeton University haben gemeinsam mit Kollegen der UCLA und University of Pennsylvania einen Ansatz vorgestellt, der KI-Agenten dauerhafte Welten zum Erkunden geben soll. Gewöhnlicher Web-Code legt dabei die Spielregeln fest, während ein Sprachmodell diese Welt mit Geschichten und Beschreibungen füllt.

    Der Artikel Web World Models sollen KI-Agenten konsistente Spielwiesen geben erschien zuerst auf The Decoder.

  • KI-Text-Detektor Pangram erkennt laut Studie Maschinentexte fast perfekt

    Eine Untersuchung der University of Chicago offenbart erhebliche Leistungsunterschiede zwischen kommerziellen KI-Erkennungstools. Während ein Detektor nahezu perfekte Ergebnisse erzielt, zeigen andere in bestimmten Szenarien deutliche Schwächen.

    Der Artikel KI-Text-Detektor Pangram erkennt laut Studie Maschinentexte fast perfekt erschien zuerst auf The Decoder.

  • Heimliche KI-Reporter: Diese Studie erschüttert die US-Medienwelt

    Aus einer Schreibmaschine kommen Hardware-Sachen raus

    Nano Banana

    Kurzfassung

    Quellen

    Eine Studie der University of Maryland zeigt, dass etwa 9% der Artikel in US-Zeitungen teilweise KI-generiert sind. Die Nutzung geschieht meist ohne Offenlegung, was das Vertrauen der Leser untergräbt. Lokale Zeitungen (9,3%) nutzen KI deutlich häufiger als nationale Medien (1,7%). Besonders alarmierend ist ein 25-facher Anstieg der KI-Nutzung bei Meinungsartikeln renommierter Zeitungen.

    AI News Audit (Forschungswebseite) AI Tech Suite AIJourn

    Etwa neun Prozent aller neuen Artikel in US-Zeitungen stammen teilweise oder ganz von einer KI. Das Brisante daran: Die Lesenden erfahren davon meist nichts. Eine aktuelle Studie der University of Maryland legt nun das überraschende Ausmaß der intransparenten KI-Nutzung offen. Neun Prozent der News sind nicht menschlich Forscher der University of Maryland haben die US-Zeitungslandschaft tiefgreifend analysiert. Für ihre Untersuchung prüften sie mehr als 250.000 Artikel mit einem speziellen KI-Detektor namens Pangram. Das Ergebnis zeigt, wie tief die Technologie bereits in den Redaktionen steckt. Durchschnittlich neun Prozent aller untersuchten Artikel waren zumindest teilweise KI-generiert. Diese Zahl wirft ein Schlaglicht auf eine Praxis, die bisher weitgehend im Verborgenen stattfand. Die Technologie wird eingesetzt, aber die Verlage sprechen nicht darüber. + Quelle: https://arxiv.org/pdf/2510.18774 Große Kluft zwischen Lokal- und Elite-Medien Die Analyse offenbart eine deutliche Spaltung im US-Medienmarkt. Bei den großen, nationalen Zeitungen mit hoher Reputation lag der Anteil der KI-Texte bei verhältnismäßig niedrigen 1,7 Prozent. Diese Häuser scheinen der Technologie noch mit größerer Vorsicht zu begegnen. Ganz anders ist die Situation bei lokalen Publikationen. Hier waren 9,3 Prozent der Inhalte KI-generiert. Experten vermuten, dass gerade kleinere Verlage unter enormem Kostendruck stehen. Sie setzen KI offenbar ein, um den Mangel an Journalisten zu kompensieren und die Produktion aufrechtzuerhalten. Vertrauensproblem bei Meinungsartikeln Besonders alarmierend ist eine Entwicklung in einem sensiblen Bereich: den Meinungsbeiträgen. Selbst bei den renommierten Zeitungen, die sonst zurückhaltend sind, explodierte hier die KI-Nutzung. Die Forscher stellten zwischen 2022 und 2025 einen 25-fachen Anstieg fest. Meinungsartikel sollen eigentlich menschliche Perspektiven und Argumente widerspiegeln. Wenn hier Algorithmen unbemerkt mitschreiben, stellt das die Glaubwürdigkeit infrage. Die Studie kritisiert scharf, dass eine Offenlegung dieser Praktiken fast nie stattfindet. Die mangelnde Transparenz wird als größtes Problem gesehen. Während einige Medien Richtlinien entwickeln, zeigt die Studie, dass die Realität oft anders aussieht. Das Vertrauen der Öffentlichkeit in die Medien könnte durch diese heimliche Automatisierung weiter beschädigt werden.

  • KI-generierte Inhalte durchdringen US-Zeitungslandschaft weitgehend unbemerkt

    Eine umfassende Studie der University of Maryland zeigt, dass etwa neun Prozent aller neu veröffentlichten amerikanischen Zeitungsartikel teilweise oder vollständig von künstlicher Intelligenz generiert werden, meist ohne Kennzeichnung für die Lesenden.

    Der Artikel KI-generierte Inhalte durchdringen US-Zeitungslandschaft weitgehend unbemerkt erschien zuerst auf The Decoder.

  • Google DeepMind: KI‑Modell identifiziert möglichen neuen Therapieweg gegen Krebs

    Google DeepMind und Yale University haben ein neues KI-Modell namens C2S-Scale 27B veröffentlicht.

    Der Artikel Google DeepMind: KI‑Modell identifiziert möglichen neuen Therapieweg gegen Krebs erschien zuerst auf THE-DECODER.de.

  • KI verdrängt Berufseinsteiger: Junge Softwareentwickler verlieren Jobs am schnellsten

    Abstrakte Illustration mehrerer arbeitenden Menschen in Blau und Gelb.

    Eine neue Studie von Forschern der Stanford University, basierend auf Lohndaten von Millionen US-Arbeitnehmern, zeigt: Seit der breiten Einführung von KI-Tools wie ChatGPT sind die Beschäftigungszahlen für junge Menschen in stark betroffenen Berufen deutlich gesunken. Erfahrene Kollegen und weniger exponierte Berufsfelder bleiben hingegen stabil oder wachsen.

    Der Artikel KI verdrängt Berufseinsteiger: Junge Softwareentwickler verlieren Jobs am schnellsten erschien zuerst auf THE-DECODER.de.

  • Nett, aber falsch: Sprachmodelle machen mehr Fehler, wenn sie schmeicheln

    Vektor mit Vernetzungsdiagramm, Like-Icon, geteiltem Erdball über flacher Scheibe und Nutzer-Silhouette.

    Ein Forschungsteam der University of Oxford hat Sprachmodelle darauf trainiert, wärmer und empathischer zu antworten – mit unerwarteten Folgen: Die wärmer trainierten Modelle machten deutlich mehr Fehler und neigten zu übertriebenem Schmeicheln.

    Der Artikel Nett, aber falsch: Sprachmodelle machen mehr Fehler, wenn sie schmeicheln erschien zuerst auf THE-DECODER.de.