Schlagwort: Prozent

  • Anthropic Interviewer: Warum 69 % ihre KI-Nutzung vor Kollegen verheimlichen

    Ein Anthropic Bild im Museum

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic hat mit dem „Interviewer“ ein neues KI-Tool vorgestellt, das eigenständig qualitative Interviews führt und auswertet. Eine erste Studie mit 1.250 Fachkräften zeigt, dass viele Angestellte (69 %) ihre KI-Nutzung aus Angst vor Stigmatisierung am Arbeitsplatz verheimlichen. Während die allgemeine Produktivität steigt, kämpfen Kreative mit Existenzängsten und Wissenschaftler mit mangelndem Vertrauen in die Korrektheit der KI-Daten. Das Tool ermöglicht es Unternehmen, Nutzerfeedback in großem Maßstab jenseits von reinen Chat-Logs tiefgehend zu analysieren.

    Anthropic – Introducing Anthropic Interviewer

    Anthropic automatisiert mit einem neuen Tool die qualitative Marktforschung und liefert damit tiefe Einblicke in die tatsächliche KI-Nutzung am Arbeitsplatz. Die Ergebnisse der ersten Studie mit 1.250 Teilnehmern zeigen ein gespaltenes Bild zwischen Produktivitätsgewinn und der Angst vor Stigmatisierung durch Kollegen. Automatisierte Interviews statt Chat-Logs KI-Entwickler standen bisher vor einem Problem: Sie sehen zwar die Chat-Logs der Nutzer, verstehen aber oft den Kontext oder die emotionale Haltung dahinter nicht. Anthropic ändert dies mit der Einführung des „Anthropic Interviewer“. Dieses System nutzt das Sprachmodell Claude, um dynamische, 10- bis 15-minütige Interviews mit Menschen zu führen. Es plant den Gesprächsleitfaden, stellt adaptive Nachfragen und wertet die Ergebnisse anschließend selbstständig aus. In einem ersten großen Testlauf befragte das Unternehmen 1.250 Fachkräfte aus verschiedenen Branchen. Ziel war es, über die reine Datenauswertung hinaus zu verstehen, wie KI den Arbeitsalltag wirklich verändert und welche Ängste dabei eine Rolle spielen. + Quelle: Anthropic Angst vor dem Stigma am Arbeitsplatz Die Ergebnisse der allgemeinen Belegschaft (N=1.000) offenbaren ein interessantes Phänomen: Die „Schatten-IT“ kehrt als „Schatten-KI“ zurück. Während 86 Prozent der Befragten angaben, dass KI ihnen Zeit spart, berichteten 69 Prozent von einer wahrgenommenen sozialen Stigmatisierung. Viele Arbeitnehmer verheimlichen ihre KI-Nutzung vor Kollegen, aus Sorge, als faul oder inkompetent abgestempelt zu werden. Ein Faktenchecker gab im Interview an, er schweige über seine Prozesse, da Kollegen KI offen ablehnten. Gleichzeitig planen fast die Hälfte der Befragten (48 Prozent), ihre Karriere künftig eher auf die Überwachung von KI-Systemen auszurichten, statt die technische Arbeit selbst zu erledigen. Es herrscht eine Mischung aus Zufriedenheit über die Entlastung und konkreter Angst (bei 55 Prozent), in Zukunft ersetzt zu werden. + Quelle: Anthropic – welche Bereiche sehen der KI-Zukunft optimistisch entgegen? Wissenschaftler skeptisch, Kreative unter Druck Die Studie untersuchte zusätzlich spezifische Berufsgruppen. Bei den 125 befragten Wissenschaftlern zeigte sich eine klare Diskrepanz zwischen Wunsch und Wirklichkeit. Zwar wünschen sich 91 Prozent Unterstützung bei der Hypothesenbildung, in der Praxis scheitert dies jedoch oft am fehlenden Vertrauen. Chemiker und Physiker nutzen KI derzeit primär für periphere Aufgaben wie das Schreiben von Manuskripten oder das Bereinigen von Code. Für die Kernforschung ist die Sorge vor „Halluzinationen“ – also faktisch falschen Ausgaben der KI – und Sicherheitsbedenken bei sensiblen Daten noch zu groß. Kreativschaffende hingegen stehen unter einem enormen wirtschaftlichen Druck. Die Interviews verdeutlichen, dass KI in Bereichen wie Grafikdesign oder Textproduktion die Produktivität massiv steigert, aber gleichzeitig existenzielle Sorgen schürt. Synchronsprecher berichteten vom Zusammenbruch ganzer Marktsegmente durch synthetische Stimmen. Viele Kreative befinden sich in einem Dilemma: Sie müssen die Technologie nutzen, um wettbewerbsfähig zu bleiben, fürchten aber gleichzeitig, dadurch ihre eigene berufliche Identität abzuschaffen. Das Tool steht ab sofort für Forschungszwecke zur Verfügung und wird auch direkt in Claude für eine öffentliche Pilotstudie eingesetzt, um das Feedback der Nutzer in die Weiterentwicklung der Modelle einfließen zu lassen. Anzeige

  • GPT 5 und Gemini 3 waren mal gut…

    Ein großer Wal sitzt auf dem White House

    Nano Banana

    Kurzfassung

    Quellen

    DeepSeek veröffentlicht mit V3.2 und der Speciale-Variante neue Open-Weights-Modelle, die dank effizienter „Sparse Attention“ und massivem Post-Training GPT-5-Niveau erreichen. In autonomen Agenten-Benchmarks und Coding-Aufgaben schlägt das Modell die US-Konkurrenz und löst über 70 Prozent komplexer GitHub-Issues. Die Speciale-Version erzielt Gold-Status bei Mathematik- und Informatik-Olympiaden, benötigt dafür aber deutlich mehr Rechenleistung als das Standardmodell. Dank Apache-2.0-Lizenz können Unternehmen die Modelle lokal betreiben, was volle Datenhoheit garantiert und die Abhängigkeit von Cloud-Abos beendet.

    DeepSeek Official – DeepSeek-V3.2 Release

    Hugging Face – DeepSeek-V3.2-Speciale Model Card

    THE DECODER – Deepseek V3.2 soll GPT-5 und Gemini 3 Pro Konkurrenz machen

    Stable Learn – DeepSeek-V3.2 Tech Report

    Bloomberg – DeepSeek Debuts New AI Models

    DeepSeek liefert mit der Version V3.2 und der Speciale-Variante ab heute eine Kampfansage an das Silicon Valley. Die neuen Modelle zielen darauf ab, die Leistung von GPT-5 zu erreichen und Googles Gemini 3 Pro im Bereich „Reasoning“ – also der logischen Schlussfolgerung – herauszufordern. Für deutsche Unternehmen besonders interessant: Das Modell erscheint unter der Apache-2.0-Lizenz als Open Weights, was den lokalen Betrieb ohne Datenabfluss ermöglicht. Architektur-Wechsel: Effizienz durch „Sparse Attention“ Die größte technische Neuerung betrifft die Art und Weise, wie das Modell Informationen verarbeitet. DeepSeek identifizierte die ineffiziente Verarbeitung langer Texte als eine Hauptschwäche bisheriger Open-Source-Modelle. Die Lösung nennen die Entwickler „DeepSeek Sparse Attention“ (DSA). Anstatt bei jeder Antwort den gesamten vorangegangenen Text erneut komplett zu prüfen, nutzt DSA ein Indexierungssystem. Das Modell bewertet vorab, welche Textbausteine für die aktuelle Antwort relevant sind, und ignoriert den Rest. Das senkt den Rechenaufwand massiv, ohne die Qualität der Antwort zu beeinträchtigen. Besonders bei langen Dokumentenanalysen macht sich dieser Effizienzsprung bemerkbar. Anzeige Strategiewechsel beim Training Auch beim Training geht der chinesische Anbieter neue Wege. Das Budget für das sogenannte Post-Training – die Phase, in der das Modell mittels menschlichem Feedback (Alignment) und Verstärkungslernen (Reinforcement Learning) feinjustiert wird – wurde drastisch erhöht. Flossen früher nur rund ein Prozent der Mittel in diesen Schritt, sind es bei V3.2 über zehn Prozent der gesamten Trainingskosten. Um diese Qualität zu erreichen, trainierte DeepSeek das System in über 4.400 synthetischen Aufgabenumgebungen und nutzte spezialisierte „Lehrer-Modelle“ für Mathematik und Programmierung, um hochwertige Trainingsdaten zu generieren. Benchmarks: Stark bei Agenten, knapp hinter Gemini In den harten Zahlen zeigt sich ein differenziertes Bild. Bei mathematischen Tests wie dem AIME 2025 erreicht V3.2 mit 93,1 Prozent fast das Niveau von GPT-5 (High), muss sich aber Googles Gemini 3 Pro (95,0 Prozent) geschlagen geben. Anders sieht es aus, wenn das Modell „arbeiten“ muss. In praktischen Szenarien, in denen die KI als autonomer Agent agiert, zieht DeepSeek vorbei. Im „SWE Multilingual“-Benchmark, der echte GitHub-Probleme simuliert, löst V3.2 beeindruckende 70,2 Prozent der Aufgaben. GPT-5 kommt hier nur auf 55,3 Prozent. Das macht das Modell besonders für Entwickler attraktiv, die KI-Agenten für komplexe Software-Tasks einsetzen wollen. + Quelle: Deepseek Speciale-Edition: Gold-Niveau mit hohem Verbrauch Parallel zum Allrounder erscheint „DeepSeek-V3.2-Speciale“. Diese Version operiert mit gelockerten Beschränkungen für die Länge der Gedankenketten (Chain-of-Thought). Das Resultat ist extreme Präzision: Bei der Internationalen Informatik-Olympiade 2025 erreichte das Modell Gold-Niveau. Dieser Scharfsinn hat jedoch seinen Preis. Das Speciale-Modell verbraucht für die Lösung komplexer Probleme im Schnitt 77.000 Token, während Konkurrent Gemini 3 Pro ähnliche Aufgaben mit 22.000 Token bewältigt. Wegen dieser Latenz und der höheren Kosten empfiehlt DeepSeek für den Standard-Einsatz das effizientere V3.2-Hauptmodell. Fazit: Echte Konkurrenz für US-Abos DeepSeek gibt offen zu, dass die Wissensbreite noch nicht ganz an die US-Vorbilder heranreicht. Dennoch ist V3.2, insbesondere durch die Apache-Lizenz und die starke Agenten-Performance, eine ernstzunehmende Alternative. Es erhöht den Druck auf OpenAI massiv, da Entwickler nun eine kostenlose, lokal betreibbare Option haben, die in der Praxis oft genauso gut funktioniert wie die teuren Bezahl-Dienste.

  • Ersetzt die KI dich heimlich schon heute?

    Eine Eisberg mit diversen Daten

    Nano Banana

    Kurzfassung

    Quellen

    Wissenschaftler des MIT und Oak Ridge haben mit dem „Iceberg Index“ ermittelt, dass KI bereits 11,7 Prozent der US-Arbeitskräfte technisch ersetzen kann. Die Studie zeigt, dass die größte Bedrohung nicht im Tech-Sektor liegt, sondern fünfmal stärker versteckt in administrativen und finanziellen Berufen lauert. Insgesamt steht durch die heute schon mögliche Automatisierung eine gewaltige Lohnsumme von etwa 1,2 Billionen US-Dollar auf dem Spiel.

    arXiv – The Iceberg Index: Measuring Workforce Exposure Across the AI Economy

    CNBC – MIT study finds AI can already replace 11.7% of U.S. workforce

    CBS News – AI can already do the work of 12% of America’s workforce, MIT researchers find

    Fast Company – MIT study finds AI is already capable of replacing 11.7% of U.S. workers

    Quartz – AI can replace nearly 12% of U.S. workers: MIT study

    Eine aktuelle Analyse des MIT liefert konkrete Zahlen zur Automatisierung durch künstliche Intelligenz. Die Technologie beherrscht heute schon Aufgaben von fast zwölf Prozent aller US-Arbeitskräfte. Das entspricht einer gewaltigen Lohnsumme von 1,2 Billionen Dollar, wobei die größte Gefahr im Verborgenen lauert. Der Iceberg Index deckt auf Wissenschaftler des MIT und des Oak Ridge National Laboratory entwickelten für diese Erhebung den sogenannten Iceberg Index. Sie simulierten in einem aufwendigen Verfahren die Interaktion von 151 Millionen US-Arbeitnehmern mit modernen KI-Systemen. Die Forscher prüften dabei präzise, welche menschlichen Fähigkeiten die Algorithmen aktuell eins zu eins ersetzen. Das Ergebnis der Simulation überrascht selbst Branchenkenner und widerlegt gängige Annahmen über die Sichtbarkeit von KI-Einflüssen. Lediglich 2,2 Prozent der durch KI verursachten Lohnstörungen treten in den bekannten Tech-Zentren und Start-ups auf. Der überwiegende Teil der massiven Veränderungen findet fernab der öffentlichen Aufmerksamkeit statt und bleibt damit zunächst unsichtbar. Verwaltung und Finanzen im Fadenkreuz Die Studie identifiziert administrative und finanzielle Dienstleistungen als primäres Ziel der schleichenden Automatisierung. Auch professionelle Services stehen im direkten Fokus der Algorithmen, da viele Abläufe hier festen Mustern folgen. Die KI übernimmt komplexe Analysen und Verwaltungsaufgaben schneller und kosteneffizienter als jeder menschliche Angestellte. Das unsichtbare Ausmaß dieser Verdrängung übertrifft die sichtbaren Effekte in der Tech-Branche um den Faktor fünf. Viele Unternehmen integrieren diese Systeme bereits stillschweigend in ihre täglichen Abläufe, ohne große Ankündigungen zu machen. Die vermeintliche Sicherheit in klassischen Bürojobs erweist sich laut den Daten als Trugschluss. Wirtschaftliche Verschiebung in Billionenhöhe Die betroffenen 11,7 Prozent der Arbeitskräfte repräsentieren ein Lohnvolumen von etwa 1,2 Billionen US-Dollar. Diese Summe verdeutlicht die enorme ökonomische Tragweite der technischen Möglichkeiten, die bereits heute zur Verfügung stehen. Unternehmen stehen vor der Entscheidung, dieses Kapital durch den Einsatz von Software einzusparen oder umzuschichten. Der technologische Fortschritt wartet nicht auf politische Regulierung oder gesellschaftliche Akzeptanz. Die bloße technische Machbarkeit erzeugt bereits jetzt einen enormen Anpassungsdruck auf den gesamten Arbeitsmarkt. Diese Studie markiert damit einen Wendepunkt in der Bewertung von Arbeitsplatzsicherheit im digitalen Zeitalter.

  • Google Deepmind präsentiert Wetter-KI der nächsten Generation

    Globales Atmosphärenmodell mit farbcodierten Feuchtigkeitswirbeln und Konvektionsbändern entlang des Äquators.

    Google Deepmind hat WeatherNext 2 vorgestellt, das laut Unternehmen bei 99,9 Prozent aller meteorologischen Variablen und Vorhersagezeiträume besser abschneidet als das Vorgängermodell.

    Der Artikel Google Deepmind präsentiert Wetter-KI der nächsten Generation erschien zuerst auf The Decoder.

  • Die große KI-Lüge?

    Ein Roboter misst mit einem kaputten, verzerrten Lineal

    Nano Banana

    Kurzfassung

    Quellen

    Eine internationale Studie hat 445 KI-Benchmark-Artikel untersucht. Das Ergebnis: Fast alle weisen massive methodische Schwächen auf. Nur 16 Prozent der Tests nutzen wissenschaftlich rigorose Methoden. Dies stellt die Zuverlässigkeit von KI-Leistungsmessungen und den oft zitierten Fortschritt fundamental infrage.

    Die Studie als PDF-Paper Hyper.ai – AI-Benchmarks untergraben Glaubwürdigkeit Hacker News – Study identifies weaknesses in how AI systems are evaluated

    Die Jagd nach der besten KI treibt die Branche an. Doch wie misst man Leistung überhaupt? Eine neue Studie erschüttert die Grundfesten dieser Messungen. Ein Team hat hunderte KI-Benchmarks analysiert und stellt fest: Die meisten sind wissenschaftlich unbrauchbar. Ein Fundament mit tiefen Rissen Ein internationales Forschungsteam hat die Messlatten der KI-Branche selbst auf den Prüfstand gestellt. Die Wissenschaftler analysierten 445 Benchmark-Artikel aus den wichtigsten KI-Konferenzen. Ihr Fazit ist ernüchternd. Die Studie zeigt massive methodische Schwächen bei fast allen gängigen Tests für Sprachmodelle auf. Das Team fand heraus, dass nur 16 Prozent der untersuchten Benchmarks wissenschaftlich rigorose Methoden anwenden. Konkret mangelt es an klaren Definitionen, was genau gemessen wird. Auch die Auswahl der Testdaten und die angewandten statistischen Verfahren halten einer strengen Prüfung oft nicht stand. + Quelle: https://openreview.net/pdf?id=mdA5lVvNcU Fortschritt auf wackeligem Boden Diese Ergebnisse werfen ein kritisches Licht auf den vermeintlichen Fortschritt im KI-Sektor. Wenn die Messinstrumente fehlerhaft sind, ist auch die Rangliste der Modelle unzuverlässig. Die gesamte Bewertung, welches Sprachmodell „besser“ ist, basiert womöglich auf einer fehlerhaften Grundlage. Die Konsequenzen gehen über reine Leistungsvergleiche hinaus. Auch die Sicherheit von KI-Systemen wird mit ähnlichen Methoden bewertet. Die Studie warnt, dass fehlerhafte Benchmarks dazu führen könnten, dass Sicherheitstests „irrelevant oder sogar irreführend“ sind. Das Vertrauen in die Zuverlässigkeit und Sicherheit der Technologie steht damit auf dem Spiel. Die Veröffentlichung ist ein Weckruf an die Forschungsgemeinschaft. Die Autoren fordern ein Umdenken und die Entwicklung robuster, wissenschaftlich fundierter Standards. Ohne verlässliche Messungen tappe die KI-Entwicklung weitgehend im Dunkeln. + Quelle: https://openreview.net/pdf?id=mdA5lVvNcU

  • Heimliche KI-Reporter: Diese Studie erschüttert die US-Medienwelt

    Aus einer Schreibmaschine kommen Hardware-Sachen raus

    Nano Banana

    Kurzfassung

    Quellen

    Eine Studie der University of Maryland zeigt, dass etwa 9% der Artikel in US-Zeitungen teilweise KI-generiert sind. Die Nutzung geschieht meist ohne Offenlegung, was das Vertrauen der Leser untergräbt. Lokale Zeitungen (9,3%) nutzen KI deutlich häufiger als nationale Medien (1,7%). Besonders alarmierend ist ein 25-facher Anstieg der KI-Nutzung bei Meinungsartikeln renommierter Zeitungen.

    AI News Audit (Forschungswebseite) AI Tech Suite AIJourn

    Etwa neun Prozent aller neuen Artikel in US-Zeitungen stammen teilweise oder ganz von einer KI. Das Brisante daran: Die Lesenden erfahren davon meist nichts. Eine aktuelle Studie der University of Maryland legt nun das überraschende Ausmaß der intransparenten KI-Nutzung offen. Neun Prozent der News sind nicht menschlich Forscher der University of Maryland haben die US-Zeitungslandschaft tiefgreifend analysiert. Für ihre Untersuchung prüften sie mehr als 250.000 Artikel mit einem speziellen KI-Detektor namens Pangram. Das Ergebnis zeigt, wie tief die Technologie bereits in den Redaktionen steckt. Durchschnittlich neun Prozent aller untersuchten Artikel waren zumindest teilweise KI-generiert. Diese Zahl wirft ein Schlaglicht auf eine Praxis, die bisher weitgehend im Verborgenen stattfand. Die Technologie wird eingesetzt, aber die Verlage sprechen nicht darüber. + Quelle: https://arxiv.org/pdf/2510.18774 Große Kluft zwischen Lokal- und Elite-Medien Die Analyse offenbart eine deutliche Spaltung im US-Medienmarkt. Bei den großen, nationalen Zeitungen mit hoher Reputation lag der Anteil der KI-Texte bei verhältnismäßig niedrigen 1,7 Prozent. Diese Häuser scheinen der Technologie noch mit größerer Vorsicht zu begegnen. Ganz anders ist die Situation bei lokalen Publikationen. Hier waren 9,3 Prozent der Inhalte KI-generiert. Experten vermuten, dass gerade kleinere Verlage unter enormem Kostendruck stehen. Sie setzen KI offenbar ein, um den Mangel an Journalisten zu kompensieren und die Produktion aufrechtzuerhalten. Vertrauensproblem bei Meinungsartikeln Besonders alarmierend ist eine Entwicklung in einem sensiblen Bereich: den Meinungsbeiträgen. Selbst bei den renommierten Zeitungen, die sonst zurückhaltend sind, explodierte hier die KI-Nutzung. Die Forscher stellten zwischen 2022 und 2025 einen 25-fachen Anstieg fest. Meinungsartikel sollen eigentlich menschliche Perspektiven und Argumente widerspiegeln. Wenn hier Algorithmen unbemerkt mitschreiben, stellt das die Glaubwürdigkeit infrage. Die Studie kritisiert scharf, dass eine Offenlegung dieser Praktiken fast nie stattfindet. Die mangelnde Transparenz wird als größtes Problem gesehen. Während einige Medien Richtlinien entwickeln, zeigt die Studie, dass die Realität oft anders aussieht. Das Vertrauen der Öffentlichkeit in die Medien könnte durch diese heimliche Automatisierung weiter beschädigt werden.

  • KI-generierte Inhalte durchdringen US-Zeitungslandschaft weitgehend unbemerkt

    Eine umfassende Studie der University of Maryland zeigt, dass etwa neun Prozent aller neu veröffentlichten amerikanischen Zeitungsartikel teilweise oder vollständig von künstlicher Intelligenz generiert werden, meist ohne Kennzeichnung für die Lesenden.

    Der Artikel KI-generierte Inhalte durchdringen US-Zeitungslandschaft weitgehend unbemerkt erschien zuerst auf The Decoder.

  • KI: Job-Killer oder Job-Helfer?

    Eine menschliche und eine künstliche Hand schreiben zusammen

    Nano Banana

    Kurzfassung

    Quellen

    Gartner hat 10 Prognosen veröffentlicht, die eine „Welt zerbrochener Normen“ durch KI beschreiben. Die Arbeitswelt steht vor einem Umbruch: KI-Tests werden Standard, gleichzeitig werden „KI-freie“ Tests eingeführt, um kritisches Denken zu prüfen. KI könnte bis 2026 die Hälfte des mittleren Managements überflüssig machen und wird Teil von Arbeitsverträgen (KI-Personas). Gartner warnt auch vor neuen Risiken, darunter Tausende „Tod durch KI“-Klagen, digitale Sucht und Sicherheitslücken durch KI-Agenten.

    Gartner Consumer Goods IT-Online CIO Dive InformationWeek

    Unternehmen können sich nicht mehr auf die Regeln von gestern verlassen. Das Marktforschungsunternehmen Gartner hat auf seinem IT Symposium/Xpo zehn strategische Prognosen vorgestellt, die eine „Welt zerbrochener Normen“ beschreiben. Die Analysen fokussieren sich auf drei Kernbereiche: den Wandel der Arbeitswelt, neue digitale Risiken und die Neudefinition von Geschäftsmodellen durch KI. Hier sind die zehn Prognosen im Detail. 1. KI-Tests im Einstellungsprozess Bis 2027 werden 75 Prozent der Einstellungsverfahren Tests zur KI-Kompetenz beinhalten. Der routinierte Umgang mit KI-Werkzeugen, etwa das Formulieren von Prompts, wird zur Grundvoraussetzung. Unternehmen wollen so sicherstellen, dass neue Mitarbeiter die Produktivitätsvorteile der Technologie voll ausschöpfen können. 2. Die Rückkehr der „KI-freien“ Tests Gleichzeitig entsteht ein gegenläufiger Trend. Weil die ständige Nutzung von KI das kritische Denken verkümmern lässt, werden bis 2026 die Hälfte aller Unternehmen „KI-freie“ Kompetenztests einführen. Diese Tests sollen sicherstellen, dass Bewerber komplexe Probleme noch selbstständig und ohne technologische Unterstützung lösen können. 3. KI flacht Hierarchien ab Künstliche Intelligenz wird die Unternehmensstruktur direkt verändern. Gartner erwartet, dass bis 2026 rund 20 Prozent der Organisationen KI nutzen, um ihre Hierarchien abzuflachen. Mehr als die Hälfte der aktuellen Middle-Management-Positionen könnten dadurch wegfallen, da KI deren Koordinations- und Reportingaufgaben übernimmt. 4. Die KI-Persona im Arbeitsvertrag Die Technologie greift in die Persönlichkeitsrechte ein. Bis 2027 dürften 70 Prozent aller neuen Arbeitsverträge Klauseln zur Lizenzierung von KI-Personas der Mitarbeiter enthalten. Unternehmen wollen digitale Abbilder ihrer Angestellten für Meetings oder den Kundenservice nutzen, was komplexe rechtliche Fragen zur Nutzung und Vergütung aufwirft. 5. Haftungsrisiko „Tod durch KI“ Die Analysten warnen vor einer Welle neuer, „heimtückischer“ KI-Risiken. Bis Ende 2026 rechnet Gartner mit weltweit über 2.000 Gerichtsverfahren wegen „Tod durch KI“. Dabei geht es um Haftungsfragen, wenn KI-Systeme in sicherheitskritischen Bereichen versagen, etwa bei autonomen Fahrzeugen oder in der Medizintechnik. 6. Emotionale KI im Gesundheitswesen Auch im Gesundheitssektor entstehen neue Haftungsrisiken. Bis 2027 werden 70 Prozent der Gesundheitsdienstleister in ihren Verträgen Bedingungen zu emotionaler KI aufnehmen. Sie wollen sich rechtlich dagegen absichern, verklagt zu werden, weil eine KI beispielsweise eine Depression nicht erkannt hat oder falsch auf emotionale Signale eines Patienten reagierte. 7. „Anti-Digital-Richtlinien“ gegen Sucht Ein weiteres Risiko ist die digitale Abhängigkeit. Gartner prognostiziert, dass bis 2028 die zunehmende Immersion in digitale Welten zu Isolation und Suchtverhalten führt. Als Reaktion darauf werden 70 Prozent der Unternehmen „Anti-Digital-Richtlinien“ einführen, etwa feste „Offline-Zeiten“ oder Meeting-freie Tage, um die mentale Gesundheit zu schützen. 8. Missbrauch von KI-Agenten Die Sicherheit von Unternehmen wird durch KI-Agenten fundamental bedroht. Bis 2028 wird schätzungsweise ein Viertel aller Sicherheitsverletzungen in Unternehmen auf den Missbrauch von KI-Agenten zurückzuführen sein. Dies gilt sowohl für externe Angreifer als auch für böswillige Insider, die automatisierte Systeme für Datendiebstahl oder Sabotage nutzen. 9. Angriff auf Office und Co. Die Dominanz alter Software-Giganten wackelt. Bis 2027 werden KI-Agenten und generative KI die etablierten Produktivitäts-Tools wie Office-Suiten herausfordern. Gartner erwartet eine Marktverschiebung im Wert von 58 Milliarden US-Dollar, da neue, effizientere Werkzeuge die alten, starren Arbeitsweisen ersetzen. 10. Programmierbares Geld Schließlich wird KI das Geld selbst verändern. Bis 2030 werden 20 Prozent aller globalen Geldtransaktionen programmierbare Bedingungen enthalten. KI-Agenten können dann autonom Verträge aushandeln und Zahlungen ausführen, sobald bestimmte Kriterien erfüllt sind, was den Handel und die Finanzwelt fundamental verändern könnte. Diese Prognosen zeichnen ein Bild einer Zukunft, in der KI kein reines Werkzeug mehr ist, sondern ein fundamentaler Akteur in Wirtschaft und Gesellschaft.

  • SEO-Studie behauptet, 50 Prozent der Web-Inhalte seien KI-generiert, aber das ist irreführend

    Komplexes Netzwerk: Weiße Verbindungslinien mit farbigen Knotenpunkten und Buchstaben auf schwarzem Hintergrund, symbolisiert In-Context Learning.

    In sozialen Medien kursiert eine Studie, die behauptet, mehr als 50 Prozent der Web-Inhalte seien „von KI statt von Menschen kreiert“. Das ist irreführend.

    Der Artikel SEO-Studie behauptet, 50 Prozent der Web-Inhalte seien KI-generiert, aber das ist irreführend erschien zuerst auf THE-DECODER.de.

  • ChatGPTs Memory-Funktion könnte zur Werbefalle werden

    Rund 20 Prozent der OpenAI-Belegschaft stammen mittlerweile von Meta – und das spiegelt sich zunehmend in der Unternehmensstrategie wider. An vorderster Front: Fidji Simo, CEO of Applications, die zuvor mehr als zehn Jahre bei Facebook arbeitete.

    Der Artikel ChatGPTs Memory-Funktion könnte zur Werbefalle werden erschien zuerst auf THE-DECODER.de.