Schlagwort: USA

  • Infrastruktur-Kollaps droht: Warum OpenAI und Microsoft der Strom ausgeht

    Digitale Karte der USA

    Einem neuen Bericht zufolge droht den USA eine massive Energielücke, die die Expansionspläne von OpenAI, Microsoft und Co. gefährden könnte.

    Der Artikel Infrastruktur-Kollaps droht: Warum OpenAI und Microsoft der Strom ausgeht erschien zuerst auf The Decoder.

  • Microsoft startet Shopping-Funktion für Copilot

    Microsoft stattet seinen Browser Edge in den USA mit neuen KI-Shopping-Funktionen aus.

    Der Artikel Microsoft startet Shopping-Funktion für Copilot erschien zuerst auf The Decoder.

  • Linkedin startet generative KI-Suche für Personen

    LinkedIn startet in den USA eine neue KI-gestützte Suche für Premium-Mitglieder.

    Der Artikel Linkedin startet generative KI-Suche für Personen erschien zuerst auf The Decoder.

  • Wer kontrolliert die KI?

    Die KI-Welt wir von einer chinesischen Hand gebaut

    Nano Banana

    Kurzfassung

    Quellen

    Chinas Präsident Xi Jinping hat auf dem APEC-Gipfel die Gründung einer „Welt-KI-Organisation“ (WAICO) vorgeschlagen. Diese Organisation soll globale Standards für KI-Governance setzen und den USA eine Alternative entgegenstellen. Der Vorstoß erfolgte, während US-Präsident Trump den Gipfel vorzeitig verließ, was China eine ungestörte Bühne bot. Die USA lehnen internationale KI-Regulierungen bisher ab, was einen globalen Konflikt um Tech-Standards verschärft.

    China Ministry of Foreign Affairs China Daily Asia English.gov.cn Reuters CNBC

    Chinas Präsident Xi Jinping will die globalen Regeln für künstliche Intelligenz mitbestimmen. Auf dem APEC-Gipfel in Südkorea schlug er eine neue Welt-KI-Organisation vor. Dieser Vorstoß ist eine direkte strategische Ansage an die USA, die eine solche Regulierung bisher blockieren. Peking will globale KI-Regeln definieren China nutzt die große Bühne des APEC-Gipfels im südkoreanischen Gyeongju für einen strategischen Vorstoß. Präsident Xi Jinping schlug am Samstag die Gründung einer „World Artificial Intelligence Cooperation Organization“, kurz WAICO, vor. Die Rede Xis unterstreicht Pekings Anspruch, bei der globalen KI-Entwicklung eine Führungsrolle zu übernehmen. Diese neue Organisation soll internationale Standards für KI-Governance entwickeln und festlegen. Laut Xi soll sie sicherstellen, dass KI der gesamten Menschheit „nützlich, sicher und fair“ dient. China positioniert den Vorschlag als Schaffung eines „öffentlichen Guts“ und hat bereits Shanghai als möglichen Hauptsitz ins Spiel gebracht. Ein unbesetztes Feld für Xi Der Vorstoß Chinas trifft auf eine strategische Lücke, die die USA hinterlassen haben. Die US-Regierung lehnt internationale Gremien zur Regulierung von KI bisher entschieden ab. US-Präsident Donald Trump reiste nach einem Vorgespräch mit Xi, bei dem ein kleiner Handels-Deal vereinbart wurde, vorzeitig aus Gyeongju ab. Trump überließ Xi damit das Feld beim Hauptgipfel der Staats- und Regierungschefs. Beobachter werten dies als „unangefochtene Messaging-Gelegenheit“ für Peking. Xi konnte sich ohne direkten Widerspruch als Verfechter multilateraler Zusammenarbeit präsentieren und gleichzeitig Chinas eigene KI-Modelle bewerben. Der Gipfel endete zwar mit einer gemeinsamen „Gyeongju-Erklärung“, die eine allgemeine „APEC AI Initiative“ beinhaltet. Dies gilt als erster KI-Konsens zwischen den USA und China in diesem Forum. Xis Vorstoß für eine eigenständige Weltorganisation geht jedoch weit darüber hinaus und zielt auf eine neue globale Tech-Architektur ab.

  • Die Daten-Krake Uber schlägt wieder zu

    Ein BMW von Uber mit einer Datenkrake auf dem Dach

    Nano Banana

    Kurzfassung

    Quellen

    Uber hat in den USA das Pilotprogramm „Digital Tasks“ gestartet, mit dem Fahrer in ihrer Freizeit Geld verdienen können. Die Fahrer erledigen Mikro-Aufgaben wie Audioaufnahmen oder das Hochladen von Fotos, um KI-Modelle zu trainieren. Das Programm soll Ubers eigenen KI-Datenservice stärken und das Unternehmen als Konkurrenten im Markt für Daten-Labeling positionieren. Die Initiative ist Teil einer größeren Strategie, die Einnahmequellen für Fahrer zu diversifizieren und das globale Fahrernetzwerk für neue Geschäftsbereiche zu nutzen.

    Uber Newsroom CNBC The Verge TechRound Chosun Biz

    Uber startet in den USA ein neues Pilotprogramm, das Fahrern ermöglicht, in ihrer Wartezeit Geld zu verdienen. Mit „Digital Tasks“ können sie kleine Aufgaben erledigen, die zum Training von künstlicher Intelligenz dienen. Der Vorstoß verwandelt das globale Fahrernetzwerk in eine riesige Datensammel-Maschine für Ubers KI-Dienstleistungen. Vom Fahrer zum Datensammler Das neue Programm macht die Fahrer-App zur Plattform für KI-Trainingsdaten. In den Pausen zwischen Fahrten oder während des Ladens ihrer Fahrzeuge können Fahrer nun bezahlte Mikro-Aufgaben annehmen. Diese Aufgaben sind vielfältig und umfassen beispielsweise das Aufnehmen von Audio-Clips in verschiedenen Sprachen oder das Fotografieren und Hochladen von Speisekarten. Die Vergütung richtet sich nach dem geschätzten Zeitaufwand der jeweiligen Aufgabe. Uber will damit eine neue Einnahmequelle für seine Fahrer schaffen, die unabhängig vom reinen Fahrdienst ist. Das Unternehmen betont, dass diese Tätigkeiten ausschließlich in der fahrfreien Zeit erledigt werden können, um die Sicherheit nicht zu gefährden. Strategischer Ausbau des KI-Geschäfts Hinter dem Programm steckt eine klare strategische Ausrichtung. Uber baut seinen Geschäftsbereich für KI-Dienstleistungen gezielt aus. Anstatt externe Firmen für das Labeln von Daten zu beauftragen, nutzt das Unternehmen nun sein eigenes, globales Netzwerk von Fahrern. Dieser Schritt soll die Effizienz steigern und die Kosten für das Training der eigenen KI-Modelle senken. Die gesammelten Daten dienen der Verbesserung von Ubers internen Systemen und werden auch Unternehmenskunden angeboten. Das Programm hat nichts mit der Entwicklung autonomer Fahrzeuge zu tun. Vielmehr positioniert sich Uber als Konkurrent zu etablierten Daten-Labeling-Anbietern wie Scale AI und Amazons Mechanical Turk. Das Pilotprojekt in den USA folgt auf erste erfolgreiche Tests in Indien.

  • Europas KI-Kriegserklärung an die Tech-Giganten

    Eine Europa KI Festung

    Europas KI-Kriegserklärung an die Tech-Giganten Mit einer neuen Milliarden-Strategie will die EU ihre digitale Abhängigkeit von den USA und China endlich beenden. Kurzfassung | Andreas Becker, 08.10.25
    gpt-image-1 | All-AI.de Die Europäische Union leitet eine strategische Wende in ihrer Technologiepolitik ein. Mit der neuen „Apply AI Strategy“ will Brüssel die digitale Abhängigkeit von den USA und China beenden. Eine Milliarde Euro soll einen „AI first“-Ansatz in allen wichtigen Industrien Europas verankern und die technologische Souveränität des Kontinents sichern. Milliarden-Investition für zehn Schlüsselbereiche Das Geld für die Offensive mobilisiert die EU aus bestehenden Programmen wie Horizon Europe und dem Digital Europe Programme. Es soll gezielt in die Anwendung von künstlicher Intelligenz in zehn strategisch wichtigen Sektoren fließen. Dazu gehören das Gesundheitswesen, die Automobilindustrie, die Fertigung und der Verteidigungssektor. Die EU-Kommission will damit konkrete Projekte vorantreiben. Denkbar sind KI-gestützte Diagnosezentren, autonome Fahrtechnologien oder spezialisierte KI-Modelle für den Klimaschutz. Ziel ist es, eine Denkweise zu etablieren, bei der künstliche Intelligenz von Beginn an in die Wertschöpfung integriert wird. Die Zukunft der KI solle in Europa gestaltet werden. Der Weckruf durch Zahlen Die Dringlichkeit der Initiative untermauern alarmierende Zahlen. Nur 13,5 Prozent der EU-Unternehmen mit mindestens zehn Mitarbeitern nutzen derzeit aktiv KI. Bis 2030 soll dieser Wert auf 75 Prozent steigen. Noch deutlicher wird der Rückstand bei den Investitionen in Risikokapital. Europa investierte hier rund 7 Milliarden Euro, während die USA auf 58,5 Milliarden und China auf 12,9 Milliarden Euro kommen. Diese Abhängigkeit von externer Technologie birgt erhebliche Risiken. Die EU warnt davor, dass die grundlegende Infrastruktur für KI-Entwicklung von externen Akteuren als Waffe eingesetzt werden könnte. Unternehmen sollten daher bevorzugt auf europäische Lösungen setzen, um kritische Daten und Prozesse zu schützen. Herausforderungen auf dem Weg zur Souveränität Trotz der ambitionierten Pläne bleiben große Hürden bestehen. Die bereits beschlossene EU-KI-Verordnung (AI Act) steht bei vielen Unternehmen wegen hoher bürokratischer Auflagen in der Kritik. EU-Startups tragen schon heute eine rund 30 Prozent höhere Last durch Regulierungen als ihre Konkurrenten in den USA. Ein weiteres zentrales Problem sind die Energiekosten. Europäische Strompreise liegen teilweise doppelt so hoch wie in den USA und China. Dies verteuert den Betrieb von energieintensiven Rechenzentren und KI-Gigafabriken erheblich. Ob die mobilisierte Milliarde ausreicht, um diese strukturellen Nachteile auszugleichen, ist sehr fraglich… MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG
    Die EU startet mit der „Apply AI Strategy“ eine eine Milliarde Euro schwere Initiative, um KI in Schlüsselsektoren zu fördern.
    Ziel ist es, die technologische Abhängigkeit von den USA und China zu reduzieren und Europas digitale Souveränität zu stärken.
    Die Strategie reagiert auf einen dramatischen Rückstand bei KI-Nutzung und Risikokapital-Investitionen in europäischen Unternehmen.
    Hohe Bürokratie durch den AI Act und doppelt so hohe Energiekosten wie in den USA bleiben große Herausforderungen.
    QUELLEN
    EU Observer
    AL24 News
    Trending Topics
    Reuters
    Europäische Kommission

  • EU plant neue KI-Strategie zur Stärkung der digitalen Souveränität

    Die EU will mit einer neuen KI-Strategie ihre technologische Abhängigkeit von den USA und China verringern. Im Zentrum stehen europäische Lösungen und der sicherheitspolitische Einsatz von Künstlicher Intelligenz.

    Der Artikel EU plant neue KI-Strategie zur Stärkung der digitalen Souveränität erschien zuerst auf THE-DECODER.de.

  • Kaufen per Chat: OpenAI startet Frontalangriff

    Smartphone mit OpenAI Shopping

    Kaufen per Chat: OpenAI startet Frontalangriff Die neue Bezahlfunktion in ChatGPT macht Google und Amazon Konkurrenz. Was sich für dich beim Online-Shopping jetzt grundlegend ändert. Kurzfassung | Andreas Becker, 30.09.25
    OpenAI | All-AI.de EINLEITUNG OpenAI verwandelt ChatGPT von einem reinen Informationswerkzeug in einen interaktiven Marktplatz. Mit der neuen Funktion „Instant Checkout“ können Nutzer in den USA Produkte direkt im Chat kaufen, ohne die Anwendung jemals zu verlassen. Dieser Schritt ist eine direkte Kampfansage an die etablierten Giganten des Online-Handels, Google und Amazon, und könnte die Art, wie Menschen online einkaufen, von Grund auf verändern – weg von der Stichwortsuche, hin zur dialogbasierten Kaufberatung. NEWS Vom Chatbot zum persönlichen Einkaufsassistenten Die neue Funktion macht den Kaufprozess nahtlos und intuitiv. Statt starre Suchbegriffe in eine Maske einzutippen, können Nutzer natürlichsprachige Anfragen stellen, etwa nach „Geschenken für jemanden, der gerne töpfert“ oder „die besten Wanderschuhe für unter 150 Euro“. ChatGPT präsentiert daraufhin passende Produkte mit Bildern, Preisen und Bewertungen. Erscheint der „Kaufen“-Button, genügt ein Klick, um die Transaktion direkt abzuschließen. Die technische Abwicklung im Hintergrund übernimmt der Zahlungsdienstleister Stripe, der zusammen mit OpenAI das System entwickelt hat. Gängige Zahlungsmethoden wie Apple Pay, Google Pay oder Kreditkarte werden unterstützt. Für Abonnenten von ChatGPT Plus wird der Prozess noch einfacher, da sie ihre bereits hinterlegten Zahlungsdaten nutzen können. Zunächst startet die Funktion in den USA mit Verkäufern der Plattform Etsy, soll aber bald auf über eine Million Händler von Shopify ausgeweitet werden. Quelle: OpenAI Neue Spielregeln für den Online-Handel Für Händler eröffnet sich ein neuer, potenziell riesiger Vertriebskanal mit den rund 700 Millionen wöchentlichen Nutzern von ChatGPT. Entscheidend ist dabei das Auswahlverfahren: OpenAI betont, dass die angezeigten Produkte ausschließlich nach Relevanz für die Anfrage des Nutzers ausgewählt werden. Bezahlte Anzeigen oder eine bevorzugte Platzierung, wie bei Google Shopping üblich, gibt es nicht. Das schafft gleiche Chancen für kleinere Anbieter, stellt aber auch neue Anforderungen an die Produktpräsentation. Die Reaktion der Finanzmärkte unterstreicht die Bedeutung dieses Schrittes. Unmittelbar nach der Ankündigung stiegen die Aktienkurse von Etsy und Shopify deutlich an. Händler, die über die Plattform verkaufen, müssen eine Gebühr an OpenAI entrichten, deren genaue Höhe jedoch nicht öffentlich bekannt ist. Trotzdem behalten sie die volle Kontrolle über ihre Kundendaten und können Bestellungen wie gewohnt bearbeiten, annehmen oder ablehnen. Ein offener Standard für die Zukunft des Handels Das technologische Herzstück der neuen Funktion ist das „Agentic Commerce Protocol“ (ACP). OpenAI und Stripe haben dieses Protokoll als offenen Standard konzipiert und stellen es quelloffen zur Verfügung. Die Idee dahinter ist, eine gemeinsame technische Sprache zu schaffen, die es KI-Agenten ermöglicht, sicher und standardisiert mit den Systemen von Händlern zu kommunizieren und Transaktionen abzuwickeln. Andere Entwickler und Plattformen können diesen Standard ebenfalls implementieren. Diese Strategie zeigt, dass OpenAI eine Vision verfolgt, die weit über eine simple Kauffunktion in ChatGPT hinausgeht. Es geht darum, die Infrastruktur für eine neue Ära des „agentenbasierten Handels“ zu schaffen, in der KI-Assistenten im Auftrag der Nutzer selbstständig agieren. Derzeit ist die Funktion noch auf Einzelkäufe in den USA beschränkt, doch eine Ausweitung auf Warenkörbe und weitere Länder ist bereits geplant. Die Revolution des E-Commerce hat gerade erst begonnen. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG OpenAI führt mit „Instant Checkout“ eine revolutionäre Shopping-Funktion in ChatGPT ein, die direktes Einkaufen ohne Plattformwechsel ermöglicht. Die Funktion startet in den USA mit Etsy-Verkäufern und wird auf über eine Million Shopify-Händler ausgeweitet, basierend auf dem neuen Agentic Commerce Protocol. Etsy-Aktien sprangen um 16% und Shopify um 6%, während OpenAI eine neue Einnahmequelle durch Händlergebühren erschließt. ChatGPT wird damit zum direkten Konkurrenten von Google und Amazon im E-Commerce-Bereich, mit werbefreien, relevanzbasierten Produktempfehlungen. QUELLEN Stripe Newsroom Fortune OpenAI Blog CNBC TechCrunch

  • KI im Krieg: Spiel mit der Atomwaffe

    Ein Clown vor einem Atomknopf

    KI im Krieg: Spiel mit der Atomwaffe Stanford-Studie zeigt Eskalation bis zum Nuklearschlag, während den USA laut Experten klare Gesetze für KI in der Befehlskette fehlen. Kurzfassung | Andreas Becker, 08.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Eine neue Studie von Stanford zeigt: Sprachmodelle eskalieren militärische Krisensimulationen – teils bis zum Atomschlag. Gleichzeitig fehlt in den USA eine klare Regelung, wie Künstliche Intelligenz in nuklearen Entscheidungsprozessen eingesetzt werden darf. Offiziell bleibt der Mensch am Drücker. Doch der wachsende Einsatz von KI in der Militärplanung sorgt bei Experten für Unruhe – vor allem, wenn die Technik schneller ist als der Verstand. NEWS Wenn der Algorithmus den roten Knopf sieht In militärischen Planspielen testeten Forscher, wie sich KI-Modelle wie GPT oder Claude in Krisenszenarien verhalten. Das Ergebnis: Die Systeme eskalierten die Lage regelmäßig – bis hin zum Einsatz von Atomwaffen. Deeskalation? Fehlanzeige. Jacquelyn Schneider vom Hoover-Institut spricht von einem grundlegenden Problem: Die Sprachmodelle „verstehen“ Eskalation, aber nicht deren Umkehr. Gerade in nuklearen Krisen, wo Zurückhaltung überlebenswichtig ist, wird das zur Gefahr. Die Forscher warnen, KI-Agenten in realen Entscheidungsprozessen einzusetzen – zumindest solange ihr Verhalten nicht wirklich verstanden wird. Zwischen Anspruch und Realität Die USA betonen immer wieder, dass der Mensch die letzte Entscheidung über den Einsatz von Atomwaffen trifft. Auch internationale Erklärungen zur verantwortungsvollen Nutzung von KI im Militär bekräftigen dieses Prinzip. Doch die Realität sieht weniger klar aus. Ein Blick in die Richtlinie 3000.09 des US-Verteidigungsministeriums zeigt: Autonome Systeme sind nicht verboten, sie müssen nur „angemessene menschliche Kontrolle“ beinhalten. Was das konkret bedeutet, bleibt offen. Laut Experten der Federation of American Scientists fehlt bis heute eine verbindliche Regelung für den Einsatz von KI in der nuklearen Kommandostruktur. Ein gefährliches Vakuum. Geschwindigkeit als Risiko Die US-Luftwaffe testet KI-Systeme, um Entscheidungsprozesse im Einsatzfall zu beschleunigen. Der Mensch bleibt offiziell beteiligt – doch wer im Ernstfall auf KI-Tempo trainiert ist, folgt womöglich unreflektiert der Maschine. Gleichzeitig droht eine gefährliche Überlagerung: Wenn KI-gestützte Aufklärungssysteme Signale falsch interpretieren oder konventionelle Daten als nukleare Bedrohung einstufen, kann daraus eine Eskalationsspirale entstehen. Und die Frage, wer dann die Verantwortung trägt, wird mit jeder Automatisierung diffuser. Warum Regeln jetzt entscheidend sind Dass KI früher oder später Teil militärischer Entscheidungsketten wird, ist kaum noch zu verhindern. In der Wartung, bei Sensoren, in der Datenanalyse – dort kann sie hilfreich sein. Doch wenn es um Leben und Tod geht, braucht es glasklare Grenzen. Experten fordern deshalb robuste Tests, messbare Kontrollmechanismen und rechtlich bindende Vorgaben. Nur so lässt sich verhindern, dass ein fehlerhafter Algorithmus in Sekunden Entscheidungen trifft, für die Menschen jahrzehntelang Regeln entwickelt haben – und die niemand mehr rückgängig machen kann. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Neue Wargames zeigen: LLMs eskalieren Krisen und greifen in Ausnahmen sogar zu Nuklearoptionen.
    Trotz politischer Zusagen zur menschlichen Kontrolle fehlen in den USA klare Leitlinien für KI im NC3-System.
    Militärische Tests beschleunigen Entscheidungsprozesse; Automationsbias erhöht das Fehlentscheidungsrisiko.
    Experten fordern verbindliche Regeln, robuste Tests und messbare „meaningful human control“.
    QUELLEN
    Stanford HAI Policy Brief: Escalation Risks from LLMs
    Federation of American Scientists: AI × NC3 Report (2025)
    Hoover Institution: Could AI Trigger A Nuclear War?
    Arms Control Today: Biden Sets AI Rules for National Security
    DoD Directive 3000.09: Autonomy in Weapon Systems (2023)

  • KI entscheidet in den USA: Hilfe oder Todesurteil?

    Eine KI entscheidet über Leben und Tod

    KI entscheidet in den USA: Hilfe oder Todesurteil? USA starten ein KI-Projekt, das entscheidet, wer behandelt wird. Ist das die Zukunft der Medizin oder ein gefährlicher Rückschritt? Kurzfassung | Andreas Becker, 30.08.25
    gpt-image-1 | All-AI.de EINLEITUNG In den USA startet ein neues Pilotprojekt, bei dem Künstliche Intelligenz über bestimmte medizinische Leistungen mitentscheiden soll. Betroffen ist das staatliche Krankenversicherungsprogramm Medicare, das vor allem ältere Menschen absichert. Künftig sollen Computer-Algorithmen vorab prüfen, ob bestimmte Behandlungen bezahlt werden – oder nicht. Der Versuch beginnt Anfang 2026 in sechs Bundesstaaten und sorgt schon jetzt für Diskussionen. NEWS Wie das Ganze funktionieren soll Das neue Programm nennt sich WISeR – ein Modellversuch, bei dem die Regierung mit Technikfirmen zusammenarbeitet. Ziel ist es, Behandlungen zu erkennen, die unnötig oder zu teuer sein könnten. Statt wie bisher einfach alle ärztlichen Leistungen zu bezahlen, soll künftig geprüft werden, ob ein Eingriff wirklich sinnvoll ist. Dafür setzen die Behörden auf KI-Systeme, die schnell große Datenmengen auswerten können. Die erste Phase startet in Arizona, Ohio, Texas, Oklahoma, New Jersey und Washington. Dort sollen bestimmte Eingriffe wie teure Implantate oder spezielle Operationen vorab genehmigt werden müssen. Bisher war das bei „Original Medicare“, also der klassischen Variante der Krankenversicherung, nicht üblich. Jetzt will der Staat nach eigenen Angaben Betrug, Fehlbehandlungen und unnötige Kosten eindämmen. Warum das viele kritisch sehen Auch wenn die Regierung betont, dass Ärzte weiterhin die letzte Entscheidung treffen – viele Experten sind skeptisch. Denn wenn eine KI über Ablehnung oder Genehmigung entscheidet, kann das zu Verzögerungen führen. Oder dazu, dass wichtige Behandlungen gar nicht erst stattfinden. Gerade ältere Menschen oder chronisch Kranke könnten dadurch schlechter versorgt werden. Hinzu kommt: Die Firmen, die die Algorithmen betreiben, werden daran gemessen, wie viel Geld sie einsparen. Das weckt den Verdacht, dass es vor allem darum geht, möglichst viele Leistungen abzulehnen – nicht darum, die beste Versorgung zu sichern. Kritiker sprechen bereits von „KI-Triage“ oder gar „digitalen Todesurteilen“. Was das für Patienten bedeutet Für die Versicherten soll sich vorerst nichts ändern, heißt es offiziell. Doch die praktische Umsetzung bleibt fraglich. Was passiert, wenn eine KI etwas ablehnt, das ein Arzt für dringend notwendig hält? Wie schnell lässt sich das klären – und wer haftet im Ernstfall? Solche Fragen sind bislang ungeklärt. Die Regierung verspricht, das Ganze genau zu beobachten. Zahlen zu Bearbeitungszeiten, Erfolgsquoten bei Widersprüchen und Auswirkungen auf die Gesundheit sollen öffentlich gemacht werden. Der Versuch läuft sechs Jahre. Ob er danach bundesweit eingeführt wird, hängt davon ab, wie zuverlässig das System arbeitet – und ob es tatsächlich hilft, die Versorgung zu verbessern. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Die USA starten 2026 ein Pilotprojekt, bei dem KI über bestimmte medizinische Leistungen im Medicare-System mitentscheidet.
    Ziel ist es, unnötige oder teure Behandlungen frühzeitig zu erkennen und Kosten zu senken.
    Kritiker warnen vor möglichen Fehlentscheidungen, Verzögerungen und Nachteilen für Patienten, vor allem für ältere Menschen.
    Ob das System langfristig eingeführt wird, hängt vom Erfolg des sechsjährigen Tests in sechs Bundesstaaten ab.
    QUELLEN
    Centers for Medicare & Medicaid Services
    CMS – WISeR Model Factsheet
    Axios
    MarketWatch
    TIME
    Newsweek