Schlagwort: Anwender

  • Microsoft Copilot Health: Neue KI analysiert persönliche Patientenakten

    Ein Bild mit Patientenakten

    Nano Banana

    Kurzfassung

    Quellen

    Microsoft hat mit Copilot Health einen spezialisierten KI-Assistenten für persönliche Gesundheitsdaten vorgestellt.
    Das System bündelt Vitalwerte von Wearables wie der Apple Watch und verknüpft diese mit elektronischen Patientenakten sowie Laborergebnissen.
    Die KI dient nicht der Diagnose, sondern übersetzt medizinische Fachsprache und bereitet Anwender auf den Arztbesuch vor.
    Aus Datenschutzgründen arbeitet der Assistent in einer isolierten Umgebung, in der die Daten nicht für das Training von KI-Modellen verwendet werden.

    Microsoft AI: Introducing Copilot Health

    Microsoft erweitert seinen KI-Assistenten um einen dedizierten Gesundheitsbereich. Copilot Health führt Daten von Smartwatches, Laborergebnissen und Arztbriefen zusammen, um komplexe medizinische Informationen für Anwender verständlich aufzubereiten. Datenaggregation statt Diagnostik Der neue KI-Assistent fungiert als zentraler Knotenpunkt für verstreute Gesundheitsinformationen. Nutzer können über Schnittstellen (APIs) ihre Fitness-Tracker wie die Apple Watch, Oura-Ringe oder Fitbit-Geräte anbinden. Zusätzlich integriert das System über den Drittanbieter HealthEx elektronische Patientenakten, Medikamentenpläne und Laborwerte von über 50.000 US-Krankenhäusern. Die KI nutzt ihre Reasoning-Fähigkeiten, um diese Rohdaten zu strukturieren und in einen logischen Kontext zu setzen. So lassen sich beispielsweise Zusammenhänge zwischen den aufgezeichneten Schlafphasen und aktuellen Vitalwerten ermitteln. Das Ziel der Software ist es ausdrücklich nicht, den Arztbesuch zu ersetzen oder eigenständige Diagnosen zu stellen. Vielmehr bereitet die KI den Patienten auf das anstehende Gespräch mit dem Mediziner vor. Anwender nutzen gezielte Prompts, um sich komplexe medizinische Fachbegriffe aus ihren eigenen Akten einfach erklären zu lassen.

    Strikte Trennung der Gesundheitsdaten Ein zentraler Aspekt der Neuentwicklung ist der Datenschutz. Copilot Health arbeitet in einer vollständig isolierten Umgebung. Die KI ist technisch strikt vom regulären Copilot getrennt. Die eingegebenen Gesundheitsdaten und Chat-Verläufe fließen nicht in das Training zukünftiger Modelle ein. Anwender behalten die volle Kontrolle über ihre persönlichen Informationen und können diese jederzeit restlos löschen. Anzeige Hoher Bedarf an medizinischer Einordnung Die Nachfrage nach gesundheitlicher Aufklärung durch künstliche Intelligenz ist hoch. Täglich verarbeiten die bestehenden Dienste des Unternehmens bereits rund 50 Millionen gesundheitsbezogene Suchanfragen. Fast ein Fünftel der bisherigen Interaktionen mit dem Standard-Copilot umfassen persönliche Symptome oder die Interpretation von Testergebnissen. Häufig suchen Anwender dabei nicht nur Informationen für sich selbst, sondern auch für Familienangehörige. Der neue Assistent greift auf verifizierte medizinische Datenbanken zurück, um fehlerhafte Antworten zu minimieren. Der Startschuss für Copilot Health fällt zunächst in den USA. Erwachsene ab 18 Jahren können sich dort auf eine Warteliste für die englischsprachige Version setzen lassen. Mit diesem Vorstoß betritt der Konzern einen stark umkämpften Markt, in dem auch OpenAI mit ChatGPT Health und Amazon mit ähnlichen KI-Lösungen aktiv sind.

  • Oura Ring: Eigenes KI-Modell für die Frauengesundheit startet

    Oura Ring

    Oura

    Kurzfassung

    Quellen

    Oura hat ein eigenes KI-Sprachmodell veröffentlicht, das speziell auf die Bedürfnisse der Frauengesundheit zugeschnitten ist.
    Die neue Funktion im Oura Advisor verknüpft biometrische Messdaten des smarten Rings mit einer ärztlich geprüften Wissensdatenbank.
    Das System begleitet Anwender durch alle Lebensphasen und liefert personalisierte Antworten auf medizinische Fragen.
    Um die Privatsphäre zu schützen, verarbeitet Oura alle Eingaben auf eigenen Servern und teilt keine Daten mit externen Anbietern.

    Oura Blog: Introducing Our First Proprietary AI Model to Deliver Personalized, Clinically Grounded Women’s Health Guidance

    Oura erweitert seinen smarten Ring um ein eigens entwickeltes KI-Sprachmodell, das sich gezielt auf die Frauengesundheit konzentriert. Das System analysiert biometrische Daten und liefert fundierte Antworten auf medizinische Fragen rund um den weiblichen Zyklus. Maßgeschneiderte Antworten für den weiblichen Körper Der Hersteller integriert das neue Modell ab sofort in seine Testumgebung „Oura Labs“. Wenn Anwender den digitalen Assistenten „Oura Advisor“ über einen Prompt nach gesundheitlichen Themen fragen, greift die KI auf eine geprüfte medizinische Wissensdatenbank zurück. Ein internes Team aus Ärzten und Experten hat diese fachlichen Grundlagen zuvor kontrolliert. Das System belässt es dabei nicht bei reinem Lehrbuchwissen. Es verknüpft die medizinischen Fakten direkt mit den gemessenen Körperdaten des smarten Rings. Die KI analysiert Parameter wie Schlaftrends, Stresslevel, Herzratenvariabilität und Temperaturveränderungen der vergangenen Monate. Durch diese Kombination versteht das System die individuellen physischen Zusammenhänge deutlich besser. Es begleitet Frauen durch sämtliche Lebensphasen, von frühen Menstruationszyklen über mögliche Schwangerschaften bis hin zur Menopause. Allgemeine Open-Source-Modelle oder einfache Chatbots scheitern oft an der Komplexität der Frauengesundheit, da ihnen der genaue physiologische Kontext fehlt. Oura löst dieses Problem durch den starken Fokus auf einen einzigen medizinischen Fachbereich und die direkte Nutzung realer biometrischer Daten. Anzeige Sichere Daten und verständnisvolle Kommunikation Ein weiterer wichtiger Aspekt bei der Entwicklung war die Art der Interaktion. Das Modell ist gezielt darauf trainiert, empathisch und unterstützend zu antworten. In der klassischen Medizin werden gesundheitliche Beschwerden von Frauen häufig unterschätzt. Die neue KI bietet hier einen verständnisvollen Raum, in dem Anwender ihre Symptome objektiv einordnen können. Da Zyklus- und Schwangerschaftsdaten hochsensibel sind, setzt das Unternehmen auf strenge Privatsphäre. Das neue Sprachmodell läuft vollständig auf der eigenen Server-Infrastruktur von Oura. Der Hersteller speichert die Chat-Verläufe sicher ab und verkauft diese nicht an Dritte. Die geführten Gespräche fließen auch nicht in das Training von externen KI-Systemen ein. Die neue Funktion steht aktuell für alle interessierten Anwender bereit, erfordert jedoch eine aktive Zustimmung. Wer das spezialisierte KI-Modell ausprobieren möchte, kann es im Bereich der Oura Labs in der Smartphone-App manuell einschalten. Damit baut das Unternehmen die Funktionen seines Wearables im Bereich der digitalen Gesundheitsberatung weiter aus. Anzeige

  • Anthropic enthüllt die größten Fehler bei der KI-Nutzung

    Eine Anthropic Grafik

    Anthropic + Nano Banana

    Kurzfassung

    Quellen

    Anthropic hat den „AI Fluency Index“ veröffentlicht, der das Verhalten von Nutzern bei der Interaktion mit Sprachmodellen datenbasiert messbar macht.
    Die Analyse zeigt, dass Anwender zwar gute und strukturierte Prompts formulieren, aber kritische Überprüfungen von Fakten und der KI-Logik stark vernachlässigen.
    Bestimmte Elemente der Benutzeroberfläche, wie separat dargestellte Code- oder Text-Fenster, verstärken dieses blinde Vertrauen zusätzlich.
    Als Gegenmaßnahme startet das Unternehmen nun kostenlose Online-Schulungen, um eine effektivere und sicherere KI-Nutzung zu fördern.

    Anthropic Education Report: The AI Fluency Index

    Kostenloser Anthropic Kurs

    Anthropic stellt mit dem „AI Fluency Index“ ein neues Messinstrument zur Bewertung der Mensch-KI-Zusammenarbeit vor. Die Auswertung zeigt detailliert, wie Anwender mit Sprachmodellen interagieren, und deckt eklatante Defizite bei der Überprüfung generierter Inhalte auf. Drei Kategorien der Interaktion Der Index unterteilt die Nutzung von künstlicher Intelligenz systematisch in drei Hauptbereiche: Beschreibung, Delegation und Urteilsvermögen. Die erfassten Messwerte verdeutlichen, dass die meisten Nutzer die grundlegende Steuerung der Sprachmodelle mittlerweile gut beherrschen. + Quelle: Anthropic Gut 85 Prozent der Anwender passen ihre Prompts im Verlauf eines Dialogs mehrfach an und verfeinern die Ergebnisse schrittweise. Mehr als die Hälfte klärt das exakte Ziel der Aufgabe, bevor die KI komplexe Vorgänge ausführt. Konkrete Beispiele für das gewünschte Resultat liefern immerhin noch 41 Prozent der Personen. + Quelle: Anthropic Schwachstelle beim Urteilsvermögen Sobald es um die kritische Bewertung der KI-Ausgaben geht, fallen die Zahlen jedoch drastisch ab. Der Bereich des Urteilsvermögens bildet das eindeutige Schlusslicht der Analyse. Lediglich 8,7 Prozent der Nutzer überprüfen die generierten Fakten oder Behauptungen aktiv. Auch die zugrundeliegende Logik (Reasoning) der Modelle wird nur in knapp 16 Prozent der Fälle hinterfragt. Die Daten deuten stark darauf hin, dass viele Anwender den Texten ein zu hohes Grundvertrauen entgegenbringen. Diese fehlende Distanz stellt ein erhebliches Risiko für die produktive Nutzung dar. Anzeige Der Einfluss des User Interfaces Spezifische Funktionen des User Interfaces verändern das Nutzerverhalten erheblich. Der sogenannte Artifact-Effekt demonstriert, wie ein separates Fenster für Code oder längere Dokumente die Eingaben der Nutzer strukturiert. + Quelle: Anthropic Verwenden Anwender ein solches Element, definieren sie das Ziel um knapp 15 Prozentpunkte häufiger. Die explizite Vorgabe von Formaten steigt ebenfalls um 14,5 Prozentpunkte. Gleichzeitig sinkt durch diese visuelle Trennung die ohnehin geringe Bereitschaft zum Faktencheck um weitere 3,7 Prozentpunkte ab. Eine professionell wirkende Darstellung suggeriert offensichtlich eine höhere Präzision der Ausgaben. Kostenlose Schulungen als Reaktion Nutzer, die ihre Anfragen kontinuierlich anpassen, agieren deutlich effektiver. Sie erkennen laut der Studie viermal häufiger, wenn dem System relevanter Kontext fehlt, und fordern diesen proaktiv ein. Auch die Nutzung von Beispielen verdoppelt sich bei dieser Nutzergruppe nahezu. Um diese fortgeschrittenen Techniken flächendeckend zu etablieren, flankiert Anthropic den Index mit neuen Bildungsangeboten. Über die Plattform Skilljar stehen ab sofort kostenfreie Module wie der Kurs „AI Fluency: Framework & Foundations“ zur Verfügung. Diese Einheiten sollen exakt die schwach ausgeprägten analytischen Fähigkeiten trainieren. Nutzer lernen dort, Prompts systematisch aufzubauen und Ergebnisse kritisch zu evaluieren. Die bei der Nutzung von Anthropics Diensten anfallenden Daten fließen standardmäßig in das zukünftige Training der Modelle ein, sofern Anwender dem nicht per Opt-out widersprechen. Das Unternehmen nutzt diese Telemetriedaten, um die Metriken des Index fortlaufend anzupassen und die Steuerung der KI weiter zu verfeinern. Anzeige