
Apple nutzt künftig Googles Gemini-Modelle für seine KI-Funktionen, darunter eine überarbeitete Version von Siri.
Der Artikel Apple und Google schließen mehrjährige KI-Partnerschaft für Siri erschien zuerst auf The Decoder.

Apple nutzt künftig Googles Gemini-Modelle für seine KI-Funktionen, darunter eine überarbeitete Version von Siri.
Der Artikel Apple und Google schließen mehrjährige KI-Partnerschaft für Siri erschien zuerst auf The Decoder.

Nano Banana
Kurzfassung
▾
Quellen
▾
Apple plant, Google rund eine Milliarde Dollar jährlich für den Einsatz eines angepassten Gemini-KI-Modells zu zahlen. Diese 1,2-Billionen-Parameter-KI soll die Grundlage für eine stark verbesserte Version von Siri bilden. Der Start der neuen Siri ist für Anfang 2026 mit iOS 26.4 vorgesehen. Die Datenverarbeitung läuft über Apples „Private Cloud Compute“, um den Datenschutz der Nutzer zu gewährleisten.
Bloomberg – Apple Plans to Use 1.2-Trillion-Parameter Google Gemini Model to Power New Siri Mark Gurman Twitter/X – NEW: Apple is planning to use a custom 1.2 trillion parameter Google Gemini model Reuters – Apple to use Google’s AI model to run new Siri, Bloomberg News reports 9to5Mac – Apple nears $1 billion Google deal for custom Gemini model The Verge – Apple is planning to use a custom version of Google Gemini AI
Apple greift tief in die Tasche, um Siri aufzurüsten. Berichten zufolge zahlt der iPhone-Konzern rund eine Milliarde Dollar pro Jahr an Google. Dafür soll Googles leistungsstarkes KI-Modell Gemini die Sprachassistenz antreiben und sie nach Jahren der Stagnation endlich klüger machen. Ein maßgeschneidertes KI-Modell für das iPhone Die Partnerschaft der beiden Tech-Giganten hat es in sich. Apple sichert sich laut Berichten den Zugriff auf eine speziell angepasste Version von Googles KI-Modell Gemini. Das Modell soll gewaltige 1,2 Billionen Parameter umfassen. Diese enorme technische Größe ist notwendig, um Siris Fähigkeiten drastisch zu erweitern und komplexe Anfragen besser zu verstehen. Dieser KI-Einkauf kostet Apple etwa eine Milliarde Dollar jährlich. Der Deal unterstreicht, wie ernst der Konzern die Aufholjagd im Rennen um die beste künstliche Intelligenz nimmt. Nutzer müssen sich allerdings noch gedulden. Die Integration ist Berichten zufolge für Anfang 2026 geplant und soll mit der Veröffentlichung von iOS 26.4 starten. Datenschutz trotz Google-Technologie Die Nutzung eines Google-Modells wirft unweigerlich Fragen zum Datenschutz auf. Apple positioniert den Schutz der Nutzerdaten seit jeher als zentrales Verkaufsargument. Eine Datenverarbeitung durch den Konkurrenten Google scheint diesem Prinzip zunächst klar zu widersprechen. Apple hat dafür jedoch offenbar eine technische Lösung parat. Die KI-Berechnungen sollen nicht direkt auf Googles Servern stattfinden. Stattdessen wird das Gemini-Modell auf Apples eigener „Private Cloud Compute“-Infrastruktur ausgeführt. Diese abgeschottete Umgebung soll sicherstellen, dass private Nutzerdaten das Ökosystem von Apple nicht verlassen. Apple behält so die volle Kontrolle über die Daten. Apple kauft sich Zeit im KI-Wettlauf Die Kooperation ist ein offenkundiges Eingeständnis. Apple liegt bei der Entwicklung eigener, großer Sprachmodelle derzeit deutlich hinter der Konkurrenz. Während Google, Microsoft und OpenAI den Markt mit leistungsstarken Chatbots dominieren, wirkte Siri zuletzt technologisch abgehängt. Der Milliardendeal mit Google dient daher als strategische Übergangslösung. Apple kauft sich damit wertvolle Zeit, um die Entwicklung eigener, konkurrenzfähiger Modelle voranzutreiben. Bis diese die Marktreife von Gemini erreichen, überbrückt der Rivale aus Mountain View die Lücke. Für Nutzer bedeutet dies, dass die lange erhoffte, wirklich intelligente Assistenz auf dem iPhone bald Realität wird, wenn auch mit der Technologie des größten Konkurrenten.

Apple plant laut Bloomberg den Einsatz von Googles Gemini-Modell zur Aufwertung seines Sprachassistenten Siri, die Verhandlungen sollen kurz vor einem Abschluss stehen.
Der Artikel Apple will Googles Gemini-Modell für eine Milliarde Dollar jährlich in Siri integrieren erschien zuerst auf The Decoder.

iPhone 17 kommt – ohne KI Apple-Event ohne Siri: War das alles zur großen „Apple Intelligence“? Kurzfassung | Andreas Becker, 10.09.25
gpt-image-1 / Apple | All-AI.de EINLEITUNG Apple hat beim Event am 9. September 2025 wie gewohnt neue iPhones und Uhren vorgestellt – doch beim Thema Künstliche Intelligenz herrschte überraschend viel Funkstille. Die große „Apple Intelligence“, die im Sommer noch als Gamechanger angekündigt wurde, spielte kaum eine Rolle. Vor allem Siri glänzte durch Abwesenheit. Wer auf echte Fortschritte gehofft hatte, sah sich getäuscht. NEWS Siri? Keine Zeit gehabt Der Name Siri fiel kein einziges Mal. Nicht in der Keynote, nicht in den Presseunterlagen, nirgends. Apple verschiebt die Generalüberholung seines Sprachassistenten offenbar still und leise auf 2026. Das Problem: Während die Konkurrenz längst mit ihren KI-Features im Alltag punktet, verweist Apple auf Chips und Rechenleistung – aber liefert keine sichtbaren Fortschritte. Der Eindruck drängt sich auf, dass Apple selbst nicht mehr an den großen Durchbruch glaubt. Seit über einem Jahr wird eine „intelligentere Siri“ versprochen. Passiert ist: nichts. Für Nutzer bedeutet das vor allem eines – weiter abwarten. Und für Apple: ein immer größer werdender Rückstand im zentralen Zukunftsfeld. KI zum Mitnehmen – aber bitte unauffällig Natürlich fiel das Kürzel „KI“ an mehreren Stellen – nur eben ohne Substanz. Übersetzungen bei den AirPods, neue Sensorik bei der Watch, ein paar schlaue Algorithmen hier und da. Alles nett, aber nichts, was den Alltag spürbar verändert. Das iPhone 17 bleibt in Sachen künstlicher Intelligenz weit hinter dem Hype zurück. Die eigentliche Show gehört weiterhin der Hardware: neues Design, flacheres Gehäuse, bessere Kameras. Doch die große Vision einer „Apple Intelligence“, die im Sommer noch als Zukunftsversprechen verkauft wurde, bleibt ein Randthema. KI, so scheint es, darf dabei sein – solange sie nicht stört. Wenn sogar die Talente gehen Im Hintergrund brodelt es: Gleich mehrere Top-Entwickler aus dem KI-Team haben Apple in den letzten Monaten verlassen, viele davon Richtung OpenAI oder Meta. Kein gutes Zeichen, wenn ausgerechnet jetzt Kompetenz verloren geht. Der Konzern redet von langfristiger Strategie – doch wenn Siri nicht liefern kann und die Entwickler das Weite suchen, wird es eng. Für Apple ist das mehr als ein Imageproblem. Während andere Konzerne ihre digitalen Assistenten weiterentwickeln, bleibt bei Apple ein Fragezeichen. Das iPhone 17 ist ein solides Smartphone – aber kein intelligenteres. Und das ausgerechnet in einer Zeit, in der „AI“ überall sonst zum Verkaufsargument wird. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
Beim Apple-Event am 9. September 2025 blieb das Thema Künstliche Intelligenz überraschend blass.
Die angekündigte „Apple Intelligence“ spielte keine große Rolle und Siri wurde gar nicht erwähnt.
Wichtige Entwickler haben das Unternehmen verlassen, was Zweifel an Apples KI-Strategie verstärkt.
Das iPhone 17 überzeugt hardwareseitig, bleibt aber beim Zukunftsthema KI weit hinter der Konkurrenz zurück.
QUELLEN
Spiegel Online
Heise.de
The Verge

2026 startet Apples Angriff auf Google Search „World Knowledge Answers“ soll Siri smarter machen als je zuvor. Ist das der Anfang vom Ende der Google-Dominanz? Kurzfassung | Andreas Becker, 04.09.25
gpt-image-1 | All-AI.de EINLEITUNG Apple arbeitet an einer neuen KI-gestützten Websuche, die direkt in Siri integriert wird. Das System mit dem internen Namen „World Knowledge Answers“ soll Suchanfragen in Zukunft selbstständig beantworten, statt wie bisher nur auf Webseiten zu verweisen. Dafür testet Apple derzeit unter anderem Googles Gemini-Modell. Der Start ist für das Frühjahr 2026 geplant – zunächst auf dem iPhone, später auch in Safari und Spotlight. NEWS Siri wird zur Antwortmaschine Mit dem neuen System will Apple Siri grundlegend aufwerten. Statt bloßer Sprachsteuerung oder vorgefertigter Antworten soll Siri künftig direkt Informationen aus dem Internet abrufen und in verständlicher Form zusammenfassen. Dabei nutzt „World Knowledge Answers“ Text, Bilder, Videos und standortbasierte Inhalte, um präzise und relevante Ergebnisse zu liefern. Die Technik dahinter besteht aus mehreren Komponenten: Ein System interpretiert die Anfrage, sucht passende Inhalte im Netz und erstellt daraus eine zusammenhängende Antwort. Apple verfolgt damit ein ähnliches Ziel wie Google mit seinen „AI Overviews“ oder OpenAI mit ChatGPT – aber vollständig eingebettet ins eigene Ökosystem. KI von Google, Apple und Anthropic im Test Um die neue Funktion umzusetzen, testet Apple derzeit mehrere große Sprachmodelle. Besonders weit sind die Gespräche mit Google über eine speziell angepasste Version von Gemini. Parallel dazu werden auch Modelle aus dem eigenen Haus sowie von Anthropic ausprobiert. Die endgültige Entscheidung steht noch aus. Die künftige Siri könnte so verschiedene Modelle je nach Aufgabe einsetzen: eigene Modelle für persönliche Daten und Planung, externe für umfangreiche Wissensabfragen. Damit bleibt Apple flexibel, unabhängig und kann die Sicherheit auf dem Gerät gewährleisten – ein zentraler Punkt in der Produktstrategie. Geplanter Start und mögliche Erweiterungen Der Launch der neuen Funktion ist für das Frühjahr 2026 vorgesehen, voraussichtlich im Rahmen von iOS 26.4. Zum Start wird sie nur in Siri verfügbar sein. Später sollen auch Safari und die Spotlight-Suche folgen. So testet Apple die Neuerungen zunächst dort, wo Nutzer bereits nach Informationen fragen, bevor sie tiefer ins System eingebettet werden. Für Anwender bedeutet das: schnellere, direktere Antworten ohne Umweg über klassische Suchmaschinen. Die Nutzung wird intuitiver, vor allem auf mobilen Geräten. Langfristig könnte das auch etablierte Suchanbieter unter Druck setzen – besonders, wenn Apple die Kontrolle über Inhalte und Darstellung behält. Keine Perplexity-Übernahme – Fokus auf Talente Eine geplante Übernahme des KI-Startups Perplexity hat Apple offenbar verworfen. Stattdessen konzentriert sich das Unternehmen darauf, gezielt Talente aus der Branche zu gewinnen. Der strategische Fokus liegt klar auf Eigenentwicklung und modularem Einsatz bestehender Technologien. Mit „World Knowledge Answers“ setzt Apple auf einen integrierten Suchansatz, der Siri zur zentralen Schnittstelle für Informationen machen soll. Ob sich das Konzept durchsetzt, hängt vor allem davon ab, wie gut Apple Relevanz, Geschwindigkeit und Datenschutz vereinen kann. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
Apple arbeitet an „World Knowledge Answers“, einer KI-Websuche für Siri, die multimodale Antworten liefern soll.
Google Gemini könnte als zentrales Modell dienen, daneben testet Apple auch eigene und Claude-Modelle.
Der Launch ist für Frühling 2026 geplant, zunächst in Siri, später auch in Safari und Spotlight.
Perplexity ist laut aktuellen Infos kein Thema mehr, Apple setzt auf hybride, modelloffene Strategien.
QUELLEN
Bloomberg News
The Verge
MacRumors
9to5Mac
Svenska Dagbladet

Apple in der KI-Zwickmühle – Eigenbau oder Google-Hilfe? Eigene Entwicklung stockt, Personal geht – bringt Gemini die Lösung für Siri? Und was heißt das für Datenschutz und Kontrolle? Kurzfassung | Andreas Becker, 25.08.25
gpt-image-1 | All-AI.de EINLEITUNG Apple steht offenbar vor einer Kehrtwende in Sachen Sprach-KI. Für die nächste Siri-Version prüft der Konzern, ob nicht Googles Gemini die nötige Power liefern könnte. Damit käme erstmals ein externes Großmodell ins Spiel, das direkt in Apples Infrastruktur laufen würde. Noch ist nichts entschieden, aber der Zeitdruck steigt. Und intern läuft längst ein Wettstreit: Apples eigenes Modell gegen das von Google. NEWS Zwei Modelle, ein Ziel Seit Jahren arbeitet Apple an einer smarteren Siri. Was bislang nur stückweise kam – besseres Kontextverständnis, App-Steuerung, Blick auf den Bildschirm – soll ab 2026 in einer rundum erneuerten Version landen. Der Kern: ein echtes LLM, also ein großes Sprachmodell, das nicht nur reagiert, sondern Dialoge führt und Zusammenhänge erkennt. Genau hier setzt der aktuelle Plan an. Apple testet parallel zwei Varianten. „Linwood“ nutzt ein selbst entwickeltes Modell mit bis zu einer Billion Parametern, „Glenwood“ basiert auf externer Technik – konkret Gemini. Die Gespräche mit Google laufen laut mehreren Berichten schon eine Weile. Diskutiert wird ein angepasstes Gemini-Modell, das auf Apples Servern läuft und dort fest integriert wird. Damit bliebe Apple dem eigenen Datenschutz-Versprechen treu, ohne selbst ein Spitzenmodell aufbauen zu müssen. Dass dieser Weg ernsthaft geprüft wird, zeigt: Die internen Fortschritte reichen allein wohl nicht aus. Der Preis der Unabhängigkeit Ein zentraler Punkt ist das Personal. Apple verliert seit Monaten wichtige KI-Entwickler an die Konkurrenz – vor allem an Meta. Teilweise wechselten ganze Subteams. In der Folge gerieten viele Projekte ins Stocken. Auch deswegen wurde das Siri-Team umgebaut. Die Leitung hat inzwischen Mike Rockwell übernommen, der eigentlich für Vision Pro zuständig war. Der Umbau zeigt Wirkung, aber der Zeitplan drängt. Gleichzeitig wächst die Konkurrenz. Amazon arbeitet mit Hochdruck an Alexa Plus, Meta pusht seine Llama-Modelle in die eigenen Geräte, und Samsung setzt auf Gauss. In dieser Lage wäre Gemini eine Abkürzung – eine funktionierende, skalierbare Basis, die Apple nur noch in die bestehende Struktur einbauen müsste. Der Gedanke erinnert ein bisschen an Unix: Nicht selbst das Rad neu erfinden, sondern einen stabilen Kern nehmen und drumherum das Ökosystem bauen. Und was bringt das dem Nutzer? Eine LLM-Siri wäre deutlich flexibler als die bisherige Version. Statt einzelner Befehle könnte man echte Konversationen führen, komplexe Aufgaben besprechen oder Fragen stellen, die mehr als nur einen Satz benötigen. Siri würde dann nicht nur Aktionen ausführen, sondern auch Rückfragen stellen, Entscheidungen vorschlagen oder Inhalte zusammenfassen – quer über Apps, Dokumente und Dienste hinweg. Kurzfristig bleibt aber alles beim Alten: Die geplante Apple-Intelligence-Integration ab iOS 18 bringt erste KI-Funktionen, vor allem lokal auf dem Gerät. Nur für komplexe Aufgaben geht es – nach Einwilligung – an ChatGPT. Mit iOS 19 soll dort GPT-5 übernehmen. Ob Siri dann schon mit Gemini spricht oder weiterhin auf Eigenbau setzt, hängt von den kommenden Monaten ab. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
Apple prüft, ob Googles Gemini künftig Siri antreiben soll – als Alternative zum eigenen LLM „Linwood“.
Grund ist unter anderem der Verlust wichtiger KI-Experten an Konkurrenten wie Meta.
Ein integriertes Gemini-Modell könnte Apple helfen, den KI-Rückstand schneller aufzuholen – ohne den Datenschutz zu gefährden.
Für Nutzer würde das bedeuten: Siri könnte deutlich schlauer, dialogfähiger und flexibler werden.
QUELLEN
Bloomberg (22.08.2025)
9to5Mac
Tom’s Guide
TechRadar
Bloomberg (13.08.2025)

Die neue Siri hat Augen – und bald einen Arm Apple bringt smarte Displays, Kameras und einen Tischroboter. Wie viel Persönlichkeit steckt in der nächsten KI-Offensive? Kurzfassung | Andreas Becker, 14.08.25
gpt-image-1 | All-AI.de EINLEITUNG Apple plant den Einstieg in eine neue Geräteklasse: KI-gesteuerte Smart-Home-Produkte mit personifizierter Sprachassistenz. Im Zentrum steht eine überarbeitete Siri, die visuell präsent wird und proaktiv in Interaktionen eingreift – gesteuert über Displays, Kameras und einen beweglichen Tischroboter. Ein Strategieschwenk, der lange erwartet wurde. Aber gelingt Apple damit wirklich der Durchbruch im Alltag? NEWS Ein Tisch, der mitdenkt Im Mittelpunkt der neuen Geräte steht ein Tischroboter mit 7-Zoll-Display, Mikrofonen, motorisiertem Arm – und einem Sinn für Gesprächssituationen. Der Roboter richtet sich auf, folgt dem Sprecher im Raum, passt den Bildausschnitt automatisch an und greift aktiv in Unterhaltungen ein. Kein futuristisches Spielzeug, sondern ein geplanter Verkaufsstart für 2027. Intern wird das Gerät liebevoll mit der Pixar-Schreibtischlampe verglichen – als Sinnbild für freundliche Präsenz und alltagsnahe KI. Dabei wird Siri zur zentralen Figur: Statt passiv auf Sprachbefehle zu warten, ist sie dauerhaft präsent. Apple testet animierte Varianten im Stil des Finder-Icons oder personalisierte Memojis. Die Vision erinnert an ChatGPTs Sprachmodus – nur deutlich stärker in die physische Umgebung eingebunden. Die Frage ist nicht, ob es technisch funktioniert, sondern ob Nutzer eine künstliche Figur als Teil ihres Zuhauses akzeptieren. Display und Kameras als stille Begleiter Noch vor dem Roboter – geplant für Mitte 2026 – soll ein Smart-Display erscheinen. Das Gerät, intern als J490 bezeichnet, ist auf die Steuerung des gesamten Haushalts ausgelegt: Musik, Licht, Notizen, Videoanrufe. Das neue Betriebssystem „Charismatic“ priorisiert Sprachsteuerung, erkennt mehrere Nutzer per Gesicht und passt Inhalte entsprechend an. Es geht nicht um offene App-Plattformen, sondern um Kuratierung – typisch Apple. Auch im Sicherheitsbereich rüstet Apple auf. Neue Kameras mit Infrarot und Gesichtserkennung sollen Routinen automatisieren: Licht aus, wenn niemand mehr im Raum ist, Musik an, wenn ein bestimmter Nutzer erkannt wird. Der Einstieg in diesen Markt wirkt spät, aber Apple könnte mit durchdachter Integration punkten – sofern Hard- und Software wie aus einem Guss funktionieren. Siri bekommt ein zweites Gehirn Im Hintergrund läuft der Umbau von Siri. Zwei Projekte stehen im Fokus: „Linwood“ – Apples eigenes LLM – und „Glenwood“ – die Integration externer Modelle wie Claude. Intern führt Mike Rockwell das Vorhaben, bekannt durch die Entwicklung der Vision Pro. Die Richtung ist klar: Siri soll mehr können, schneller reagieren, Kontexte verstehen – und zwar unabhängig vom Gerätetyp. Das Smart-Display und der Roboter werden auf einer gemeinsamen Plattform laufen. Die visuelle, gesprächsaktive Siri soll zum Interface für alles werden – egal ob an der Wand oder am Esstisch. Das ist nicht nur Designstrategie, sondern auch Infrastrukturentscheidung. Die Idee: KI wird nicht als App gestartet, sondern lebt im Gerät – sichtbar, hörbar, ansprechbar. Mehr als nur Nachzügler-Moves 2026 und 2027 markieren für Apple nicht nur Produktereignisse, sondern eine strategische Neuausrichtung. Lange schien es, als hätte Apple den KI-Zug verpasst. Jetzt versucht der Konzern, genau dort anzusetzen, wo andere noch Lücken lassen: Alltagstauglichkeit, Privatsphäre und Interface-Design. Ob der Plan aufgeht, hängt davon ab, wie glaubwürdig Siri 2.0 in unsere Lebensrealität eingebaut wird – und ob sie dort bleibt, wo sie hingehört: unterstützend, nicht führend. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
Apple plant für 2026/27 eine Reihe neuer KI-Produkte fürs Zuhause – darunter ein Tischroboter, ein Smart-Display und smarte Sicherheitskameras.
Herzstück ist eine überarbeitete Siri, die visuell präsent wird, sich personalisiert und in Alltagsgespräche einmischt.
Ein neues System namens „Charismatic“ soll dabei die technische Basis für personalisierte KI-Erlebnisse liefern.
Apple kombiniert eigene KI-Modelle mit Partnern wie Anthropic – und zielt auf ein nahtlos integriertes Smart-Home-Erlebnis ab.
QUELLEN
Apple’s plan for AI could make Siri the animated center of your smart home
Apple’s Smart Home Hub and LLM Siri Coming in 2026
Apple Launching Robot Virtual Companion in 2027
Siri’s biggest upgrade yet takes shape with ‘Linwood’ & ‘Glenwood’
Apple is reportedly planning an AI push with four new smart home products
Apple Plots Expansion Into AI Robots, Home Security and Smart Displays

Apple prüft, ob der Sprachassistent Siri künftig auf KI-Modelle von Anthropic oder OpenAI zurückgreifen soll. Das würde einen tiefgreifenden Kurswechsel und eine indirekte Absage an die eigenen KI-Bemühungen bedeuten.
Der Artikel Apple denkt über Bruch mit eigener KI-Strategie nach – Siri-Tests mit OpenAI und Anthropic erschien zuerst auf THE-DECODER.de.