Schlagwort: Apples

  • Apples KI-Chef räumt den Posten nach Siri-Problemen

    Apples John Giannandrea, bisheriger Senior Vice President für Machine Learning und AI Strategy, tritt von seinem Posten zurück und wird das Unternehmen im Frühjahr 2026 verlassen.

    Der Artikel Apples KI-Chef räumt den Posten nach Siri-Problemen erschien zuerst auf The Decoder.

  • Apples stiller Angriff auf Google CodeMender

    Ein digitaler Apfel

    Nano Banana

    Kurzfassung

    Quellen

    Apple Research hat das KI-Modell ADE-QVAET zur Erkennung von Softwarefehlern vorgestellt. Das System kombiniert Transformer-Technologie mit einem Autoencoder. In Tests erreichte das Modell eine beeindruckende Genauigkeit von 98,08 Prozent. Eine zukünftige Integration in Apples Entwicklerwerkzeug Xcode ist denkbar, aber unbestätigt.

    Apple Machine Learning Research heise online IT BOLTWISE VentureBeat Radical Data Science

    Apple Research hat ein neues KI-Modell namens ADE-QVAET vorgestellt. Es soll Softwarefehler mit einer beeindruckenden Genauigkeit von 98,08 Prozent vorhersagen können. Diese Entwicklung könnte die Qualitätssicherung in der Softwareentwicklung revolutionieren und Apples Ökosystem deutlich stabiler machen. Transformer trifft Autoencoder: Die Technik hinter ADE-QVAET Das neue System trägt den Namen ADE-QVAET. Forscher von Apple Research kombinierten dafür zwei bekannte KI-Architekturen. Ein Transformer-Modell, bekannt aus großen Sprachmodellen, wird mit einem Autoencoder verbunden. Diese Kombination ermöglicht es der KI, komplexe Muster in Softwarecode zu analysieren und sogenannte „Defekte“ vorherzusagen. Das Modell lernt, Anomalien zu erkennen, die auf potenzielle Fehler hindeuten, noch bevor sie Probleme verursachen. Die Entwickler Seshu Barma, Mohanakrishnan Hariharan und Satish Arvapalli veröffentlichten die Details in einem Forschungspapier. Die gemessene Genauigkeit von 98,08 Prozent ist beeindruckend hoch für diesen Bereich. Ein Wettlauf um stabilen Code Apple steht mit diesem Vorstoß nicht allein da. Der gesamte Technologiesektor sucht nach Wegen, die Softwareentwicklung mittels KI zu automatisieren und zu verbessern. Die Fehlerbehebung ist dabei ein zentraler und kostenintensiver Faktor. Je komplexer Programme wie Betriebssysteme oder Apps werden, desto schwieriger wird die manuelle Suche nach Schwachstellen. KI-Systeme können hier riesige Datenmengen in kürzester Zeit prüfen. Auch Google DeepMind arbeitet an ähnlichen Lösungen. Mit „CodeMender“ hat der Konkurrent ebenfalls ein System vorgestellt, das auf die automatische Fehlererkennung und -korrektur abzielt. Der Wettlauf um die effizienteste Code-Qualitätssicherung ist im Gange. Bald in Apples Xcode integriert? Die Veröffentlichung wirft Fragen nach der praktischen Anwendung auf. Bisher handelt es sich bei ADE-QVAET um ein reines Forschungsprojekt von Apple Research. Eine Integration in Apples Entwicklerumgebung Xcode wäre der logische nächste Schritt. Entwickler könnten dadurch von einer automatisierten und extrem präzisen Qualitätskontrolle profitieren. Das System könnte Fehler in Echtzeit anzeigen, während der Programmierer noch tippt. Dies würde die Entwicklungszyklen drastisch verkürzen und die Stabilität von Apps und Betriebssystemen wie iOS oder macOS erhöhen. Apple selbst hat sich noch nicht dazu geäußert, ob oder wann diese Technologie in kommerzielle Produkte einfließen wird.

  • Apples KI-Suche-Chef Ke Yang wechselt zu Meta

    Ke Yang, Leiter von Apples KI-Suche, verlässt das Unternehmen und wechselt zu Meta Platforms, berichtet Bloomberg.

    Der Artikel Apples KI-Suche-Chef Ke Yang wechselt zu Meta erschien zuerst auf THE-DECODER.de.

  • OpenAI wirbt gezielt Apple-Experten für eigene KI-Geräte ab

    OpenAI plant eigene Hardware-Produkte und rekrutiert dafür systematisch Mitarbeitende aus Apples Design-, Produktions- und Lieferkettenabteilungen. Auch chinesische Zulieferer aus Apples Netzwerk sind beteiligt.

    Der Artikel OpenAI wirbt gezielt Apple-Experten für eigene KI-Geräte ab erschien zuerst auf THE-DECODER.de.

  • Apple in der KI-Zwickmühle – Eigenbau oder Google-Hilfe?

    Ein Apple-Apfel frisst Gemini

    Apple in der KI-Zwickmühle – Eigenbau oder Google-Hilfe? Eigene Entwicklung stockt, Personal geht – bringt Gemini die Lösung für Siri? Und was heißt das für Datenschutz und Kontrolle? Kurzfassung | Andreas Becker, 25.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Apple steht offenbar vor einer Kehrtwende in Sachen Sprach-KI. Für die nächste Siri-Version prüft der Konzern, ob nicht Googles Gemini die nötige Power liefern könnte. Damit käme erstmals ein externes Großmodell ins Spiel, das direkt in Apples Infrastruktur laufen würde. Noch ist nichts entschieden, aber der Zeitdruck steigt. Und intern läuft längst ein Wettstreit: Apples eigenes Modell gegen das von Google. NEWS Zwei Modelle, ein Ziel Seit Jahren arbeitet Apple an einer smarteren Siri. Was bislang nur stückweise kam – besseres Kontextverständnis, App-Steuerung, Blick auf den Bildschirm – soll ab 2026 in einer rundum erneuerten Version landen. Der Kern: ein echtes LLM, also ein großes Sprachmodell, das nicht nur reagiert, sondern Dialoge führt und Zusammenhänge erkennt. Genau hier setzt der aktuelle Plan an. Apple testet parallel zwei Varianten. „Linwood“ nutzt ein selbst entwickeltes Modell mit bis zu einer Billion Parametern, „Glenwood“ basiert auf externer Technik – konkret Gemini. Die Gespräche mit Google laufen laut mehreren Berichten schon eine Weile. Diskutiert wird ein angepasstes Gemini-Modell, das auf Apples Servern läuft und dort fest integriert wird. Damit bliebe Apple dem eigenen Datenschutz-Versprechen treu, ohne selbst ein Spitzenmodell aufbauen zu müssen. Dass dieser Weg ernsthaft geprüft wird, zeigt: Die internen Fortschritte reichen allein wohl nicht aus. Der Preis der Unabhängigkeit Ein zentraler Punkt ist das Personal. Apple verliert seit Monaten wichtige KI-Entwickler an die Konkurrenz – vor allem an Meta. Teilweise wechselten ganze Subteams. In der Folge gerieten viele Projekte ins Stocken. Auch deswegen wurde das Siri-Team umgebaut. Die Leitung hat inzwischen Mike Rockwell übernommen, der eigentlich für Vision Pro zuständig war. Der Umbau zeigt Wirkung, aber der Zeitplan drängt. Gleichzeitig wächst die Konkurrenz. Amazon arbeitet mit Hochdruck an Alexa Plus, Meta pusht seine Llama-Modelle in die eigenen Geräte, und Samsung setzt auf Gauss. In dieser Lage wäre Gemini eine Abkürzung – eine funktionierende, skalierbare Basis, die Apple nur noch in die bestehende Struktur einbauen müsste. Der Gedanke erinnert ein bisschen an Unix: Nicht selbst das Rad neu erfinden, sondern einen stabilen Kern nehmen und drumherum das Ökosystem bauen. Und was bringt das dem Nutzer? Eine LLM-Siri wäre deutlich flexibler als die bisherige Version. Statt einzelner Befehle könnte man echte Konversationen führen, komplexe Aufgaben besprechen oder Fragen stellen, die mehr als nur einen Satz benötigen. Siri würde dann nicht nur Aktionen ausführen, sondern auch Rückfragen stellen, Entscheidungen vorschlagen oder Inhalte zusammenfassen – quer über Apps, Dokumente und Dienste hinweg. Kurzfristig bleibt aber alles beim Alten: Die geplante Apple-Intelligence-Integration ab iOS 18 bringt erste KI-Funktionen, vor allem lokal auf dem Gerät. Nur für komplexe Aufgaben geht es – nach Einwilligung – an ChatGPT. Mit iOS 19 soll dort GPT-5 übernehmen. Ob Siri dann schon mit Gemini spricht oder weiterhin auf Eigenbau setzt, hängt von den kommenden Monaten ab. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Apple prüft, ob Googles Gemini künftig Siri antreiben soll – als Alternative zum eigenen LLM „Linwood“.
    Grund ist unter anderem der Verlust wichtiger KI-Experten an Konkurrenten wie Meta.
    Ein integriertes Gemini-Modell könnte Apple helfen, den KI-Rückstand schneller aufzuholen – ohne den Datenschutz zu gefährden.
    Für Nutzer würde das bedeuten: Siri könnte deutlich schlauer, dialogfähiger und flexibler werden.
    QUELLEN
    Bloomberg (22.08.2025)
    9to5Mac
    Tom’s Guide
    TechRadar
    Bloomberg (13.08.2025)

  • Auch Apple verliert Spitzenkraft für KI-Modelle an Meta

    Der Leiter von Apples Team für große Sprachmodelle wechselt zu Meta. Sein Abgang könnte den Beginn einer Abwanderungswelle markieren.

    Der Artikel Auch Apple verliert Spitzenkraft für KI-Modelle an Meta erschien zuerst auf THE-DECODER.de.

  • Neue Studie relativiert Apples Kritik an KI-Reasoning

    Eine Replikationsstudie zu Apples umstrittener Arbeit „The Illusion of Thinking“ bestätigt zentrale Kritikpunkte – und widerspricht zugleich deren Hauptschlussfolgerung. 

    Der Artikel Neue Studie relativiert Apples Kritik an KI-Reasoning erschien zuerst auf THE-DECODER.de.

  • Apple-Paper zu KI-Denkfähigkeit spaltet Experten und entfacht hitzige Debatte

    Apples viel beachtetes Forschungspaper „The Illusion of Thinking“ hat eine neue Runde der Debatte um die Denkfähigkeit großer Sprachmodelle ausgelöst.

    Der Artikel Apple-Paper zu KI-Denkfähigkeit spaltet Experten und entfacht hitzige Debatte erschien zuerst auf THE-DECODER.de.