Schlagwort: Hardware

  • Huawei verdrängt Nvidia im chinesischen KI-Sektor

    huawei und nvidia chip

    Nano Banana

    Kurzfassung

    Quellen

    Huawei sichert sich einen Marktanteil von 60 Prozent auf dem chinesischen Hardware-Markt für künstliche Intelligenz und lässt Nvidia hinter sich.
    Der Konzern erwartet für 2026 einen signifikanten Umsatz von 12 Milliarden US-Dollar durch den Verkauf seiner KI-Chips.
    Nvidia leidet unter strengen US-Exportvorgaben und kann bestellte H200-Modelle aufgrund von Zollproblemen nicht ausliefern.
    Während Inferenz-Modelle wie Deepseek-V4 bereits auf chinesischen Chips laufen, plant Huawei mit dem Ascend 950DT nun auch den Angriff im KI-Training.

    Financial Times: Huawei displaces Nvidia as top AI chip supplier in China

    Huawei sichert sich in China eine Marktführerschaft von 60 Prozent bei Hardware für künstliche Intelligenz und verdrängt den einstigen Platzhirsch Nvidia. Laut Informationen der Financial Times schwächen US-Exportbeschränkungen und anhaltende Lieferprobleme die amerikanische Konkurrenz auf dem asiatischen Absatzmarkt spürbar. Wachsende Umsätze trotz knapper Produktionskapazitäten Der chinesische Technologiekonzern verzeichnet ein deutliches Wachstum und rechnet im Jahr 2026 mit Einnahmen in Höhe von 12 Milliarden US-Dollar durch seine KI-Chips. Im direkten Vergleich zum Vorjahresumsatz von 7,5 Milliarden US-Dollar markiert dies einen klaren Aufstieg. Die Hardware des Unternehmens fällt preislich attraktiver aus als die konkurrierenden Nvidia-Modelle. Trotz der starken Zahlen drosselt eine begrenzte Fertigungskapazität das volle wirtschaftliche Potenzial. Zahlreiche Kundenanfragen bleiben unerfüllt. Die Produktionsstätten des Unternehmens operieren an der Belastungsgrenze, wodurch höhere Verkaufszahlen vorerst ausbleiben. Anzeige Strikte Exportregeln blockieren den US-Konkurrenten Während Huawei expandiert, strauchelt Nvidia mit den weitreichenden Folgen strenger Handelsrichtlinien. Die US-Regierung erlaubte dem Konzern zwar kürzlich Exporte in die Volksrepublik, forderte dafür jedoch eine hohe Umsatzbeteiligung von 25 Prozent. Dennoch verhindern anhaltende Probleme beim chinesischen Zoll die Auslieferung der dringend bestellten H200-Modelle. Gleichzeitig drängt die Regierung in Peking ansässige Technologieunternehmen aktiv dazu, lokale Hardware-Alternativen in ihre Infrastruktur zu integrieren. Dieser politische Druck verschärft die schwierige Lage des US-Konzerns auf dem asiatischen Markt zusätzlich. Inferenz gelingt, Training bleibt eine Hürde Besonders bei der sogenannten Inferenz feiert die chinesische Industrie erste nennenswerte Erfolge. So läuft die Anwendung des neuen KI-Modells Deepseek-V4 nicht nur auf Systemen von Huawei, sondern auch auf Basis von sieben weiteren heimischen Anbietern. Wenn es jedoch um das ressourcenintensive Training von KI-Modellen geht, greifen Entwickler weiterhin bevorzugt auf bewährte Nvidia-Komponenten zurück. Auch das Training von Deepseek-V4 fand vermutlich auf amerikanischer Hardware statt. Huawei adressiert diese Schwachstelle bald mit einem neuen Beschleuniger. Der geplante Ascend 950DT soll noch 2026 auf den Markt kommen und sich gezielt auf das KI-Training konzentrieren. Hardware allein entscheidet jedoch nicht über den Erfolg. Letztlich hängt die zukünftige Dominanz davon ab, ob das Unternehmen die häufig kritisierte Qualität seiner begleitenden Software entscheidend verbessern kann.

  • Gemma 4: Google stellt neue Open-Source-Modelle unter Apache-2.0-Lizenz vor

    Google veröffentlicht mit Gemma 4 seine bisher leistungsfähigste offene Modellfamilie. Die vier neuen Modelle sollen auf Hardware vom Smartphone bis zur Workstation laufen und stehen erstmals unter einer vollständig offenen Lizenz.

    Der Artikel Gemma 4: Google stellt neue Open-Source-Modelle unter Apache-2.0-Lizenz vor erschien zuerst auf The Decoder.

  • Neuromorphe Hardware: KI-Chips imitieren das menschliche Gehirn

    Ein neuromorpher KI-Chip

    Nano Banana

    Kurzfassung

    Quellen

    Forscher der University of Cambridge haben neuartige Memristoren aus Hafniumoxid entwickelt.
    Die neuromorphen Bauteile verarbeiten Informationen direkt im Speicher und imitieren damit die Funktionsweise des menschlichen Gehirns.
    Durch asymmetrische p-n-Heterointerfaces sinken die Schaltströme um das Millionenfache, was den Energiebedarf der Hardware um bis zu 70 Prozent reduzieren kann.

    Science Advances – HfO2-based memristive synapses with asymmetrically extended p-n heterointerfaces for highly energy-efficient neuromorphic hardware

    Forscher der University of Cambridge haben einen neuartigen KI-Chip auf Basis von Hafniumoxid entwickelt. Die neuromorphen Bauteile verarbeiten Informationen direkt am Speicherort. Sie imitieren das menschliche Gehirn und senken den Energiebedarf drastisch. Limitierungen aktueller Hardware Die physische Skalierung komplexer KI-Modelle scheitert zunehmend am hohen Strombedarf herkömmlicher Computerchips. Bei klassischen Architekturen müssen Daten kontinuierlich zwischen dem Prozessor und dem Arbeitsspeicher transferiert werden. Dieser ständige Austausch erzeugt nicht nur Latenzen, sondern vor allem immense Reibungsverluste. Um dieses Nadelöhr zu umgehen, forscht die Halbleiterindustrie intensiv an neuromorphen Systemen. Bisherige Memristoren stützen sich meist auf die Bildung winziger leitfähiger Filamente innerhalb eines Metalloxids. Dieser Ansatz ist jedoch oft instabil, da die Filamente unvorhersehbar wachsen und hohe elektrische Spannungen erfordern. Anzeige Hafniumoxid als neuer Speicheransatz Das Team um den Wissenschaftler Babak Bakhit nutzt für seine Architektur neuartige Memristoren aus Hafniumoxid. Durch asymmetrisch erweiterte p-n-Heterointerfaces modulieren die Bauteile ihre Leitfähigkeit auf einem extrem niedrigen Energieniveau. Die Steuerung der Energiebarriere erfolgt dabei über eine präzise elektroionische Ladungsmigration. Das System speichert und verarbeitet die Daten in ein und derselben physischen Einheit. Diese lokale Informationsverarbeitung orientiert sich direkt an der Funktionsweise neuronaler Synapsen. Effizienzsprung und Industriestandards Mit dem veränderten Design erzielen die Wissenschaftler Schaltströme, die rund eine Million Mal niedriger liegen als bei konventionellen oxidbasierten Komponenten. Berechnungen zufolge lässt sich der gesamte Energieverbrauch der Hardware dadurch um bis zu 70 Prozent reduzieren. Für eine breite kommerzielle Nutzung stehen noch finale Optimierungen an. Aktuell fokussiert sich das Forschungsteam darauf, die thermischen Voraussetzungen der Bauteile zu verbessern. Sobald die Betriebstemperaturen sinken, lassen sich die sparsamen Memristoren nahtlos in aktuelle Industriestandards und bestehende Chipdesigns integrieren.

  • Google plant Rekordinvestitionen von 185 Milliarden Dollar für Gemini

    Sundar lässt Geld auf Google Rechenzentrum regnen

    Nano Banana

    Kurzfassung

    Quellen

    Alphabet plant für 2026 Rekordinvestitionen von bis zu 185 Milliarden Dollar, um die eigene KI-Infrastruktur massiv auszubauen. Das Budget fließt primär in neue Rechenzentren und Hardware, um die Skalierung der Gemini-Modelle und Cloud-Dienste zu sichern. Finanziert wird der Ausbau durch einen historischen Jahresumsatz von über 400 Milliarden Dollar im abgelaufenen Geschäftsjahr.

    Google Blog – Remarks from our CEO

    SEC.gov – Alphabet Announces Fourth Quarter Results

    Reuters – Alphabet says capital spending in 2026 could double

    Alphabet geht im Wettbewerb um die technische Marktführerschaft bei künstlicher Intelligenz das bisher größte finanzielle Wagnis ein. Der Konzern plant für das Jahr 2026 Investitionen von bis zu 185 Milliarden US-Dollar, um die Infrastruktur für Gemini und Cloud-Dienste massiv auszubauen. Verdopplung der Ausgaben CEO Sundar Pichai nannte im Earnings Call für das vierte Quartal 2025 konkrete Zahlen für das laufende Geschäftsjahr. Die geplanten Investitionsausgaben (CapEx) sollen zwischen 175 und 185 Milliarden US-Dollar liegen. Dies entspricht annähernd einer Verdopplung im Vergleich zum Vorjahr. Der absolute Großteil dieses Budgets fließt direkt in die technische Infrastruktur. Alphabet baut damit weltweit neue Rechenzentren und kauft in großem Stil KI-Beschleuniger und Server-Hardware ein. Das Unternehmen reagiert damit auf den immensen Ressourcenhunger moderner Sprachmodelle. Anzeige Skalierung der Gemini-Modelle Google benötigt diese Rechenleistung primär für das Training und den Betrieb der nächsten Generationen von Gemini. Die Nutzerzahlen bestätigen den hohen Bedarf an Rechenkapazität. Die Gemini-App verzeichnet mittlerweile über 750 Millionen monatlich aktive Nutzer. Diese Nachfrage erfordert eine ständige Erweiterung der Kapazitäten, um Latenzen gering zu halten und neue Funktionen auszurollen. Ohne massive Hardware-Upgrades drohen Engpässe bei der Bereitstellung der Dienste. Die Investition sichert somit die Verfügbarkeit der KI-Tools für Endanwender und Entwickler ab. Umsatzrekord deckt Investitionen Die Finanzierung dieser Offensive erfolgt aus einer Position der Stärke heraus. Alphabet meldete für das abgelaufene Geschäftsjahr erstmals einen Jahresumsatz von über 400 Milliarden US-Dollar. Das Kerngeschäft mit der Suche und Werbung läuft weiterhin stabil. Besonders die Cloud-Sparte profitiert stark vom anhaltenden Bedarf an künstlicher Intelligenz in der Industrie. Unternehmen mieten verstärkt Rechenleistung bei Google an, um eigene KI-Anwendungen zu betreiben. Die hohen Investitionen in Hardware dienen also auch direkt dem Umsatzwachstum im B2B-Sektor. Hardware als Flaschenhals Der massive Ausbau ist eine direkte Reaktion auf die Konkurrenzsituation mit OpenAI und Meta. Wer die meisten Rechenzentren besitzt, bestimmt das Tempo der Entwicklung. Sundar Pichai wies jedoch auch auf externe Risikofaktoren hin. Mögliche Lieferengpässe bei kritischen Komponenten könnten die Pläne verzögern. Die Verfügbarkeit von Chips und Energieinfrastruktur gilt aktuell als limitierender Faktor für den gesamten Tech-Sektor. Das Budget steht bereit, die Umsetzung hängt jedoch an den Lieferketten der Hardware-Partner.

  • KI-Paradoxon 2026: Warum der Fortschritt jetzt an eine harte Grenze stößt

    Ein Roboter meistern Schach und Mathematik, kann aber kein Ei halten

    Nano Banana

    Kurzfassung

    Quellen

    Demis Hassabis warnt in Davos vor einem Ungleichgewicht zwischen rasanter Software-Entwicklung und fehlender Hardware-Infrastruktur. Der für KI essenzielle HBM4-Speicher ist durch Großeinkäufe der Hyperscaler bereits bis Ende 2026 weltweit ausverkauft. Steigende Energiekosten und Nvidias Preispolitik sorgen für Spannungen zwischen KI-Firmen, Chipherstellern und der Öffentlichkeit.

    Semafor: Google DeepMind’s Demis Hassabis and the paradox of AI progress

    StartupHub.ai: Demis Hassabis on the AI Shift

    WeForum: Live from Davos 2026

    TechCrunch: Anthropic’s CEO stuns Davos with Nvidia criticism

    The Chosun Daily: Tech Leaders at Davos Urge AI Regulation Amid Risks

    Demis Hassabis zeichnet in Davos das Bild einer Technologie, die sich schneller entwickelt als die industrielle Revolution, aber an physische Grenzen stößt. Der totale Ausverkauf von HBM4-Speicher und explodierende Infrastrukturkosten bedrohen den geplanten massenhaften Rollout der nächsten KI-Generation. Das Ende der reinen Forschungsphase Die Stimmung auf dem Weltwirtschaftsforum 2026 in Davos hat sich gedreht. Demis Hassabis, Kopf von Google DeepMind, definierte in seiner Keynote den aktuellen Status Quo der Künstlichen Intelligenz neu. Die Technologie vollzieht derzeit den schmerzhaften Übergang von der wissenschaftlichen Entdeckung zur kommerziellen „Deployment Phase“ (Einsatzphase). Hassabis verglich die aktuelle Geschwindigkeitszunahme mit der industriellen Revolution, betonte jedoch, dass der Wandel diesmal zehnmal schneller und umfassender abläuft. Diese Beschleunigung erzeugt jedoch das von Hassabis beschriebene „KI-Paradoxon“. Während die Algorithmen exponentiell leistungsfähiger werden, hinkt die physische Welt hinterher. Die Modelle benötigen Rechenzentren und Hardware, deren Bau Jahre dauert, während die Software sich monatlich neu erfindet. Hassabis mahnte, dass ohne eine Lösung der Ressourcenfrage der wissenschaftliche Vorsprung nicht in ökonomischen Nutzen umgewandelt werden kann. Anzeige Kampf um die letzte Hardware Wie ernst die Lage bei der Hardware ist, zeigen aktuelle Berichte aus der Lieferkette. Der für KI-Beschleuniger essenzielle HBM4-Speicher (High Bandwidth Memory der 4. Generation) ist offiziell bis Ende 2026 ausverkauft. Die sogenannten Hyperscaler – also Giganten wie Microsoft, Google und Meta – haben sich über langfristige Verträge faktisch die gesamte globale Produktion gesichert. Für kleinere Akteure und Neueinsteiger schließt sich damit das Fenster für den Markteintritt fast vollständig. Verschärft wird die Situation durch die geopolitische Lage: Die angedrohten Zölle der Trump-Administration auf Speicherchips aus Asien sorgen für zusätzliche Nervosität an den Märkten. Experten sehen hierin nicht nur eine Preissteigerung, sondern eine reale Gefahr für den globalen Rollout neuer KI-Dienste, da Hardware nicht mehr dort ankommt, wo sie am dringendsten benötigt wird. Energiehunger und die Kostenfalle Neben der Hardware rückt die Energieversorgung in den Fokus der Kritik. OpenAI reagierte am Mittwoch auf wachsende Proteste und schloss sich einer Initiative von Microsoft an. Das Unternehmen verpflichtete sich, dass der massive Energiebedarf der neuen Rechenzentren nicht auf die Stromrechnungen der Anwohner umgelegt wird. OpenAI plant, die notwendigen Infrastruktur-Upgrades selbst zu finanzieren und den Wasserverbrauch strikt zu limitieren. Dieser Schritt ist notwendig, da die Akzeptanz in der Bevölkerung schwindet. Auch innerhalb der Branche wächst der Unmut über die Kostenstruktur. Der CEO von Anthropic sorgte in Davos für Aufsehen, als er die Preispolitik von Nvidia offen kritisierte. Die Monopolstellung des Chipherstellers und die damit verbundenen Kosten würden Innovationen abwürgen. Es ist ein deutliches Zeichen, dass der Burgfrieden im Silicon Valley bröckelt, sobald die Margen unter dem Druck der Ressourcenknappheit schmelzen.

  • Amazon re:Invent: Neuer KI-Chip, günstige Nova-2-Modelle und autonome Agenten

    Amazon versucht auf der re:Invent 2025, technologisch Boden gutzumachen. Der Fokus liegt auf massiver Skalierung durch eigene Hardware, aggressiv bepreisten Modellen der Nova-2-Serie und dem Versuch, KI-Assistenten zu vollautonomen „Mitarbeitern“ aufzuwerten.

    Der Artikel Amazon re:Invent: Neuer KI-Chip, günstige Nova-2-Modelle und autonome Agenten erschien zuerst auf The Decoder.

  • Alle sechs Monate doppelte Leistung oder Google geht unter

    KI Infrastruktur von Google

    Nano Banana

    Kurzfassung

    Quellen

    Google muss seine KI-Bereitstellungskapazität alle sechs Monate verdoppeln, um der Nachfrage gerecht zu werden. Amin Vahdat plant eine 1000-fache Leistungssteigerung in fünf Jahren durch effiziente Chips wie die TPU Ironwood. CEO Sundar Pichai warnt trotz der massiven Investitionen und technischen Fortschritte vor einer möglichen Blasenbildung im KI-Sektor.

    CNBC – Google must double AI serving capacity

    THE DECODER – Google will KI-Leistung massiv steigern

    Gizmodo – Google Exec Claims Company Needs to Double Capacity

    WinFuture – Google-Chef warnt vor KI-Blase

    CNBC – Comparing the top AI chips

    Google steht unter enormem Zugzwang und muss seine Infrastruktur drastisch ausbauen. Amin Vahdat, Chef der KI-Infrastruktur, gibt ein extrem ambitioniertes Ziel für die kommenden Jahre vor. Der Tech-Gigant plant eine Vertausendfachung seiner Rechenkapazität, ohne dabei die Kosten explodieren zu lassen. Exponentielles Wachstum als Pflicht Der Bedarf an Rechenleistung für Künstliche Intelligenz wächst derzeit schneller als jede andere technologische Ressource zuvor. Google sieht sich mit der Herausforderung konfrontiert, seine Kapazitäten zur Bereitstellung von KI-Anwendungen alle sechs Monate zu verdoppeln. Amin Vahdat machte diese Rechnung kürzlich in einer internen Präsentation auf. Nur mit diesem Tempo hält der Konzern mit der weltweiten Nachfrage Schritt. Dieses exponentielle Wachstum zwingt die Ingenieure im Silicon Valley zu radikalem Umdenken. Ein einfaches Hinzufügen weiterer Server reicht längst nicht mehr aus, um die geforderten Mengen an Daten zu verarbeiten. Vahdat fordert deshalb eine Steigerung der gesamten Systemleistung um den Faktor 1000 innerhalb der nächsten vier bis fünf Jahre. Dieses Ziel definiert die Marschrichtung für die gesamte Hardware-Abteilung des Unternehmens. Effizienz schlägt reine Masse Geld und Energieverbrauch begrenzen jedoch die Möglichkeiten einer reinen Materialschlacht. Würde Google die Hardware linear zur geforderten Leistung hochskalieren, stünden die Kosten in keinem Verhältnis zum Ertrag. Die Strategie lautet daher Effizienzsteigerung auf allen Ebenen. Der Konzern muss mehr Rechenoperationen pro Watt und pro Dollar aus seinen Datenzentren herausholen. Hier kommen spezialisierte Chips wie die neue TPU Ironwood ins Spiel. Diese eigens entwickelten Prozessoren verarbeiten KI-Lasten wesentlich effektiver als Standard-Grafikkarten. Google optimiert das Design dieser Chips konsequent auf die spezifischen Anforderungen seiner neuronalen Netze. Durch diese Spezialisierung umgeht das Unternehmen die physikalischen Grenzen herkömmlicher Halbleitertechnik und senkt gleichzeitig den Stromhunger der Anlagen. Software optimiert die Hardware Die Hardware bildet allerdings nur das Fundament für den geplanten Leistungssprung. Googles Forschungsabteilung DeepMind arbeitet parallel an intelligenteren Software-Architekturen. Effizientere Modelle benötigen weniger Rechenkraft für komplexe Aufgaben und entlasten so die Infrastruktur. Die enge Verzahnung von Chip-Design und Software-Entwicklung verschafft Google hier einen entscheidenden Vorteil gegenüber reinen Hardware-Herstellern. Trotz dieser technischen Fortschritte warnt CEO Sundar Pichai vor einer Überhitzung des Marktes. Er sieht durchaus die Gefahr einer Blasenbildung im KI-Sektor, da kein Unternehmen vor wirtschaftlichen Realitäten gefeit ist. Dennoch bleibt dem Suchmaschinenprimus keine Wahl, als massiv in die Zukunft zu investieren, um im Wettlauf mit Nvidia und Amazon nicht den Anschluss zu verlieren.