Schlagwort: Kosten

  • Oracle streicht tausende Stellen wegen hoher KI-Kosten

    OpenAI holt sich zusätzliche KI-Kapazitäten in der Oracle-Cloud

    Oracle plant die Streichung tausender Stellen, um die hohen Kosten für den massiven Ausbau seiner KI-Rechenzentren zu bewältigen, berichtet Bloomberg.

    Der Artikel Oracle streicht tausende Stellen wegen hoher KI-Kosten erschien zuerst auf The Decoder.

  • OpenAI verdoppelt Cashburn-Prognose: 111 Milliarden US-Dollar mehr bis 2030

    OpenAI hebt seine Umsatzprognosen an, warnt Investoren aber zugleich vor einem drastisch höheren Mittelabfluss. Die Kosten für Training und Betrieb von KI-Modellen steigen schneller als die Einnahmen.

    Der Artikel OpenAI verdoppelt Cashburn-Prognose: 111 Milliarden US-Dollar mehr bis 2030 erschien zuerst auf The Decoder.

  • Anthropic übernimmt Stromkosten für Anwohner bei neuen Rechenzentren

    Amodei geht durch die Stadt und verteilt Geld

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic kündigte an, sämtliche Kosten für den Netzausbau bei neuen, selbst genutzten Rechenzentren zu übernehmen. Sollten lokale Stromtarife durch die Anlagen steigen, plant das Unternehmen direkte Gutschriften auf den Rechnungen betroffener Haushalte. Die Maßnahme gilt ausschließlich für zukünftige Standorte, an denen der KI-Entwickler als Hauptmieter auftritt.

    Anthropic – Covering electricity price increases from our data centers

    X / @AnthropicAI – Covering electricity price increases from our data centers

    Der KI-Entwickler Anthropic reagiert auf die wachsende Kritik am Energiehunger moderner Sprachmodelle mit einer finanziellen Garantie für Anwohner. Das Unternehmen kündigte an, sämtliche Kosten für den durch neue Rechenzentren notwendigen Netzausbau zu tragen und resultierende Tariferhöhungen direkt zu kompensieren. Finanzierung der Infrastruktur Der Betrieb großer KI-Cluster erfordert immense Mengen elektrischer Energie, was lokale Stromnetze häufig an ihre Belastungsgrenzen bringt. Um die Versorgungssicherheit zu gewährleisten, müssen Netzbetreiber oft neue Umspannwerke errichten oder Hochspannungsleitungen verstärken. Diese Investitionskosten werden im Regelfall auf alle Anschlussinhaber im Versorgungsgebiet umgelegt, wodurch der Strompreis für Privathaushalte steigt. Anthropic will diesen Automatismus durchbrechen. Nach Angaben des Unternehmens sollen bei neuen Projekten, in denen Anthropic als Hauptnutzer (Anchor Tenant) auftritt, 100 Prozent der anfallenden Kosten für die Netzertüchtigung übernommen werden. Ziel ist es, die Investitionslast von der Allgemeinheit auf den Verursacher zu verlagern. Dies betrifft primär die Modernisierung der Übertragungs- und Verteilnetze, die für den Anschluss der Serverfarmen erforderlich sind. Anzeige Direkte Gutschriften auf der Stromrechnung Sollte es trotz der Übernahme der Infrastrukturkosten zu einer Erhöhung der lokalen Stromtarife kommen, stellt der Hersteller weitergehende Maßnahmen in Aussicht. Anthropic plant nach eigenen Angaben, die Differenzbeträge direkt auf den Stromrechnungen der betroffenen Haushalte gutzuschreiben. Wie dieser Mechanismus technisch und bürokratisch umgesetzt werden soll, lässt das Unternehmen bislang offen. Es erfordert eine komplexe Zusammenarbeit mit lokalen Versorgern, um die spezifisch durch das Rechenzentrum verursachte Preisskomponente zu isolieren und anschließend gutzuschreiben. Grenzen der Selbstverpflichtung Die Ankündigung enthält relevante Einschränkungen. Die Regelung greift ausschließlich bei neuen Anlagen, in denen Anthropic eine dominante Mieterrolle einnimmt. Bestehende Rechenzentren oder Standorte, an denen das Unternehmen nur geringe Kapazitäten anmietet, fallen nicht unter diese Garantie. Experten sehen in dem Vorstoß einen Versuch, regulatorischen Eingriffen zuvorzukommen. Da der Energiebedarf der Branche exponentiell wächst, steigt der politische Druck auf Technologieunternehmen, die externen Kosten ihres Wachstums nicht auf die Bevölkerung abzuwälzen. Ob die angekündigten Maßnahmen in der Praxis ausreichen, um lokale Widerstände gegen neue Bauprojekte zu neutralisieren, bleibt abzuwarten.

  • Amazon entwickelt KI-Werkzeuge für Film- und Fernsehproduktion

    Amazon will KI nutzen, um Film- und Fernsehproduktionen zu beschleunigen und Kosten zu senken.

    Der Artikel Amazon entwickelt KI-Werkzeuge für Film- und Fernsehproduktion erschien zuerst auf The Decoder.

  • KI-generierte Modefotos bei Zara: So spart der Konzern Millionen Euro

    Modeschau mit Roboter im Zara Store

    Nano Banana

    Kurzfassung

    Quellen

    Zara stellt die Produktfotografie im Onlineshop großflächig auf digitale Klone und High-Fidelity-Renderings um. Mithilfe von Scans werden reale Models als digitale Zwillinge lizenziert, was die physische Präsenz bei Shootings überflüssig macht. Das Verfahren spart dem Konzern erhebliche Kosten für Logistik sowie Personal und beschleunigt die Veröffentlichung neuer Kollektionen. Damit etabliert sich KI-generierter Content endgültig als neuer Industriestandard im globalen Modehandel.

    heise.de – KI-Bilder statt Modefotografie

    FashionUnited.de – Nachrichten und News aus der Modebranche

    setupbots.com – AI Ad Generation for Fashion Brands Cost: The New Math

    BEF Models – A portal for all fashion models

    Zalando Corporate – Digital Twins High-Fidelity Replicas of Real Models

    Der Modekonzern Zara stellt seine Produktpräsentation massiv auf computergenerierte Bilder um und nutzt digitale Abbilder echter Models. Dieser Schritt markiert das Ende klassischer Studiofotografie im industriellen Maßstab und verändert die ökonomischen Grundlagen des weltweiten Onlinehandels grundlegend. Hochauflösende Klone im industriellen Einsatz Zara integriert nun flächendeckend digitale Klone in den Produktionsprozess seiner Onlineshops. Diese sogenannten Digitalen Zwillinge entstehen durch hochauflösende Scans realer Models, die anschließend in jeder beliebigen Pose und Kleidung computergestützt gerendert werden. Die Technologie erlaubt eine fotorealistische Darstellung, die von herkömmlichen Aufnahmen kaum noch zu unterscheiden ist. Dabei lizenziert das Unternehmen die Rechte an den digitalen Abbildern der Models über spezialisierte Agenturen wie BEF Models. Die physische Anwesenheit der Personen im Fotostudio entfällt für die tägliche Katalogarbeit fast vollständig. Die Models erhalten Vergütungen für die Nutzung ihres digitalen Ebenbildes, ohne für jedes neue Kleidungsstück selbst vor der Kamera stehen zu müssen. Anzeige Effizienzgewinne durch den Wegfall der Logistik Die Umstellung folgt einer strikten wirtschaftlichen Logik. Ein herkömmliches Fotoshooting verursacht hohe Kosten durch die Buchung von Studios, Fotografen, Stylisten und die aufwendige Logistik der Warenmuster. Generative Bildsysteme produzieren die notwendigen Bildmengen in einem Bruchteil der Zeit und zu deutlich geringeren Kosten pro Artikel. Besonders bei der schieren Menge an wöchentlichen Neuheiten sichert sich Zara so einen strategischen Wettbewerbsvorteil. Die Skalierbarkeit der Bildproduktion ist für den schnellen Zyklus der Fast-Fashion-Industrie mittlerweile zum entscheidenden Faktor geworden. Algorithmen übernehmen hierbei die Aufgabe, die Kleidung digital auf die virtuellen Körper zu drapieren, wobei Stoffeigenschaften wie Elastizität und Glanz präzise simuliert werden. Branchenweiter Standard im digitalen Modehandel Mit dieser Strategie folgt Zara dem Beispiel von Konkurrenten wie Zalando und H&M, die bereits frühzeitig in die Entwicklung von High-Fidelity-Replikaten investierten. High-Fidelity beschreibt dabei eine besonders hohe Wiedergabetreue zum Original. Während erste Versuche mit rein virtuellen Charakteren oft künstlich wirkten, garantieren die aktuellen Klone die nötige Authentizität für die Kaufentscheidung. Andere Plattformen nutzen ähnliche Verfahren, um Kleidung an unterschiedlichen Körpertypen gleichzeitig zu visualisieren. Damit sinkt potenziell die Retourenquote, da Kunden die Passform an einem Modell sehen, das ihrem eigenen Körperbau entspricht. Der Einsatz von Künstlicher Intelligenz in der Modefotografie ist somit kein Experiment mehr, sondern der neue Industriestandard im E-Commerce.

  • 98 % günstiger als der Vorgänger

    Ein eleganter Panther ist effizient unterwegs

    98 % günstiger als der Vorgänger xAI stellt Grok 4 Fast vor und will damit die hohen Kosten für Spitzen-KI radikal senken – bei fast identischer Leistung. Kurzfassung | Andreas Becker, 21.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Das KI-Wettrüsten geht in die nächste Runde, doch diesmal stehen nicht nur reine Leistungsdaten im Fokus. Mit Grok 4 Fast schickt xAI, das Unternehmen von Elon Musk, ein neues Sprachmodell ins Rennen, das bei nahezu gleicher Performance wie das bisherige Spitzenmodell Grok 4 eine drastisch höhere Effizienz verspricht. Dieser Schritt zielt direkt auf die hohen Betriebskosten ab, die eines der größten Hemmnisse für den breiten Einsatz von Spitzen-KI darstellen. NEWS Gleiche Leistung, deutlich geringere Kosten Der Kern der Neuerung liegt in einer optimierten Architektur. Grok 4 Fast benötigt für vergleichbare Ergebnisse im Schnitt 40 Prozent weniger sogenannte „Thinking Tokens“ als sein Vorgänger. Diese Reduzierung des Rechenaufwands schlägt sich direkt in den Kosten nieder, die laut xAI um bis zu 98 Prozent sinken können. Möglich wird dies durch ein hybrides Design, das einfache Anfragen und komplexe Denkprozesse in einem einzigen Modell vereint, anstatt wie bisher zwischen unterschiedlichen Modellen zu wechseln. In etablierten Benchmarks wie GPQA Diamond oder AIME 2025 muss sich das neue Modell nicht verstecken und liegt auf einem ähnlichen Niveau wie Grok 4. Besonders hervorzuheben ist jedoch die Fähigkeit des Modells, eigenständig auf externe Werkzeuge wie einen Webbrowser oder eine Code-Ausführungsumgebung zuzugreifen. Diese „Agenten-Fähigkeiten“ wurden gezielt trainiert und führen dazu, dass Grok 4 Fast in spezialisierten Benchmarks, die solche Aufgaben bewerten, sogar besser abschneidet als sein Vorgänger und Konkurrenten wie OpenAIs Websuche-Modell. + Quelle: xAI Neue Architektur und Fokus auf praktische Anwendung Im Gegensatz zu früheren Versionen, die auf getrennte Modelle für einfache und komplexe Aufgaben setzten, integriert Grok 4 Fast beide Fähigkeiten in einer einzigen Architektur. Das Verhalten des Modells wird dabei über den System-Prompt gesteuert, was die Latenz und die Kosten für Entwickler reduziert. xAI stellt das Modell über seine API in zwei Varianten bereit, die beide auf ein beeindruckendes Kontextfenster von zwei Millionen Token zugreifen können. Die aggressive Preisgestaltung, die je nach Nutzung bei nur 0,20 US-Dollar pro einer Million Input-Token startet, unterstreicht die Strategie von xAI. Das Unternehmen will nicht nur in den Leistungs-Benchmarks an der Spitze mitspielen, sondern KI auch für anspruchsvolle, hochfrequente Aufgaben wie Websuchen und interaktive Agenten wirtschaftlich attraktiv machen. Mit der Veröffentlichung auf Plattformen wie OpenRouter und Vercel wird zudem die Zugänglichkeit für Entwickler weiter erhöht. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG
    xAI hat Grok 4 Fast vorgestellt, ein neues KI-Modell, das die Leistung von Grok 4 bei deutlich geringeren Kosten bietet.
    Durch eine optimierte Architektur sinkt der Rechenaufwand um 40%, was die Kosten pro Aufgabe um bis zu 98% reduzieren kann.
    Das Modell wurde speziell für die Nutzung von Tools wie der Websuche trainiert und übertrifft hier sogar Konkurrenten.
    Grok 4 Fast verfügt über ein Kontextfenster von 2 Millionen Token und eine neue hybride Architektur, die es effizienter macht.
    QUELLEN
    Times of India
    MarkTechPost
    Yahoo News
    Artificial Analysis

  • Microsofts MAI-DxO sorgt für präzisere KI-Diagnosen und spart fast 70 Prozent der Kosten

    Ein neues KI-System von Microsoft soll bei komplexen medizinischen Fällen eine viermal höhere diagnostische Genauigkeit als erfahrene Ärzte erreichen und gleichzeitig die Kosten senken. Ein neuer Benchmark simuliert dafür den realen, schrittweisen Diagnoseprozess.

    Der Artikel Microsofts MAI-DxO sorgt für präzisere KI-Diagnosen und spart fast 70 Prozent der Kosten erschien zuerst auf THE-DECODER.de.

  • Neuer Player in Chinas KI-Landschaft: Rednote veröffentlicht erstes Open-Source-KI-Modell

    Illustration: Karte Chinas mit Flagge, Datenbank-Icons und Netzwerk-Knoten symbolisieren zentrale Dateninfrastruktur.

    Das chinesische Social-Media-Unternehmen Rednote hat sein erstes großes Sprachmodell vorgestellt. Das Mixture-of-Experts-System soll bei deutlich geringeren Kosten mit Konkurrenzmodellen mithalten können.

    Der Artikel Neuer Player in Chinas KI-Landschaft: Rednote veröffentlicht erstes Open-Source-KI-Modell erschien zuerst auf THE-DECODER.de.