Schlagwort: Jahren

  • Sam Altman Interview: „Die Welt ist nicht bereit!“

    Sam Altman bei einem Interview

    The Indian Express (youtube)

    Kurzfassung

    Quellen

    OpenAI-Chef Sam Altman rechnet in wenigen Jahren mit der künstlichen Superintelligenz und warnt eindringlich vor einem unkontrollierbaren Machtmonopol.
    Das extrem schnelle Entwicklungstempo der kommenden Modelle übertrifft eigene Prognosen und sorgt branchenintern für unerwartet massiven Stress.
    Gleichzeitig arbeitet das Unternehmen mit Ex-Apple-Designer Jony Ive an einer völlig neuen KI-Hardware, die das klassische Smartphone ablösen soll.
    Um den gigantischen Energiebedarf der Technologie zu decken, fordert Altman zudem einen raschen und globalen Ausbau von Solar- und Kernkraft.

    YouTube – Express Adda Interview with Sam Altman

    Die Welt ist auf die extrem leistungsfähigen KI-Modelle der nahen Zukunft nicht vorbereitet. In einem aktuellen Interview prognostiziert OpenAI-Chef Sam Altman eine künstliche Superintelligenz in wenigen Jahren und warnt eindringlich davor, diese einer einzelnen Nation zu überlassen. Gleichzeitig kündigt er für Ende 2026 eine eigene Hardware an, die das traditionelle Smartphone ablösen soll.

    Ein unvorbereiteter Markt Ein direkter Blick des CEOs hinter die Kulissen der führenden KI-Entwickler offenbart eine wachsende Besorgnis. Der Leistungssprung der kommenden Modelle vollzieht sich laut Altman deutlich schneller, als er selbst ursprünglich prognostizierte. Diese rasante Beschleunigung löst selbst in den Vorstandsetagen Stress und Unbehagen aus, da Gesellschaft und Wirtschaft noch nicht auf die bevorstehenden Veränderungen eingestellt sind. Künstliche allgemeine Intelligenz (AGI) rückt nach seiner Einschätzung in greifbare Nähe, während eine künstliche Superintelligenz (ASI) in nur wenigen Jahren folgen soll. Anzeige Dezentrale Macht statt Monopol Ein einzelnes Land oder Unternehmen darf die Kontrolle über eine derart mächtige Technologie nicht allein besitzen. Altman betont, dass eine starke Konzentration der Rechenleistung enorme Risiken für die globale Stabilität birgt. Stattdessen fordert er, dass die Technologie breitflächig zugänglich sein muss. Nur so lässt sich ein gesundes Gleichgewicht schaffen, welches einen systematischen Machtmissbrauch rechtzeitig verhindert. Abkehr vom klassischen Smartphone Parallel zur reinen Softwareentwicklung bestätigt Altman die Arbeit an einer neuen Gerätekategorie in Zusammenarbeit mit dem Designer Jony Ive. Die grundlegende Bedienung von Computern hat sich seit 50 Jahren kaum verändert und verlässt sich weiterhin auf Bildschirme sowie starre Eingabeformen. Fortschrittliche KI-Modelle verlangen jedoch nach völlig neuen Interaktionswegen. Ein System, das den Lebenskontext des Nutzers vollständig versteht und permanent über natürliche Sprache agiert, passt laut dem OpenAI-Chef nicht in das bekannte Format eines Telefons. Erste Details zu dieser Hardware plant das Unternehmen noch Ende dieses Jahres vorzustellen. Die Konstruktion solcher nativen KI-Geräte erweist sich in der Praxis allerdings als äußerst komplex. Anzeige Energiebedarf und Weltraum-Pläne Das Training und der laufende Betrieb dieser Architekturen verschlingen immense Mengen an Rechenleistung. Berichte über einen extremen Wasserverbrauch pro einzelner Suchanfrage weist Altman in dem Gespräch strikt als falsch zurück, da moderne Rechenzentren längst keine Verdunstungskühlung mehr einsetzen. Der tatsächliche physikalische Engpass liegt beim massiven Gesamtstrombedarf der Branche. Um diesen kontinuierlich steigenden Hunger zu decken, ist ein schneller Ausbau von Solarenergie und Kernkraft zwingend notwendig. Visionären Ideen, gigantische Rechenzentren künftig einfach in den Weltraum auszulagern, erteilt er für das laufende Jahrzehnt eine klare Absage. Die enormen Transportkosten in den Orbit übersteigen den thermischen und energetischen Nutzen auf der Erde um ein Vielfaches.

    Top News
    Musk prognostiziert günstigere KI-Rechenzentren im Weltraum in drei Jahren
    Die fehlende Atmosphäre macht Kühlung schwer, doch billige Raketenstarts ermöglichen tonnenschwere Lösungen gegen die Überhitzung.

    Spürbare Konkurrenz in der Branche Wie hart der Wettbewerb im KI-Sektor hinter den Kulissen ist, zeigte sich zuletzt auch bei öffentlichen Auftritten. Bei einem gemeinsamen Fototermin mieden Sam Altman und die Führungskräfte des direkten Konkurrenten Anthropic auffällig jeden physischen Kontakt. + Quelle: ANI News Dieser Vorfall unterstreicht die angespannte Stimmung zwischen den Entwicklungsunternehmen. Neben der reinen technologischen Leistung entscheidet zunehmend auch der direkte Kampf um Investorengelder und Marktanteile über die zukünftige Ausrichtung der Branche. Anzeige

  • Gewaltiger Milliardendeal für neue KI-Rechenzentren

    Mark Zuckerberg und Jensen Huang treffen sich zu einem Deal

    Nano Banana

    Kurzfassung

    Quellen

    Meta und Nvidia haben eine weitreichende, mehrjährige Technologiepartnerschaft für den weltweiten Ausbau von Rechenzentren unterzeichnet.
    Für schätzungsweise mehrere Dutzend Milliarden US-Dollar kauft der Facebook-Mutterkonzern in den kommenden Jahren Millionen neuer KI-Beschleuniger.
    Dazu gehören auch Hochleistungsprozessoren der neuen Vera-Generation, die den Betrieb und das Training zukünftiger KI-Modelle enorm beschleunigen.
    Mit diesem Schritt sichert sich Meta wertvolle Hardware in einem hart umkämpften Markt und bindet sich strategisch eng an das Ökosystem von Nvidia.

    NVIDIA Newsroom – Meta Builds AI Infrastructure With NVIDIA

    Meta und Nvidia haben eine mehrjährige Technologiepartnerschaft für den Ausbau von Rechenzentren geschlossen. Der Facebook-Konzern kauft in den kommenden Jahren Millionen von KI-Beschleunigern im Wert von vielen Milliarden US-Dollar. Massive Investition in Rechenleistung Der Ausbau der hauseigenen Infrastruktur für maschinelles Lernen bildet das Fundament des umfassenden Abkommens. Meta rüstet seine Serverfarmen weltweit auf, um das Training sowie den alltäglichen Betrieb zukünftiger KI-Modelle technisch abzusichern. Nvidia liefert dafür in den nächsten Jahren Millionen aktueller und kommender KI-Beschleuniger, zu denen auch Prozessoren der neuen Vera-Generation gehören. Diese speziell für künstliche Intelligenz entwickelten Chips sind darauf optimiert, unzählige Rechenoperationen gleichzeitig auszuführen. Normale Hauptprozessoren stoßen bei diesen komplexen Matrixberechnungen schnell an ihre Leistungsgrenzen. Durch den Einsatz hochspezialisierter Beschleunigerkarten reduziert das Unternehmen die benötigte Trainingszeit für neue Algorithmen drastisch und senkt gleichzeitig den relativen Energieverbrauch pro Rechenoperation. Anzeige Strategische Bindung bei knappen Ressourcen Konkrete finanzielle Details behalten beide Vertragspartner bislang für sich. Experten schätzen das Gesamtvolumen des Deals angesichts der enormen Stückzahlen jedoch auf einen mittleren zweistelligen Milliardenbetrag. Meta bindet sich mit dieser weitreichenden Entscheidung fest an das technische Ökosystem von Nvidia und verzichtet vorerst auf den massiven Einsatz von Alternativlösungen anderer Hersteller. Dieser Schritt unterstreicht die anhaltende Marktführerschaft des kalifornischen Chipentwicklers bei der Hardware-Ausstattung großer Rechenzentren. Der Facebook-Mutterkonzern verlässt sich bereits bei seinen bestehenden Großrechnern größtenteils auf Nvidia-Komponenten. Durch den langjährigen Liefervertrag sichert sich der Konzern nun dringend benötigte Produktionskapazitäten in einem stark umkämpften Marktsegment, das weiterhin von hohen Wartezeiten geprägt ist. Der kontinuierliche Nachschub an leistungsstarker Hardware ist für Meta zwingend notwendig, um aufwendige Berechnungen direkt für die eigenen Plattformen abzuwickeln. Beide Unternehmen beginnen in den kommenden Wochen mit der detaillierten technischen Planung für den Einbau der Prozessoren in bestehende Server-Racks.

  • App-Boom durch „Vibe Coding“: KI-Tools dürften für 60 Prozent mehr iOS-Apps sorgen

    KI-Programmierwerkzeuge lassen nach Jahren des Stillstands die Zahl neuer iOS-Apps explodieren.

    Der Artikel App-Boom durch „Vibe Coding“: KI-Tools dürften für 60 Prozent mehr iOS-Apps sorgen erschien zuerst auf The Decoder.

  • OpenAIs Geschäftsmodell: Mehr Rechenleistung soll automatisch mehr Umsatz bringen

    OpenAI veröffentlicht erstmals offiziell Geschäftszahlen: Der Umsatz hat sich innerhalb von zwei Jahren verzehnfacht.

    Der Artikel OpenAIs Geschäftsmodell: Mehr Rechenleistung soll automatisch mehr Umsatz bringen erschien zuerst auf The Decoder.

  • OpenAI verliert Top-KI-Forscher Jerry Tworek nach sieben Jahren

    Jerry Tworek, einer der wichtigsten Köpfe hinter GPT-4, ChatGPT und den Reasoning-Modellen o1 und o3, verlässt OpenAI nach fast sieben Jahren.

    Der Artikel OpenAI verliert Top-KI-Forscher Jerry Tworek nach sieben Jahren erschien zuerst auf The Decoder.

  • Google will KI-Leistung in vier bis fünf Jahren um den Faktor 1000 steigern

    Google muss seine KI-Infrastruktur schneller ausbauen als je zuvor. Interne Unterlagen zeigen: Der Konzern will die Leistung in wenigen Jahren um den Faktor 1000 steigern, und das bei ähnlichen Kosten. Grundlegend sind effizientere KI-Modelle und KI-Chips. Wir werden „viel investieren“, sagt der KI-Infrastrukturchef.

    Der Artikel Google will KI-Leistung in vier bis fünf Jahren um den Faktor 1000 steigern erschien zuerst auf The Decoder.

  • Yann LeCun verlässt Meta und gründet eigenes KI-Start-up

    Nach zwölf Jahren bei Meta kündigt Yann LeCun seinen Abschied an. Der Turing-Preisträger will mit einem neuen Start-up die Grenzen der heutigen KI-Modelle überwinden – und Meta bleibt als Partner beteiligt.

    Der Artikel Yann LeCun verlässt Meta und gründet eigenes KI-Start-up erschien zuerst auf The Decoder.

  • Wir starten THE DECODER 2.0 und KI PRO 2.0

    Vor fast genau drei Jahren, im September 2022, haben wir THE DECODER als internationales Online-Magazin rund um Künstliche Intelligenz gestartet – ein Thema, über das wir seit 2015 berichten. Jetzt gehen wir den nächsten Schritt.

    Der Artikel Wir starten THE DECODER 2.0 und KI PRO 2.0 erschien zuerst auf The Decoder.

  • Google investiert 5 Milliarden Pfund in KI, Forschung, Ausbildung und Rechenzentrum in Großbritannien

    Google investiert in den kommenden zwei Jahren 5 Milliarden Pfund (6,78 Milliarden US-Dollar) in KI-Infrastruktur und andere Projekte in Großbritannien, berichtet das Wall Street Journal.

    Der Artikel Google investiert 5 Milliarden Pfund in KI, Forschung, Ausbildung und Rechenzentrum in Großbritannien erschien zuerst auf THE-DECODER.de.

  • OpenAIs neuer Agent verwirklicht eine Vision, die das Unternehmen seit 2017 verfolgt

    OpenAI arbeitet seit Jahren an der Entwicklung eines vielseitigen KI-Agenten. Mit dem neuen ChatGPT-Agenten setzt das Unternehmen auf massive Rechenleistung, gezieltes Reinforcement Learning und eine starke vortrainierte Basis – und verfolgt eine Vision, die bis 2017 zurückreicht.

    Der Artikel OpenAIs neuer Agent verwirklicht eine Vision, die das Unternehmen seit 2017 verfolgt erschien zuerst auf THE-DECODER.de.