Schlagwort: Jahren

  • OpenAI-Forscher: Warum Mathematik der wichtigste Test auf dem Weg zur AGI ist

    KI-Modelle haben in nur zwei Jahren den Sprung von Grundschulrechnungen zu Olympiade-Niveau und Forschungsmathematik geschafft. OpenAI-Forscher Sebastian Bubeck und Ernest Ryu erklären im OpenAI-Podcast, warum gerade Mathematik der zentrale Prüfstein auf dem Weg zur allgemeinen künstlichen Intelligenz ist.

    Der Artikel OpenAI-Forscher: Warum Mathematik der wichtigste Test auf dem Weg zur AGI ist erschien zuerst auf The Decoder.

  • Vereinigte Arabische Emirate wollen halbe Regierung innerhalb von zwei Jahren mit autonomer KI betreiben

    Die Vereinigten Arabischen Emirate wollen die Hälfte ihrer Regierungsarbeit innerhalb von zwei Jahren auf autonome KI-Systeme umstellen.

    Der Artikel Vereinigte Arabische Emirate wollen halbe Regierung innerhalb von zwei Jahren mit autonomer KI betreiben erschien zuerst auf The Decoder.

  • Von GPT-2 zu Claude Mythos: Wenn KI-Modelle wieder zu gefährlich für eine Veröffentlichung sind

    Vor sieben Jahren erklärte OpenAI sein Sprachmodell GPT-2 für „zu gefährlich“. Die Branche rollte mit den Augen. Jetzt wiederholt Anthropic das Manöver mit Claude Mythos Preview, doch diesmal liegt echte Evidenz auf dem Tisch: Tausende Schwachstellen in Betriebssystemen und Browsern, gefunden von einer KI, die kaum ein Mensch überprüfen konnte.

    Der Artikel Von GPT-2 zu Claude Mythos: Wenn KI-Modelle wieder zu gefährlich für eine Veröffentlichung sind erschien zuerst auf The Decoder.

  • Sam Altman Interview: „Die Welt ist nicht bereit!“

    Sam Altman bei einem Interview

    The Indian Express (youtube)

    Kurzfassung

    Quellen

    OpenAI-Chef Sam Altman rechnet in wenigen Jahren mit der künstlichen Superintelligenz und warnt eindringlich vor einem unkontrollierbaren Machtmonopol.
    Das extrem schnelle Entwicklungstempo der kommenden Modelle übertrifft eigene Prognosen und sorgt branchenintern für unerwartet massiven Stress.
    Gleichzeitig arbeitet das Unternehmen mit Ex-Apple-Designer Jony Ive an einer völlig neuen KI-Hardware, die das klassische Smartphone ablösen soll.
    Um den gigantischen Energiebedarf der Technologie zu decken, fordert Altman zudem einen raschen und globalen Ausbau von Solar- und Kernkraft.

    YouTube – Express Adda Interview with Sam Altman

    Die Welt ist auf die extrem leistungsfähigen KI-Modelle der nahen Zukunft nicht vorbereitet. In einem aktuellen Interview prognostiziert OpenAI-Chef Sam Altman eine künstliche Superintelligenz in wenigen Jahren und warnt eindringlich davor, diese einer einzelnen Nation zu überlassen. Gleichzeitig kündigt er für Ende 2026 eine eigene Hardware an, die das traditionelle Smartphone ablösen soll.

    Ein unvorbereiteter Markt Ein direkter Blick des CEOs hinter die Kulissen der führenden KI-Entwickler offenbart eine wachsende Besorgnis. Der Leistungssprung der kommenden Modelle vollzieht sich laut Altman deutlich schneller, als er selbst ursprünglich prognostizierte. Diese rasante Beschleunigung löst selbst in den Vorstandsetagen Stress und Unbehagen aus, da Gesellschaft und Wirtschaft noch nicht auf die bevorstehenden Veränderungen eingestellt sind. Künstliche allgemeine Intelligenz (AGI) rückt nach seiner Einschätzung in greifbare Nähe, während eine künstliche Superintelligenz (ASI) in nur wenigen Jahren folgen soll. Anzeige Dezentrale Macht statt Monopol Ein einzelnes Land oder Unternehmen darf die Kontrolle über eine derart mächtige Technologie nicht allein besitzen. Altman betont, dass eine starke Konzentration der Rechenleistung enorme Risiken für die globale Stabilität birgt. Stattdessen fordert er, dass die Technologie breitflächig zugänglich sein muss. Nur so lässt sich ein gesundes Gleichgewicht schaffen, welches einen systematischen Machtmissbrauch rechtzeitig verhindert. Abkehr vom klassischen Smartphone Parallel zur reinen Softwareentwicklung bestätigt Altman die Arbeit an einer neuen Gerätekategorie in Zusammenarbeit mit dem Designer Jony Ive. Die grundlegende Bedienung von Computern hat sich seit 50 Jahren kaum verändert und verlässt sich weiterhin auf Bildschirme sowie starre Eingabeformen. Fortschrittliche KI-Modelle verlangen jedoch nach völlig neuen Interaktionswegen. Ein System, das den Lebenskontext des Nutzers vollständig versteht und permanent über natürliche Sprache agiert, passt laut dem OpenAI-Chef nicht in das bekannte Format eines Telefons. Erste Details zu dieser Hardware plant das Unternehmen noch Ende dieses Jahres vorzustellen. Die Konstruktion solcher nativen KI-Geräte erweist sich in der Praxis allerdings als äußerst komplex. Anzeige Energiebedarf und Weltraum-Pläne Das Training und der laufende Betrieb dieser Architekturen verschlingen immense Mengen an Rechenleistung. Berichte über einen extremen Wasserverbrauch pro einzelner Suchanfrage weist Altman in dem Gespräch strikt als falsch zurück, da moderne Rechenzentren längst keine Verdunstungskühlung mehr einsetzen. Der tatsächliche physikalische Engpass liegt beim massiven Gesamtstrombedarf der Branche. Um diesen kontinuierlich steigenden Hunger zu decken, ist ein schneller Ausbau von Solarenergie und Kernkraft zwingend notwendig. Visionären Ideen, gigantische Rechenzentren künftig einfach in den Weltraum auszulagern, erteilt er für das laufende Jahrzehnt eine klare Absage. Die enormen Transportkosten in den Orbit übersteigen den thermischen und energetischen Nutzen auf der Erde um ein Vielfaches.

    Top News
    Musk prognostiziert günstigere KI-Rechenzentren im Weltraum in drei Jahren
    Die fehlende Atmosphäre macht Kühlung schwer, doch billige Raketenstarts ermöglichen tonnenschwere Lösungen gegen die Überhitzung.

    Spürbare Konkurrenz in der Branche Wie hart der Wettbewerb im KI-Sektor hinter den Kulissen ist, zeigte sich zuletzt auch bei öffentlichen Auftritten. Bei einem gemeinsamen Fototermin mieden Sam Altman und die Führungskräfte des direkten Konkurrenten Anthropic auffällig jeden physischen Kontakt. + Quelle: ANI News Dieser Vorfall unterstreicht die angespannte Stimmung zwischen den Entwicklungsunternehmen. Neben der reinen technologischen Leistung entscheidet zunehmend auch der direkte Kampf um Investorengelder und Marktanteile über die zukünftige Ausrichtung der Branche. Anzeige

  • Gewaltiger Milliardendeal für neue KI-Rechenzentren

    Mark Zuckerberg und Jensen Huang treffen sich zu einem Deal

    Nano Banana

    Kurzfassung

    Quellen

    Meta und Nvidia haben eine weitreichende, mehrjährige Technologiepartnerschaft für den weltweiten Ausbau von Rechenzentren unterzeichnet.
    Für schätzungsweise mehrere Dutzend Milliarden US-Dollar kauft der Facebook-Mutterkonzern in den kommenden Jahren Millionen neuer KI-Beschleuniger.
    Dazu gehören auch Hochleistungsprozessoren der neuen Vera-Generation, die den Betrieb und das Training zukünftiger KI-Modelle enorm beschleunigen.
    Mit diesem Schritt sichert sich Meta wertvolle Hardware in einem hart umkämpften Markt und bindet sich strategisch eng an das Ökosystem von Nvidia.

    NVIDIA Newsroom – Meta Builds AI Infrastructure With NVIDIA

    Meta und Nvidia haben eine mehrjährige Technologiepartnerschaft für den Ausbau von Rechenzentren geschlossen. Der Facebook-Konzern kauft in den kommenden Jahren Millionen von KI-Beschleunigern im Wert von vielen Milliarden US-Dollar. Massive Investition in Rechenleistung Der Ausbau der hauseigenen Infrastruktur für maschinelles Lernen bildet das Fundament des umfassenden Abkommens. Meta rüstet seine Serverfarmen weltweit auf, um das Training sowie den alltäglichen Betrieb zukünftiger KI-Modelle technisch abzusichern. Nvidia liefert dafür in den nächsten Jahren Millionen aktueller und kommender KI-Beschleuniger, zu denen auch Prozessoren der neuen Vera-Generation gehören. Diese speziell für künstliche Intelligenz entwickelten Chips sind darauf optimiert, unzählige Rechenoperationen gleichzeitig auszuführen. Normale Hauptprozessoren stoßen bei diesen komplexen Matrixberechnungen schnell an ihre Leistungsgrenzen. Durch den Einsatz hochspezialisierter Beschleunigerkarten reduziert das Unternehmen die benötigte Trainingszeit für neue Algorithmen drastisch und senkt gleichzeitig den relativen Energieverbrauch pro Rechenoperation. Anzeige Strategische Bindung bei knappen Ressourcen Konkrete finanzielle Details behalten beide Vertragspartner bislang für sich. Experten schätzen das Gesamtvolumen des Deals angesichts der enormen Stückzahlen jedoch auf einen mittleren zweistelligen Milliardenbetrag. Meta bindet sich mit dieser weitreichenden Entscheidung fest an das technische Ökosystem von Nvidia und verzichtet vorerst auf den massiven Einsatz von Alternativlösungen anderer Hersteller. Dieser Schritt unterstreicht die anhaltende Marktführerschaft des kalifornischen Chipentwicklers bei der Hardware-Ausstattung großer Rechenzentren. Der Facebook-Mutterkonzern verlässt sich bereits bei seinen bestehenden Großrechnern größtenteils auf Nvidia-Komponenten. Durch den langjährigen Liefervertrag sichert sich der Konzern nun dringend benötigte Produktionskapazitäten in einem stark umkämpften Marktsegment, das weiterhin von hohen Wartezeiten geprägt ist. Der kontinuierliche Nachschub an leistungsstarker Hardware ist für Meta zwingend notwendig, um aufwendige Berechnungen direkt für die eigenen Plattformen abzuwickeln. Beide Unternehmen beginnen in den kommenden Wochen mit der detaillierten technischen Planung für den Einbau der Prozessoren in bestehende Server-Racks.

  • App-Boom durch „Vibe Coding“: KI-Tools dürften für 60 Prozent mehr iOS-Apps sorgen

    KI-Programmierwerkzeuge lassen nach Jahren des Stillstands die Zahl neuer iOS-Apps explodieren.

    Der Artikel App-Boom durch „Vibe Coding“: KI-Tools dürften für 60 Prozent mehr iOS-Apps sorgen erschien zuerst auf The Decoder.

  • OpenAIs Geschäftsmodell: Mehr Rechenleistung soll automatisch mehr Umsatz bringen

    OpenAI veröffentlicht erstmals offiziell Geschäftszahlen: Der Umsatz hat sich innerhalb von zwei Jahren verzehnfacht.

    Der Artikel OpenAIs Geschäftsmodell: Mehr Rechenleistung soll automatisch mehr Umsatz bringen erschien zuerst auf The Decoder.

  • OpenAI verliert Top-KI-Forscher Jerry Tworek nach sieben Jahren

    Jerry Tworek, einer der wichtigsten Köpfe hinter GPT-4, ChatGPT und den Reasoning-Modellen o1 und o3, verlässt OpenAI nach fast sieben Jahren.

    Der Artikel OpenAI verliert Top-KI-Forscher Jerry Tworek nach sieben Jahren erschien zuerst auf The Decoder.

  • Google will KI-Leistung in vier bis fünf Jahren um den Faktor 1000 steigern

    Google muss seine KI-Infrastruktur schneller ausbauen als je zuvor. Interne Unterlagen zeigen: Der Konzern will die Leistung in wenigen Jahren um den Faktor 1000 steigern, und das bei ähnlichen Kosten. Grundlegend sind effizientere KI-Modelle und KI-Chips. Wir werden „viel investieren“, sagt der KI-Infrastrukturchef.

    Der Artikel Google will KI-Leistung in vier bis fünf Jahren um den Faktor 1000 steigern erschien zuerst auf The Decoder.

  • Yann LeCun verlässt Meta und gründet eigenes KI-Start-up

    Nach zwölf Jahren bei Meta kündigt Yann LeCun seinen Abschied an. Der Turing-Preisträger will mit einem neuen Start-up die Grenzen der heutigen KI-Modelle überwinden – und Meta bleibt als Partner beteiligt.

    Der Artikel Yann LeCun verlässt Meta und gründet eigenes KI-Start-up erschien zuerst auf The Decoder.