Schlagwort: AGI

  • OpenAI kauft für 250 Milliarden bei Microsoft

    Ein OpenAI Microsoft Logo

    Nano Banana

    Kurzfassung

    Quellen

    Microsoft und OpenAI haben ihre Partnerschaft mit einem neuen Vertrag grundlegend restrukturiert.
    Der Softwarekonzern hält nun 27 Prozent an der neuen Public Benefit Corporation, während OpenAI sich zu weiteren Azure-Käufen in Höhe von 250 Milliarden US-Dollar verpflichtet.
    Beide Unternehmen erhalten künftig mehr Unabhängigkeit bei der Entwicklung einer AGI und der Kooperation mit Drittanbietern.
    Der offizielle AGI-Status muss ab sofort von einem unabhängigen Expertenpanel verifiziert werden.

    OpenAI – The next chapter of the Microsoft–OpenAI partnership

    Microsoft und OpenAI ordnen ihre historische Partnerschaft grundlegend neu. Durch einen aktualisierten Vertrag hält der Investor nun 27 Prozent an der umstrukturierten Public Benefit Corporation, was einem Wert von 135 Milliarden US-Dollar entspricht. Microsofts neue Rechte und Grenzen Der Windows-Konzern darf künftig völlig unabhängig an einer generellen künstlichen Intelligenz (AGI) forschen. Auch Partnerschaften mit dritten Unternehmen sind dafür nun offiziell gestattet. Nutzt der Konzern vorab geistiges Eigentum des bisherigen Partners, greifen allerdings strikte Obergrenzen für die Rechenleistung. Gleichzeitig verlängern sich die allgemeinen IP-Rechte des Investors bis in das Jahr 2032. Diese Lizenzen decken unter Einhaltung von Sicherheitsrichtlinien explizit auch KI-Modelle ab, die nach dem Erreichen einer AGI entstehen. Ein bisheriges Privileg fällt jedoch weg. Der Konzern besitzt kein automatisches Vorkaufsrecht mehr, um als exklusiver Rechenzentrums-Provider für die KI-Firma aufzutreten. Anzeige OpenAIs gewonnene Freiheiten Im Gegenzug erhält das KI-Unternehmen deutlich mehr Handlungsspielraum. Entwickler dürfen ab sofort Open-Weight-Modelle veröffentlichen, sofern diese definierte Fähigkeiten-Kriterien erfüllen. Ausgenommen von den geteilten IP-Rechten ist künftig zudem jegliche Consumer-Hardware der Schöpfer. Zusätzlich erlaubt das Regelwerk die gemeinsame Produktentwicklung mit Drittanbietern. Während reine API-Dienste fest an Azure gebunden bleiben, dürfen andere Software-Lösungen ab jetzt bei beliebigen Cloud-Anbietern laufen. Auch US-Behörden im Bereich der nationalen Sicherheit erhalten plattformunabhängigen API-Zugriff. Finanziell bindet sich das Unternehmen im Gegenzug enorm. Vertraglich sichert die Firma den Kauf von weiteren Azure-Diensten für 250 Milliarden US-Dollar zu. Strenge Vorgaben für die AGI Bisher galt das Erreichen der AGI-Schwelle als harter Schnitt für bestehende Verträge. Künftig reicht die einfache Deklaration durch den Entwickler dafür nicht mehr aus. Ein unabhängiges Expertenpanel muss diesen Status stattdessen zwingend verifizieren. Die bisherige Umsatzbeteiligung läuft bis zu dieser offiziellen Bestätigung weiter. Zahlungen strecken sich künftig jedoch über einen wesentlich längeren Zeitraum. Mit dieser strikten Trennung der Befugnisse justieren beide Akteure ihre strategische Ausrichtung für die Zukunft präzise neu.

  • Deepmind-Chef vergleicht AGI-Ankunft mit einer zehnfach beschleunigten industriellen Revolution

    Deepmind-Chef Demis Hassabis hält AGI innerhalb von fünf Jahren für realistisch. Die Auswirkungen vergleicht er mit dem Zehnfachen der industriellen Revolution. Trotzdem werde KI noch immer kurzfristig überschätzt und langfristig unterschätzt.

    Der Artikel Deepmind-Chef vergleicht AGI-Ankunft mit einer zehnfach beschleunigten industriellen Revolution erschien zuerst auf The Decoder.

  • OpenAI beerdigt Sora für neue Sprachmodelle

    Sam Altman schaltet das Licht bei Sora aus

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI stellt sein KI-Modell Sora zur Videogenerierung nach nur 15 Monaten Laufzeit ein.
    Die eingesparte Rechenleistung fließt in die Entwicklung des neuen Sprachmodells mit dem Codenamen „Spud“.
    Das bisherige Sora-Team arbeitet künftig an Weltmodellen für den Bereich der Robotik.
    Die Organisation fokussiert sich unter dem Namen „AGI Deployment“ auf die Entwicklung von AGI und den Bau riesiger Rechenzentren.

    Wall Street Journal – OpenAI Set to Discontinue Sora Video Platform

    Ars Technica – OpenAI plans to shut down Sora just 15 months after its launch

    X – Kimmonismus Post about Sora and Spud

    OpenAI beendet das Kapitel Sora. Nur 15 Monate nach dem offiziellen Marktstart stellt das Unternehmen das bekannte Modell für Videogenerierung komplett ein. Das Wall Street Journal bestätigt das unerwartete Aus der Plattform. Kurzes Gastspiel im Videomarkt Sora verschwindet in Kürze vollständig von der Bildfläche. Das KI-Modell sorgte bei seiner Ankündigung für großes Aufsehen in der Technikwelt, da Anwender durch reines Prompting hochauflösende Videoclips generierten. Jetzt bricht diese Entwicklungsphase abrupt ab. Der Entwickler stoppt den Betrieb nach lediglich 15 Monaten. Die Weiterentwicklung und der alltägliche Einsatz von Video-Modellen verschlingen enorme Hardware-Kapazitäten. Genau diese Rechenleistung benötigt das Unternehmen jetzt dringend für andere Projekte. Anzeige Fokus auf neues Sprachmodell Ein neues KI-Modell steht unmittelbar vor der Veröffentlichung. Unter dem Codenamen „Spud“ entwickelt OpenAI ein LLM, das in wenigen Wochen auf den Markt kommen soll. Die Entwickler bescheinigen diesem Modell eine außerordentliche Leistungsfähigkeit. Die interne Struktur spiegelt diese Prioritätenverschiebung bereits deutlich wider. OpenAI benennt die zuständige Produktorganisation fortan in „AGI Deployment“ um. Ein teures und aufwendig zu wartendes Video-Framework findet in diesem Geschäftsplan offensichtlich keinen Platz mehr.

    Twitter Beitrag – Cookies links unten aktivieren.

    OpenAI’s Sora team is now working on world-models – they prioritize longer-term world simulation research especially as it pertains to robotics. tl;dr what we know so far: – Sora has been cancelled because they needed the compute for their new LLM- they renamed product… https://t.co/8E4ABJc158 pic.twitter.com/i5oU6tFQHG — Chubby♨️ (@kimmonismus) March 24, 2026 Weltmodelle und Robotik Das bisherige Sora-Team verlässt das Unternehmen nach dem Stopp des Projekts nicht. Die Spezialisten arbeiten an sogenannten Weltmodellen und simulieren physikalische Umgebungen über längere Zeiträume weiter. Diese Forschung fließt primär direkt in den Bereich der Robotik. OpenAI bündelt seine Kapazitäten künftig zielgerichteter auf Kernkompetenzen. Die ressourcenintensive Forschung in Richtung AGI erfordert die absolute Aufmerksamkeit der gesamten Entwicklerteams. Aufbau neuer Infrastruktur Sam Altman übernimmt in dieser entscheidenden Phase neue Kernaufgaben. Der CEO fokussiert sich auf die Beschaffung von frischem Kapital und den Ausbau der globalen Lieferketten. Der Bau von Rechenzentren in einer bisher unerreichten Größenordnung steht dabei im Mittelpunkt seiner Arbeit. Diese Infrastruktur bildet die direkte Grundlage für kommende KI-Modelle. Ohne die stetige Erweiterung der Hardware-Kapazitäten stößt die Entwicklung von AGI schnell an physikalische Grenzen. Der Stopp von Sora stellt einen konsequenten Schnitt für diese zukünftige Ausrichtung dar. Anzeige

  • OpenAI-Chef sieht AGI in greifbarer Nähe: Interne Modelle beschleunigen die Forschung

    OpenAI-Vorstand weist Lügenvorwürfe gegen CEO Sam Altman zurück

    AGI sei „ziemlich nah“, Superintelligenz „nicht so weit entfernt“: Sam Altman gibt im Interview Einblicke in OpenAIs interne Entwicklung und erklärt, warum seine eigene Berufsausbildung als Softwareentwickler bereits obsolet ist.

    Der Artikel OpenAI-Chef sieht AGI in greifbarer Nähe: Interne Modelle beschleunigen die Forschung erschien zuerst auf The Decoder.

  • Datenschutz-Risiko? OpenAI trainiert mit echten Firmendaten

    Sam Altman nimmt "top secret" Daten an

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI fordert externe Auftragnehmer auf, echte Arbeitsdokumente wie Präsentationen und Tabellen aus früheren Jobs hochzuladen. Ziel ist das Training autonomer KI-Agenten, die komplexe, mehrstufige Arbeitsprozesse simulieren und eigenständig lösen können. Dieser Schritt gilt als entscheidend auf dem Weg zur AGI (Artificial General Intelligence), da synthetische Daten für das nächste Level nicht mehr ausreichen. Experten sehen kritische Datenschutzfragen, da sensible Interna ehemaliger Arbeitgeber in die KI-Modelle einfließen könnten.

    Wired: OpenAI Contractor Upload Real Work Documents AI Agents

    t3n: Auf dem Weg zur AGI: OpenAI testet neue KI-Modelle an echten Aufträgen

    TechCrunch: OpenAI is Reportedly Asking Contractors to Upload Real Work from Past Jobs

    FinanzNachrichten: Auf dem Weg zur AGI: OpenAI testet neue KI-Modelle an echten Aufträgen

    OpenAI fordert externe Auftragnehmer auf, echte Arbeitsdokumente aus früheren Jobs hochzuladen. Dieser Schritt markiert eine entscheidende Phase in der Entwicklung autonomer KI-Agenten, die komplexe berufliche Aufgaben eigenständig lösen und den Weg zur AGI ebnen sollen. Vom Chatbot zum autonomen Mitarbeiter OpenAI verlässt die Ebene rein generierter oder öffentlicher Trainingsdaten und setzt verstärkt auf Realität. Externe Fachkräfte laden derzeit Präsentationen, komplexe Tabellenkalkulationen und interne PDF-Dokumente aus ihrer vergangenen Berufspraxis hoch. Das Unternehmen benötigt dieses Material, um die nächste Generation von KI-Modellen an authentischen Szenarien zu schulen. Das Ziel ist das Training spezialisierter KI-Agenten, die nicht nur Texte verfassen, sondern echte Arbeitsprozesse simulieren. Die Modelle sollen lernen, wie Menschen komplexe, oft unstrukturierte Aufgaben im Unternehmenskontext bewältigen. Es findet eine klare Verschiebung statt: Weg vom reinen Dialogpartner, hin zum digitalen Angestellten, der Aufträge autonom abarbeitet. Anzeige Training mit realen Wirtschaftsabläufen Nach dem Upload der Dokumente weisen die Auftragnehmer die KI an, die ursprünglich mit diesen Dateien verbundenen Aufgaben auszuführen. Anschließend bewerten die menschlichen Experten, wie präzise, logisch und nützlich die Ergebnisse der Software im Vergleich zur menschlichen Leistung ausfallen. Es geht dabei nicht mehr um simple Frage-Antwort-Szenarien, wie sie von ChatGPT bekannt sind. Die Systeme müssen logische Schlussfolgerungen ziehen und mehrstufige Prozesse verstehen, die bisher menschliche Kognition erforderten. Die KI muss beispielsweise aus einer Bilanz Strategien ableiten oder aus technischen Spezifikationen einen Projektplan erstellen. Der nächste Schritt zur allgemeinen künstlichen Intelligenz Diese Methodik unterstreicht OpenAIs Ambition, eine Artificial General Intelligence (AGI) zu entwickeln. Solche Systeme sollen in der Lage sein, jede intellektuelle Aufgabe zu erfüllen, die auch ein Mensch erledigen kann. Experten sehen in der Fähigkeit, reale „White-Collar“-Arbeit zu verrichten, den ultimativen Test für diese Technologie. Durch die Konfrontation mit echten Daten aus der Wirtschaft lernt die KI, mit der Unvorhersehbarkeit des Arbeitsalltags umzugehen. Dies gilt als Nadelöhr für den breiten Einsatz autonomer Agenten in Unternehmen. Rein synthetische Daten reichen offenbar nicht mehr aus, um die Modelle auf das nächste Leistungsniveau zu heben. Herausforderung Datenschutz und Sicherheit Die Verwendung authentischer Geschäftsunterlagen aus der Vergangenheit der Auftragnehmer wirft Fragen zum Umgang mit sensiblen Informationen auf. Die Prozesse erfordern, dass Auftragnehmer genau abwägen, welche Daten sie teilen, um keine Vertraulichkeitsvereinbarungen alter Arbeitgeber zu verletzen. OpenAI geht diesen Weg bewusst, um eine mögliche Stagnation bei der Leistungsfähigkeit der Modelle zu überwinden. Echte Daten gelten in der Branche als der entscheidende Rohstoff für den nächsten Qualitätssprung. Wer den Sprung zum funktionierenden Agenten zuerst schafft, sichert sich den entscheidenden Wettbewerbsvorteil im Jahr 2026.

  • AGI bis 2028: Google DeepMind sieht 50-Prozent-Chance

    Einstein und ein Mensch beim Tauziehen

    Nano Banana

    Kurzfassung

    Quellen

    DeepMind-Mitgründer Shane Legg prognostiziert eine 50-prozentige Wahrscheinlichkeit für das Erreichen einer minimalen künstlichen allgemeinen Intelligenz (AGI) bis zum Jahr 2028. „Minimal AGI“ wird dabei definiert als ein System, das kognitive Aufgaben auf dem Niveau eines durchschnittlichen, kompetenten Menschen bewältigen kann, ohne spezielle Nachschulung. Die Vorhersage stützt sich auf die Analyse von Skalierungsgesetzen (Scaling Laws) sowie das exponentielle Wachstum von Rechenleistung und Trainingsdaten.

    AI Tech Suite – DeepMind AGI Prediction

    Google DeepMind – YouTube Interview (Hannah Fry)

    Public Services Alliance – AGI Variables

    Die Uhr tickt lauter, als vielen lieb ist. Shane Legg, Co-Gründer von Google DeepMind, bekräftigt seine langjährige Prognose: Die Wahrscheinlichkeit, dass wir bereits 2028 eine „minimale künstliche allgemeine Intelligenz“ erleben, liegt bei 50 Prozent. Das sind keine vagen Zukunftsvisionen mehr, sondern ein konkreter Zeitplan von kaum drei Jahren. Künstliche Intelligenz, die den Menschen in der Breite seiner kognitiven Fähigkeiten einholt – der „Heilige Gral“ der KI-Forschung – ist greifbar nah. In einem aktuellen Interview mit der Mathematikerin Hannah Fry für den Google DeepMind Podcast hat Shane Legg seinen Standpunkt nicht nur wiederholt, sondern präzisiert. Während der Hype um Modelle wie GPT oder Gemini oft die Grenzen zwischen Marketing und Realität verwischt, gilt Legg in der Szene als nüchterner Realist. Wenn er an seinem Zeitplan festhält, sollten wir genau hinhören. Es geht nicht mehr um das „Ob“, sondern nur noch um das „Wann“. Minimal AGI: Der durchschnittliche Mensch als Maßstab Legg führt einen entscheidenden Begriff ein, um die Debatte zu schärfen: „Minimal AGI“. Viele stellen sich unter einer künstlichen allgemeinen Intelligenz (AGI) sofort eine Superintelligenz vor, die Einstein in den Schatten stellt. Das ist jedoch nicht der erste Schritt. Für Legg ist die Schwelle zur AGI erreicht, wenn ein System die kognitiven Aufgaben eines durchschnittlichen, kompetenten Menschen bewältigen kann. Es geht hier nicht um geniale Ausreißer oder Weltklasse-Leistungen in Nischen wie Schach oder Go. Es geht um die breite Palette alltäglicher kognitiver Arbeit. Ein solches System wäre ein „Generalist“, der sich ohne spezielles Nachtraining in neue Aufgaben einarbeitet – genau wie ein menschlicher Angestellter. Diese „minimale“ Stufe ist das Ziel für 2028. Die „volle AGI“, die dann auch Expertenwissen in allen Domänen abdeckt, und die darauf folgende Superintelligenz (ASI) sind spätere Stufen auf dieser Treppe.

    Exponentielles Wachstum als Treibstoff Warum hält Legg so stur an der Jahreszahl 2028 fest, die er bereits vor über einem Jahrzehnt erstmals nannte? Die Antwort liegt in den Daten und der Rechenleistung. Legg analysiert seit Jahren die Skalierungsgesetze (Scaling Laws) von KI-Modellen. Die Kurven für Rechenpower und verfügbare Trainingsdaten zeigen steil nach oben. Bisher haben sich diese mathematischen Vorhersagen als erstaunlich robust erwiesen. Die aktuellen Fortschritte bei großen Sprachmodellen bestätigen seine These, dass mehr Rechenleistung und Daten in immer potenteren Systemen resultieren. Leggs Definition für den erfolgreichen Abschluss ist pragmatisch: Ein System gilt als AGI, wenn es eine umfassende Testreihe menschlicher Aufgaben besteht und menschliche Tester auch nach Monaten keine offensichtlichen Schwachstellen finden. Anzeige Drei Jahre Vorbereitungszeit Die Implikationen dieser Prognose sind gewaltig. Sollte die 50-Prozent-Chance eintreffen, stehen wir vor einem massiven Umbruch der Arbeitswelt. Eine KI, die den durchschnittlichen Bürojob erledigen kann, würde die Wirtschaft grundlegend verändern. Legg warnt nicht vor einer Terminator-Apokalypse, sondern mahnt zur gesellschaftlichen Vorbereitung. Der Übergang wird nicht über Nacht geschehen, sondern als fließender Prozess. Dennoch: Drei Jahre sind in der Welt der Technologie-Regulierung und gesellschaftlichen Anpassung ein Wimpernschlag. Die Tech-Welt bereitet sich auf den Durchbruch vor – der Rest der Gesellschaft sollte das auch tun.

  • Deepmind-Mitgründer Shane Legg erwartet minimale AGI mit hoher Wahrscheinlichkeit bis 2028

    Deepmind-Mitgründer Shane Legg schätzt die Wahrscheinlichkeit für „minimale AGI“ bis 2028 auf 50 Prozent. Im Deepmind-Podcast erklärt Legg sein Konzept einer Skala von minimaler AGI über volle AGI hin zu künstlicher Superintelligenz (ASI).

    Der Artikel Deepmind-Mitgründer Shane Legg erwartet minimale AGI mit hoher Wahrscheinlichkeit bis 2028 erschien zuerst auf The Decoder.

  • IBM-Chef über AGI: Warum die KI-Rechnung scheitern muss

    Ein Roboter schreibt eine KI Rechnung

    Nano Banana

    Kurzfassung

    Quellen

    IBM-CEO Arvind Krishna kritisiert den aktuellen Hype um Artificial General Intelligence (AGI) als wissenschaftlich fundierten Irrweg, da heutige Modelle auf Wahrscheinlichkeiten statt Logik basieren. Die gigantischen Kosten von bis zu fünf Billionen Dollar für Infrastruktur und der explodierende Energiebedarf machen den Ersatz menschlicher Arbeit durch generelle KI oft unwirtschaftlich. Statt auf eine menschenähnliche Superintelligenz zu warten, fokussiert sich IBM auf spezialisierte Enterprise-KI und setzt weiterhin auf menschliche Mitarbeiter zur Problemlösung.

    The Verge – Why IBM CEO Arvind Krishna is still hiring humans in the AI era

    Tech in Asia – IBM on AGI: bad math, wrong science

    MIT Technology Review – The State of AI: Welcome to the economic singularity

    TechCrunch – Data center energy demand forecasted to soar nearly 300 through 2035

    Medial – Why IBM’s CEO doesn’t think current AI tech can get to AGI

    Während die Tech-Welt Milliarden in den Traum einer menschenähnlichen Superintelligenz pumpt, tritt einer kräftig auf die Bremse. IBM-Chef Arvind Krishna erklärt, warum der aktuelle Weg zur Artificial General Intelligence (AGI) technisch und ökonomisch zum Scheitern verurteilt ist – und warum er trotzdem weiter in KI investiert. Die Sackgasse der Wahrscheinlichkeiten Im Podcast „Decoder“ mit Nilay Patel fand Krishna deutliche Worte für den aktuellen KI-Goldrausch. Sein Hauptargument: Wir versuchen gerade, mit Statistik ein Verständnis der Welt zu erzwingen. Aktuelle Large Language Models (LLMs) basieren auf Wahrscheinlichkeiten. Sie sagen das nächste Wort voraus, verstehen aber keine Kausalitäten und besitzen kein logisches Denkvermögen. Krishna bezeichnet die Vorstellung, dass man diese Modelle einfach nur immer größer machen muss, um eine AGI zu erhalten, als „falsche Wissenschaft“. Mehr Daten und mehr Rechenleistung führen zwar zu besseren Texten, aber nicht zu einem Bewusstsein oder echter Problemlösungskompetenz. Die Architektur der aktuellen Systeme stößt hier an eine harte Grenze, die sich nicht einfach mit Brute-Force-Computing durchbrechen lässt. Anzeige Eine Rechnung, die nicht aufgeht Neben der technologischen Kritik liefert der IBM-CEO eine knallharte wirtschaftliche Analyse. Die Branche steuert auf Investitionskosten von vier bis fünf Billionen Dollar zu, um die nötige Infrastruktur aufzubauen. Damit sich das rentiert, müsste KI menschliche Arbeit in einem gigantischen Ausmaß ersetzen. Doch genau hier liegt laut Krishna der „Rechenfehler“. In vielen Bereichen ist der Mensch schlichtweg effizienter und günstiger. Der Energiebedarf von Rechenzentren soll bis 2035 um fast 300 Prozent steigen. Einen Menschen durch ein energiehungriges KI-Modell zu ersetzen, das für jede Antwort ein halbes Kraftwerk benötigt, ist oft ökonomischer Unsinn. Die „Unit Economics“ – also die Kosten pro erledigter Aufgabe – sprechen in vielen Fällen gegen die KI und für den menschlichen Mitarbeiter. Werkzeuge statt Wundermaschinen IBM zieht daraus Konsequenzen für die eigene Strategie. Statt dem Phantom einer allwissenden AGI hinterherzujagen, konzentriert sich der Konzern auf pragmatische „Enterprise AI“. Es geht um spezifische Modelle für spezifische Probleme im Unternehmensumfeld, nicht um eine Maschine, die Gedichte schreibt und gleichzeitig Code kompiliert. Das bedeutet auch: Der Mensch bleibt unverzichtbar. Krishna betont, dass IBM weiterhin Menschen einstellt. KI sieht er als Produktivitäts-Booster, der Mitarbeiter unterstützt, statt sie komplett zu verdrängen. Während andere Tech-Giganten auf die Singularität wetten, setzt IBM auf hybride Clouds und spezialisierte KI-Agenten, die heute schon funktionieren – ganz ohne Science-Fiction-Versprechen.

  • Das AGI-Theater von Microsoft und OpenAI ist Wasser auf die Mühlen der KI-Hype-Kritiker

    Vergangene Woche haben Microsoft und OpenAI angekündigt, selbst festlegen zu wollen, wann sogenannte AGI (Artificial General Intelligence) erreicht ist, und anschließend ein Expertengremium einzuberufen, das diesen Zustand bestätigt.

    Dass AGI in der Ankündigung beider Unternehmen derart viel Bedeutung beigemessen wird, wirkt absurd, wenn man die früheren Aussagen der Firmenchefs berücksichtigt.

    Der Artikel Das AGI-Theater von Microsoft und OpenAI ist Wasser auf die Mühlen der KI-Hype-Kritiker erschien zuerst auf The Decoder.

  • Microsoft und OpenAI machen unter sich aus, was AGI ist und wann sie erreicht wird

    OpenAI und Microsoft haben sich darauf geeinigt, künftig selbst zu entscheiden, was AGI („Artificial General Intelligence“) ist – und wann sie angeblich erreicht wird.

    Der Artikel Microsoft und OpenAI machen unter sich aus, was AGI ist und wann sie erreicht wird erschien zuerst auf The Decoder.