Schlagwort: AGI

  • Datenschutz-Risiko? OpenAI trainiert mit echten Firmendaten

    Sam Altman nimmt "top secret" Daten an

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI fordert externe Auftragnehmer auf, echte Arbeitsdokumente wie Präsentationen und Tabellen aus früheren Jobs hochzuladen. Ziel ist das Training autonomer KI-Agenten, die komplexe, mehrstufige Arbeitsprozesse simulieren und eigenständig lösen können. Dieser Schritt gilt als entscheidend auf dem Weg zur AGI (Artificial General Intelligence), da synthetische Daten für das nächste Level nicht mehr ausreichen. Experten sehen kritische Datenschutzfragen, da sensible Interna ehemaliger Arbeitgeber in die KI-Modelle einfließen könnten.

    Wired: OpenAI Contractor Upload Real Work Documents AI Agents

    t3n: Auf dem Weg zur AGI: OpenAI testet neue KI-Modelle an echten Aufträgen

    TechCrunch: OpenAI is Reportedly Asking Contractors to Upload Real Work from Past Jobs

    FinanzNachrichten: Auf dem Weg zur AGI: OpenAI testet neue KI-Modelle an echten Aufträgen

    OpenAI fordert externe Auftragnehmer auf, echte Arbeitsdokumente aus früheren Jobs hochzuladen. Dieser Schritt markiert eine entscheidende Phase in der Entwicklung autonomer KI-Agenten, die komplexe berufliche Aufgaben eigenständig lösen und den Weg zur AGI ebnen sollen. Vom Chatbot zum autonomen Mitarbeiter OpenAI verlässt die Ebene rein generierter oder öffentlicher Trainingsdaten und setzt verstärkt auf Realität. Externe Fachkräfte laden derzeit Präsentationen, komplexe Tabellenkalkulationen und interne PDF-Dokumente aus ihrer vergangenen Berufspraxis hoch. Das Unternehmen benötigt dieses Material, um die nächste Generation von KI-Modellen an authentischen Szenarien zu schulen. Das Ziel ist das Training spezialisierter KI-Agenten, die nicht nur Texte verfassen, sondern echte Arbeitsprozesse simulieren. Die Modelle sollen lernen, wie Menschen komplexe, oft unstrukturierte Aufgaben im Unternehmenskontext bewältigen. Es findet eine klare Verschiebung statt: Weg vom reinen Dialogpartner, hin zum digitalen Angestellten, der Aufträge autonom abarbeitet. Anzeige Training mit realen Wirtschaftsabläufen Nach dem Upload der Dokumente weisen die Auftragnehmer die KI an, die ursprünglich mit diesen Dateien verbundenen Aufgaben auszuführen. Anschließend bewerten die menschlichen Experten, wie präzise, logisch und nützlich die Ergebnisse der Software im Vergleich zur menschlichen Leistung ausfallen. Es geht dabei nicht mehr um simple Frage-Antwort-Szenarien, wie sie von ChatGPT bekannt sind. Die Systeme müssen logische Schlussfolgerungen ziehen und mehrstufige Prozesse verstehen, die bisher menschliche Kognition erforderten. Die KI muss beispielsweise aus einer Bilanz Strategien ableiten oder aus technischen Spezifikationen einen Projektplan erstellen. Der nächste Schritt zur allgemeinen künstlichen Intelligenz Diese Methodik unterstreicht OpenAIs Ambition, eine Artificial General Intelligence (AGI) zu entwickeln. Solche Systeme sollen in der Lage sein, jede intellektuelle Aufgabe zu erfüllen, die auch ein Mensch erledigen kann. Experten sehen in der Fähigkeit, reale „White-Collar“-Arbeit zu verrichten, den ultimativen Test für diese Technologie. Durch die Konfrontation mit echten Daten aus der Wirtschaft lernt die KI, mit der Unvorhersehbarkeit des Arbeitsalltags umzugehen. Dies gilt als Nadelöhr für den breiten Einsatz autonomer Agenten in Unternehmen. Rein synthetische Daten reichen offenbar nicht mehr aus, um die Modelle auf das nächste Leistungsniveau zu heben. Herausforderung Datenschutz und Sicherheit Die Verwendung authentischer Geschäftsunterlagen aus der Vergangenheit der Auftragnehmer wirft Fragen zum Umgang mit sensiblen Informationen auf. Die Prozesse erfordern, dass Auftragnehmer genau abwägen, welche Daten sie teilen, um keine Vertraulichkeitsvereinbarungen alter Arbeitgeber zu verletzen. OpenAI geht diesen Weg bewusst, um eine mögliche Stagnation bei der Leistungsfähigkeit der Modelle zu überwinden. Echte Daten gelten in der Branche als der entscheidende Rohstoff für den nächsten Qualitätssprung. Wer den Sprung zum funktionierenden Agenten zuerst schafft, sichert sich den entscheidenden Wettbewerbsvorteil im Jahr 2026.

  • AGI bis 2028: Google DeepMind sieht 50-Prozent-Chance

    Einstein und ein Mensch beim Tauziehen

    Nano Banana

    Kurzfassung

    Quellen

    DeepMind-Mitgründer Shane Legg prognostiziert eine 50-prozentige Wahrscheinlichkeit für das Erreichen einer minimalen künstlichen allgemeinen Intelligenz (AGI) bis zum Jahr 2028. „Minimal AGI“ wird dabei definiert als ein System, das kognitive Aufgaben auf dem Niveau eines durchschnittlichen, kompetenten Menschen bewältigen kann, ohne spezielle Nachschulung. Die Vorhersage stützt sich auf die Analyse von Skalierungsgesetzen (Scaling Laws) sowie das exponentielle Wachstum von Rechenleistung und Trainingsdaten.

    AI Tech Suite – DeepMind AGI Prediction

    Google DeepMind – YouTube Interview (Hannah Fry)

    Public Services Alliance – AGI Variables

    Die Uhr tickt lauter, als vielen lieb ist. Shane Legg, Co-Gründer von Google DeepMind, bekräftigt seine langjährige Prognose: Die Wahrscheinlichkeit, dass wir bereits 2028 eine „minimale künstliche allgemeine Intelligenz“ erleben, liegt bei 50 Prozent. Das sind keine vagen Zukunftsvisionen mehr, sondern ein konkreter Zeitplan von kaum drei Jahren. Künstliche Intelligenz, die den Menschen in der Breite seiner kognitiven Fähigkeiten einholt – der „Heilige Gral“ der KI-Forschung – ist greifbar nah. In einem aktuellen Interview mit der Mathematikerin Hannah Fry für den Google DeepMind Podcast hat Shane Legg seinen Standpunkt nicht nur wiederholt, sondern präzisiert. Während der Hype um Modelle wie GPT oder Gemini oft die Grenzen zwischen Marketing und Realität verwischt, gilt Legg in der Szene als nüchterner Realist. Wenn er an seinem Zeitplan festhält, sollten wir genau hinhören. Es geht nicht mehr um das „Ob“, sondern nur noch um das „Wann“. Minimal AGI: Der durchschnittliche Mensch als Maßstab Legg führt einen entscheidenden Begriff ein, um die Debatte zu schärfen: „Minimal AGI“. Viele stellen sich unter einer künstlichen allgemeinen Intelligenz (AGI) sofort eine Superintelligenz vor, die Einstein in den Schatten stellt. Das ist jedoch nicht der erste Schritt. Für Legg ist die Schwelle zur AGI erreicht, wenn ein System die kognitiven Aufgaben eines durchschnittlichen, kompetenten Menschen bewältigen kann. Es geht hier nicht um geniale Ausreißer oder Weltklasse-Leistungen in Nischen wie Schach oder Go. Es geht um die breite Palette alltäglicher kognitiver Arbeit. Ein solches System wäre ein „Generalist“, der sich ohne spezielles Nachtraining in neue Aufgaben einarbeitet – genau wie ein menschlicher Angestellter. Diese „minimale“ Stufe ist das Ziel für 2028. Die „volle AGI“, die dann auch Expertenwissen in allen Domänen abdeckt, und die darauf folgende Superintelligenz (ASI) sind spätere Stufen auf dieser Treppe.

    Exponentielles Wachstum als Treibstoff Warum hält Legg so stur an der Jahreszahl 2028 fest, die er bereits vor über einem Jahrzehnt erstmals nannte? Die Antwort liegt in den Daten und der Rechenleistung. Legg analysiert seit Jahren die Skalierungsgesetze (Scaling Laws) von KI-Modellen. Die Kurven für Rechenpower und verfügbare Trainingsdaten zeigen steil nach oben. Bisher haben sich diese mathematischen Vorhersagen als erstaunlich robust erwiesen. Die aktuellen Fortschritte bei großen Sprachmodellen bestätigen seine These, dass mehr Rechenleistung und Daten in immer potenteren Systemen resultieren. Leggs Definition für den erfolgreichen Abschluss ist pragmatisch: Ein System gilt als AGI, wenn es eine umfassende Testreihe menschlicher Aufgaben besteht und menschliche Tester auch nach Monaten keine offensichtlichen Schwachstellen finden. Anzeige Drei Jahre Vorbereitungszeit Die Implikationen dieser Prognose sind gewaltig. Sollte die 50-Prozent-Chance eintreffen, stehen wir vor einem massiven Umbruch der Arbeitswelt. Eine KI, die den durchschnittlichen Bürojob erledigen kann, würde die Wirtschaft grundlegend verändern. Legg warnt nicht vor einer Terminator-Apokalypse, sondern mahnt zur gesellschaftlichen Vorbereitung. Der Übergang wird nicht über Nacht geschehen, sondern als fließender Prozess. Dennoch: Drei Jahre sind in der Welt der Technologie-Regulierung und gesellschaftlichen Anpassung ein Wimpernschlag. Die Tech-Welt bereitet sich auf den Durchbruch vor – der Rest der Gesellschaft sollte das auch tun.

  • Deepmind-Mitgründer Shane Legg erwartet minimale AGI mit hoher Wahrscheinlichkeit bis 2028

    Deepmind-Mitgründer Shane Legg schätzt die Wahrscheinlichkeit für „minimale AGI“ bis 2028 auf 50 Prozent. Im Deepmind-Podcast erklärt Legg sein Konzept einer Skala von minimaler AGI über volle AGI hin zu künstlicher Superintelligenz (ASI).

    Der Artikel Deepmind-Mitgründer Shane Legg erwartet minimale AGI mit hoher Wahrscheinlichkeit bis 2028 erschien zuerst auf The Decoder.

  • IBM-Chef über AGI: Warum die KI-Rechnung scheitern muss

    Ein Roboter schreibt eine KI Rechnung

    Nano Banana

    Kurzfassung

    Quellen

    IBM-CEO Arvind Krishna kritisiert den aktuellen Hype um Artificial General Intelligence (AGI) als wissenschaftlich fundierten Irrweg, da heutige Modelle auf Wahrscheinlichkeiten statt Logik basieren. Die gigantischen Kosten von bis zu fünf Billionen Dollar für Infrastruktur und der explodierende Energiebedarf machen den Ersatz menschlicher Arbeit durch generelle KI oft unwirtschaftlich. Statt auf eine menschenähnliche Superintelligenz zu warten, fokussiert sich IBM auf spezialisierte Enterprise-KI und setzt weiterhin auf menschliche Mitarbeiter zur Problemlösung.

    The Verge – Why IBM CEO Arvind Krishna is still hiring humans in the AI era

    Tech in Asia – IBM on AGI: bad math, wrong science

    MIT Technology Review – The State of AI: Welcome to the economic singularity

    TechCrunch – Data center energy demand forecasted to soar nearly 300 through 2035

    Medial – Why IBM’s CEO doesn’t think current AI tech can get to AGI

    Während die Tech-Welt Milliarden in den Traum einer menschenähnlichen Superintelligenz pumpt, tritt einer kräftig auf die Bremse. IBM-Chef Arvind Krishna erklärt, warum der aktuelle Weg zur Artificial General Intelligence (AGI) technisch und ökonomisch zum Scheitern verurteilt ist – und warum er trotzdem weiter in KI investiert. Die Sackgasse der Wahrscheinlichkeiten Im Podcast „Decoder“ mit Nilay Patel fand Krishna deutliche Worte für den aktuellen KI-Goldrausch. Sein Hauptargument: Wir versuchen gerade, mit Statistik ein Verständnis der Welt zu erzwingen. Aktuelle Large Language Models (LLMs) basieren auf Wahrscheinlichkeiten. Sie sagen das nächste Wort voraus, verstehen aber keine Kausalitäten und besitzen kein logisches Denkvermögen. Krishna bezeichnet die Vorstellung, dass man diese Modelle einfach nur immer größer machen muss, um eine AGI zu erhalten, als „falsche Wissenschaft“. Mehr Daten und mehr Rechenleistung führen zwar zu besseren Texten, aber nicht zu einem Bewusstsein oder echter Problemlösungskompetenz. Die Architektur der aktuellen Systeme stößt hier an eine harte Grenze, die sich nicht einfach mit Brute-Force-Computing durchbrechen lässt. Anzeige Eine Rechnung, die nicht aufgeht Neben der technologischen Kritik liefert der IBM-CEO eine knallharte wirtschaftliche Analyse. Die Branche steuert auf Investitionskosten von vier bis fünf Billionen Dollar zu, um die nötige Infrastruktur aufzubauen. Damit sich das rentiert, müsste KI menschliche Arbeit in einem gigantischen Ausmaß ersetzen. Doch genau hier liegt laut Krishna der „Rechenfehler“. In vielen Bereichen ist der Mensch schlichtweg effizienter und günstiger. Der Energiebedarf von Rechenzentren soll bis 2035 um fast 300 Prozent steigen. Einen Menschen durch ein energiehungriges KI-Modell zu ersetzen, das für jede Antwort ein halbes Kraftwerk benötigt, ist oft ökonomischer Unsinn. Die „Unit Economics“ – also die Kosten pro erledigter Aufgabe – sprechen in vielen Fällen gegen die KI und für den menschlichen Mitarbeiter. Werkzeuge statt Wundermaschinen IBM zieht daraus Konsequenzen für die eigene Strategie. Statt dem Phantom einer allwissenden AGI hinterherzujagen, konzentriert sich der Konzern auf pragmatische „Enterprise AI“. Es geht um spezifische Modelle für spezifische Probleme im Unternehmensumfeld, nicht um eine Maschine, die Gedichte schreibt und gleichzeitig Code kompiliert. Das bedeutet auch: Der Mensch bleibt unverzichtbar. Krishna betont, dass IBM weiterhin Menschen einstellt. KI sieht er als Produktivitäts-Booster, der Mitarbeiter unterstützt, statt sie komplett zu verdrängen. Während andere Tech-Giganten auf die Singularität wetten, setzt IBM auf hybride Clouds und spezialisierte KI-Agenten, die heute schon funktionieren – ganz ohne Science-Fiction-Versprechen.

  • Das AGI-Theater von Microsoft und OpenAI ist Wasser auf die Mühlen der KI-Hype-Kritiker

    Vergangene Woche haben Microsoft und OpenAI angekündigt, selbst festlegen zu wollen, wann sogenannte AGI (Artificial General Intelligence) erreicht ist, und anschließend ein Expertengremium einzuberufen, das diesen Zustand bestätigt.

    Dass AGI in der Ankündigung beider Unternehmen derart viel Bedeutung beigemessen wird, wirkt absurd, wenn man die früheren Aussagen der Firmenchefs berücksichtigt.

    Der Artikel Das AGI-Theater von Microsoft und OpenAI ist Wasser auf die Mühlen der KI-Hype-Kritiker erschien zuerst auf The Decoder.

  • Microsoft und OpenAI machen unter sich aus, was AGI ist und wann sie erreicht wird

    OpenAI und Microsoft haben sich darauf geeinigt, künftig selbst zu entscheiden, was AGI („Artificial General Intelligence“) ist – und wann sie angeblich erreicht wird.

    Der Artikel Microsoft und OpenAI machen unter sich aus, was AGI ist und wann sie erreicht wird erschien zuerst auf The Decoder.

  • Die Singularität kommt 2029: Kurzweil legt sich fest

    Ein futuristischer Kalender mit dem Jahr 2029

    Nano Banana

    Kurzfassung

    Quellen

    Der Futurist Ray Kurzweil bekräftigt seine 26 Jahre alte Prognose, dass Künstliche Allgemeine Intelligenz (AGI) bis 2029 erreicht wird. Er stützt seine Vorhersage auf das Gesetz des exponentiellen Wachstums der Rechenleistung, das viele Experten traditionell unterschätzen. Trotz seiner hohen Trefferquote bei früheren Prognosen bleibt die Fachwelt, einschließlich Kritiker wie Gary Marcus, skeptisch gegenüber dem ambitionierten Zeitplan. Kurzweil bestätigte kürzlich, dass er weder die Definition noch das Datum seiner ursprünglichen AGI-Prognose revidiert hat.

    Gary Marcus’ Substack The Economist YouTube (The Singularity Is Nearer) Popular Mechanics NPR

    Der Futurist Ray Kurzweil hält an einer seiner umstrittensten Prognosen fest. Bereits 1999 prognostizierte er die Ankunft Künstlicher Allgemeiner Intelligenz (AGI) für das Jahr 2029. Experten hielten dies damals für unrealistisch. Kurzweil bestätigte nun erneut, dass er diese Vorhersage unverändert beibehält. Das Gesetz der exponentiellen Beschleunigung Kurzweil stützt seine These auf das Prinzip des exponentiellen Wachstums. Er argumentiert seit Jahrzehnten, dass sich Rechenleistung und KI-Fähigkeiten nicht linear, sondern exponentiell entwickeln. Diese Beschleunigung werde von vielen Beobachtern systematisch unterschätzt. Als er seine Prognose 1999 aufstellte, stieß er auf massiven Widerstand. Kurzweil berichtete kürzlich, Experten hätten damals geglaubt, er schreibe Fiktion. Ein damaliger Konsens unter Forschern in Stanford sah die Ankunft von AGI zwar als möglich an, jedoch erst in einem Zeithorizont von einhundert Jahren. Kurzweils Erfolgsbilanz bei früheren Vorhersagen zur Technologieentwicklung verleiht seinen Worten Gewicht. Er verweist oft auf seine hohe Treffsicherheit, um seine aktuellen Prognosen zu stützen. + Anzeige Amazon.de Auch wenn man nicht derselben Meinung ist, sind das durchaus interessante Ansichten. Klarstellung trotz anhaltender Skepsis Die Debatte erhielt kürzlich neue Nahrung durch eine direkte Klarstellung. Gegenüber dem Kognitionswissenschaftler Gary Marcus bestätigte Kurzweil per E-Mail, dass er seine Vorhersage nicht revidiert habe. Er hält explizit am Jahr 2029 fest. AGI beschreibt eine künstliche Intelligenz, die menschliche kognitive Fähigkeiten in Gänze erreichen oder übertreffen kann. Sie wäre in der Lage, zu lernen, zu schlussfolgern und sich flexibel an neue Aufgaben anzupassen. Das Erreichen dieses Meilensteins gilt als technologische Singularität, die den menschlichen Fortschritt fundamental verändern würde. Trotz Kurzweils Zuversicht bleibt die Fachwelt gespalten. Kritiker wie Marcus äußern weiterhin starke Zweifel an diesem Zeitplan. Sie argumentieren, dass die Komplexität des menschlichen Verstandes und die Hürden beim logischen Schlussfolgern oft unterschätzt werden. Die kommenden fünf Jahre werden zeigen, ob Kurzweils exponentielle Kurve die Realität trifft.

  • DeepMind-Chef: Echte KI kommt erst in 10 Jahren

    Ein langer Weg bis zur Superintelligenz

    DeepMind-Chef: Echte KI kommt erst in 10 Jahren Demis Hassabis entzaubert den Hype um ChatGPT und Co. und erklärt, warum heutige Chatbots von wahrer Intelligenz noch weit entfernt sind. Kurzfassung | Andreas Becker, 14.09.25
    gpt-image-1 | All-AI.de EINLEITUNG KI-Systeme können heute erstaunliche Texte schreiben und komplexe Probleme lösen. Doch laut Demis Hassabis, dem Chef von Google DeepMind, ist das nur die Spitze des Eisbergs. Er bezeichnet die Vorstellung, heutige Chatbots seien bereits eine Art „Doktoranden-Intelligenz“, als Unsinn. Echte Künstliche Allgemeine Intelligenz (AGI), die dem Menschen in allen kognitiven Bereichen ebenbürtig ist, werde keine trivialen Fehler mehr machen und liege noch mindestens fünf bis zehn Jahre in der Zukunft. NEWS Die Illusion der Intelligenz Heutige Sprachmodelle beeindrucken durch ihre Fähigkeit, in einem Moment auf höchstem akademischem Niveau zu glänzen, nur um im nächsten an einfachster Schulmathematik zu scheitern. Diese Inkonsistenz ist laut Hassabis der entscheidende Unterschied zu einer wahren AGI. Eine solche Intelligenz wird fähig sein, logisch zu schlussfolgern, sich kontinuierlich anzupassen und permanent zu lernen, ohne auf riesige, statische Trainingsdatensätze angewiesen zu sein. Aktuellen KI-Systemen fehlen zudem entscheidende Fähigkeiten wie echte Kreativität oder die Intuition, völlig neue wissenschaftliche Hypothesen aufzustellen. Sie sind exzellente Werkzeuge zur Beschleunigung bestehender Prozesse, wie DeepMinds AlphaFold eindrucksvoll bei der Proteinfaltung bewiesen hat, aber sie sind keine eigenständigen Denker. Für den Sprung zu AGI seien laut Hassabis noch ein bis zwei grundlegende wissenschaftliche Durchbrüche nötig.

    Ein Wettlauf mit ungewissem Ausgang Mit seiner Prognose von fünf bis zehn Jahren positioniert sich Hassabis in einem Feld, in dem die Meinungen weit auseinandergehen. Während einige Experten wie Nvidia-Chef Jensen Huang einen ähnlichen Zeitrahmen für möglich halten, prognostizieren andere wie der Futurist Ray Kurzweil die Ankunft von AGI gegen Ende des Jahrzehnts. Wieder andere warnen vor dem Hype und bezweifeln, dass der aktuelle Ansatz der Sprachmodelle überhaupt zu AGI führen kann. Die Entwicklung schreitet jedoch rasant voran, angetrieben von enormen Investitionen und immer leistungsfähigerer Hardware. Ob die kommenden Jahre den von Hassabis erwarteten Durchbruch bringen, wird man miterleben… oder auch nicht. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Demis Hassabis, CEO von Google DeepMind, bezeichnet die Intelligenz aktueller Chatbots als inkonsistent und fehleranfällig.
    Er prognostiziert, dass echte Künstliche Allgemeine Intelligenz (AGI) noch fünf bis zehn Jahre entfernt ist.
    Wahrer AGI fehlen laut Hassabis noch Fähigkeiten wie kontinuierliches Lernen, echte Kreativität und logische Konsistenz.
    Für den Sprung zur AGI sind laut ihm noch entscheidende wissenschaftliche Durchbrüche notwendig.
    QUELLEN
    Google DeepMind
    AI CERTs
    PC Gamer
    Cognitive Today
    The Guardian

  • Wall Street Journal: Microsoft darf laut OpenAI-Vertrag bis 2030 keine eigene AGI bauen

    Die größte Partnerschaft der KI-Branche steht auf der Kippe. Laut einem Bericht von The Information blockiert Microsoft die Pläne von OpenAI für eine Umstrukturierung, weil es eine Vertragsklausel zur Künstlichen Allgemeinen Intelligenz (AGI) streichen will.

    Der Artikel Wall Street Journal: Microsoft darf laut OpenAI-Vertrag bis 2030 keine eigene AGI bauen erschien zuerst auf THE-DECODER.de.