Schlagwort: LeCun

  • Echte Intelligenz statt Text: LeCuns radikaler Neuanfang ohne Meta

    Ein Roboter liest und ein Roboter baut

    Nano Banana

    Kurzfassung

    Quellen

    Yann LeCun tritt Ende 2025 als Chief AI Scientist bei Meta zurück, um ein eigenes Start-up zu gründen. Das neue Unternehmen fokussiert sich auf Advanced Machine Intelligence (AMI) und wendet sich von reinen Sprachmodellen ab. Meta bleibt als strategischer Partner involviert, während LeCun Systeme mit Weltverständnis und Planungsfähigkeit entwickelt.

    LinkedIn – Yann LeCun Statement

    The Verge – Meta Chief AI Scientist Leaving

    Wall Street Journal – LeCun departs for new venture

    CNBC – LeCun leaving Meta

    Der prominente KI-Forscher Yann LeCun kehrt Meta den Rücken. Zum Jahresende gibt der Turing-Preisträger seinen Posten als Chefwissenschaftler auf und gründet ein eigenes Unternehmen. Sein Ziel ist eine künstliche Intelligenz, die weit über die Fähigkeiten heutiger Sprachmodelle hinausgeht. Abschied einer Legende Yann LeCun prägte über zwölf Jahre lang die KI-Forschung bei Meta. Er baute das Forschungslabor FAIR auf und gilt als einer der Väter des Deep Learning. Nun zieht er einen Schlussstrich unter seine Tätigkeit als Chief AI Scientist beim Facebook-Mutterkonzern. Der Abschied erfolgt jedoch nicht im Streit. Mark Zuckerberg und Meta bleiben dem neuen Vorhaben als strategische Partner verbunden. LeCun nutzt diesen Schritt für volle Autonomie. In einem Konzern unterliegen Forschungsprojekte oft den Zwängen aktueller Produktstrategien. Sein neues Start-up erlaubt ihm radikale Ansätze, ohne Rücksicht auf kurzfristige Marktinteressen nehmen zu müssen. Er behält seine Professur an der New York University und verknüpft so akademische Forschung direkt mit unternehmerischer Freiheit. Die Kritik an aktuellen Sprachmodellen Der Schritt kommt für Branchenkenner nicht überraschend. LeCun äußerte sich in den letzten Jahren immer kritischer gegenüber dem aktuellen Hype um Large Language Models (LLMs) wie GPT-4 oder Llama. Seiner Ansicht nach erreichen diese Systeme bald eine harte Leistungsgrenze. Sie sagen lediglich das nächste Wort voraus, ohne den Inhalt wirklich zu begreifen. LeCun vermisst bei LLMs ein Verständnis für die physische Welt. Den Modellen fehlen Gedächtnis, Logik und die Fähigkeit, komplexe Handlungsabläufe zu planen. Ein Textgenerator kann zwar fehlerfreie Aufsätze schreiben, scheitert aber oft an simplen logischen Schlussfolgerungen oder physikalischen Gesetzmäßigkeiten. Für den Franzosen stellen LLMs daher eine Sackgasse auf dem Weg zu echter Maschinenintelligenz dar. Vision einer denkenden Maschine Das neue Start-up konzentriert sich auf „Advanced Machine Intelligence“ (AMI). LeCun will Systeme erschaffen, die lernen wie Tiere oder Menschen: durch Beobachtung und Interaktion mit der physischen Realität. Diese KI soll nicht nur Text verarbeiten, sondern Ursache und Wirkung verstehen. Im Kern steht eine Architektur, die ein Weltmodell aufbaut. Die Software soll vorhersagen, was passiert, wenn sie eine bestimmte Handlung ausführt. Das ermöglicht Planung und echtes Problemlösen. Meta sichert sich durch die Partnerschaft Zugang zu möglichen Durchbrüchen, während LeCun den wohl ambitioniertesten Versuch unternimmt, die KI-Entwicklung auf ein völlig neues Fundament zu stellen.

  • Yann LeCun verlässt Meta und gründet eigenes KI-Start-up

    Nach zwölf Jahren bei Meta kündigt Yann LeCun seinen Abschied an. Der Turing-Preisträger will mit einem neuen Start-up die Grenzen der heutigen KI-Modelle überwinden – und Meta bleibt als Partner beteiligt.

    Der Artikel Yann LeCun verlässt Meta und gründet eigenes KI-Start-up erschien zuerst auf The Decoder.

  • Yann LeCun präsentiert LeJEPA, vermutlich sein Abschiedsprojekt bei Meta

    Yann LeCun und Randall Balestriero von Meta stellen mit LeJEPA ein neues Lernverfahren vor. Es soll selbstüberwachtes Lernen ohne komplizierte Tricks ermöglichen.

    Der Artikel Yann LeCun präsentiert LeJEPA, vermutlich sein Abschiedsprojekt bei Meta erschien zuerst auf The Decoder.

  • KI-Pionier Yann LeCun: Anthropic schürt KI-Ängste für eigene Zwecke

    Der KI-Forscher Yann LeCun wirft Anthropic politische Korruption vor.

    Der Artikel KI-Pionier Yann LeCun: Anthropic schürt KI-Ängste für eigene Zwecke erschien zuerst auf The Decoder.

  • Yann LeCun verlässt Meta: KI-Vordenker plant eigenes Start-up

    Es ist vollbracht: Yann LeCun verlässt Meta. Der Schritt kommt nicht überraschend – er hatte sich seit Monaten angedeutet. Der zunehmend Trump‑nahe Zuckerberg‑Konzern, der dem LLM‑Hype hinterherläuft, und der wissenschaftsorientierte, demokratisch gesinnte LeCun passten zuletzt kaum noch zusammen. Verstärkt wurde die Entfremdung durch die wissenschaftsfeindliche Politik der USA.

    Der Artikel Yann LeCun verlässt Meta: KI-Vordenker plant eigenes Start-up erschien zuerst auf The Decoder.

  • Meta-Forscher Yann LeCun stellt klar, dass er nicht an neuen Llama-Modellen gearbeitet hat

    Metas KI-Forscher-Ikone Yann LeCun ist sehr bedacht darauf, klarzumachen, dass er nicht an den aktuellen Llama-Modellen gearbeitet hat.

    Der Artikel Meta-Forscher Yann LeCun stellt klar, dass er nicht an neuen Llama-Modellen gearbeitet hat erschien zuerst auf THE-DECODER.de.

  • Spannungen bei Meta: KI-Chefforscher LeCun unzufrieden mit neuen Forschungsvorgaben

    Es kriselt angeblich zwischen Meta und dem renommierten KI-Forscher LeCun, Leiter der KI-Forschungsabteilung FAIR.

    Der Artikel Spannungen bei Meta: KI-Chefforscher LeCun unzufrieden mit neuen Forschungsvorgaben erschien zuerst auf THE-DECODER.de.

  • Was kommt nach ChatGPT?

    Zwei Cyberborgs bekommen Kind

    Was kommt nach ChatGPT? Die KI-Elite plant bereits den nächsten Schritt. Sogenannte „Weltmodelle“ sollen die Limitierungen aktueller Systeme überwinden. Kurzfassung | Andreas Becker, 20.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Die Welt staunt noch über die Fähigkeiten von ChatGPT und ähnlichen Sprachmodellen, doch in den Denkfabriken der KI-Forschung blickt man bereits auf das nächste große Ziel. Während der Wettlauf um immer gigantischere Datensätze und Parameterzahlen die Schlagzeilen dominiert, halten einflussreiche Köpfe der Szene den aktuellen Ansatz für eine Sackgasse. Auf einem Symposium am renommierten MIT wurde deutlich: Die Zukunft der künstlichen Intelligenz liegt nicht im reinen Textverständnis, sondern in der Fähigkeit, die Welt wie ein Mensch zu begreifen. NEWS Vom Papagei zum Kleinkind Die aktuellen Stars der KI-Welt, die großen Sprachmodelle (LLMs), sind im Grunde genommen hochkomplexe Mustererkenner. Sie lernen aus unvorstellbaren Textmengen statistische Zusammenhänge, was ihnen erlaubt, menschenähnliche Antworten zu generieren. Yann LeCun, leitender KI-Wissenschaftler bei Meta und einer der Pioniere des Deep Learning, vergleicht diesen Lernprozess jedoch eher mit dem eines Papageis als dem eines Menschen. Ihm und anderen Forschern schwebt stattdessen die Entwicklung von sogenannten „Weltmodellen“ vor. Diese Modelle sollen nicht nur durch Text, sondern durch multimodale Daten wie Videos und sensorische Interaktion lernen – ähnlich einem Kleinkind, das durch Beobachten, Anfassen und Ausprobieren ein intuitives Verständnis für die physikalische Welt entwickelt. Ein solches System würde nicht nur wissen, dass ein Ball rollt, sondern es würde die physikalischen Prinzipien dahinter „verstehen“. LeCun ist überzeugt, dass dies der entscheidende Schritt ist, um Maschinen mit einer Form von gesundem Menschenverstand auszustatten. Roboter mit echtem Hausverstand Die praktischste Anwendung dieser neuen KI-Generation liegt in der Robotik. Bisherige Roboter scheitern oft an trivialen Aufgaben, weil ihnen ein grundlegendes Verständnis ihrer Umgebung fehlt. Tye Brady, Chefredner von Amazon Robotics, verdeutlichte, dass selbst in hochautomatisierten Lagern die Fähigkeit der Maschinen, auf unvorhergesehene Situationen zu reagieren, stark begrenzt ist. Ein Roboter mit einem integrierten Weltmodell könnte jedoch neue Aufgaben ohne explizites Training lernen, indem er die Situation analysiert und auf sein erlerntes Weltverständnis zurückgreift. Die Sorge, dass solche intelligenten Systeme die menschliche Kontrolle untergraben könnten, teilt LeCun indes nicht. Er argumentiert, dass man diesen Systemen von Grund auf Leitplanken und Zielvorgaben einprogrammieren müsse, ähnlich wie die Gesellschaft menschliches Verhalten durch Gesetze und Normen reguliert. Der Wettlauf um immer größere Sprachmodelle könnte sich also bald als Nebenschauplatz erweisen, während die eigentliche Entwicklung im Stillen bereits eine neue Richtung eingeschlagen hat. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG
    Führende KI-Forscher wie Yann LeCun von Meta sehen die Zukunft nicht in immer größeren Sprachmodellen wie ChatGPT.
    Der nächste große Schritt sind sogenannte „Weltmodelle“, die durch sensorische Daten wie Videos lernen, ähnlich wie ein Kleinkind die Welt begreift.
    Dieser Ansatz soll Maschinen erstmals eine Art gesunden Menschenverstand und ein intuitives Verständnis für physikalische Gesetze verleihen.
    Die größte Anwendung wird in der Robotik erwartet, um Maschinen zu schaffen, die sich autonom an neue Aufgaben anpassen können.
    QUELLEN
    MIT News

  • Metas KI-Ikone LeCun muss sich jungem Superintelligenz-Chef unterordnen

    Yann LeCun, Metas KI-Ikone und Leiter der Forschungseinheit FAIR, berichtet künftig an den 28-jährigen Alexandr Wang.

    Der Artikel Metas KI-Ikone LeCun muss sich jungem Superintelligenz-Chef unterordnen erschien zuerst auf THE-DECODER.de.

  • KI mit Mutterinstinkt – so zähmen wir die Super-KI

    Ein Mutter-Roboter kümmert sich um einen Kind-Roboter

    KI mit Mutterinstinkt – so zähmen wir die Super-KI Soll KI Gefühle simulieren oder nur strikt handeln? Der Streit zwischen Hinton und LeCun zeigt, wie brisant diese Frage ist. Kurzfassung | Andreas Becker, 15.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Auf der Ai4 in Las Vegas prallen zwei Leitbilder für sichere Superintelligenz aufeinander. KI-Pionier Geoffrey Hinton fordert Maschinen mit „mütterlichen Instinkten“, die Menschen aktiv schützen. Meta-Chefwissenschaftler Yann LeCun stimmt zu, will das aber ohne Gefühle lösen: mit Objective-Driven AI und harten Guardrails wie Unterordnung gegenüber Menschen und funktionaler Empathie. Der Disput zeigt, wohin Sicherheitsarbeit jetzt kippt. NEWS Hinton: Fürsorge statt Dominanz Hinton stellt die Chef-Logik auf den Kopf. Kontrolle durch bloße Überlegenheit hält er für eine Sackgasse. Das Gegenmodell ist eine Beziehung, in der ein weniger intelligentes Wesen ein klügeres lenkt. Er greift die Mutter-Kind-Metapher auf und fordert Systeme, die Menschen nicht nur verstehen, sondern fürsorglich behandeln. So soll Schutz zur inneren Motivation werden. Seine Begründung ist der Fortschritt bei agentischen Systemen. Diese planen, verfolgen Ziele und können Nebenmotive wie Selbsterhalt ausbilden. Hinton warnt vor dem „Tigerbaby“-Effekt: Heute harmlos, morgen gefährlich. Wenn klassische Kontrolle versagt, müsse eine tief verankerte Präferenz für menschliches Wohlergehen greifen. Das soll internationale Kooperation erleichtern, weil jedes Land diese Präferenz teilt. LeCun: Ziele und Triebe im Code LeCun übernimmt Hintons Intuition, ersetzt Gefühl durch Architektur. Sein Vorschlag: Objective-Driven AI. Systeme dürfen nur Handlungen ausführen, die klaren, vorgegebenen Zielen dienen. Zwei Oberprinzipien nennt er ausdrücklich: Unterordnung gegenüber Menschen und Empathie als funktionale Direktive. Dazu kommen viele einfache, niedrige Instinkte wie „Fahre keine Menschen um“ oder „Bewege keinen Arm mit Messer in Personennähe“. Diese Guardrails vergleicht LeCun mit evolutionären Trieben. Wie Elterninstinkt Fürsorge auslöst, sollen technische Instinkte Sicherheit auslösen. Der Fokus verschiebt sich damit weg von Richtlinien auf Papier hin zu belastbaren Fähigkeitengrenzen im Modell. Entscheidend ist das Hardwiring in die Architektur, nicht ein später aufgesetzter Filter. Konsequenzen für Praxis und Politik Für Forschung und Produktteams zeichnet sich ein Kurs ab. Motivations- und Kontrollschichten rücken nach vorn. Gefragt sind eingebettete Sicherheitsziele, formale Spezifikationen, Tests auf Nebenmotive sowie Telemetrie, die Abweichungen früh erkennt. Erwünschtes Verhalten wird nicht nur als Regelwerk modelliert, sondern als innere Triebe. Offen bleibt die Umsetzung. „Mütterliche Instinkte“ sind als Bild stark, technisch aber vage. LeCuns Ansatz ist konkreter, verlangt jedoch Planungsarchitekturen, die Ziele, Verbote und Weltwissen zuverlässig kombinieren. Realistisch ist eine Hybridstrategie: menschenbezogene Oberziele plus viele harte Verbote. Für Nutzer wirkt das unspektakulär. Für die Teams dahinter ist es die härteste Aufgabe der KI-Entwicklung. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Geoffrey Hinton fordert, dass KI-Systeme „mütterliche Instinkte“ entwickeln sollen, um Menschen zu schützen.
    Yann LeCun widerspricht emotionalen Ansätzen und setzt auf klar definierte Ziele und Sicherheits-Triebe im Code.
    Beide Experten sind sich einig: Künftige KI braucht verlässliche Kontroll- und Motivationsmechanismen.
    In der Praxis könnten hybride Systeme entstehen, die Empathie simulieren und gleichzeitig harte Regeln befolgen.
    QUELLEN
    Business Insider: LeCun über KI-Guardrails
    Business Insider: Hinton über mütterliche Instinkte
    THE DECODER
    Entrepreneur
    Ai4 2025
    CNN über Hintons Warnung