Schlagwort: Labs

  • KI-Spam-Webseiten fluten das Netz mit falschen Informationen und es werden schnell mehr

    Newsguard und der KI-Detektor Pangram Labs haben ein Echtzeitsystem gestartet, das sogenannte „KI Content Farmen“ identifiziert. Mehr als 3.000 solcher Seiten wurden bereits erfasst, jeden Monat kommen Hunderte hinzu. Tendenz steigend.

    Der Artikel KI-Spam-Webseiten fluten das Netz mit falschen Informationen und es werden schnell mehr erschien zuerst auf The Decoder.

  • AMI Labs: Yann LeCun sammelt über eine Milliarde Dollar für neues KI-Start-up in Europas größter Seed-Runde

    Yann LeCun, ehemaliger Chef-KI-Wissenschaftler bei Meta und Turing-Preisträger, hat mit seinem neuen Start-up Advanced Machine Intelligence Labs (AMI Labs) über eine Milliarde Dollar in Europas größter Seed-Finanzierungsrunde eingesammelt, berichtet die Financial Times.

    Der Artikel AMI Labs: Yann LeCun sammelt über eine Milliarde Dollar für neues KI-Start-up in Europas größter Seed-Runde erschien zuerst auf The Decoder.

  • Black Forest Labs: Neues Self-Flow-Verfahren halbiert KI-Trainingszeit

    Ein Baum wird immer größer

    Nano Banana

    Kurzfassung

    Quellen

    Black Forest Labs hat die neue Trainingsmethode Self-Flow für generative KI-Modelle vorgestellt.
    Das Verfahren beschleunigt das Training von Text-to-Image, Text-to-Video und Text-to-Audio deutlich.
    Im Gegensatz zu bisherigen Ansätzen wie REPA benötigt Self-Flow keine externen Hilfsmodelle, sondern nutzt eine Kopie seiner selbst als Lehrer.

    Black Forest Labs: Self-Flow

    Black Forest Labs: Self-Flow Research Paper (PDF)

    Das KI-Unternehmen Black Forest Labs hat mit „Self-Flow“ eine neue Trainingsmethode für generative KI-Modelle vorgestellt. Das Verfahren beschleunigt das Training für Bild-, Video- und Audiogenerierung deutlich und macht externe Hilfsmodelle komplett überflüssig. Anzeige Effizientes Training ohne externe Lehrer Flow Matching hat sich als technisches Fundament für moderne KI-Modelle etabliert. Der Algorithmus formt dabei aus scheinbar zufälligem Rauschen schrittweise klare Bilder oder Töne. Das Training solcher Systeme verschlingt in der Praxis jedoch immense Rechenleistung. Bisherige Ansätze zur Beschleunigung, wie das sogenannte Representation-Aligned Flow Matching (REPA), setzen daher auf externe, bereits fertig trainierte Modelle. Diese „Teacher“ geben dem trainierenden „Student“-Modell eine feste Orientierung, um schneller korrekte Ergebnisse zu erzielen. Für visuelle Aufgaben kam hier oft DINOv2 zum Einsatz, für Audio das Modell MERT. Dieser Ansatz bindet jedoch zusätzliche Ressourcen. Gleichzeitig erfordert er für jeden Medientyp ein exakt passendes Hilfsmodell, was die Entwicklung verkompliziert. Self-Flow löst dieses Problem nun durch einen intelligenten internen Lernprozess. Das System erstellt während des Trainings kontinuierlich eine zeitlich verzögerte Kopie des eigenen Modells, die sogenannte Exponential Moving Average (EMA). Diese minimal ältere, aber stabilere Kopie übernimmt kurzerhand die Rolle des Lehrers. Das Modell berechnet einen Fehlerwert zwischen seinen aktuellen Vorhersagen und den Repräsentationen der EMA-Kopie. Dadurch bringt sich das Modell die optimalen Strukturen der Daten effektiv selbst bei, ohne auf externe Parameter angewiesen zu sein. + Quelle: Black Forrest Messbare Leistungssprünge über alle Medien Die Entwickler belegen die Effizienz von Self-Flow anhand verschiedener Benchmarks für unterschiedliche Datentypen. Bei der Text-to-Image-Generierung erreicht das neue Verfahren das Qualitätsniveau von klassischem Flow Matching 2,8-mal schneller. + + Quelle: Black Forrest Auch bei Bewegtbild und Ton zeigt sich der architektonische Vorteil. Bei Text-to-Video-Aufgaben verzeichnet Black Forest Labs eine 1,8-fache Beschleunigung gegenüber dem Standardverfahren. Im Bereich Audio arbeitet die Methode 2,1-mal schneller. Zudem übertrifft Self-Flow die bisherige REPA-Methode bei gleicher Anzahl an Trainingsschritten in allen drei Kategorien sichtbar. Die Qualität der generierten Inhalte steigt, was sich an etablierten Metriken wie dem Frechet Inception Distance (FID) Wert für Bilder klar ablesen lässt. Die neue Methode vereinfacht die Entwicklung zukünftiger KI-Architekturen spürbar. Forscher benötigen deutlich weniger Rechenzeit und eine weit weniger komplexe Software-Infrastruktur, um leistungsstarke multimodale Modelle aufzubauen. Anzeige

  • Social-Media-Benchmark: Fünf KI-Modelle konkurrieren auf X um Reichweite

    Raster aus Logos mehrerer KI-Modelle als Symbol für ihren Wettbewerb in der Social Arena.

    Das KI-Benchmarking-Startup Arcada Labs lässt derzeit fünf führende KI-Modelle als autonome Social-Media-Agenten auf X gegeneinander antreten.

    Der Artikel Social-Media-Benchmark: Fünf KI-Modelle konkurrieren auf X um Reichweite erschien zuerst auf The Decoder.

  • Lange Songs auf Knopfdruck mit Googles neuem KI-Modell

    Oberfläche von Google Labs Musik

    Nano Banana

    Kurzfassung

    Quellen

    Die KI-Plattform ProducerAI ist nun Teil von Google Labs und nutzt das Audio-Modell Lyria 3.
    Damit entfällt das bisherige 30-Sekunden-Limit, sodass Anwender vollständige Musikstücke über Text-Prompts generieren können.
    Spezifische Anpassungen wie Equalizer-Einstellungen werden direkt vom System verarbeitet und hörbar umgesetzt.
    Die Nutzung ist in einem vierstufigen SaaS-Modell organisiert, das von einer Gratisversion bis zum Profi-Tarif für 64 US-Dollar reicht.

    Google Blog: ProducerAI: Your music creation partner, now in Google Labs

    producer ai Plattform

    The Verge: This Chainsmokers-approved AI music producer is joining Google

    Die Musikplattform ProducerAI ist ab sofort Teil von Google Labs und nutzt das hauseigene KI-Modell Lyria 3. Anwender generieren damit vollständige Musikstücke direkt über Texteingaben. Die bisherige Limitierung von 30 Sekunden fällt weg. Anzeige Architektur und vollständige Song-Generierung Die Übernahme von ProducerAI in das experimentelle Google Labs bringt das Musikmodell Lyria 3 in eine neue Anwendungsumgebung. Der technische Kernvorteil dieser Integration liegt in der Aufhebung bisheriger Längenbeschränkungen. Während Lyria 3 bisher maximal 30 Sekunden in einem Durchgang berechnete, generiert das System nun problemlos längere Songs am Stück. Um Missbrauch vorzubeugen, bettet Google ein dauerhaftes SynthID-Wasserzeichen in die Audiodateien ein, das die maschinelle Herkunft nachweist. Ein Praxistest verdeutlicht die hohe Verarbeitungsgeschwindigkeit der Plattform. Ein Text-Prompt für einen „Celtic House Vibe“ inklusive der exakten Anweisung, den Bass per Equalizer um vier Dezibel anzuheben, wird in lediglich rund 30 Sekunden in ein fertiges Audiofile übersetzt. Die Benutzeroberfläche verarbeitet solche Mixing-Befehle somit direkt ohne den Umweg über externe Audiosoftware. Der folgende Versuch war mein erster überhaupt. + Quelle: producer ai Your browser does not support the audio element. Gestaffeltes Preismodell für Audioproduzenten Google strukturiert den Zugang zu ProducerAI über ein vierstufiges SaaS-Modell (Software as a Service), bei dem Nutzer die Anwendung und die benötigte Rechenleistung direkt über das Internet abonnieren, anstatt ein Programm lokal zu installieren. Die kostenlose Variante gewährt Zugriff auf tägliche Basis-Credits und erlaubt zwei simultane Generierungen. Wer die Plattform häufiger ansteuert, wählt den Starter-Plan für acht US-Dollar pro Monat. Dieser schaltet 3.000 monatliche Credits frei, was für die Erstellung von knapp 600 Songs ausreicht, und erhöht die parallelen Rechenprozesse auf acht. + Quelle: producer ai Für professionellere Produktionsumgebungen stehen zwei weitere Tarife bereit. Die Plus-Option kostet 24 US-Dollar und liefert 10.000 Credits für etwa 2.000 generierte Tracks. Am oberen Ende positioniert sich das Member-Abonnement für 64 US-Dollar monatlich. Abonnenten erhalten hier 30.000 Credits, 16 parallele Generierungen und Zugang zu exklusiven Discord-Kanälen sowie Vorabversionen. Die Plattform staffelt die Leistungskontingente somit streng nach dem monatlichen Produktionsvolumen der Anwender. Der Zugriff auf den Dienst erfolgt ab sofort über die Webseite producer.ai. Anzeige

  • Fei-Fei Lis Startup World Labs sammelt eine Milliarde Dollar für räumliche Intelligenz ein

    World Labs, das KI-Startup von Fei-Fei Li, sammelt eine Milliarde Dollar in neuer Finanzierungsrunde ein, um mit sogenannten Weltmodellen KI-Systemen beizubringen, die dreidimensionale Welt zu verstehen und darin zu agieren.

    Der Artikel Fei-Fei Lis Startup World Labs sammelt eine Milliarde Dollar für räumliche Intelligenz ein erschien zuerst auf The Decoder.

  • Isomorphic Labs stellt neue KI-Engine für präziseres Medikamenten-Design vor

    Isomorphic Labs, das KI-Medizin-Start-up von Google Deepmind, hat ein neues System namens „Isomorphic Labs Drug Design Engine“ (IsoDDE) vorgestellt, das AlphaFold 3 übertreffen soll.

    Der Artikel Isomorphic Labs stellt neue KI-Engine für präziseres Medikamenten-Design vor erschien zuerst auf The Decoder.

  • OpenAI setzt auf Ultraschall statt Chip im menschlichen Gehirn

    Sam Altman mit Merge Labs und Elon Musk mit Neuralink

    Nano Banana

    Kurzfassung

    Quellen

    Sam Altman und OpenAI investieren 252 Millionen Dollar in das Startup Merge Labs, das auf Ultraschall-Technologie setzt. Diese neuen Gehirn-Computer-Schnittstellen funktionieren ohne operative Eingriffe und bieten dennoch hohe Datenraten. Gleichzeitig wächst die Konkurrenz aus China, wo Unternehmen wie Gestalta ebenfalls nicht-invasive Lösungen zur Marktreife bringen.

    Wired – This Chinese Startup Wants to Build a New Brain-Computer Interface

    Wired – OpenAI Invests in Sam Altman’s New Brain-Tech Startup Merge Labs

    TechCrunch – OpenAI invests in Sam Altman’s brain computer interface startup Merge Labs

    OreateAI – Competing With Musk’s Neuralink: Unveiling the Leading BCI Company

    Pandaily – China Tests Its First Fully Implanted Brain-Computer Interface

    Sam Altman investiert massiv in das Neurotech-Startup Merge Labs, das auf Ultraschall statt invasive Chips setzt. Diese Technologie verspricht eine präzise Gehirn-Computer-Verbindung ohne riskante Operationen am offenen Schädel. Der Angriff auf die Hardware-Grenze OpenAI-Chef Sam Altman wettet mit einer Investition von 252 Millionen Dollar gegen den bisherigen Goldstandard invasiver Implantate. Das Ziel seiner Beteiligung ist Merge Labs, ein Unternehmen, das Gehirn-Computer-Schnittstellen (BCI) auf Basis von Ultraschall entwickelt. Diese Technologie nutzt hochfrequente Schallwellen, um neuronale Aktivitäten durch den Schädelknochen hindurch zu lesen. Nutzer benötigen keine riskante Operation, wie sie bei Elon Musks Neuralink Voraussetzung ist. Die Bandbreite der übertragenen Daten soll dabei deutlich höher liegen als bei herkömmlichen EEG-Kappen. Der Einstieg von OpenAI signalisiert ein strategisches Interesse an direkteren Kommunikationswegen zwischen menschlichem Gehirn und künstlicher Intelligenz. Merge Labs positioniert sich damit als Schlüsselfigur für die nächste Generation der Mensch-Maschine-Interaktion. Anzeige Konkurrenz aus Fernost Parallel dazu formiert sich in China eine starke Konkurrenz, die ähnliche technologische Pfade beschreitet. Das Startup Gestalta treibt die Entwicklung von Ultraschall-BCIs voran und zielt auf den globalen Markt. Chinesische Unternehmen profitieren derzeit von einer Investitionswelle in Hard-Tech-Firmen. Mehrere Akteure aus der Neurotechnologie bereiten Börsengänge vor oder haben diese bereits vollzogen. Qiangnao Tech (BrainCo) gilt hierbei als Vorreiter und zeigt, wie weit die Kommerzialisierung in Asien bereits fortgeschritten ist. Die Lücke zwischen Leistung und Komfort Bisher mussten sich Anwender zwischen hoher Datenqualität durch Implantate oder geringer Invasivität durch externe Sensoren entscheiden. Ultraschall-Technologie schließt diese Lücke effektiv. Sie bietet eine räumliche Auflösung, die für komplexe Steuerungsaufgaben notwendig ist, ohne den Körper physikalisch zu verletzen. Das senkt die Hemmschwelle für den Einsatz im Alltag drastisch. Anwendungen reichen von der Steuerung prothetischer Gliedmaßen bis hin zur direkten Interaktion mit Software-Interfaces. Der Markt bewegt sich weg von medizinischen Nischenprodukten hin zu skalierbaren Consumer-Lösungen. Mit Schwergewichten wie OpenAI und agilen chinesischen Startups im Ring beschleunigt sich der Innovationszyklus im Jahr 2026 spürbar.

  • Darum hat hat der KI-Chef Meta verlassen

    Yann Le Cun verlässt die Lamas

    Nano Banana

    Kurzfassung

    Quellen

    Yann LeCun verlässt Meta aufgrund eines fundamentalen Konflikts über die Zukunft der KI, da er Large Language Models (LLMs) als technologische Sackgasse betrachtet. Mit seinem neuen Startup AMI Labs setzt er auf „World Models“ und die JEPA-Architektur, um KIs zu entwickeln, die physikalische Gesetze verstehen und logisch planen können. Der Schritt ermöglicht ihm Forschung ohne bürokratische Hürden und kommerziellen Druck, wobei er gezielt Top-Talente für den Standort Europa rekrutiert. AMI Labs strebt eine Bewertung von 3,5 Milliarden Dollar an und positioniert sich als direkter Gegenentwurf zu den textbasierten Modellen von OpenAI und Google.

    Le Monde: Yann Le Cun: ‚Why I’m leaving Meta to launch my own AI start-up‘

    ByteIota: World Models Race 2026: LeCun’s €500M Bet Against LLMs

    Stratégies: Laurent Solly rejoint AMI Labs

    Sifted: Yann LeCun Poaches from Meta, Google DeepMind for New Startup

    Fortune: AI Whiz Yann LeCun is Already Targeting a $3.5 Billion Valuation

    Yann LeCuns Ausstieg bei Meta ist kein gewöhnlicher Karrierewechsel, sondern das Resultat eines jahrelangen ideologischen Konflikts über die Zukunft der KI-Entwicklung. Der „Godfather of AI“ zieht die Reißleine, weil er die aktuelle Fixierung der Tech-Branche auf Sprachmodelle für einen kostspieligen Irrweg hält. Sackgasse Generative KI Der Hauptgrund für LeCuns Abgang liegt in seiner tiefen Skepsis gegenüber der Technologie, die Meta aktuell mit Milliardeninvestitionen vorantreibt. Während Mark Zuckerberg die „Llama“-Modelle als Kernprodukt des Konzerns positioniert, bezeichnet LeCun die zugrundeliegende Architektur der Large Language Models (LLMs) intern wie extern als Sackgasse. Für ihn sind diese Systeme, die lediglich das nächste Wort basierend auf Wahrscheinlichkeiten vorhersagen, nicht in der Lage, echte Intelligenz oder logisches Denken zu entwickeln. In aktuellen Interviews zur Gründung seines Startups AMI Labs wird deutlich, dass LeCun sich bei Meta zunehmend in einer technologischen Zwangsjacke befand. Zwar leitete er die Forschung, doch der kommerzielle Druck zwang den Konzern, auf den generativen KI-Hype aufzuspringen, um den Anschluss an OpenAI und Google nicht zu verlieren. LeCun hingegen wollte Ressourcen radikal umschichten – weg von Textgeneratoren, hin zu Systemen mit echtem Weltverständnis. Dieser fundamentale Strategiekonflikt ließ sich innerhalb der Konzernstrukturen nicht mehr auflösen. Anzeige Die Vision der „World Models“ LeCuns Motivation für den Neustart ist der Drang, seine theoretische Arbeit an sogenannten „World Models“ (Weltmodellen) endlich in die Praxis umzusetzen. Er ist überzeugt, dass eine KI erst dann nützlich ist, wenn sie physikalische Gesetze, Kausalitäten und die Permanenz von Objekten versteht. Aktuelle LLMs halluzinieren, weil sie keinen Bezug zur Realität haben. LeCun will mit AMI Labs eine Architektur schaffen, die plant und denkt, bevor sie antwortet. Diesen Ansatz der „Joint Embedding Predictive Architecture“ (JEPA) konnte er bei Meta nur als Forschungsprojekt betreiben, nicht aber als zentrales Produkt. Um zu beweisen, dass sein Ansatz den LLMs überlegen ist, benötigt er die volle Kontrolle über Rechenkapazitäten und Talente. Sein neues Startup dient ihm als Vehikel, um diese These ohne Rücksicht auf bestehende Produktlinien wie Instagram oder WhatsApp zu verifizieren. Forschung ohne Fesseln Ein weiterer entscheidender Faktor für den Wechsel ist die Geschwindigkeit der Umsetzung. LeCun kritisierte zuletzt häufiger die bürokratischen Hürden und Sicherheitsbedenken großer Tech-Konzerne, die innovative Sprünge verlangsamen. In einem unabhängigen Startup wie AMI Labs entfällt der Rechtfertigungsdruck gegenüber Aktionären, die kurzfristige Profite durch generative KI-Features erwarten. Zudem zieht es LeCun zurück nach Europa, um ein Gegengewicht zum Silicon Valley zu etablieren. Er nutzt sein persönliches Netzwerk, um Top-Forscher von DeepMind und Meta abzuwerben, die seine Skepsis gegenüber dem aktuellen Hype teilen. Mit einer initialen Bewertung von angepeilten 3,5 Milliarden Dollar schafft er sich die finanzielle Unabhängigkeit, um seine Vision einer „Physischen KI“ gegen den Mainstream durchzusetzen.

  • Nvidia verhandelt offenbar über Milliarden-Übernahme von KI-Start-up AI21 Labs

    Nvidia greift nach israelischem KI-Know-how: Der Chipriese verhandelt laut Calcalist über die Übernahme von AI21 Labs für bis zu drei Milliarden Dollar. Im Fokus stehen vor allem die 200 Mitarbeitenden mit seltener KI-Expertise.

    Der Artikel Nvidia verhandelt offenbar über Milliarden-Übernahme von KI-Start-up AI21 Labs erschien zuerst auf The Decoder.