Schlagwort: Deepmind

  • Google DeepMind entschlüsselt die dunkle Materie unserer DNA

    Ein Genom in der dunklen Materie

    Nano Banana

    Kurzfassung

    Quellen

    Google DeepMind veröffentlicht AlphaGenome zur Analyse der bisher unverstandenen nicht-kodierenden Bereiche der menschlichen DNA. Das KI-Modell verarbeitet Sequenzen von bis zu einer Million Basenpaaren und erkennt komplexe regulatorische Zusammenhänge. Wissenschaftler können ab sofort über GitHub auf den Quellcode zugreifen, um die Erforschung von Erbkrankheiten zu beschleunigen.

    Google alphagenome auf Github

    BBC News: AI model from Google DeepMind reads recipe for life in our DNA

    Nature Artikel

    Phys.org: Google unveils AI tool probing mysteries of human genome

    Google DeepMind stellt AlphaGenome vor und liefert ein KI-Modell zur Analyse der nicht-kodierenden DNA. Das System prognostiziert präzise, wie genetische Veränderungen die Genregulation steuern und steht der Wissenschaft ab sofort als Open-Source-Lösung zur Verfügung. Eine Million Basenpaare im Kontext Moderne Sprachmodelle verarbeiten riesige Textmengen, AlphaGenome überträgt dieses Prinzip nun auf die menschliche Biologie. Das Modell analysiert DNA-Sequenzen mit einer Länge von bis zu einer Million Basenpaaren gleichzeitig. Bisherige Verfahren scheiterten oft an der komplexen Struktur des menschlichen Genoms. Wichtige regulatorische Elemente liegen oft weit von dem Gen entfernt, das sie eigentlich steuern. AlphaGenome überbrückt diese Distanz und erkennt funktionale Zusammenhänge über riesige genetische Entfernungen hinweg. Die Architektur basiert auf spezialisierten Mechanismen, die Effizienz und Genauigkeit bei der Sequenzverarbeitung kombinieren. Das System lernt die Grammatik der DNA ähnlich wie ein LLM die menschliche Sprache lernt, benötigt dafür aber keine vorab definierten Annotationen. Anzeige Licht in die regulatorische Dunkelheit Nur etwa zwei Prozent der DNA enthalten direkte Baupläne für Proteine. Der weitaus größere Rest gilt als sogenannte „dunkle Materie“ und steuert, wann und wo Gene aktiviert werden. AlphaGenome kartiert diese regulatorischen Netzwerke nun mit einer bisher unerreichten Präzision. Das Modell sagt voraus, wie stark ein Gen in verschiedenen Gewebetypen exprimiert wird. Es erkennt Enhancer und Promotoren allein anhand der rohen Sequenzdaten. Diese Vorhersagekraft übertrifft bisherige Standardverfahren deutlich und liefert tiefere Einblicke in die zelluläre Logik. Ein zentraler Anwendungsfall ist die Bewertung von Punktmutationen. Das Tool berechnet, ob der Austausch eines einzelnen Buchstabens im genetischen Code krankhafte Folgen hat oder harmlos bleibt. Dies ist entscheidend für die Interpretation von Daten aus großen Patientenstudien und der Suche nach Ursachen für komplexe Erbkrankheiten. Wissenschaftliche Validierung und Zugang Die Veröffentlichung der Ergebnisse erfolgt parallel zu einem Peer-Review-Artikel im renommierten Fachjournal Nature. DeepMind stellt den vollständigen Quellcode und die Modellgewichte ab sofort auf GitHub bereit. Damit entfällt die Hürde proprietärer Softwarelizenzen für akademische Labore und unabhängige Forscher. Wissenschaftler können das Modell lokal betreiben oder für spezifische Analysen anpassen. Die breite Verfügbarkeit soll die Entdeckung neuer Wirkstoffziele in der Pharmaindustrie beschleunigen. AlphaGenome ergänzt damit AlphaFold, das die Proteinstruktur löste, um die entscheidende Ebene der genetischen Steuerung. Anzeige

  • Agentic Vision: Gemini schreibt sich jetzt eigenen Code, um Bilder besser zu verstehen

    Google Deepmind stattet sein Gemini-3-Flash-Modell mit einer neuen Fähigkeit namens „Agentic Vision“ aus. Das Modell soll Bilder nicht mehr nur passiv betrachten, sondern aktiv untersuchen können – allerdings funktioniert das noch nicht in allen Fällen automatisch.

    Der Artikel Agentic Vision: Gemini schreibt sich jetzt eigenen Code, um Bilder besser zu verstehen erschien zuerst auf The Decoder.

  • DeepMind D4RT: Google bringt der KI die vierte Dimension bei

    Zwei Kämpfer

    Nano Banana

    Kurzfassung

    Quellen

    Google DeepMind stellt mit D4RT eine Technologie vor, die 3D-Szenen inklusive der Zeitkomponente (4D) rekonstruiert. Das System trennt Kamerabewegungen von Objektbewegungen und verhindert so Grafikfehler, die bei bisherigen Verfahren wie NeRF auftraten. Diese Innovation gilt als Schlüsselelement für die Entwicklung robuster Weltmodelle in der Robotik und autonomen Navigation.

    DeepMind Blog – D4RT Announcement

    D4RT Project Page

    arXiv – D4RT Technical Report

    SRT Project Page

    arXiv – NeRF Original Paper

    Google DeepMind überwindet die Grenzen statischer 3D-Modelle und präsentiert mit D4RT einen Ansatz für dynamische Szenenrekonstruktion. Das System erfasst nicht nur räumliche Tiefe, sondern versteht Bewegungsabläufe in Echtzeit, was fundamentale Fortschritte für Robotik und autonome Systeme verspricht. Vom statischen Abbild zum dynamischen Verständnis Bisherige Verfahren zur dreidimensionalen Erfassung der Welt stießen oft an ihre Grenzen, sobald Bewegung ins Spiel kam. Technologien wie Neural Radiance Fields (NeRF) oder das 2023 populär gewordene Gaussian Splatting konnten zwar fotorealistische 3D-Räume aus 2D-Bildern errechnen, setzten jedoch meist eine starre Umgebung voraus. Sobald sich ein Objekt bewegte, entstanden visuelle Artefakte oder „Geisterbilder“. D4RT (Dynamic 4D Reconstruction and Tracking) löst dieses Problem durch die Integration der Zeit als vierte Dimension. Das Modell differenziert präzise zwischen der Eigenbewegung der Kamera und der tatsächlichen Bewegung von Objekten im Raum. DeepMind gelingt es damit, eine Szene nicht als eingefrorenen Moment, sondern als kontinuierlichen Fluss zu repräsentieren. + Quelle: Google Präzision durch objektzentriertes Tracking Die technische Innovation liegt in der Art und Weise, wie D4RT Informationen verarbeitet. Das System nutzt Videosequenzen aus verschiedenen Blickwinkeln, um gleichzeitig die Geometrie der Umgebung und die Trajektorien bewegter Elemente zu lernen. Dies ermöglicht die sogenannte „Novel View Synthesis“ – das Generieren völlig neuer Kameraperspektiven – auch für Szenen mit komplexen Handlungen, wie etwa rennenden Hunden oder fahrenden Autos. Anders als frühere Ansätze, die oft auf mühsam annotierte Daten angewiesen waren, lernt D4RT weitgehend unüberwacht aus den Rohdaten. Das System identifiziert selbstständig, welche Pixel zu einem stabilen Hintergrund gehören und welche Teil eines dynamischen Objekts sind. Diese Segmentierung erfolgt auf einer Ebene, die Rückschlüsse auf die physikalische Beschaffenheit und Permanenz von Objekten zulässt. Anzeige Der Weg zu echten Weltmodellen Die Implikationen dieser Technologie reichen weit über hübsche 3D-Videos hinaus. Für die Entwicklung autonomer Agenten und Roboter ist das Verständnis von Kausalität und zeitlicher Abfolge essenziell. Ein Roboter muss wissen, dass ein Ball, der hinter ein Sofa rollt, dort weiterhin existiert und sich entlang einer Bahn bewegt. D4RT gilt als wichtiger Schritt hin zu robusten „World Models“ – KI-Systemen, die eine interne Repräsentation der physikalischen Welt besitzen. Wenn Maschinen die Dynamik ihrer Umgebung verlässlich vorhersagen können, erhöht dies die Sicherheit und Effizienz in der Interaktion zwischen Mensch und Maschine drastisch. Die Forschungsergebnisse zeigen, dass wir uns von der reinen Bilderkennung hin zu einem echten Szenenverständnis bewegen. + Quelle: Google

  • Deepmind- und Anthropic-CEOs erwarten 2026 KI-Auswirkungen auf Einstiegsjobs und Praktika

    Zwei der wichtigsten KI-Chefs, Demis Hassabis von Google Deepmind und Dario Amodei von Anthropic, sehen beim Weltwirtschaftsforum erste Anzeichen für Jobverluste durch KI. Beide beobachten die Entwicklung bereits in ihren eigenen Unternehmen. Amodei warnt, dass KI unsere Anpassungsfähigkeit überfordern könnte.

    Der Artikel Deepmind- und Anthropic-CEOs erwarten 2026 KI-Auswirkungen auf Einstiegsjobs und Praktika erschien zuerst auf The Decoder.

  • Weniger ist mehr: Einzelne KI-Modelle können vernetzte KI-Agenten schlagen

    Eine umfangreiche Studie von Google Research, Google DeepMind und MIT widerlegt die verbreitete Annahme, dass mehr KI-Agenten automatisch bessere Ergebnisse liefern. Die Forscher identifizieren präzise Bedingungen, unter denen Multi-Agenten-Systeme helfen oder schaden.

    Der Artikel Weniger ist mehr: Einzelne KI-Modelle können vernetzte KI-Agenten schlagen erschien zuerst auf The Decoder.

  • FACTS-Benchmark: Auch Top-KI-Modelle kämpfen mit der Wahrheit

    Ein neuer Benchmark von Google DeepMind soll die Zuverlässigkeit von KI-Modellen umfassender messen als bisher. Die Ergebnisse zeigen, dass selbst Spitzenmodelle wie Gemini 3 Pro und GPT-5.1 weit von Perfektion entfernt sind.

    Der Artikel FACTS-Benchmark: Auch Top-KI-Modelle kämpfen mit der Wahrheit erschien zuerst auf The Decoder.

  • Deepmind-Chef sieht drei KI-Themen für 2026: Multimodal, interaktiv und autonom

    Demis Hassabis, CEO von Google Deepmind, erwartet in den nächsten zwölf Monaten Fortschritte bei der Konvergenz multimodaler Modelle, interaktiven Videowelten und verlässlichen KI-Agenten.

    Der Artikel Deepmind-Chef sieht drei KI-Themen für 2026: Multimodal, interaktiv und autonom erschien zuerst auf The Decoder.

  • 5 Jahre AlphaFold: Nobelpreis, 200 Millionen Proteine, medizinische Durchbrüche

    Ein DeepMind Labor mit Bildern von Proteinen

    Nano Banana

    Kurzfassung

    Quellen

    Vor fünf Jahren löste die KI AlphaFold 2 das 50 Jahre alte Problem der Proteinfaltung, was 2024 mit dem Chemie-Nobelpreis ausgezeichnet wurde. Die Technologie wird heute von über 3 Millionen Forschern genutzt, um Durchbrüche in der Herzmedizin zu erzielen und das Immunsystem von Honigbienen zu verstehen. Mit AlphaFold 3 und Isomorphic Labs beginnt nun die Ära der „digitalen Biologie“, die neben Proteinen auch DNA, RNA und Wirkstoff-Interaktionen vorhersagt.

    Google DeepMind Blog: AlphaFold – Five years of impact

    Vor genau fünf Jahren gelang einem Team von Google DeepMind, was Wissenschaftler ein halbes Jahrhundert lang für fast unmöglich hielten: Die künstliche Intelligenz AlphaFold 2 löste das Problem der Proteinfaltung. Was 2020 als technologischer Durchbruch begann, wurde 2024 mit dem Nobelpreis für Chemie gekrönt und ist heute das Fundament einer neuen Art von Wissenschaft. Für die Forschung bedeutet dies nicht nur theoretischen Ruhm, sondern konkrete medizinische Fortschritte, die vorher Jahrzehnte gedauert hätten. Die Demokratisierung der Biologie Der eigentliche Wendepunkt war nicht nur die algorithmische Leistung beim CASP 14 Wettbewerb, sondern die Entscheidung, dieses Wissen zugänglich zu machen. Mit der Veröffentlichung der AlphaFold Protein Database im Jahr 2021 stellte DeepMind der Welt Vorhersagen für über 200 Millionen Proteinstrukturen zur Verfügung. Das Ergebnis ist eine massive Beschleunigung der Forschung. Musste früher oft mehr als ein Jahr und viel Geld investiert werden, um eine einzige Proteinstruktur experimentell zu bestimmen, liefert die KI diese Daten nun in kürzester Zeit. Über drei Millionen Forscher in 190 Ländern nutzen das System mittlerweile. Besonders bemerkenswert ist dabei die Verbreitung: Mehr als eine Million dieser Nutzer stammen aus Ländern mit niedrigen oder mittleren Einkommen, was zeigt, dass High-Tech-Forschung nicht mehr nur ein Privileg elitärer Institute ist. Unabhängige Analysen bestätigen, dass Forscher, die AlphaFold nutzen, rund 40 Prozent mehr neue experimentelle Proteinstrukturen einreichen. Diese Arbeiten werden zudem doppelt so häufig in klinischen Studien zitiert wie herkömmliche Publikationen der Strukturbiologie. + Quelle: Deepmind – This picture shows a water-soluble version of the EAAT1 protein. + Quelle: Deepmind – p53 is a cellular tumor antigen related to diseases such as cancer. It is one of the most popular proteins in the AlphaFold Protein Database. Von der Honigbiene bis zur Herzmedizin Die abstrakten Zahlen übersetzen sich in greifbare Erfolge. In Europa nutzen Wissenschaftler die KI, um Vitellogenin zu verstehen – ein Schlüsselprotein für das Immunsystem von Honigbienen. Diese Erkenntnisse fließen direkt in Zuchtprogramme ein, um widerstandsfähigere Bestäuber zu züchten und das Bienensterben zu bekämpfen. Ein weiteres Beispiel betrifft die Volkskrankheit Nummer eins: Herz-Kreislauf-Erkrankungen. Das Protein Apolipoprotein B100 (apoB100) spielt eine zentrale Rolle beim „schlechten“ LDL-Cholesterin und damit bei Arterienverkalkung. Seine Struktur glich jahrzehntelang einem Rätsel. AlphaFold 2 half dabei, die komplexe, käfigartige Form dieses Proteins zu entschlüsseln. Pharmazeutische Forscher besitzen nun den Bauplan, um präzise Medikamente gegen Herzkrankheiten zu entwickeln. Anzeige AlphaFold 3 und der Traum der digitalen Biologie Während AlphaFold 2 die Proteine entschlüsselte, geht der Nachfolger AlphaFold 3 einen entscheidenden Schritt weiter. In Zusammenarbeit mit dem 2021 gegründeten Unternehmen Isomorphic Labs zielt das neue Modell auf die gesamte „digitale Biologie“ ab. Es beschränkt sich nicht mehr nur auf Proteine, sondern sagt die Interaktionen fast aller lebenswichtigen Moleküle voraus. Dazu gehören DNA, RNA und sogenannte Liganden. Letzteres sind kleine Moleküle, die oft als Basis für Medikamente dienen. AlphaFold 3 ermöglicht einen ganzheitlichen Blick darauf, wie ein potenzieller Wirkstoff an sein Zielprotein bindet oder wie Proteine mit genetischem Material interagieren. Das Ziel ist ambitioniert: Die KI soll nicht mehr nur assistieren, sondern den Prozess der Medikamentenentwicklung grundlegend verändern. DeepMind sieht AlphaFold dabei als Blaupause für die gesamte Wissenschaft – ein Werkzeug, das Forschung von der Fusionsenergie bis zu den Erdwissenschaften auf „digitale Geschwindigkeit“ beschleunigt.

  • Gemini soll das Android für Roboter werden, Deepmind holt Boston Dynamics CTO

    Google Deepmind will sein KI-Modell Gemini zu einer universellen Steuerungsplattform für Roboter ausbauen. Mit dem ehemaligen CTO von Boston Dynamics holt sich das Unternehmen nun entscheidendes Hardware-Know-how ins Haus.

    Der Artikel Gemini soll das Android für Roboter werden, Deepmind holt Boston Dynamics CTO erschien zuerst auf The Decoder.

  • Weltmodelle statt Chatbots: So sieht die wahre Zukunft der KI aus

    Ein menschlicher Kopf mit einem Weltmodell

    Nano Banana

    Kurzfassung

    Quellen

    DeepMind-CEO Hassabis bestätigt eine Investitionsblase im KI-Sektor, sieht Google durch solide Infrastruktur jedoch gut geschützt. Die Zukunft der Entwicklung liegt nicht mehr in reiner Skalierung, sondern in Weltmodellen wie Genie 3, die physikalische Zusammenhänge verstehen. Eine menschenähnliche AGI wird laut Hassabis erst in fünf bis zehn Jahren erwartet, da noch architektonische Durchbrüche fehlen.

    Sources News: Hassabis Exklusiv Interview
    The Rundown: Exklusivinterview DeepMind CEO
    Hard Fork Podcast: Google Gemini 3 Special
    New Atlas: AI Bubble & Google DeepMind

    Demis Hassabis dämpft die Erwartungen an schnelle Wunder, zeichnet aber einen klaren Weg für die Zukunft. Der Chef von Google DeepMind sieht eine echte Überhitzung im Markt, während er gleichzeitig die nächste technologische Stufe zündet: Weltmodelle sollen Maschinen endlich ein Verständnis für physische Gesetze geben. Die KI-Blase und Googles Sonderweg Hassabis bestätigt in aktuellen Interviews Spekulationen über eine finanzielle Blase im KI-Sektor. Investoren pumpen derzeit Milliarden in Startups, ohne dass tragfähige Geschäftsmodelle dahinterstehen. Google sieht er von diesem Risiko isoliert, da der Konzern die grundlegende Infrastruktur bereitstellt und nicht blind auf Risiko wettet. Die Entwicklungskosten steigen dennoch enorm an und erreichen astronomische Höhen. Nur wenige Akteure besitzen überhaupt die Mittel, um die nötigen Rechenzentren langfristig zu finanzieren. Google setzt hier auf eine Strategie des „Maschinenraums“, um unabhängig von kurzfristigen Marktschwankungen lieferfähig zu bleiben. Weltmodelle als neuer Fokus der Forschung Reine Skalierung bringt inzwischen immer weniger Erträge für den immensen Aufwand. Der Fokus verschiebt sich deshalb massiv auf sogenannte Weltmodelle wie SIMA 2 und Genie 3. Diese Systeme lernen nicht mehr nur Texte auswendig, sondern verstehen räumliche Zusammenhänge und Ursache-Wirkung-Prinzipien. Eine KI kann damit in Videospielen navigieren oder Robotern komplexe Handgriffe beibringen, weil sie die Konsequenzen einer Aktion vorausberechnet. Diese Modelle simulieren die Realität, statt nur statistische Wahrscheinlichkeiten von Worten zu berechnen. Das Verständnis der physischen Welt gilt als Schlüssel, um KI im Alltag wirklich nützlich zu machen. Ernüchterung beim Zeitplan für die Superintelligenz Der Traum von einer generellen künstlichen Intelligenz bleibt vorerst Zukunftsmusik. Hassabis korrigiert frühere, optimistische Prognosen und rechnet erst in fünf bis zehn Jahren mit einer AGI, die menschliches Niveau erreicht. Rechenpower allein reicht für diesen Schritt nicht aus. Forscher benötigen völlig neue architektonische Durchbrüche, um logisches Denken und echte Planung in Software zu gießen. Das Wettrennen verlagert sich damit von der reinen Hardwarebeschaffung zurück in die Forschungslabore. Die KI-Branche muss nun beweisen, dass sie echte Probleme lösen kann, statt nur Hypes zu generieren.