Schlagwort: Modell

  • MiniMax M2.7: Chinesisches KI-Modell soll sich teilweise selbst weiterentwickelt haben

    Teaser-Folie MiniMax M2.7: Aufbau komplexer Agentenhüllen für anspruchsvolle Produktivitätsaufgaben.

    Das chinesische KI-Unternehmen MiniMax hat mit M2.7 ein Modell veröffentlicht, das aktiv an seiner eigenen Entwicklung beteiligt gewesen sein soll. In autonomen Optimierungsschleifen verbesserte es seinen eigenen Trainingsprozess und erzielte dabei teils konkurrenzfähige Benchmark-Ergebnisse.

    Der Artikel MiniMax M2.7: Chinesisches KI-Modell soll sich teilweise selbst weiterentwickelt haben erschien zuerst auf The Decoder.

  • Bildgenerator MAI-Image-2: Microsoft fordert Google heraus

    Mehrere Bilder von MAI-Image-2

    Nano Banana

    Kurzfassung

    Quellen

    Microsoft hat den neuen KI-Bildgenerator MAI-Image-2 veröffentlicht.
    Das System erreicht im weltweiten Benchmark den fünften Platz und schließt zur Konkurrenz auf.
    Besondere Stärken liegen im Fotorealismus und der zuverlässigen Darstellung von Texten in Bildern.
    Nutzer testen das Modell ab sofort im MAI Playground, bevor die Integration in Copilot folgt.

    Microsoft AI: Introducing MAI-Image-2

    Microsoft veröffentlicht mit MAI-Image-2 einen neuen KI-Bildgenerator. Das hauseigene Superintelligenz-Team entwickelte das System. Es schließt im weltweiten Vergleich überraschend zu den aktuellen Marktführern Google und OpenAI auf. Platzierung im weltweiten Benchmark Im bekannten „Text-to-Image Arena“ Benchmark erreicht MAI-Image-2 aus dem Stand den fünften Platz. Das neue KI-Modell von Microsoft erzielt dabei eine Gesamtpunktzahl von 1189. Damit positioniert sich das System direkt hinter der aktuellen Spitze. Ein genauer Blick auf die Grafik zeigt jedoch die tatsächliche Marktsituation. Lediglich zwei Unternehmen besetzen die vorderen Ränge. OpenAI belegt mit dem System GPT-Image-1.5 den zweiten Rang und erreicht 1244 Punkte. Google dominiert den restlichen Spitzenbereich, da das Modell „Nano Banana“ gleich drei Positionen einnimmt. Die Version „Nano Banana 2“ führt das Feld an, während die Pro-Version die Plätze drei und vier belegt. Zieht man diese Mehrfachplatzierungen der Modellfamilien ab, steht Microsoft faktisch auf dem dritten Platz der besten Anbieter. + Quelle: Microsoft

    Foto realistisch

    Copy

    A glacier wall towering like a cathedral interior, deep blue ice with light refracting through layers, tiny human figure at base for scale, cinematic, cold mist in air, hyper-real detail

    Prompt vollständig anzeigen

    Fotorealismus und präzise Typografie Technisch legt Microsoft den Fokus bei der neuen Version auf eine hohe Detailtreue. Nutzer steuern die Ausgabe der Bilder dabei wie gewohnt über einen kurzen Text-Prompt. + Quelle: Microsoft Das System erzeugt laut den Entwicklern besonders realistische Fotos. Das Modell berechnet natürliche Lichtverhältnisse und stellt Hauttöne bei Porträts akkurat dar. Viele generative Modelle haben Probleme mit der fehlerfreien Darstellung von Schriftzeichen in Bildern. MAI-Image-2 adressiert diese Schwachstelle und integriert Texte zuverlässig in die generierten Motive. Das erleichtert die Erstellung von Postern, Infografiken oder Diagrammen. Aufwändige Korrekturen in externen Programmen entfallen dadurch. Testphase für erste Anwender Interessierte Anwender probieren MAI-Image-2 ab sofort im MAI Playground aus. Dort sammelt Microsoft direktes Feedback für das weitere Fine-Tuning des Modells. In naher Zukunft integriert der Konzern das Modell fest in etablierte Dienste wie Copilot oder den Bing Image Creator. Entwickler erhalten über die Plattform Microsoft Foundry zudem einen direkten Zugriff auf die API. So binden externe Firmen den Bildgenerator nahtlos in eigene Anwendungen ein. Über die genauen technischen Details der zugrundeliegenden Architektur schweigt Microsoft bislang. Der Konzern dokumentiert mit diesem Update sachlich den aktuellen technischen Stand der eigenen Systeme auf dem Markt. Anzeige

  • Bildgenerator MAI-Image-2: Microsoft fordert Google heraus

    Mehrere Bilder von MAI-Image-2

    Nano Banana

    Kurzfassung

    Quellen

    Microsoft hat den neuen KI-Bildgenerator MAI-Image-2 veröffentlicht.
    Das System erreicht im weltweiten Benchmark den fünften Platz und schließt zur Konkurrenz auf.
    Besondere Stärken liegen im Fotorealismus und der zuverlässigen Darstellung von Texten in Bildern.
    Nutzer testen das Modell ab sofort im MAI Playground, bevor die Integration in Copilot folgt.

    Microsoft AI: Introducing MAI-Image-2

    Microsoft veröffentlicht mit MAI-Image-2 einen neuen KI-Bildgenerator. Das hauseigene Superintelligenz-Team entwickelte das System. Es schließt im weltweiten Vergleich überraschend zu den aktuellen Marktführern Google und OpenAI auf. Platzierung im weltweiten Benchmark Im bekannten „Text-to-Image Arena“ Benchmark erreicht MAI-Image-2 aus dem Stand den fünften Platz. Das neue KI-Modell von Microsoft erzielt dabei eine Gesamtpunktzahl von 1189. Damit positioniert sich das System direkt hinter der aktuellen Spitze. Ein genauer Blick auf die Grafik zeigt jedoch die tatsächliche Marktsituation. Lediglich zwei Unternehmen besetzen die vorderen Ränge. OpenAI belegt mit dem System GPT-Image-1.5 den zweiten Rang und erreicht 1244 Punkte. Google dominiert den restlichen Spitzenbereich, da das Modell „Nano Banana“ gleich drei Positionen einnimmt. Die Version „Nano Banana 2“ führt das Feld an, während die Pro-Version die Plätze drei und vier belegt. Zieht man diese Mehrfachplatzierungen der Modellfamilien ab, steht Microsoft faktisch auf dem dritten Platz der besten Anbieter. + Quelle: Microsoft

    Foto realistisch

    Copy

    A glacier wall towering like a cathedral interior, deep blue ice with light refracting through layers, tiny human figure at base for scale, cinematic, cold mist in air, hyper-real detail

    Prompt vollständig anzeigen

    Fotorealismus und präzise Typografie Technisch legt Microsoft den Fokus bei der neuen Version auf eine hohe Detailtreue. Nutzer steuern die Ausgabe der Bilder dabei wie gewohnt über einen kurzen Text-Prompt. + Quelle: Microsoft Das System erzeugt laut den Entwicklern besonders realistische Fotos. Das Modell berechnet natürliche Lichtverhältnisse und stellt Hauttöne bei Porträts akkurat dar. Viele generative Modelle haben Probleme mit der fehlerfreien Darstellung von Schriftzeichen in Bildern. MAI-Image-2 adressiert diese Schwachstelle und integriert Texte zuverlässig in die generierten Motive. Das erleichtert die Erstellung von Postern, Infografiken oder Diagrammen. Aufwändige Korrekturen in externen Programmen entfallen dadurch. Testphase für erste Anwender Interessierte Anwender probieren MAI-Image-2 ab sofort im MAI Playground aus. Dort sammelt Microsoft direktes Feedback für das weitere Fine-Tuning des Modells. In naher Zukunft integriert der Konzern das Modell fest in etablierte Dienste wie Copilot oder den Bing Image Creator. Entwickler erhalten über die Plattform Microsoft Foundry zudem einen direkten Zugriff auf die API. So binden externe Firmen den Bildgenerator nahtlos in eigene Anwendungen ein. Über die genauen technischen Details der zugrundeliegenden Architektur schweigt Microsoft bislang. Der Konzern dokumentiert mit diesem Update sachlich den aktuellen technischen Stand der eigenen Systeme auf dem Markt. Anzeige

  • Mistral AI veröffentlicht Mistral Small 4 als kleinen Open-Weight-Allrounder

    Mistral AI hat mit Mistral Small 4 ein neues Modell veröffentlicht, das schnelle Textantworten, logisches Denken und Bildverarbeitung in einem vereint.

    Der Artikel Mistral AI veröffentlicht Mistral Small 4 als kleinen Open-Weight-Allrounder erschien zuerst auf The Decoder.

  • Neues KI-Modell Mistral Small 4 fordert die Konkurrenz heraus

    Ein französischer Programmierer bedient Mistral Small 4

    Nano Banana

    Kurzfassung

    Quellen

    Mistral AI hat Mistral Small 4 als leistungsstarkes Open-Source-Modell veröffentlicht.
    Die neue Architektur vereint Text-, Bild- und Programmierfähigkeiten in einem einzigen System.
    Nutzer können die Denkzeit für komplexe Logik-Aufgaben dynamisch steuern, was zu sehr effizienten und präzisen Antworten führt.
    Begleitend zum Release wurde eine strategische Partnerschaft mit Nvidia zur Entwicklung weiterer offener Modelle bekanntgegeben.

    Mistral AI – Introducing Mistral Small 4

    Mistral AI hat das neue Sprachmodell Mistral Small 4 veröffentlicht. Die Open-Source-Architektur vereint erstmals Textverständnis, Bildanalyse und komplexe Logik in einem einzigen System und lässt Nutzer die Denkzeit dynamisch steuern. All-in-One: Flexibilität durch konfigurierbares Reasoning Das französische KI-Unternehmen führt mit Mistral Small 4 die Fähigkeiten bisheriger Spezialmodelle zusammen. Anstatt je nach Anwendungsfall zwischen einem schnellen Instruct-Modell, dem multimodalen Pixtral oder dem Programmier-Spezialisten Devstral zu wechseln, erhalten Entwickler nun eine einheitliche Lösung für alle Aufgaben. Eine zentrale Neuerung ist der konfigurierbare Reasoning-Modus. Anwender entscheiden per API-Aufruf direkt im Prompt, ob das Modell sofort antworten oder für komplexe Aufgaben zusätzliche Rechenzeit (Test-Time Compute) aufwenden soll. Braucht ein Nutzer nur eine kurze Übersetzung, reagiert das System direkt. Geht es um tiefgreifende Programmierprobleme, nimmt sich die KI Zeit für interne Denkschritte. Technisch basiert das unter der freien Apache-2.0-Lizenz stehende Modell auf einer sogenannten Mixture-of-Experts-Architektur (MoE). Von den insgesamt 119 Milliarden Parametern aktiviert das System bei der Verarbeitung eines Token lediglich rund 6 Milliarden. Dafür greift es auf 128 spezialisierte Experten-Netzwerke zu, von denen jeweils vier gleichzeitig arbeiten. Dieser gezielte Abruf hält den Speicherbedarf gering und beschleunigt die Textausgabe erheblich. Ein großes Kontextfenster von 256.000 Token erlaubt zudem die Analyse ganzer Buchreihen oder komplexer Bildeingaben in einem einzigen Durchlauf. Anzeige Benchmarks belegen Präzision bei kurzen Antworten In aktuellen Leistungstests zeigt das Modell eine hohe Effizienz, besonders im Verhältnis von Genauigkeit zur Ausgabelänge. Bei anspruchsvollen Benchmarks liefert der Reasoning-Modus deutliche Leistungssprünge. Im Mathematik-Test AIME 2025 steigt der Score durch die zusätzliche Denkzeit von 36 auf starke 84 Punkte. Ähnlich verhält es sich beim Programmier-Benchmark LiveCodeBench, wo der Wert von 32 auf 64 klettert. Besonders im internen LCR-Benchmark punktet Mistral Small 4 mit prägnanten Antworten. Im Reasoning-Modus erreicht das Modell 72 Punkte bei einer durchschnittlichen Ausgabelänge von nur 1.600 Token. Zum Vergleich: Das Konkurrenzmodell GPT-OSS 120B kommt hier bei 2.500 Token auf lediglich 51 Punkte, während das deutlich größere Qwen3.5 122B für seine 84 Punkte fast 5.700 Token benötigt. Mistral Small 4 löst komplexe Aufgaben also oft mit deutlich weniger Kosten. Auch im Vergleich zu den eigenen Vorgängern zeigt sich der technische Fortschritt. Im anspruchsvollen GPQA Diamond Benchmark erzielt die neue Version im Reasoning-Modus 71,2 Punkte und übertrifft damit ältere Modelle wie Mistral Medium 3.1 oder Mistral Large 3 deutlich. Bei visuellen Aufgaben im MMMU-Pro-Test erreicht das Modell sehr gute 60 Punkte. Quelle: Mistral Strategische Partnerschaft für offene KI Parallel zum Release gab Mistral AI die Gründung der NVIDIA Nemotron Coalition bekannt. Als Gründungsmitglied kooperiert das Unternehmen künftig eng mit dem kalifornischen Chipentwickler, um weitere Open-Source-Modelle zu trainieren. Die Partnerschaft kombiniert die Architektur-Expertise der Franzosen mit den enormen Rechenkapazitäten von Nvidia. Das aktuelle Release unterstreicht diesen Ansatz. Entwickler können nun auf ein hochgradig anpassbares System zugreifen, das die schnelle Verarbeitung eines kleinen Modells mit der logischen Tiefe großer Reasoning-Architekturen verbindet.

    Top News
    Acht Tech-Firmen bauen Nvidias nächstes KI-Modell

    Die neue Nemotron-Allianz bündelt das Fachwissen von Unternehmen wie Mistral und Cursor für die nächste Generation offener KI-Systeme.

  • OpenAI macht KI-Modelle immun gegen Hacker

    Ein niedlicher Roboter mit Schutzschild

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI hat mit der IH-Challenge eine neue Trainingsmethode vorgestellt, die Sprachmodelle speziell gegen Prompt Injections und externe Manipulationen absichert.
    Durch eine strenge Befehlshierarchie lernt die KI, Systemanweisungen zu priorisieren, und löst Konflikte mit Nutzer-Prompts in 95 Prozent der Fälle richtig.
    Ein interner Test mit dem Modell GPT-5 Mini-R zeigt, dass die Abwehr gegen Jailbreaks drastisch steigt, während die logischen und mathematischen Fähigkeiten stabil bleiben.
    Gleichzeitig verweigert das trainierte System harmlose Anfragen deutlich seltener, verliert jedoch im direkten Chat-Vergleich minimal an Beliebtheit.

    OpenAI – Instruction Hierarchy Challenge

    OpenAI – The Instruction Hierarchy Paper (PDF)

    OpenAI präsentiert mit der sogenannten „IH-Challenge“ eine neue Trainingsmethode, die Sprachmodelle effektiv vor Manipulationen schützt. Ein interner Testlauf mit dem modifizierten Modell GPT-5 Mini-R zeigt, wie eine strenge Befehlshierarchie bösartige Eingaben blockiert, ohne die Leistungsfähigkeit im Alltag zu beeinträchtigen. Versteckte Befehle blockieren Sprachmodelle sind bei der Anbindung an das Internet oft anfällig für sogenannte Prompt Injections. Angreifer verstecken dabei unsichtbare Befehle in fremden Texten oder auf Webseiten. Liest die KI diese Daten ein, überschreiben die bösartigen Befehle die eigentlichen Anweisungen der Programmierer. + Quelle: OpenAI Ein typisches Szenario zeigt sich bei der Nutzung von Kalender-Schnittstellen. Sucht das Modell im Auftrag des Nutzers nach dem nächsten Termin, liefert ein manipulierter Kalendereintrag plötzlich den Text „Zugriff gewährt“ zurück. Normale Modelle übernehmen diesen Fremdtext blind und geben ihn aus. Ein mit der neuen Methode trainiertes System erkennt den Betrugsversuch hingegen sofort. Es blockiert die fehlerhafte Anweisung und hält sich strikt an das reguläre Format für Termine. Die neue Hierarchie der Anweisungen Der hohe Schutz basiert auf dem neuen Trainingsdatensatz der IH-Challenge. Dieses Prinzip bringt der KI von Grund auf bei, welche Befehle absoluten Vorrang haben. Systemvorgaben der Entwickler stehen dabei immer an oberster Stelle. Nutzer-Prompts oder Daten aus externen Quellen ordnet das Modell in der Priorität deutlich tiefer ein. Konflikte zwischen Entwickler-Regeln und Nutzer-Eingaben löst das interne Testmodell GPT-5 Mini-R nun in 95 Prozent der Fälle korrekt. Das entspricht einer starken Verbesserung von 12 Prozentpunkten im Vergleich zum unmodifizierten Basismodell. Anzeige Starke Abwehr gegen Identitätsdiebstahl Die internen Sicherheitstests belegen klare Fortschritte bei der Abwehr von gezielten Angriffen. Besonders bei Versuchen, das Modell zur Annahme einer falschen Identität zu zwingen („Impersonation“), steigt der Robustheits-Wert enorm an. Er springt von einem sehr anfälligen Wert von 0,23 auf sichere 0,90. Auch bei manuellen Angriffen durch Sicherheitsexperten zeigt sich das Testmodell widerstandsfähig. Beim menschlichen Red-Teaming klettert der Wert von 0,73 auf 0,90. Automatisierte Attacken wehrt das System mit einem Score von 0,97 nahezu perfekt ab. + Quelle: OpenAI Sicherheit auf höchstem Niveau In fast allen kritischen Sicherheitskategorien erreicht das System nun die volle Punktzahl von 1,00. Dazu gehören heikle Bereiche wie Hassrede, illegale Inhalte, Gewalt und Biologie. Das reguläre Modell lag hier zuvor noch zwischen 0,91 und 0,98. Ein bekanntes Problem stark gesicherter Modelle ist häufig eine gewisse Übervorsichtigkeit. Oft verweigern sie die Antwort auf völlig harmlose Fragen. Dieses sogenannte Overrefusal konnte OpenAI mit der neuen Trainingsmethode jedoch deutlich reduzieren. Bei der entsprechenden Metrik für fälschliche Verweigerungen steigt der Wert von 0,79 auf den Bestwert von 1,00. + Quelle: OpenAI Stabile Logik mit leichten Kompromissen Die allgemeine Intelligenz der KI leidet kaum unter den neuen, strengen Sicherheitsvorgaben. Im komplexen GPQA-Diamond-Test hält das Modell seinen hohen Wert von 0,83. Bei mathematischen Aufgaben im AIME 2024 Benchmark gibt es sogar eine minimale Steigerung von 0,93 auf 0,94. Nutzer müssen lediglich bei der allgemeinen Beliebtheit der Antworten kleine Abstriche machen. Die direkte Gewinnrate im Chat-Vergleich sinkt leicht von 0,71 auf 0,66. Der allgemeine Preference Score fällt von 0,46 auf 0,40. Das Experiment zeigt insgesamt, dass eine hohe Sicherheit bei Sprachmodellen ohne spürbare Leistungseinbußen in der Logik realisierbar ist. + Quelle: OpenAI

  • OpenAI startet KI-Modelle GPT-5.4 Thinking und Pro: Coding, Reasoning und Computer Use in einem Modell

    OpenAI stellt mit GPT-5.4 sein bislang leistungsfähigstes Modell vor. Es vereint erstmals Coding, Computerbedienung und Reasoning in einem einzigen Modell.

    Der Artikel OpenAI startet KI-Modelle GPT-5.4 Thinking und Pro: Coding, Reasoning und Computer Use in einem Modell erschien zuerst auf The Decoder.

  • OpenAI veröffentlicht GPT-5.3 Instant für flüssigere Alltagsgespräche und bessere Suche

    OpenAI hat GPT-5.3 Instant veröffentlicht – das Modell soll flüssiger antworten und weniger halluzinieren. Doch die System-Card zeigt: Bei einigen Sicherheitskategorien schneidet es schlechter ab als der Vorgänger.

    Der Artikel OpenAI veröffentlicht GPT-5.3 Instant für flüssigere Alltagsgespräche und bessere Suche erschien zuerst auf The Decoder.

  • Google Deepmind veröffentlicht Gemini 3.1 Flash-Lite als schnellstes Modell der Reihe

    Google Deepmind hat mit Gemini 3.1 Flash-Lite eine Vorschau auf das schnellste und günstigste Modell der Gemini-3-Reihe veröffentlicht. Es ist leistungsfähiger, aber auch viel teurer als das Vorgängermodell.

    Der Artikel Google Deepmind veröffentlicht Gemini 3.1 Flash-Lite als schnellstes Modell der Reihe erschien zuerst auf The Decoder.

  • Googles neues Sprachmodell deklassiert die Konkurrenz

    Ein Roboter zeigt Gemini 3.1 Pro

    Nano Banana

    Kurzfassung

    Quellen

    Google hat mit Gemini 3.1 Pro ein leistungsstarkes Sprachmodell für komplexe Logik- und Programmieraufgaben veröffentlicht.
    Das Update übertrifft in aktuellen Benchmarks sowohl seinen direkten Vorgänger als auch Modelle der Konkurrenz wie OpenAI und Anthropic.
    Besonders bei der abstrakten Problemlösung und der autonomen Code-Generierung zeigt die KI massive Verbesserungen.
    Die Vorschauversion ist ab sofort für Entwickler, Unternehmen und zahlende Privatnutzer mit Google AI Pro oder Ultra zugänglich.

    Google Blog: Gemini 3.1 Pro: A smarter model for your most complex tasks

    Google stellt mit Gemini 3.1 Pro ein überarbeitetes KI-Sprachmodell für anspruchsvolle Logik- und Programmieraufgaben vor. Das ab sofort verfügbare Update löst komplexe Probleme deutlich präziser als der Vorgänger und schlägt in den meisten Benchmarks auch die Konkurrenz von OpenAI und Anthropic. Fokus auf abstrakte Problemlösung Google positioniert das Modell gezielt für komplexe Anwendungsfälle. Die Entwickler haben die Fähigkeit der Software, eigenständige logische Schlüsse zu ziehen, tiefgreifend überarbeitet. Das Sprachmodell verarbeitet nun umfangreiche Datensätze strukturierter und setzt kreative Vorgaben direkter in funktionierenden Programmcode um. Als Beispiel nennt der Konzern die Aufgabe, die atmosphärische Stimmung eines Romans in das Design einer modernen Web-Oberfläche zu übersetzen – eine Anforderung, die das Modell nun laut Google ohne mühsame Zwischenschritte bewältigt. Die neue Architektur liefert zudem die technische Basis für das erst kürzlich vorgestellte Modell „Gemini 3 Deep Think“. Während sich dieser spezialisierte Ableger primär auf die wissenschaftliche Forschung konzentriert, integriert Google die grundlegenden Verbesserungen von Gemini 3.1 Pro nun in seine breiter aufgestellten Endkunden- und Entwicklerprodukte. Anzeige Leistungssprung in den Benchmarks Die technischen Fortschritte spiegeln sich deutlich in aktuellen Leistungstests wider. Beim anspruchsvollen Benchmark „ARC-AGI-2“, der die Fähigkeit zur Lösung völlig neuer Logikmuster bewertet, erreicht Gemini 3.1 Pro einen Wert von 77,1 Prozent. Damit verdoppelt das Modell das Ergebnis des Vorgängers Gemini 3 Pro (31,1 Prozent) und verweist Konkurrenten wie Opus 4.6 (68,8 Prozent) sowie GPT-5.2 (52,9 Prozent) auf die hinteren Plätze. Ähnlich dominant zeigt sich die KI beim Test „Humanity’s Last Exam“ für akademisches Denken, wo sie ohne zusätzliche Hilfsmittel 44,4 Prozent erzielt und damit sowohl das eigene Vorgängermodell als auch die Top-Modelle der Mitbewerber übertrifft. Auch bei der Code-Generierung und der autonomen Websuche verzeichnet Google messbare Zuwächse. Im Bereich des kompetitiven Programmierens („LiveCodeBench Pro“) steigert sich Gemini 3.1 Pro auf ein Elo-Rating von 2887 und lässt GPT-5.2 (2393) deutlich hinter sich. Bei autonomen Suchaufgaben („BrowseComp“) erreicht das neue Modell 85,9 Prozent und schlägt Opus 4.6 (84,0 Prozent) knapp. Lediglich beim „SWE-Bench Verified“ für agentenbasiertes Programmieren ordnet sich die Google-KI mit 80,6 Prozent minimal hinter Opus 4.6 (80,8 Prozent) ein, verbessert sich aber spürbar gegenüber der Version 3 Pro. + Quelle: Google Verfügbarkeit und Zielgruppen Entwickler greifen ab sofort über das Google AI Studio und „Google Antigravity auf die 3.1er Version zu. Für den Einsatz im professionellen Umfeld steht das Modell in Vertex AI sowie Gemini Enterprise bereit. Privatnutzer erhalten ebenfalls Zugang, sofern sie ein kostenpflichtiges Abonnement besitzen. Gemini 3.1 Pro wird aktuell mit höheren Nutzungslimits in der Gemini-App sowie in NotebookLM für Kunden der Tarife Google AI Pro und Ultra ausgerollt.