Schlagwort: Zugriff

  • Google AI Plus startet in Deutschland für unter zehn Euro

    Eine Google AI Plus Abo Infografik

    Nano Banana

    Kurzfassung

    Quellen

    Google führt mit „AI Plus“ für 8,99 Euro pro Monat (Startangebot 3,99 Euro) eine neue Abo-Stufe zwischen der Gratis- und Pro-Version ein. Nutzer erhalten Zugriff auf das leistungsstarke Gemini 3 Pro Modell, Deep Research Funktionen sowie Tools zur Bild- und Videogenerierung. Im Vergleich zum teureren Pro-Abo fehlen die Integration in Google Workspace Apps (Gmail, Docs) und das Punkte-Guthaben für Medien-Tools ist reduziert.

    Google AI Plus Blog Eintrag

    Google führt eine neue Abo-Stufe für seine KI-Dienste in Deutschland ein. Mit „Google AI Plus“ gibt es erstmals einen Mittelweg zwischen der Gratis-Version und dem teuren Premium-Abo, der Zugriff auf leistungsfähigere Modelle bietet. Angriff auf die Mittelklasse Der neue Tarif kostet regulär 8,99 Euro im Monat. Zum Start bietet Google das Abo in den ersten zwei Monaten für jeweils 3,99 Euro an. Nutzer erhalten damit dauerhaften Zugriff auf das leistungsstarke Modell Gemini 3 Pro sowie Deep Research Funktionen. Bislang mussten Anwender für diese Leistungsklasse entweder mit starken Einschränkungen in der Gratis-Version leben oder direkt 21,99 Euro für das Pro-Abo zahlen. Das neue Angebot zielt damit auf Nutzer, denen das Standard-Modell Gemini 3 Flash nicht mehr ausreicht, die aber keine vollwertige Office-Integration benötigen. Anzeige Wo die Grenzen liegen Der günstigere Preis geht mit klaren Einschränkungen gegenüber der Pro-Variante einher. Während das teurere Abo unbegrenzten Zugriff auf diverse Funktionen verspricht, arbeitet Google hier mit einem Punkte-System. Für die Videogenerierung in Flow und Whisk stehen monatlich 200 KI-Guthabenpunkte zur Verfügung. Im Vergleich dazu bietet das „Google AI Pro“-Abo 1.000 Punkte und das Ultra-Abo sogar 25.000 Punkte für rechenintensive Aufgaben. Ein weiterer wichtiger Unterschied ist das Fehlen der Integration in Gmail, Docs und andere Workspace-Apps. Wer KI direkt in seinen Dokumenten nutzen oder E-Mails zusammenfassen lassen möchte, muss weiterhin zum teureren Tarif greifen. + Quelle: Google Der Vergleich zum Wettbewerb Das Plus-Abo enthält auch Zugriff auf neuere Kreativ-Tools. Die Bildgenerierung mit Nano Banana Pro ist ebenso enthalten wie ein eingeschränkter Zugriff auf den Videogenerator Veo 3.1. In der kostenlosen Version sind Nutzer primär auf Gemini 3 Flash beschränkt und erhalten nur zeitweise Zugriff auf die Pro-Modelle. Google reagiert mit diesem Schritt auf die wachsende Konkurrenz durch „Light“-Abos anderer Anbieter wie OpenAI, die ähnliche Zwischenstufen testen. Für Gelegenheitsnutzer bleibt die kostenlose Variante attraktiv. Wer jedoch regelmäßig komplexe Analysen fährt oder Deep Research nutzt, findet nun für unter 10 Euro eine valide Option.

  • Mistral Vibe 2.0 bringt KI-Agenten direkt in das Terminal

    Ein Mistral Vibe Coding Bot

    Nano Banana

    Kurzfassung

    Quellen

    Mistral Vibe 2.0 verlagert die KI-gestützte Softwareentwicklung direkt in das Terminal und integriert sich tief in bestehende Dateisysteme. Neue Funktionen wie spezialisierte Sub-Agenten und Slash-Commands ermöglichen effizientere Workflows für Tests und Refactoring. Ein interaktives Klärungssystem minimiert Fehler, indem die KI bei Unklarheiten verschiedene Lösungswege zur Auswahl stellt. Der Zugriff auf den vollen Funktionsumfang und das neue Devstral 2 Modell erfolgt primär über kostenpflichtige Pro- und Team-Pläne.

    Mistral Blog mit allen Informationen

    VentureBeat – A European AI challenger goes after GitHub Copilot – Mistral launches Vibe 2.0

    Mistral AI News – Terminally online Mistral Vibe

    AI Tech Suite – Mistral Vibe 2.0 Agent Orchestrates Multi-File Coding

    Mistral AI veröffentlicht mit Vibe 2.0 eine umfangreiche Aktualisierung seines Terminal-basierten Coding-Agenten. Die neue Version integriert spezialisierte Sub-Agenten und Slash-Commands direkt in die Kommandozeile, um komplexe Entwickler-Workflows effizienter zu gestalten und die Abhängigkeit von grafischen Oberflächen zu reduzieren. Kommandozeile statt Code-Editor Die Arbeit mit künstlicher Intelligenz in der Softwareentwicklung verlagert sich oft auf Plugins in der Entwicklungsumgebung. Mistral wählt mit Vibe 2.0 bewusst einen anderen Weg und fokussiert sich auf das Terminal. Das Tool klinkt sich direkt in die Shell ein. Es interagiert nativ mit der Dateistruktur und der Versionsverwaltung eines Projekts. Entwickler müssen ihre gewohnte Befehlszeilenumgebung nicht verlassen. Dieser Ansatz ermöglicht komplexe Operationen über mehrere Dateien hinweg. Während klassische Chat-Assistenten oft nur einzelne Code-Schnipsel sehen, erfasst Vibe den Kontext des gesamten Repositories. Das System führt Änderungen selbstständig aus und wartet auf Bestätigung.

    Struktur durch Sub-Agenten Eine zentrale Neuerung in Version 2.0 ist die Einführung von konfigurierbaren Sub-Agenten. Diese spezialisierten Einheiten übernehmen klar definierte Aufgabenbereiche innerhalb eines Projekts. Ein Agent kann beispielsweise exklusiv für das Schreiben von Unit-Tests konfiguriert werden. Ein anderer Agent kümmert sich um die Aktualisierung der Dokumentation oder das Refactoring von Legacy-Code. Die Steuerung dieser Helfer erfolgt effizient über neue „Slash-Commands“. Eingaben wie /fix oder /test rufen sofort die passende Routine ab. Das spart Zeit und reduziert die Notwendigkeit für lange, erklärende Prompts bei Routineaufgaben. Anzeige Interaktion minimiert Fehler Sprachmodelle neigen dazu, bei unklaren Anweisungen Annahmen zu treffen. Dies führt im Coding-Alltag oft zu fehlerhaften oder unerwünschten Implementierungen. Vibe 2.0 setzt hier auf ein interaktives Klärungssystem. Wenn eine Anforderung mehrdeutig ist, bietet der Agent verschiedene Lösungswege als Auswahlmenü an. Der Entwickler entscheidet per Tastendruck, welche Strategie verfolgt wird. Diese „Multi-Choice Clarification“ erhöht die Präzision der Ergebnisse deutlich. Das System führt erst dann Code-Änderungen durch, wenn der gewünschte Pfad vom Nutzer bestätigt wurde. Modell-Updates und Preisgestaltung Technisch basiert Vibe 2.0 auf den neuesten Modellen von Mistral, darunter das aktualisierte Devstral 2. Dieses Modell ist speziell auf Code-Verständnis und logische Schlussfolgerungen optimiert. Der Zugriff auf den vollen Funktionsumfang von Vibe 2.0 ist an die kostenpflichtigen „Le Chat Pro“ und „Team“ Pläne gekoppelt. Für intensive Nutzung bietet Mistral zusätzlich Pay-as-you-go Optionen an. Devstral 2 selbst wandert als reines Modell stärker in den bezahlten API-Bereich. Lediglich im „Experiment“-Plan bleibt der Zugriff für Testzwecke vorerst kostenfrei. Enterprise-Kunden erhalten zudem Zugriff auf erweiterte Funktionen wie Fine-Tuning auf die eigene Codebasis.

  • Claude Cowork: Warum dein neuer KI-Kollege dich ausspioniert

    Ein Taschendieb bestiehlt Anthropic Claude Cowork

    Nano Banana

    Kurzfassung

    Quellen

    Eine kritische Sicherheitslücke in Anthropics Desktop-Agent „Claude Cowork“ ermöglicht Hackern den Zugriff auf das lokale Dateisystem. Durch „Indirect Prompt Injection“ in manipulierten Dateien (z.B. PDFs) führt die KI unbemerkt Befehle aus und sendet Daten an Dritte. Da das Sprachmodell legitime Nutzerbefehle nicht von bösartigen Inhalten in Dateien unterscheiden kann, ist eine technische Lösung schwierig. Experten raten dringend dazu, den Zugriff des Agenten auf sensible Ordner zu beschränken oder ihn nur in isolierten Umgebungen zu nutzen.

    t3n – Sicherheitslücke in Claude Cowork: So verschaffen sich Hacker unbemerkt Zugriff

    VentureBeat – Anthropic launches Cowork, a Claude Desktop agent that works in your files

    Unite.ai – Anthropic macht Claude Code Power mit Cowork für alle zugänglich

    Ad-hoc-news – Anthropics Claude Cowork: KI-Assistent wird zum aktiven Datei-Manager

    Finanznachrichten.de – Sicherheitslücke in Claude Cowork: So verschaffen sich Hacker unbemerkt Zugriff

    Anthropics neuer Desktop-Agent Claude Cowork weist eine kritische Schwachstelle auf, die Hackern den unbemerkten Zugriff auf lokale Dateisysteme ermöglicht. Für Nutzer bedeutet dies ein akutes Risiko, da vertrauliche Dokumente ohne direkte Interaktion autonom exfiltriert werden können. Der Traum vom autonomen Dateimanager Mit der Einführung von Claude Cowork versprach Anthropic eine Revolution der digitalen Büroarbeit. Der Desktop-Agent sollte als tief integrierter Assistent fungieren, der selbstständig Ordnerstrukturen bereinigt, Dokumente sortiert und Inhalte analysiert – ganz ohne Programmierkenntnisse des Anwenders. Die Vision war ein KI-Kollege, der Zugriff auf das lokale Dateisystem erhält, um administrative Lasten zu übernehmen. Doch genau diese weitreichenden Befugnisse werden dem System nun zum Verhängnis. Sicherheitsforscher haben nur wenige Tage nach dem Start eine gravierende Lücke in der Architektur des Agenten entdeckt. Das Problem liegt nicht in der Intelligenz des Modells, sondern in dessen Vertrauensseligkeit gegenüber verarbeiteten Daten. Claude Cowork behandelt Inhalte aus Nutzerdateien oft wie direkte Handlungsanweisungen. Dies öffnet Tür und Tor für sogenannte „Indirect Prompt Injections“. Dabei platzieren Angreifer versteckte Befehle in scheinbar harmlosen Dokumenten, die der Agent bei seiner täglichen Arbeit scannt und anschließend ausführt. Anzeige Einfallstor Dateisystem Die Angriffsmethode ist so simpel wie effektiv. Ein Hacker muss lediglich eine präparierte Datei – etwa ein PDF mit unsichtbarem Text oder eine Notiz im Projektordner – auf dem Rechner des Opfers platzieren. Sobald Claude Cowork diesen Ordner indexiert oder bearbeitet, liest die KI die darin enthaltenen Instruktionen. Der Nutzer bekommt davon nichts mit, da der Prozess im Hintergrund abläuft. Sicherheitsexperte Simon Willison demonstrierte, wie der Agent durch solche manipulierten Dateien dazu gebracht werden kann, sensible Informationen aus anderen Dokumenten zusammenzutragen. Die KI unterscheidet dabei nicht zwischen dem legitimen Befehl des Eigentümers und dem bösartigen Befehl innerhalb der Datei. Für das Sprachmodell sind beides valide Inputs, die priorisiert abgearbeitet werden. Besonders in Unternehmen, in denen Dateien oft geteilt und heruntergeladen werden, potenziert sich dieses Risiko enorm. Unsichtbarer Datenabfluss Das Schreckensszenario endet nicht beim bloßen Auslesen der Daten. Die eigentliche Gefahr besteht in der „Data Exfiltration“, also dem unbemerkten Abfluss von Informationen an Dritte. Die manipulierten Anweisungen können Claude Cowork dazu zwingen, die gesammelten Daten an einen externen Server zu senden. Da der Agent über eine aktive Internetverbindung verfügt und für die Kommunikation mit den Anthropic-Servern ausgelegt ist, wird dieser Datentransfer von herkömmlichen Firewalls oft nicht blockiert. Die Sicherheitsmechanismen, die Anthropic implementiert hat, greifen in diesem Szenario zu kurz. Zwar gibt es Filter gegen offensichtliche Angriffe, doch die Komplexität der natürlichen Sprache ermöglicht es Angreifern, diese Barrieren kreativ zu umgehen. Das System führt die Exfiltration aus, im Glauben, eine legitime Aufgabe zu erfüllen, etwa das „Zusammenfassen und Sichern“ von Projektstatusberichten an eine externe URL. Reaktion und Risikoeinschätzung Anthropic reagierte bereits mit einer Aktualisierung der Support-Dokumente zur sicheren Nutzung, doch eine technische Schließung der Lücke gestaltet sich schwierig. Es handelt sich um ein systemimmanentes Problem moderner LLM-Agenten (Large Language Models), die Zugriff auf externe Werkzeuge und das Internet haben. Solange das Modell nicht zweifelsfrei zwischen Systembefehl und Dateninhalt unterscheiden kann, bleibt das Restrisiko bestehen. Unternehmen und Privatanwendern wird aktuell geraten, Claude Cowork nur in isolierten Umgebungen zu nutzen oder den Zugriff auf sensible Verzeichnisse strikt zu limitieren. Der Vorfall zeigt deutlich, dass die Autonomie von KI-Agenten auf dem Desktop einen Preis hat: Wer einem Assistenten den Generalschlüssel zu seinen Daten gibt, muss sicherstellen, dass dieser nicht versehentlich dem Einbrecher die Tür öffnet.

  • Gemini Personal Intelligence: Google spielt jetzt seinen größten Trumpf aus

    Eine Frau mit 4 Aufgaben

    Nano Banana

    Kurzfassung

    Quellen

    Google startet die Beta-Funktion „Personal Intelligence“, die Gemini Zugriff auf Gmail, Google Photos und den YouTube-Verlauf gewährt. Der KI-Assistent kann dadurch persönliche Nutzerdaten proaktiv auswerten, um individuelle Fragen zu beantworten und Aufgaben zu automatisieren. Diese tiefe Integration in das Google-Ökosystem verschafft dem Konzern einen strategischen Vorteil gegenüber Konkurrenten wie ChatGPT. Aus Datenschutzgründen ist die Funktion standardmäßig deaktiviert und erfordert eine explizite Zustimmung des Nutzers.

    Google Official Blog – Personal Intelligence: Connecting Gemini to Google apps

    TechCrunch – Gemini’s new beta feature provides proactive responses

    The Verge – Google’s Gemini AI will use what it knows about you

    9to5Google – Gemini rolling out ‚Personal Intelligence‘ beta

    The Decoder – Personal Intelligence: Google spielt bei Gemini jetzt seinen großen Datenvorteil aus

    Google integriert seinen KI-Assistenten Gemini tief in das eigene Ökosystem und ermöglicht den Zugriff auf Gmail, Google Photos und den Suchverlauf. Diese als „Personal Intelligence“ bezeichnete Funktion markiert den entscheidenden Schritt vom reinen Chatbot zum echten persönlichen Assistenten. Der strategische Vorteil der Datenhoheit Google spielt nun seinen größten strategischen Vorteil gegenüber Konkurrenten wie OpenAI und Anthropic aus: den direkten Zugriff auf Milliarden von Nutzerkonten. Die heute startende Beta-Funktion verknüpft Gemini mit zentralen Google-Diensten. Anstatt nur auf antrainiertes Weltwissen zuzugreifen, kontextualisiert die KI Anfragen mit persönlichen Informationen des Anwenders. Die KI durchsucht auf Wunsch E-Mails nach spezifischen Rechnungen, findet Fotos vom letzten Urlaub anhand inhaltlicher Beschreibungen oder analysiert den YouTube-Verlauf für passende Empfehlungen. Nutzer erhalten dadurch proaktive Antworten, die auf ihre individuelle Lebenssituation zugeschnitten sind. Das System versteht Zusammenhänge zwischen verschiedenen Apps, ohne dass der Anwender diese explizit erklären muss. Anzeige Proaktive Assistenz statt passiver Suche Bisherige KI-Modelle warteten passiv auf Eingaben, doch Personal Intelligence soll antizipieren, was der Nutzer benötigt. Erkennt Gemini beispielsweise eine Buchungsbestätigung für einen Flug in Gmail, kann es proaktiv den passenden Kalendereintrag prüfen und die Route zum Flughafen via Google Maps berechnen. Diese tiefe Integration war bisher das theoretische Versprechen von Assistenten wie Siri oder Alexa, wurde aber in dieser Komplexität nie zufriedenstellend eingelöst. Die Technologie basiert auf der Analyse von Mustern innerhalb der Google-Dienste. Wer regelmäßig nach bestimmten Themen sucht und entsprechende Videos auf YouTube schaut, erhält ungefragt, aber kontextsensitiv, Vorschläge für weiterführende Inhalte oder Produkte. Der Assistent agiert somit als kuratierender Filter für die massive Datenflut des digitalen Alltags und nimmt dem Nutzer Recherchearbeit ab. Angriff auf Apple und Datenschutz-Bedenken Der Schritt setzt die Konkurrenz unter massiven Zugzwang, da ChatGPT ähnliche Funktionen aufgrund fehlender eigener Plattform-Apps nur schwer replizieren kann. Apple verfolgt mit „Apple Intelligence“ zwar einen ähnlichen Ansatz, ist jedoch stärker auf die lokale Verarbeitung auf dem Gerät beschränkt. Google verlagert die Intelligenz hingegen teilweise in die Cloud und nutzt die jahrzehntelange Historie der Nutzerkonten, um einen Vorsprung in der Antwortqualität zu erzielen. Datenschützer dürften die Entwicklung jedoch kritisch beobachten, da hierbei hochsensible Informationen verarbeitet werden. Google betont, dass die Funktion standardmäßig deaktiviert ist und Nutzer dem Zugriff explizit zustimmen müssen („Opt-in“). Die Verarbeitung erfolgt laut Konzernangaben unter strengen Sicherheitsvorkehrungen, um ein Abfließen privater Daten in das allgemeine Training der öffentlichen KI-Modelle zu verhindern.

  • Eine Million Chips für Claude

    Eine Grafik von Anthrophic

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic sichert sich bis 2026 Zugriff auf bis zu eine Million Google TPU KI-Chips. Der Multi-Milliarden-Deal soll die Entwicklung der KI „Claude“ vorantreiben und die Kundennachfrage decken. Trotz der Google-Partnerschaft bleibt Amazon (AWS) der Haupt-Cloud-Anbieter für Anthropic. Der Deal zeigt das massive Wettrüsten um Rechenleistung zwischen den großen KI-Akteuren.

    Anthropic – Offizielle Mitteilung zum Google Cloud TPU-Deal Google – Projektvorstellung TPUs und Cloud-Partnerschaft mit Anthropic CNBC – „Anthropic signs ‘multi-billion dollar’ deal to use Google’s cloud chips for AI models“ Bloomberg – „Anthropic Expands Partnership with Google for AI Chip Access“ The Decoder – „Anthropic will bis zu eine Million Google-TPUs nutzen“

    Anthropic sichert sich massive Rechenleistung für seine KI Claude. Das Unternehmen erhält bis 2026 Zugriff auf bis zu eine Million spezialisierter Google-KI-Chips. Diese Partnerschaft im Wert von mehreren Milliarden Dollar soll die Entwicklung zukünftiger KI-Modelle absichern. Der Pakt um die Rechenleistung Google stellt Anthropic seine modernsten Tensor Processing Units (TPUs) bereit. Diese Chips sind speziell für das Training großer Sprachmodelle optimiert. Anthropic will die Hardware nutzen, um die nächste Generation seines Konkurrenten zu ChatGPT, Claude, zu entwickeln. Der Zugriff auf die bis zu eine Million Einheiten erfolgt schrittweise bis zum Jahr 2026. Der Deal wird auf einen Wert von mehreren zehn Milliarden US-Dollar geschätzt. Es ist die bisher größte bekannte Einzelvereinbarung für den Zugriff auf Cloud-Chips. Anthropic erhält damit eine gewaltige Rechenkapazität, um die steigende Nachfrage von Unternehmenskunden zu bedienen und komplexe KI-Systeme zu trainieren. Ein riskantes Spiel mit den Wolken Die Vereinbarung folgt einem bekannten Muster in der KI-Branche. Cloud-Anbieter wie Google investieren Milliarden in KI-Startups. Im Gegenzug verpflichten sich diese Startups, das Geld direkt wieder für die Cloud-Dienste und die Rechenleistung des Investors auszugeben. Pikant an der Situation: Amazons AWS bleibt weiterhin der Haupt-Cloud-Partner von Anthropic. Amazon hatte zuvor ebenfalls Milliarden investiert, um Anthropic an seine eigenen KI-Chips zu binden. Anthropic balanciert seine Abhängigkeiten nun geschickt zwischen den beiden Tech-Giganten aus, um sich den Zugriff auf die knappe Hardware zu sichern. Diese Strategie ist nicht ohne Risiko. Kritiker weisen auf das spekulative Modell hin. Die KI-Firmen investieren Unsummen in die Infrastruktur, bevor die Einnahmen diese Ausgaben überhaupt rechtfertigen können. Das Wettrüsten um die KI-Dominanz Der Google-Deal zementiert Anthropics Position als einer der drei großen Spieler im Rennen um die stärkste KI. Das Unternehmen steht in direktem Wettbewerb mit OpenAI, das eng an Microsoft gebunden ist, und Google selbst. Die Branche befindet sich in einem intensiven Wettrüsten um Rechenleistung. Ohne den Zugriff auf Hunderttausende dieser Spezialchips ist die Entwicklung von Spitzenmodellen kaum noch möglich. Diese massive Investition zeigt, wie kapitalintensiv die Entwicklung von künstlicher Intelligenz geworden ist. Der Erfolg hängt nicht mehr nur von den Algorithmen ab, sondern zunehmend vom reinen Zugang zu Hardware.

  • OpenAI startet „Developer Mode“ für ChatGPT mit vollem Zugriff auf MCP-Tools

    OpenAI hat den „Developer Mode“ für ChatGPT gestartet. Das neue Betafeature richtet sich an Plus- und Pro-Nutzer im Web und bietet vollen Zugriff auf MCP-Tools.

    Der Artikel OpenAI startet „Developer Mode“ für ChatGPT mit vollem Zugriff auf MCP-Tools erschien zuerst auf THE-DECODER.de.