Perplexity Agent API: Ein Zugang für alle KI-Modelle

Ein Perplexity Bild über eine API

Nano Banana

Kurzfassung

Quellen

Perplexity hat die neue Agent API veröffentlicht, eine einheitliche Schnittstelle für die KI-Entwicklung.
Entwickler erhalten darüber zentralen Zugriff auf führende Modelle von OpenAI, Google, Anthropic und xAI.
Die Sprachmodelle werden direkt mit der Perplexity-Websuche und Funktionen zum URL-Abruf verknüpft.
Vorgefertigte Presets erleichtern die Konfiguration und beschleunigen den Bau autonomer Software-Agenten.

Perplexity Blog – Agent API: A managed runtime for agentic workflows

Perplexity Docs – Agent API Quickstart

Perplexity bietet Entwicklern mit der neuen Agent API einen zentralen Zugang zu den führenden Sprachmodellen des Marktes. Die Schnittstelle verknüpft Systeme von OpenAI, Anthropic und Google nativ mit der hauseigenen Echtzeit-Internetsuche. Eine API für alle großen Modelle Für die Entwicklung von KI-Anwendungen war bisher oft die Verwaltung diverser Schnittstellen und Accounts notwendig. Die Agent API löst dieses Problem. Sie bündelt den Zugriff auf Modelle wie z.B. GPT-5.4, Claude 4.6 und Gemini 3.1 Pro. Entwickler steuern all diese Systeme ab sofort über eine einzige Infrastruktur. Der Wechsel zwischen einem Google-Modell und einem OpenAI-Modell erfordert im Code nur noch die Anpassung weniger Zeichen. Zudem reicht das Unternehmen die originalen Token-Kosten der externen Anbieter ohne eigenen Aufschlag weiter. Nutzer zahlen somit denselben Preis, als würden sie die Modelle direkt beim jeweiligen Entwicklerstudio abrufen. Anzeige Verwaltete Laufzeitumgebung für Agenten Der technische Fokus der Neuerung liegt auf der Erstellung autonomer Arbeitsabläufe. Perplexity fungiert hierbei als verwaltete Laufzeitumgebung, also als eine Managed Runtime. Das System übernimmt im Hintergrund die komplexe Orchestrierung zwischen dem jeweiligen Sprachmodell und externen Datenquellen. Die API integriert die bekannte Perplexity-Websuche und einen URL-Abruf nativ als vordefinierte Tools in den Prozess. Externe Sprachmodelle erhalten durch diese Architektur einen reibungslosen Zugang zu aktuellen Echtzeitdaten aus dem Internet. Dadurch sinkt die Fehlerquote der Antworten spürbar. Zudem bietet die API erweiterte Kontrollmöglichkeiten für das sogenannte Reasoning. Entwickler legen genaue Token-Budgets für die Rechenzeit fest, die ein Modell für das logische Schlussfolgern aufwenden darf. Vorkonfigurierte Profile für schnelle Ergebnisse Um Entwicklungsprozesse zu beschleunigen, integriert das System sogenannte Presets. Diese vorgefertigten Profile kombinieren spezifische KI-Modelle automatisch mit den idealen Suchparametern und System-Prompts. Ein Preset wie „deep-research“ nutzt beispielsweise rechenintensive Modelle in Verbindung mit einer tiefgehenden Websuche. Für einfache Anfragen steht hingegen das Profil „fast-search“ bereit. Entwickler umgehen durch diese Voreinstellungen die aufwendige manuelle Feinabstimmung. Das Format der API orientiert sich dabei stark an bestehenden Industriestandards, wodurch sich die Endpunkte nahtlos in vorhandene Architekturen einfügen lassen. Die neue Schnittstelle vereinfacht somit die technische Grundlage für den Bau vernetzter KI-Anwendungen.