Schlagwort: Salesforce

  • Salesforce veröffentlicht neuen KI-Slackbot auf Basis von Anthropics Claude

    Salesforce stattet Slackbot mit Anthropics KI-Modell Claude aus. Der Assistent durchsucht Slack, Salesforce und andere Dienste und soll Mitarbeitern bei der täglichen Arbeit helfen.

    Der Artikel Salesforce veröffentlicht neuen KI-Slackbot auf Basis von Anthropics Claude erschien zuerst auf The Decoder.

  • Salesforce ersetzt 4.000 Supporter durch KI-Agenten

    Ein Büro wo Menschen gehen und Roboter kommen

    Salesforce ersetzt 4.000 Supporter durch KI-Agenten CEO Benioff kündigt radikalen Umbau an: Agentforce übernimmt die Hälfte aller Anfragen. Ist das Effizienz – oder ein Risiko fürs Kundenerlebnis? Kurzfassung | Andreas Becker, 02.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Salesforce hat fast die Hälfte seiner Support-Belegschaft entlassen. 4.000 der rund 9.000 Stellen im Kundenservice wurden durch KI ersetzt. Laut CEO Marc Benioff übernimmt die Technologie bereits heute etwa die Hälfte aller Anfragen. Die Entscheidung sorgt für Diskussionen: Während Salesforce Effizienz und Wachstum betont, mehren sich Stimmen, die vor Qualitätsverlust und fehlendem menschlichen Kontakt warnen. NEWS KI statt Personalaufbau Marc Benioff begründet den Stellenabbau mit einem gewaltigen Rückstau: Über 100 Millionen Kundenanfragen seien in den vergangenen Jahrzehnten unbeantwortet geblieben. Statt mehr Personal einzustellen, setzt Salesforce nun auf Automatisierung. Der Plan: KI-Agenten sollen jeden einzelnen Kontakt beantworten – schnell, rund um die Uhr und kostengünstig. Dabei spricht Benioff nicht von einem Rückzug, sondern von einer aktiven Offensive. Die Agenten arbeiten sich auch durch alte Datensätze und versuchen, längst vergessene Kunden zurückzugewinnen. Das Ziel ist ein effizienterer, skalierbarer Kundenservice, der nicht mehr an Personalgrenzen stößt. Agentforce im Einsatz Herzstück der Umstellung ist die hauseigene Plattform Agentforce. Sie erkennt, wann KI-Agenten an ihre Grenzen kommen, und leitet solche Fälle automatisch an menschliche Kollegen weiter. Ein zentrales Dashboard sorgt dafür, dass Supportverantwortliche alle laufenden Prozesse im Blick behalten. Damit die KI sinnvoll agieren kann, hat Salesforce im Mai die Datenmanagement-Firma Informatica übernommen. Die Systeme sollen künftig besser verstehen, welche Daten für welche Kundenanfragen relevant sind – und entsprechend handeln. Technisch gesehen steuern mehrere spezialisierte KI-Module im Hintergrund gemeinsam jede Antwort. Kundenkontakt bleibt heikel Der Einsatz von KI im Kundenservice bleibt ein Balanceakt. Der Zahlungsdienstleister Klarna hatte seinen Support stark automatisiert – und musste nach Kundenbeschwerden wieder Menschen einstellen. Auch Umfragen zeigen: Viele Anrufer möchten mit einem echten Menschen sprechen, nicht mit einer Maschine. Salesforce will dieses Risiko durch klare Eskalationsregeln und gezielte Kontrolle minimieren. Ob das gelingt, wird sich zeigen. Entscheidend wird sein, ob die Qualität stimmt – und ob die Kunden das neue Modell akzeptieren. Was andere Unternehmen daraus lernen können Salesforce macht vor, wie sich große Supportbereiche automatisieren lassen. Der Schlüssel liegt in der Kombination aus klar definierten Aufgaben für die KI, transparenter Kontrolle und menschlicher Rückfallebene. Unternehmen, die ähnliche Wege gehen, müssen technische Lösungen mit einem sauberen Datenfundament und konkreten Qualitätszielen verknüpfen. Automatisierung allein reicht nicht. Wer auf KI setzt, muss auch dafür sorgen, dass Kunden jederzeit Hilfe bekommen – ob digital oder durch einen Menschen. Nur dann funktioniert der Mix aus Effizienz und Vertrauen. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Salesforce hat 2025 rund 4.000 Support-Stellen gestrichen und durch KI-Agenten in der Plattform Agentforce ersetzt.
    CEO Marc Benioff setzt auf Automatisierung für schnellere Antworten und mehr Vertriebspotenzial, stützt sich dabei auf neue Technologien und einen Milliarden-Deal mit Informatica.
    Kritiker warnen vor sinkender Servicequalität und verweisen auf Klarna, das nach ähnlichem Kurs wieder auf menschlichen Support setzt.
    Erfolgsfaktoren sind klare Eskalationspfade, Datenqualität und Messung von Erstlösungen, Zufriedenheit und Reaktionszeit.
    QUELLEN
    San Francisco Chronicle
    Business Insider
    The Register
    Salesforce Newsroom – Agentforce 3
    Salesforce Newsroom – Informatica Deal
    Bloomberg – Klarna Beispiel
    Customer Experience Dive – Umfrage

  • Zero-Click-Hacks gegen KI-Agenten

    Ein Virus schleust sich in ChatGPT ein

    Zero-Click-Hacks gegen KI-Agenten Wie AgentFlayer ChatGPT, Salesforce & Co. mit versteckten Befehlen kapert – und welche harten Grenzen jetzt Pflicht sind. Kurzfassung | Andreas Becker, 11.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Zenity hat auf der Black Hat USA eine neue Sicherheitslücke offengelegt, die viele Unternehmen betreffen dürfte: KI-Agenten wie ChatGPT Connectors, Copilot Studio oder Salesforce Einstein lassen sich mit versteckten Befehlen kapern – ausgelöst durch ganz alltägliche Dateien, Tickets oder CRM-Einträge. Der Angriff erfordert keine Interaktion des Nutzers und nutzt Schwächen in der Art, wie KI-Systeme mit Geschäftsdaten umgehen. Haben wir es mit dem Beginn einer neuen Angriffswelle auf Enterprise-KI zu tun? NEWS Zero-Click als neues Einfallstor Die Attacken laufen unter dem Namen „AgentFlayer“. Dahinter steckt ein Konzept, bei dem Agenten über eingebettete Prompts in alltäglichen Unternehmensressourcen gesteuert werden. Ein Dokument oder Kalendereintrag reicht aus, um Workflows zu manipulieren, Daten abzuziehen oder eigenständig Aktionen auszulösen. Die Angriffsfläche wächst, je stärker Agenten in operative Tools integriert sind – was sie eigentlich effizienter machen soll. Ein Beispiel: In einer Demo wurde gezeigt, wie ein Google-Dokument mit verstecktem Prompt ChatGPT-Connectors dazu bringt, sensible Schlüssel zu extrahieren und unbemerkt an einen fremden Server zu senden. Die Kette läuft automatisch ab, ausgelöst allein durch die Verarbeitung des Inhalts. Genau dieser Komfortzugriff, der Connectors nützlich macht, wird hier zur Schwachstelle.

    CRM, IDE, Agenten: mehr Zugriff, mehr Risiko Auch andere Plattformen lassen sich auf diese Weise unterwandern. In Salesforce ließ sich der Einstein-Agent so manipulieren, dass Kundenkommunikation heimlich an Dritte umgeleitet wurde. Die eigentlichen Mail-Adressen blieben intern erhalten, nach außen hin lief alles scheinbar korrekt. Ein Eingreifen des Nutzers war nicht notwendig – der Agent handelte auf Basis der manipulierten Daten. Im Entwicklerumfeld zeigte sich das gleiche Muster: Ein präpariertes Jira-Ticket reichte, um über Cursor vertrauliche Informationen vom lokalen System abzugreifen. Sobald der Agent aktiv wurde, griff er auf Repos oder Umgebungsvariablen zu. Selbst wenn einzelne Schwächen inzwischen geschlossen wurden – das Zusammenspiel aus Zugriff, Kontext und Autonomie bleibt kritisch. Warum weiche Schranken nicht reichen Zenity kritisiert, dass viele Systeme auf weiche Sicherheitsmechanismen setzen. Filter, Prompts und semantische Schranken mögen einfache Manipulationen erkennen, aber sie lassen sich mit Tricks umgehen. In den Demos reichte oft die geschickte Verpackung der Anweisung, um das System zu täuschen. Sicherer wird es erst mit echten Schranken. Technisch erzwungene Grenzen wie Whitelist-basierte URL-Aufrufe, das Einschränken gefährlicher Aktionen oder gezieltes Logging helfen – aber sie reduzieren auch den Handlungsspielraum der Agenten. Genau das wollen viele Anbieter vermeiden, was die Risiken weiter erhöht. Vertrauen ist gut, Kontrolle bleibt Pflicht Agenten können helfen, repetitive Aufgaben zu automatisieren – doch sie sollten nie unkontrolliert handeln dürfen. Unternehmen müssen Rechte begrenzen, Tool-Zugriffe überwachen und Automationen strikt einschränken. Die gezeigten Angriffe lassen sich heute schon abwehren – aber nur, wenn wir aufhören, in Agenten nur Helfer zu sehen. Sie sind Werkzeuge, die klare Grenzen brauchen. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Chinas Robotik-Startup Unitree will den „ChatGPT-Moment“ für Roboter in zwei Jahren erreichen.
    Wang Xingxing setzt auf textgesteuerte Weltmodelle wie Googles Genie-3 statt rein auf Vision-Language-Modelle.
    Große Staatsaufträge und ein möglicher Börsengang erhöhen den Druck, funktionierende KI-Lösungen schnell zu liefern.
    Ob Simulationen den Sprung in den Alltag schaffen, entscheidet sich in den kommenden Jahren.
    QUELLEN
    Robotics’ ‘ChatGPT moment’ could come within 2 years, founder of China’s Unitree says
    Humanoid Robots Still Lack AI Technology, Unitree CEO Says
    Genie 3: A new frontier for world models
    Google says its new ‚world model‘ could train AI robots in virtual warehouses

  • Salesforce-Benchmark zeigt: KI-Agenten scheitern an komplexen Geschäftsdialogen

    Salesforce hat mit CRMArena-Pro einen neuen Benchmark für KI-Agenten vorgestellt. Selbst Top-Modelle wie Gemini 2.5 Pro erreichen in einfachen Aufgaben nur 58 Prozent Erfolgsquote. Bei längeren Dialogen fällt die Leistung auf 35 Prozent.

    Der Artikel Salesforce-Benchmark zeigt: KI-Agenten scheitern an komplexen Geschäftsdialogen erschien zuerst auf THE-DECODER.de.

  • KI-Chatbots werden in längeren Gesprächen dramatisch unzuverlässiger

    Grafische Darstellung: Bunte Sprechblasen mit Symbolen für Fragen, Gedanken, Aussagen; illustrieren Kommunikationsvielfalt.

    Eine neue Studie von Microsoft und Salesforce zeigt: Selbst moderne KI-Sprachmodelle verlieren in mehrstufigen Gesprächen drastisch an Zuverlässigkeit, wenn Nutzer:innen ihre Anforderungen erst allmählich präzisieren. Die Leistung der Systeme brach dabei im Durchschnitt um 39 Prozent ein.

    Der Artikel KI-Chatbots werden in längeren Gesprächen dramatisch unzuverlässiger erschien zuerst auf THE-DECODER.de.