Schlagwort: Entwickler

  • Forscher: KI-Agenten machen Entwickler nicht überflüssig, sondern bringen neue Disziplinen

    Die gängige Erzählung lautet, KI-Agenten übernähmen immer mehr Programmieraufgaben und Entwickler würden überflüssig. Laut einem Paper von Forschern der Chalmers University of Technology und der Volvo Group greift das zu kurz.

    Der Artikel Forscher: KI-Agenten machen Entwickler nicht überflüssig, sondern bringen neue Disziplinen erschien zuerst auf The Decoder.

  • OpenAI startet GPT-5.4-Cyber für Hacker-Abwehr

    Sam Altman als Programmierer

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI veröffentlicht mit GPT-5.4-Cyber ein speziell für Cybersicherheit trainiertes Modell mit gelockerten Ablehnungsraten.
    Verifizierte Experten erhalten über das Programm Trusted Access for Cyber Zugang zu diesen erweiterten Funktionen.
    Die KI beherrscht tiefgreifende Analysen wie das Reverse-Engineering von Binärdateien ohne vorhandenen Quellcode.
    Zusätzlich behebt das System Codex Security bereits automatisiert Tausende kritische Schwachstellen im Code von Entwicklern.

    OpenAI: Trusted access for the next era of cyber defense

    OpenAI veröffentlicht GPT-5.4-Cyber. Das spezialisierte Modell zielt exklusiv auf Cybersicherheit ab und senkt die üblichen Ablehnungsraten für legitime Aufgaben. Parallel öffnet der Entwickler ein erweitertes Zugangsprogramm für verifizierte Experten. Weniger Filter für tiefe Code-Analysen Herkömmliche KIs verweigern oft den Dienst, wenn Nutzer nach potenziellem Schadcode suchen. GPT-5.4-Cyber umgeht diese Hürde für authentifizierte Anwender gezielt. Das Modell beherrscht beispielsweise das Reverse-Engineering von Binärdateien auf einem sehr hohen Niveau. Sicherheitsprofis analysieren mit dieser Funktion kompilierte Software direkt auf Malware. Sie prüfen die Robustheit der Systeme, ohne den ursprünglichen Quellcode zu benötigen. Dieser Schritt beschleunigt die Suche nach Sicherheitslücken im professionellen Alltag enorm. Anzeige Mehrstufige Verifizierung kontrolliert den Zugang Die erweiterten Funktionen stehen der Allgemeinheit nicht zur Verfügung. Ein mehrstufiges Programm namens Trusted Access for Cyber regelt die Freigabe und den Zugriff auf die Systeme. Interessierte Fachleute weisen ihre Identität auf einer speziellen Plattform nach. Unternehmen und Einzelpersonen erhalten nach der strengen Prüfung eine Einstufung in verschiedene Berechtigungsstufen. In den höchsten Stufen agiert die künstliche Intelligenz deutlich freier und blockiert weniger Anfragen. Diese Freigaben erfordern allerdings eine fast vollständige Transparenz bei der Nutzung. Bestimmte Datenschutzfunktionen, die den Einblick des Anbieters in die Prompts verhindern, bleiben für die unzensierten Modelle vorerst gesperrt. Der Entwickler koppelt die steigenden Fähigkeiten der Modelle an strengere Kontrollmechanismen für die Nutzer. Automatisierte Fehlerbehebung im Hintergrund Neben dem neuen Sprachmodell liefert das System Codex Security erste handfeste Ergebnisse. Die Software überwacht Codebasen kontinuierlich und schlägt Programmierern eigenständig passende Reparaturen vor. Entwickler erhalten direkt beim Schreiben des Codes konkretes Feedback zu potenziellen Gefahren. Seit dem Start der Beta-Phase schloss diese KI bereits über 3.000 kritische und hochgradige Schwachstellen. Die Cybersicherheit rückt damit weg von punktuellen Kontrollen hin zu einer permanenten Risikoüberwachung. Zukünftige Modelle erfordern laut Entwickler noch weitreichendere Schutzmaßnahmen, um die sichere Skalierung der Technologie zu gewährleisten.

  • Drosselt Anthropic heimlich seine KI-Modelle?

    Satirisches Bild über Amodei und Anthropic

    Nano Banana

    Kurzfassung

    Quellen

    Nutzer werfen Anthropic vor, die Leistung der KI-Modelle Claude Opus 4.6 und Claude Code heimlich reduziert zu haben.
    Eine Datenanalyse zeigt einen deutlichen Rückgang der Reasoning-Tiefe, den die Community als Downgrade interpretiert.
    Anthropic widerspricht den Gerüchten und verweist auf geänderte Effort-Level im offiziellen Changelog.
    Zusätzlich führt das Start-up neue Gebühren für Nutzer von ressourcenhungrigen Drittanbieter-Clients wie OpenClaw ein.

    Changelog – Claude Code Docs

    VentureBeat – Is Anthropic “nerfing” Claude? Users increasingly report performance degradation

    X / Thariq – “we don’t degrade our models to better serve demand”

    TechCrunch – Anthropic says Claude Code subscribers will need to pay extra for OpenClaw support

    Reddit / r/ClaudeAI – Anthropic stayed quiet until someone showed Claude’s thinking depth dropped

    Power-Nutzer werfen Anthropic vor, die Leistung der KI-Modelle Claude Opus 4.6 und Claude Code heimlich reduziert zu haben. Während Entwickler von sinkender Reasoning-Tiefe berichten, wehrt sich das Unternehmen gegen die Vorwürfe und verweist auf geänderte Standardeinstellungen. Entwickler dokumentieren Leistungsabfall Power-User äußern auf Plattformen wie GitHub ihren Unmut über die aktuelle Performance. Laut VentureBeat kritisieren die Nutzer, Claude Opus 4.6 und Claude Code arbeiten spürbar unzuverlässiger als noch vor wenigen Wochen. Die KI-Modelle verbrauchen demnach mehr Token, neigen zu Fehlern und brechen Programmieraufgaben unerwartet ab. Eine Führungskraft von AMD untermauert die Beschwerden mit handfesten Daten. Der Entwickler wertete Tausende Sessions, Thinking-Blöcke und Tool-Calls von Claude Code aus. Seine Ergebnisse deuten auf einen drastischen Rückgang der Reasoning-Tiefe seit Ende Februar hin. Die Community befürchtet deshalb, Anthropic senke heimlich die Qualität der KI-Modelle, um knappe Rechenkapazitäten zu sparen. Anzeige Anthropic weist Downgrade-Gerüchte zurück Das Unternehmen widerspricht den Spekulationen vehement und nennt völlig andere Gründe für das veränderte Verhalten. Thariq vom Anthropic-Team positioniert sich auf der Plattform X eindeutig: »Wir verschlechtern unsere Modelle nicht, um die Nachfrage besser bedienen zu können.« Das offizielle Changelog von Claude Code soll die tatsächlichen Gründe für das veränderte Nutzererlebnis zeigen. Anthropic passte am 7. April 2026 den Standard-Effort-Level für API- und Enterprise-Nutzer von medium auf high an. Gleichzeitig implementierten die Entwickler neue Warnhinweise für das Rate-Limit und veränderten das Speichermanagement bei langen Sessions. Diese spezifischen Anpassungen an der Nutzeroberfläche und den Parametern verändern die Ausgabe, ohne die KI-Modelle selbst abzuwerten. Striktere Regeln für externe Clients Die Diskussion um die Leistungsfähigkeit fällt exakt mit neuen Kapazitätsgrenzen bei Anthropic zusammen. Das Unternehmen verlangt ab sofort zusätzliche Gebühren, wenn Abonnenten externe Clients wie OpenClaw nutzen. Diese intensiv genutzten Clients erzeugen laut Anthropic eine extrem hohe Serverlast, da sie die internen Optimierungen für den Prompt-Cache vollständig umgehen. Abonnenten zahlen für diese intensiven Workloads künftig extra. Alternativ greifen sie direkt auf die API zu. Das Start-up reagiert damit auf den enormen Token-Verbrauch der Power-User und steuert das eigene Wachstum. Die messbaren Veränderungen bei Claude resultieren somit aus einer strengeren Nutzungssteuerung und nicht aus schwächeren KI-Modellen, laut Anthropic…

  • Studie kartografiert Frust über KI-generierten „Slop“ in der Softwareentwicklung

    Eine qualitative Studie untersucht gezielt, wie Entwickler minderwertige KI-Inhalte („Slop“) in der Softwareentwicklung wahrnehmen und kritisieren. Die Kritiker zeichnen eine „Tragödie der Allmende“, bei der individuelle Produktivitätsgewinne auf Kosten von Reviewern und der gesamten Gemeinschaft gehen.

    Der Artikel Studie kartografiert Frust über KI-generierten „Slop“ in der Softwareentwicklung erschien zuerst auf The Decoder.

  • Neues KI-Coding-Tool: Cursor 3 lässt Entwickler ganze Flotten von KI-Agenten steuern

    Das KI-Coding-Tool Cursor stellt mit Version 3 eine komplett neue Oberfläche vor, die Entwickler von der manuellen Code-Bearbeitung zur parallelen Steuerung mehrerer KI-Agenten führen soll.

    Der Artikel Neues KI-Coding-Tool: Cursor 3 lässt Entwickler ganze Flotten von KI-Agenten steuern erschien zuerst auf The Decoder.

  • Anthropic gibt Claude Code einen Sicherheits-Autopiloten

    Entwickler, die Claude Code nutzen, standen bisher vor einem Dilemma: entweder jede Aktion einzeln genehmigen oder alle Sicherheitschecks abschalten. Anthropics neuer Auto Mode soll einen Mittelweg bieten.

    Der Artikel Anthropic gibt Claude Code einen Sicherheits-Autopiloten erschien zuerst auf The Decoder.

  • MiniMax Skills: Neue Open-Source-Fähigkeiten für KI-Agenten

    MiniMax Github Oberflaeche

    Nano Banana

    Kurzfassung

    Quellen

    MiniMax-AI stellt ein neues Open-Source-Repository mit kuratierten Skills für KI-Agenten zur Verfügung.
    Die Sammlung liefert Programmier-Assistenten strukturierte Vorlagen für die App-Entwicklung und die Dokumentenverarbeitung.
    Entwickler binden die Funktionen lokal ein und erweitern so die Fähigkeiten von Modellen wie Claude oder Cursor.
    Besonders das OpenClaw-Netzwerk profitiert von der nahtlosen Integration, was die Leistung lokaler autonomer Agenten direkt verbessert.

    GitHub – MiniMax-AI/skills

    X – aki1770: MiniMax skills repo release

    Das Entwicklerstudio MiniMax-AI veröffentlicht eine neue Open-Source-Sammlung für KI-Modelle. Das sogenannte Skills-Repository rüstet bekannte Programmier-Assistenten wie Claude oder Cursor mit spezialisierten Fähigkeiten aus. Dies erleichtert komplexe Entwicklungsaufgaben und die professionelle Dokumentenverarbeitung. Strukturierte Workflows für KI-Modelle Die bereitgestellten Plugins fungieren wie kuratierte Handbücher für autonome Agenten. Sie enthalten strukturierte Vorlagen und etablierte Vorgehensweisen für die Softwareentwicklung. Bisher scheitern viele Assistenten an umfangreichen Projekten, da ihnen der übergeordnete Kontext für die jeweilige Aufgabe fehlt. Die neuen Module beheben dieses Problem effektiv. Entwickler binden das Repository unkompliziert über Konfigurationspfade in ihre bestehenden Umgebungen ein. Die Assistenten rufen die benötigten Informationen dann während des Arbeitsprozesses selbstständig ab. Dadurch sinkt die Fehlerquote bei aufwendigen Code-Strukturen merklich. Zu den direkt unterstützten Bereichen gehört die native App-Entwicklung für iOS und Android. Auch anspruchsvolle visuelle Effekte wie komplexe GLSL-Shader oder Partikelsysteme generieren die Agenten mit den Vorgaben deutlich präziser. Anzeige Dokumentenverarbeitung und freier Quellcode Neben der reinen Softwareentwicklung deckt das Repository alltägliche Büroaufgaben ab. Die KI-Modelle erhalten durch die Plugins exakte Anweisungen für die professionelle Erstellung und Bearbeitung von PDF-Dateien, PowerPoint-Präsentationen und Excel-Tabellen. Der gesamte Code steht unter der freien MIT-Lizenz öffentlich zur Verfügung. Dies erlaubt der Entwicklergemeinde, die Module frei zu nutzen und an eigene Bedürfnisse anzupassen. So ergänzen Programmierer das System schnell um gänzlich eigene Fähigkeiten. + Quelle: github minimax Vorteile für das OpenClaw-Netzwerk Besonders das OpenClaw-Netzwerk zieht einen direkten Nutzen aus dieser Veröffentlichung. Die neuen Fähigkeiten passen sich problemlos an das erweiterbare Format von OpenClaw an, welches Modelle von MiniMax nativ unterstützt. Diese Kompatibilität stärkt die Leistung lokaler, autonomer Agenten spürbar. Entwickler erhalten eine robuste Grundlage, um verschiedene Systeme besser miteinander kommunizieren zu lassen und Arbeitsabläufe weiter zu automatisieren.

  • Die große Heuchelei der KI-Industrie

    Rihanna, Altman, Wal und Programmierer beim Angeln

    Nano Banana

    Kurzfassung

    Quellen

    Kreative verklagen große KI-Firmen wegen der ungefragten Nutzung ihrer Werke für das Modell-Training.
    Diese Konzerne pochen auf eine faire Nutzung, werfen aber asiatischen Konkurrenten wie DeepSeek vor, ihre Technologie heimlich über Distillation zu kopieren.
    DeepSeek wiederum ärgert sich über App-Entwickler, die offene Modelle ohne eigenen Forschungsaufwand für kommerzielle Produkte nutzen.
    Ein rechtliches Verbot des freien Trainings würde paradoxerweise vor allem den finanzstarken Tech-Giganten nützen und ein Marktmonopol begünstigen.

    Anthropic: Detecting and preventing distillation attacks

    The Guardian: New York Times sues OpenAI and Microsoft for copyright infringement

    Electronic Frontier Foundation: Search Engines, AI, And The Long Fight Over Fair Use

    Foundation for American Innovation: To Support AI, Defend the Open Internet and Fair Use

    X Deepseek und Rakuten

    Die KI-Industrie verstrickt sich aktuell in ein absurdes Schauspiel der Doppelmoral, bei dem am Ende jeder auf jeden zeigt. Künstler verklagen die großen KI-Unternehmen wegen millionenfachen Datendiebstahls. Exakt diese Unternehmen beschuldigen nun aber günstigere, meist asiatische Konkurrenten, ihre Technologie systematisch abzuschöpfen. Gleichzeitig ärgern sich diese Open-Source-Anbieter über findige Entwickler, die offene KI-Modelle ungefragt für ihr eigenes Fine-Tuning ausschlachten. Kippt durch diesen Streit am Ende das rechtliche Fundament für das Training, droht als paradoxer Höhepunkt ein gigantisches Monopol der reichsten Tech-Konzerne. Kreative wehren sich gegen den Datenhunger Millionen von Bildern, Texten und Artikeln wandern kontinuierlich in die neuronalen Netze der Tech-Branche. Illustratoren, Autoren und Übersetzer beobachten zunehmend, wie ihre hart erarbeiteten Stile als automatische Generierung auf Knopfdruck auftauchen. Die berufliche Existenz vieler Medienschaffender steht spürbar auf dem Spiel. Die Angst vor dem wirtschaftlichen Ruin treibt viele Betroffene vor die Gerichte. Sammelklagen richten sich gegen die Betreiber von Bildgeneratoren und die Entwickler großer Text-KIs. Sie fordern eine finanzielle Entschädigung und das sofortige Löschen ihrer Werke aus den Trainingsdaten. Prominente Medienhäuser wie die New York Times ziehen ebenfalls ins Feld. Die Zeitung verklagt OpenAI und Microsoft auf Milliardensummen. Der Vorwurf lautet, die Unternehmen lesen geschützte Archive ohne Erlaubnis ein und bauen damit direkte Konkurrenzprodukte auf.

    Twitter Beitrag – Cookies links unten aktivieren.

    We build AI to empower people, including journalists. Our position on the @nytimes lawsuit:• Training is fair use, but we provide an opt-out• „Regurgitation“ is a rare bug we’re driving to zero• The New York Times is not telling the full storyhttps://t.co/S6fSaDsfKb — OpenAI (@OpenAI) January 8, 2024 Das Prinzip der fairen Nutzung wackelt Die Entwickler der KI-Modelle verteidigen ihr Vorgehen vehement und stützen sich auf juristische Ausnahmeregelungen. Sie berufen sich in den USA auf das Konzept des Fair Use. Das zentrale Argument der Tech-Giganten lautet stets, dass die Maschine die Daten nicht einfach kopiert. Laut den Konzernen lernen die Modelle lediglich Muster und Zusammenhänge, was eine transformative Nutzung darstellt. Die Firmen betrachten das Scannen des offenen Internets als gesellschaftlichen Nutzen und als Motor für zukünftige Innovationen. Juristen und Gerichte bewerten diese Argumentation aktuell extrem unterschiedlich. Erste Urteile fallen völlig widersprüchlich aus. Manche Richter werten das Training als legale Transformation, andere sehen darin eine klare Urheberrechtsverletzung. Diese rechtliche Grauzone hält die gesamte Industrie in der Schwebe. Anzeige KI-Unternehmen fürchten plötzlich ihre eigene Medizin Eine hochgradig ironische Wendung nimmt der Streit bei den Entwicklern der KI-Modelle selbst. Unternehmen wie Anthropic und OpenAI betrachten das offene Internet als freien Datenspeicher, reagieren aber extrem empfindlich auf günstigere Konkurrenz. Asiatische Startups wie DeepSeek veröffentlichen enorm fähige Modelle zu einem Bruchteil der bisher üblichen Entwicklungskosten. Das setzt die westlichen Pioniere massiv unter Druck. Anthropic ging kürzlich an die Öffentlichkeit und warf mehreren chinesischen Konkurrenten vor, die Fähigkeiten der eigenen Systeme schlicht kopiert zu haben.

    Twitter Beitrag – Cookies links unten aktivieren.

    We’ve identified industrial-scale distillation attacks on our models by DeepSeek, Moonshot AI, and MiniMax. These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.— Anthropic (@AnthropicAI) February 23, 2026 Die Entwickler sollen zehntausende gefälschte Accounts angelegt haben, um Millionen von Interaktionen mit dem Modell Claude zu erzeugen. Die asiatischen Firmen nutzen diese hochwertigen Antworten, um ihre eigenen, billigeren Systeme zu trainieren. Diese Praxis nennt die Fachwelt Distillation. Die etablierten westlichen Unternehmen betrachten diesen Vorgang als unfairen Ideenklau und als Gefahr für das eigene Geschäftsmodell. Genau hier offenbart sich jedoch der eklatante Widerspruch der Industrie. Die großen Konzerne werten das ungefragte Kopieren des gesamten Internets als legitimes Training, verurteilen das Nutzen ihrer eigenen KI-generierten Ausgaben jedoch streng als Diebstahl. Anzeige Die Nahrungskette reicht noch weiter Der Ärger wandert in der Nahrungskette ungebremst weiter nach unten. Selbst Anbieter von günstigen oder offenen KI-Modellen klagen über den rücksichtslosen Umgang der Konkurrenz. Ein aktuelles Beispiel liefert das japanische Unternehmen Rakuten. Die Entwickler veröffentlichten kürzlich eigene Modelle, stehen aber nun unter dem dringenden Verdacht, sich bei der Architektur schlicht bei DeepSeek bedient zu haben. Jeder kopiert in diesem Markt scheinbar jeden. + Quelle: Huggingface Auch auf der Ebene der reinen Software-Anwendungen verschwinden die Hemmungen. Anbieter von modernen Programmier-Editoren wie Cursor greifen für ihre kommerziellen Produkte dankbar auf fremde Vorarbeit zurück. Jüngste Analysen belegen erwiesenermaßen, dass Cursor für seine Funktionen heimlich das Modell Kimi 2.5 des Startups Moonshot AI über ein gezieltes Fine-Tuning anzapfte. + Quelle: amanrsanger @X Diese „Nachnutzer“ investieren selbst kaum Geld in die extrem teure Grundlagenforschung. Sie bauen stattdessen lukrative Dienste auf dem Rücken der ursprünglichen Schöpfer. Auf den Plattformen häufen sich daher die Beschwerden, da sich in diesem Ökosystem am Ende jeder Teilnehmer von der nächsten Ebene ausgenutzt fühlt. Die Gefahr des perfekten Monopols Hinter all diesen juristischen und moralischen Streitigkeiten lauert ein enormes strategisches Risiko für den gesamten Markt. Setzen sich die Urheber durch und die Gerichte verbieten das freie Training endgültig, ändert sich die Machtverteilung drastisch. Die Entwickler benötigen in einem solchen Szenario zwingend extrem teure Lizenzen für saubere, rechtssichere Trainingsdaten. Individuelle Verträge mit Verlagen, Bildagenturen und Plattformen werden zur absoluten Pflicht für den Bau neuer KI-Modelle. Solche enormen Summen können nur noch wenige Tech-Giganten aufbringen. Konzerne wie Google, Meta oder Microsoft verfügen über die tiefen Taschen und die bestehenden Daten-Ökosysteme, um sich die exklusiven Rechte zu sichern. Kleine Startups, ambitionierte Forscher und die gesamte Open-Source-Community bleiben bei dieser Entwicklung auf der Strecke. Der Versuch, das Urheberrecht strenger durchzusetzen und die Kreativen zu schützen, zementiert paradoxerweise die absolute Vormachtstellung der größten Akteure auf dem Technologiemarkt. Cheers! Anzeige

  • Google Deepmind erweitert Gemini-API um kombinierbare Entwickler-Werkzeuge

    Google erweitert die Gemini API: Entwickler können jetzt mehrere Tools in einer Anfrage kombinieren und Google Maps als Datenquelle nutzen.

    Der Artikel Google Deepmind erweitert Gemini-API um kombinierbare Entwickler-Werkzeuge erschien zuerst auf The Decoder.

  • OpenAI will das beste Sprachmodell, das in 16 MB passt

    Schriftzug „Parameter Golf“ vor grün-blauem Hintergrund mit Kreisbögen und Gitternetz-Diagrammen.

    OpenAI fordert Forscher und Entwickler heraus, das beste Sprachmodell zu bauen, das in nur 16 MB passt – und nutzt den Wettbewerb gezielt zur Talentsuche.

    Der Artikel OpenAI will das beste Sprachmodell, das in 16 MB passt erschien zuerst auf The Decoder.