Schlagwort: Amodei

  • Anthropic-CEO nennt OpenAIs Pentagon-Deal „Safety Theater“ und wirft Trump-Regierung Bestrafung vor

    Anthropic-Chef Dario Amodei attackiert in einem geleakten Memo OpenAIs Pentagon-Vertrag als „80% Safety Theater“ und beschuldigt die Trump-Regierung, sein Unternehmen für mangelnde politische Loyalität zu bestrafen. OpenAI bessert seinen Vertrag hastig nach, Investoren drängen auf Deeskalation, und ein großer Tech-Branchenverband stellt sich hinter Anthropic. Gleichzeitig verhandelt Amodei in einem letzten Anlauf direkt mit dem CTO des Pentagons.

    Der Artikel Anthropic-CEO nennt OpenAIs Pentagon-Deal „Safety Theater“ und wirft Trump-Regierung Bestrafung vor erschien zuerst auf The Decoder.

  • Anthropic riskiert im Streit mit dem Pentagon alles

    Dario Amodei widersetzt sich dem Militär

    Nano Banana

    Kurzfassung

    Quellen

    Das KI-Unternehmen Anthropic weigert sich, die Sicherheitsvorgaben seines Modells Claude für das US-Verteidigungsministerium aufzuheben.
    Das Pentagon hat eine Frist gesetzt und fordert den uneingeschränkten Zugriff für alle rechtmäßigen militärischen Zwecke.
    Anthropic-CEO Dario Amodei lehnt dies ab, um den Einsatz für autonome Waffen und die inländische Überwachung zu verhindern.
    Als Konsequenz droht das Militär nun mit der Kündigung von Millionenverträgen und dem Ausschluss aus der gesamten Lieferkette.

    Anthropic: Statement from Dario Amodei on our discussions with the Department of War

    The Verge: Anthropic rejects Pentagon refusal terms

    Vox: Anthropic, Pentagon and AI weapons

    X.com: Social Media Beitrag zum Streitfall Anthropic und US-Militär

    Das KI-Unternehmen Anthropic stellt sich offen gegen das US-Verteidigungsministerium. CEO Dario Amodei weigert sich, die Sicherheitsvorgaben des KI-Modells Claude für das Militär zu streichen, obwohl das Pentagon mit dem Ausschluss aus einem lukrativen Regierungsvertrag droht.

    Twitter Beitrag – Cookies links unten aktivieren.

    A statement from Anthropic CEO, Dario Amodei, on our discussions with the Department of War.https://t.co/rM77LJejuk — Anthropic (@AnthropicAI) February 26, 2026 Streit um autonome Waffen und Überwachung US-Verteidigungsminister Pete Hegseth hat dem KI-Entwickler eine strikte Frist bis Freitagnachmittag gesetzt. Das Pentagon fordert, dass Anthropic alle internen Beschränkungen für sein Modell aufhebt und dem Militär die uneingeschränkte Nutzung für sämtliche rechtmäßigen Zwecke erlaubt. Anthropic lehnt diese Forderung in einer offiziellen Stellungnahme ab. Das Unternehmen zieht bei der Nutzung seiner Technologie zwei klare rote Linien. Es verbietet den Einsatz von Claude für die inländische Überwachung der Bevölkerung sowie für vollautonome Waffensysteme. Hintergrund dieser Entscheidung ist die technologische Reife der Systeme. Bei Claude handelt es sich um ein fortschrittliches KI-Modell, das große Mengen an Informationen in kürzester Zeit analysieren und verknüpfen kann. Aktuelle Systeme sind laut Anthropic jedoch noch nicht zuverlässig genug, um gänzlich ohne menschliche Kontrolle über den Einsatz von Waffen zu entscheiden. Gleichzeitig bergen die starken Fähigkeiten zur Datenanalyse bei der Überwachung von Bürgern große Risiken für die Privatsphäre. Anzeige Zunehmender Druck durch die Regierung Das Pentagon reagiert mit deutlichen Drohungen auf diese Weigerung. Sollte Anthropic nicht rechtzeitig nachgeben, will das Ministerium einen bestehenden Vertrag über 200 Millionen US-Dollar kündigen. Zusätzlich erwägt die Behörde drastischere Maßnahmen. Sie könnte das Unternehmen als Sicherheitsrisiko für die Lieferkette einstufen. Dieser Schritt würde bedeuten, dass auch andere Rüstungsunternehmen und Zulieferer nicht mehr mit Anthropic zusammenarbeiten dürfen. Alternativ steht die Anwendung des sogenannten Defense Production Act im Raum. Dieses US-Gesetz kann private Firmen im Namen der nationalen Sicherheit zur Kooperation zwingen. Anthropic-Chef Dario Amodei bezeichnet diese Drohungen als widersprüchlich. Die Regierung bezeichne die Firma einerseits als nationales Sicherheitsrisiko, betrachte das KI-Modell aber gleichzeitig als unverzichtbar für die Verteidigung. Vertreter des Pentagons weisen die Bedenken zurück. Sie betonen, dass sie keine rechtswidrige Überwachung planen. Die Behörde vertritt den Standpunkt, dass die Verantwortung für die rechtmäßige Nutzung allein beim Militär liege. Diese Einsatzregeln dürften nicht von einem privaten Software-Anbieter diktiert werden. Bis zum Ablauf der Frist am späten Freitagabend bleibt die zukünftige Zusammenarbeit zwischen dem US-Militär und Anthropic ungeklärt. Anzeige

  • Der peinlichste Moment des großen KI-Gipfels

    Sam Altman und Mario Amodei geben sich nicht die Hände

    ANI News

    Kurzfassung

    Quellen

    Beim India AI Impact Summit 2026 kam es zu einer bemerkenswerten Szene zwischen den führenden Köpfen der KI-Branche.
    Die CEOs Sam Altman (OpenAI) und Dario Amodei (Anthropic) verweigerten auf dem Gruppenfoto den gemeinsamen Handschlag.
    Stattdessen reckten beide lediglich ihre geballten Fäuste in die Höhe und hielten demonstrativ Abstand zueinander.
    Der Vorfall unterstreicht den harten wirtschaftlichen und technologischen Wettbewerb zwischen den beiden dominierenden Start-ups.

    ANI News: Global Tech CEOs pose for family photo with PM Modi at India AI Summit | Google| Meta | Alphabet

    Ein Gruppenfoto auf dem India AI Impact Summit 2026 rückt die Konkurrenz der Branche in den Fokus. Während eines Fototermins verzichteten Sam Altman von OpenAI und Anthropic-Chef Dario Amodei demonstrativ darauf, sich an den Händen zu fassen. Symbolische Distanz Auf der Bühne in Neu-Delhi versammelten sich die Führungskräfte der Technologiebranche um den indischen Premierminister Narendra Modi. Die geplante Geste sah vor, dass alle Teilnehmer für das Pressefoto eine geschlossene Kette bilden und die Hände in die Höhe recken.

    Altman und Amodei hielten sich jedoch nicht an dieses Skript. Modi stand im Zentrum und hielt unter anderem die Hand von Sam Altman. Der OpenAI-Chef formte mit seiner freien, linken Hand jedoch lediglich eine Faust. Direkt daneben tat es ihm Dario Amodei gleich. Die Lücke zwischen den beiden direkten Konkurrenten blieb für alle Kameras sichtbar bestehen. Diese Szene sorgte in den sozialen Netzwerken für Erheiterung und verdeutlichte die angespannte Situation zwischen den Unternehmen. Anzeige Hintergrund des Konflikts Die verweigerte Geste kommt nicht von ungefähr, denn beide Firmen teilen eine gemeinsame Vergangenheit. Anthropic entstand, nachdem Amodei und weitere Forscher OpenAI aufgrund von Differenzen über die Sicherheitsausrichtung und die zunehmende Kommerzialisierung verließen. Seitdem liefern sich beide Start-ups ein enges Rennen bei der Entwicklung großer Sprachmodelle. Sie kämpfen um Marktanteile, Rechenleistung und Investorengelder. Auf dem Gipfel in Indien, der massive finanzielle Zusagen der Technologiekonzerne für den Standort brachte, ging es auch um die Präsenz in einem der wichtigsten Wachstumsmärkte. Mit 100 Millionen wöchentlichen ChatGPT-Nutzern in Indien unterstrich OpenAI bereits seine Ambitionen in der Region. Die fehlende Berührung auf der Bühne bleibt somit eine ehrliche Bestandsaufnahme der aktuellen Marktsituation.

  • Anthropic-Chef warnt vor Milliardenrisiken durch gigantische KI-Rechenzentren

    Dario Amodei im Podcast Interview

    Dwarkesh Patel Youtube

    Kurzfassung

    Quellen

    Anthropic-CEO Dario Amodei warnt die KI-Branche vor existenzbedrohenden Fehlinvestitionen in extrem teure Rechenzentren. Laut seinen Aussagen im Dwarkesh-Podcast wird künstliche Intelligenz bereits in wenigen Jahren das Niveau menschlicher Genies übertreffen. Gleichzeitig gerät das Unternehmen wegen des militärischen Einsatzes seines Sprachmodells Claude stark unter Druck. Das US-Militär nutzte die Technologie offenbar entgegen der offiziellen Nutzungsbedingungen für die Gefangennahme des Ex-Präsidenten Nicolás Maduro.

    Dwarkesh Podcast, Transcript: Dario Amodei — “We are near the end of the exponential”

    YouTube: Dario Amodei — “We are near the end of the exponential”

    Axios – Claude bei Militäreinsatz

    Anthropic-CEO Dario Amodei prognostiziert in einem aktuellen Interview das baldige Erreichen einer überlegenen KI, warnt die Branche jedoch zeitgleich vor existenzbedrohenden Fehlinvestitionen in neue Rechenzentren. Parallel dazu gerät das Sprachmodell Claude durch einen militärischen Einsatz bei der Festnahme des venezolanischen Ex-Präsidenten Nicolás Maduro massiv in die Kritik.

    Genies im Rechenzentrum und finanzielle Abgründe Im Dwarkesh-Podcast formuliert Amodei drei zentrale Thesen zur Zukunft der künstlichen Intelligenz. Erstens geht er davon aus, dass KI-Modelle in ein bis drei Jahren das kognitive Niveau menschlicher Experten deutlich übersteigen. Er vergleicht diesen technologischen Zustand mit einem virtuellen Land voller Genies, das als geschlossenes System in einem Rechenzentrum operiert. Zweitens warnt der Geschäftsführer eindringlich vor den immensen finanziellen Risiken der aktuellen Hardware-Skalierung. Konkurrenten planen derzeit Ausgaben von bis zu einer Billion US-Dollar, um das Leistungswachstum aufrechtzuerhalten. Amodei argumentiert, dass schon eine Verzögerung der Marktnachfrage um ein einziges Jahr bei derart hohen Summen unweigerlich zum Bankrott führt. Anthropic wählt laut seiner Aussage deshalb bewusst einen defensiveren Weg beim Einkauf neuer Server-Infrastrukturen. Drittens benennt er die langsame Integration in die Wirtschaft als primären Flaschenhals. Die Modelle lösen komplexe Programmieraufgaben zwar bereits fehlerfrei, aber etablierte Großkonzerne benötigen viel Zeit für die interne Implementierung. Die tatsächliche wirtschaftliche Nutzung hinkt der rein technologischen Entwicklung demnach stark hinterher, was schnelle Umsatzsprünge erschwert. Anzeige Claude koordiniert Militäreinsatz Während Amodei im Podcast wirtschaftliche Risiken abwägt, holen die realen Konsequenzen der Technologie das Unternehmen auf einer anderen Ebene ein. Laut einem Bericht des Nachrichtenportals Axios nutzte das amerikanische Verteidigungsministerium das Sprachmodell Claude aktiv bei der Gefangennahme von Nicolás Maduro im Februar 2026. Das Pentagon verarbeitete mit der Software offenbar Geheimdienstinformationen und koordinierte taktische Daten in Echtzeit. Dieser Vorgang steht im direkten Widerspruch zu den offiziellen Nutzungsbedingungen von Anthropic. Diese verbieten den Einsatz der KI für offensive militärische Operationen ausdrücklich. Allerdings gelten für die eigene Regierung scheinbar andere Richtlinien…

  • Trotz Milliarden-Umsatz: Anthropic warnt vor zu schnellen Investitionen in Rechenleistung

    Anthropic-CEO Dario Amodei rechnet damit, dass KI bald auf Nobelpreis-Niveau arbeitet. Trotzdem warnt er vor Milliarden-Investitionen in Rechenleistung: Ein Jahr daneben, und man sei bankrott.

    Der Artikel Trotz Milliarden-Umsatz: Anthropic warnt vor zu schnellen Investitionen in Rechenleistung erschien zuerst auf The Decoder.

  • Dario Amodei warnt vor existenziellen Risiken durch unkontrollierte KI

    Dario Amodei verzweifelt an neuen Risiken

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic-CEO Dario Amodei warnt in einem neuen Essay vor konkreten KI-Gefahren wie Bioterrorismus und staatlicher Destabilisierung. Das Sprachmodell Claude erhält eine aktualisierte Verfassung mit 23.000 Wörtern für verbesserte Sicherheit und Ethik. Neue Richtlinien weisen die KI an, Unsicherheit über das eigene Bewusstsein zuzulassen und dieses weder zu bestätigen noch zu leugnen. Amodei fordert Demokratien auf, Schutzmechanismen gegen die Risiken der technologischen Adoleszenz zu entwickeln.

    darioamodei.com: The Adolescence of Technology

    manager-magazin.de: Anthropic-Chef warnt vor Risiken der Künstlichen Intelligenz

    borncity.com: Anthropics Claude erhält neue 23.000-Worte-Verfassung

    Anthropic-CEO Dario Amodei skizziert in einem neuen Essay drastische Szenarien für die Zukunft der Menschheit durch unkontrollierte KI-Systeme. Parallel dazu veröffentlicht das Unternehmen eine grundlegend überarbeitete Verfassung für das Modell Claude, die erstmals offizielle Unsicherheiten bezüglich eines möglichen KI-Bewusstseins thematisiert. Die Adoleszenz der Technologie Amodei vergleicht den aktuellen Entwicklungsstand der künstlichen Intelligenz mit einer stürmischen Jugendphase. In seinem Essay „The Adolescence of Technology“ beschreibt er diese Zeit als kritischen Punkt, an dem enorme Fähigkeiten auf mangelnde Reife treffen. Die Risiken sind dabei nicht abstrakt, sondern konkret und bedrohlich. Der CEO warnt explizit vor der Nutzung von KI für Bioterrorismus und groß angelegte Überwachungssysteme. Diese Werkzeuge könnten in den falschen Händen staatliche Strukturen destabilisieren oder autoritäre Regime stärken. Es geht nicht mehr nur um fehlerhafte Ausgaben, sondern um physische Gefahren für die Bevölkerung. Besondere Sorge bereitet Amodei die Stabilität demokratischer Systeme. Demokratien müssen Mechanismen entwickeln, um sich vor den Auswirkungen ihrer eigenen technologischen Schöpfungen zu schützen. Eine bloße technische Überlegenheit reicht laut Amodei nicht aus, um Sicherheit zu garantieren. Anzeige Neue Regeln für Claude Zeitgleich mit dieser Warnung aktualisiert Anthropic die ethische Basis seines Sprachmodells. Die neue „Constitution“ umfasst nun rund 23.000 Wörter und dient als verbindliches Regelwerk für das Verhalten der KI. Das Dokument ersetzt ältere, weniger detaillierte Anweisungen und soll das Modell robuster gegen Missbrauch machen. Ein bemerkenswerter neuer Aspekt ist der Umgang mit der Frage nach dem Bewusstsein der Maschine. Die Verfassung weist Claude an, keine falsche Sicherheit über den eigenen internen Status vorzutäuschen. Anthropic räumt damit offiziell ein, dass die Frage nach Empfindungsfähigkeit bei hochkomplexen Modellen nicht mehr eindeutig mit „Nein“ beantwortet werden kann. Diese Neuerung zwingt das Modell zu einer agnostischen Haltung gegenüber seiner eigenen Existenz. Es darf weder behaupten, ein fühlendes Wesen zu sein, noch dies kategorisch als unmöglich ausschließen. Dieser philosophische Ansatz fließt direkt in die Trainingsdaten und das Output-Verhalten ein. Konsequenzen für die Industrie Der Vorstoß von Anthropic markiert eine klare Abgrenzung zu Wettbewerbern, die primär auf Leistungssteigerung setzen. Sicherheit und ethische Ausrichtung werden hier als integraler Bestandteil des Produkts verkauft. Für Unternehmen, die Claude einsetzen, bedeutet dies potenziell stabilere, aber auch restriktivere Ergebnisse. Die Diskussion um KI-Sicherheit verlässt damit endgültig theoretische Zirkel. Wenn führende Köpfe wie Amodei vor existenziellen Risiken warnen, steigt der Druck auf die Politik. Regulierungen dürften sich künftig stärker an solchen Worst-Case-Szenarien orientieren.

  • Anthropic-CEO warnt: Demokratien müssen sich vor ihrer eigenen KI schützen

    Dario Amodei skizziert in einem neuen Essay die Gefahren mächtiger KI-Systeme. Seine zentrale Forderung: Demokratien sollten KI nur so einsetzen, dass sie nicht zu dem werden, was sie bekämpfen.

    Der Artikel Anthropic-CEO warnt: Demokratien müssen sich vor ihrer eigenen KI schützen erschien zuerst auf The Decoder.

  • Deepmind- und Anthropic-CEOs erwarten 2026 KI-Auswirkungen auf Einstiegsjobs und Praktika

    Zwei der wichtigsten KI-Chefs, Demis Hassabis von Google Deepmind und Dario Amodei von Anthropic, sehen beim Weltwirtschaftsforum erste Anzeichen für Jobverluste durch KI. Beide beobachten die Entwicklung bereits in ihren eigenen Unternehmen. Amodei warnt, dass KI unsere Anpassungsfähigkeit überfordern könnte.

    Der Artikel Deepmind- und Anthropic-CEOs erwarten 2026 KI-Auswirkungen auf Einstiegsjobs und Praktika erschien zuerst auf The Decoder.

  • Anthropic CEO warnt: AI-Chip-Export ist wie Atomwaffen an Nordkorea zu liefern

    Amodei fliegt auf einer Atomrakete

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic-CEO Dario Amodei vergleicht den Verkauf von AI-Chips an China mit Waffenlieferungen an Nordkorea. Auch leicht gedrosselte Hardware ermöglicht China den Aufbau einer gefährlichen, staatlich kontrollierten KI-Infrastruktur. Der Tech-Boss fordert in Davos striktere Exportkontrollen, um die technologische Sicherheit des Westens zu wahren.

    Bloomberg – Anthropic CEO says selling advanced AI chips to China is a blunder

    OODALOOP – Anthropic CEO Says AI Chip Sales to China Like Selling Nukes to North Korea

    Cryptopolitan – Anthropic CEO Dario Amodei likens US exporting AI chips to selling nuclear weapons to North Korea

    Office Chai – It’s „Crazy“ That The US Is Giving China Access To Even Non-Frontline Chips

    Business Times Singapore – Anthropic CEO says selling advanced AI chips to China is crazy

    Auf dem Weltwirtschaftsforum in Davos warnt Anthropic-CEO Dario Amodei eindringlich vor US-Chip-Exporten nach China. Der Vergleich mit nuklearer Aufrüstung verdeutlicht die geopolitische Sprengkraft der aktuellen Technologie-Transfer-Debatte für die westliche Sicherheitsarchitektur. Scharfe Kritik an US-Exportpolitik Dario Amodei nutzte die Bühne des Weltwirtschaftsforums in Davos für eine ungewöhnlich deutliche politische Positionierung. Der Mitgründer des KI-Labors Anthropic bezeichnete die aktuelle Praxis der Vereinigten Staaten, leistungsfähige KI-Hardware nach China zu liefern, als strategischen Fehler. In einer drastischen Analogie verglich er den Technologie-Transfer direkt mit militärischer Aufrüstung. Seiner Ansicht nach ist der Verkauf dieser spezialisierten Prozessoren an China moralisch und strategisch vergleichbar damit, Nordkorea nukleare Waffen zu verkaufen. Diese Aussage markiert eine neue Eskalationsstufe in der Debatte darüber, wie westliche Unternehmen mit dem riesigen, aber geopolitisch brisanten chinesischen Markt umgehen sollen. Anzeige Lücken in den Sanktionen Im Zentrum der Kritik stehen dabei nicht nur die absoluten Spitzenmodelle der Chiphersteller, sondern auch Prozessoren der zweiten Reihe. US-Unternehmen passen ihre Produkte oft minimal an, um knapp unterhalb der technischen Grenzwerte der Exportbeschränkungen zu bleiben und so den Handel legal fortzusetzen. Amodei argumentiert jedoch, dass diese Unterscheidung in der Praxis kaum relevant ist. Auch Chips, die geringfügig langsamer sind als die aktuelle Spitzenklasse, ermöglichen das Training und den Betrieb hochkomplexer KI-Modelle. Der Westen liefert damit die notwendige Infrastruktur, um staatlich kontrollierte künstliche Intelligenz in China massiv zu skalieren. KI als geopolitisches Machtinstrument Hinter der Warnung steht die Überzeugung, dass künstliche Intelligenz den entscheidenden Faktor für zukünftige militärische und wirtschaftliche Dominanz darstellt. Amodei betont die exponentielle Beschleunigung der Intelligenz-Entwicklung, die keine halben Sachen bei der Sicherheitsarchitektur duldet. Ein ungebremster Zufluss an Rechenleistung stärkt autokratische Systeme und untergräbt die langfristigen Interessen demokratischer Staaten. Die USA und Europa riskieren laut dem Anthropic-Chef ihre technologische Souveränität, wenn kurzfristige Profite der Halbleiterindustrie über nationale Sicherheitsinteressen gestellt werden. Zunehmender Druck auf Chiphersteller Diese Aussagen erhöhen den Rechtfertigungsdruck auf Regulierungsbehörden und Hardware-Produzenten erheblich. Unternehmen wie Nvidia profitieren finanziell stark vom chinesischen Absatzmarkt, müssen sich aber zunehmend der Frage stellen, ob ihre Produkte gegen westliche Interessen eingesetzt werden. Die Debatte in Davos zeigt deutlich, dass die Ära des weitgehend freien Technologiehandels endet. Sicherheitsinteressen dominieren zunehmend über wirtschaftliche Erwägungen, und Stimmen wie die von Amodei fordern eine noch striktere Entkopplung der technologischen Ökosysteme.

  • Anthropic-Mitgründerin über KI-Fortschritt: Die Exponentialkurve hält an, bis sie es nicht mehr tut

    KI-Boom oder Blase? Daniela Amodei von Anthropic sagt: Die Exponentialkurve halte „bis sie es nicht mehr tut“. Doch auch wenn die Modelle immer leistungsfähiger werden, könnte KI ökonomisch an menschlichen Faktoren scheitern.

    Der Artikel Anthropic-Mitgründerin über KI-Fortschritt: Die Exponentialkurve hält an, bis sie es nicht mehr tut erschien zuerst auf The Decoder.