Schlagwort: Deepseek

  • KI-Startup Deepseek verhandelt erstmals über externe Finanzierung in Millionenhöhe

    Deepseek gibt angeblich seine Unabhängigkeit auf: Das chinesische KI-Startup sucht erstmals externe Geldgeber und will mindestens 300 Millionen Dollar einsammeln. Hinter dem Kurswechsel stehen verschobene Modell-Releases, abgeworbene Top-Forscher und wachsender Druck durch finanzstarke Tech-Giganten.

    Der Artikel KI-Startup Deepseek verhandelt erstmals über externe Finanzierung in Millionenhöhe erschien zuerst auf The Decoder.

  • ChatGPT bleibt Marktführer, verliert aber innerhalb eines Jahres deutlich an Anteilen

    Der chinesische KI-Chatbot Deepseek verzeichnet ein beeindruckendes Nutzerwachstum, bleibt aber weit hinter dem Marktführer ChatGPT zurück. OpenAI meldet derweil Rekordzahlen bei Nutzern und Umsatz.

    Claude verdoppelt seinen Marktanteil innerhalb eines Monats und überholt DeepSeek und Grok. ChatGPT bleibt vorn, verliert aber deutlich – vor allem an Google Gemini, das inzwischen ein Viertel des KI-Traffics auf sich zieht.

    Der Artikel ChatGPT bleibt Marktführer, verliert aber innerhalb eines Jahres deutlich an Anteilen erschien zuerst auf The Decoder.

  • Deepseek v4 läuft auf Huawei-Chips und soll Chinas Chip-Unabhängigkeit demonstrieren

    Deepseek v4 soll in den kommenden Wochen erscheinen und erstmals auf Huawei-Chips laufen. Chinas große Techkonzerne haben bereits Hunderttausende Einheiten bestellt. Nvidia bleibt bei Vorabtests außen vor.

    Der Artikel Deepseek v4 läuft auf Huawei-Chips und soll Chinas Chip-Unabhängigkeit demonstrieren erschien zuerst auf The Decoder.

  • Die große Heuchelei der KI-Industrie

    Rihanna, Altman, Wal und Programmierer beim Angeln

    Nano Banana

    Kurzfassung

    Quellen

    Kreative verklagen große KI-Firmen wegen der ungefragten Nutzung ihrer Werke für das Modell-Training.
    Diese Konzerne pochen auf eine faire Nutzung, werfen aber asiatischen Konkurrenten wie DeepSeek vor, ihre Technologie heimlich über Distillation zu kopieren.
    DeepSeek wiederum ärgert sich über App-Entwickler, die offene Modelle ohne eigenen Forschungsaufwand für kommerzielle Produkte nutzen.
    Ein rechtliches Verbot des freien Trainings würde paradoxerweise vor allem den finanzstarken Tech-Giganten nützen und ein Marktmonopol begünstigen.

    Anthropic: Detecting and preventing distillation attacks

    The Guardian: New York Times sues OpenAI and Microsoft for copyright infringement

    Electronic Frontier Foundation: Search Engines, AI, And The Long Fight Over Fair Use

    Foundation for American Innovation: To Support AI, Defend the Open Internet and Fair Use

    X Deepseek und Rakuten

    Die KI-Industrie verstrickt sich aktuell in ein absurdes Schauspiel der Doppelmoral, bei dem am Ende jeder auf jeden zeigt. Künstler verklagen die großen KI-Unternehmen wegen millionenfachen Datendiebstahls. Exakt diese Unternehmen beschuldigen nun aber günstigere, meist asiatische Konkurrenten, ihre Technologie systematisch abzuschöpfen. Gleichzeitig ärgern sich diese Open-Source-Anbieter über findige Entwickler, die offene KI-Modelle ungefragt für ihr eigenes Fine-Tuning ausschlachten. Kippt durch diesen Streit am Ende das rechtliche Fundament für das Training, droht als paradoxer Höhepunkt ein gigantisches Monopol der reichsten Tech-Konzerne. Kreative wehren sich gegen den Datenhunger Millionen von Bildern, Texten und Artikeln wandern kontinuierlich in die neuronalen Netze der Tech-Branche. Illustratoren, Autoren und Übersetzer beobachten zunehmend, wie ihre hart erarbeiteten Stile als automatische Generierung auf Knopfdruck auftauchen. Die berufliche Existenz vieler Medienschaffender steht spürbar auf dem Spiel. Die Angst vor dem wirtschaftlichen Ruin treibt viele Betroffene vor die Gerichte. Sammelklagen richten sich gegen die Betreiber von Bildgeneratoren und die Entwickler großer Text-KIs. Sie fordern eine finanzielle Entschädigung und das sofortige Löschen ihrer Werke aus den Trainingsdaten. Prominente Medienhäuser wie die New York Times ziehen ebenfalls ins Feld. Die Zeitung verklagt OpenAI und Microsoft auf Milliardensummen. Der Vorwurf lautet, die Unternehmen lesen geschützte Archive ohne Erlaubnis ein und bauen damit direkte Konkurrenzprodukte auf.

    Twitter Beitrag – Cookies links unten aktivieren.

    We build AI to empower people, including journalists. Our position on the @nytimes lawsuit:• Training is fair use, but we provide an opt-out• „Regurgitation“ is a rare bug we’re driving to zero• The New York Times is not telling the full storyhttps://t.co/S6fSaDsfKb — OpenAI (@OpenAI) January 8, 2024 Das Prinzip der fairen Nutzung wackelt Die Entwickler der KI-Modelle verteidigen ihr Vorgehen vehement und stützen sich auf juristische Ausnahmeregelungen. Sie berufen sich in den USA auf das Konzept des Fair Use. Das zentrale Argument der Tech-Giganten lautet stets, dass die Maschine die Daten nicht einfach kopiert. Laut den Konzernen lernen die Modelle lediglich Muster und Zusammenhänge, was eine transformative Nutzung darstellt. Die Firmen betrachten das Scannen des offenen Internets als gesellschaftlichen Nutzen und als Motor für zukünftige Innovationen. Juristen und Gerichte bewerten diese Argumentation aktuell extrem unterschiedlich. Erste Urteile fallen völlig widersprüchlich aus. Manche Richter werten das Training als legale Transformation, andere sehen darin eine klare Urheberrechtsverletzung. Diese rechtliche Grauzone hält die gesamte Industrie in der Schwebe. Anzeige KI-Unternehmen fürchten plötzlich ihre eigene Medizin Eine hochgradig ironische Wendung nimmt der Streit bei den Entwicklern der KI-Modelle selbst. Unternehmen wie Anthropic und OpenAI betrachten das offene Internet als freien Datenspeicher, reagieren aber extrem empfindlich auf günstigere Konkurrenz. Asiatische Startups wie DeepSeek veröffentlichen enorm fähige Modelle zu einem Bruchteil der bisher üblichen Entwicklungskosten. Das setzt die westlichen Pioniere massiv unter Druck. Anthropic ging kürzlich an die Öffentlichkeit und warf mehreren chinesischen Konkurrenten vor, die Fähigkeiten der eigenen Systeme schlicht kopiert zu haben.

    Twitter Beitrag – Cookies links unten aktivieren.

    We’ve identified industrial-scale distillation attacks on our models by DeepSeek, Moonshot AI, and MiniMax. These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.— Anthropic (@AnthropicAI) February 23, 2026 Die Entwickler sollen zehntausende gefälschte Accounts angelegt haben, um Millionen von Interaktionen mit dem Modell Claude zu erzeugen. Die asiatischen Firmen nutzen diese hochwertigen Antworten, um ihre eigenen, billigeren Systeme zu trainieren. Diese Praxis nennt die Fachwelt Distillation. Die etablierten westlichen Unternehmen betrachten diesen Vorgang als unfairen Ideenklau und als Gefahr für das eigene Geschäftsmodell. Genau hier offenbart sich jedoch der eklatante Widerspruch der Industrie. Die großen Konzerne werten das ungefragte Kopieren des gesamten Internets als legitimes Training, verurteilen das Nutzen ihrer eigenen KI-generierten Ausgaben jedoch streng als Diebstahl. Anzeige Die Nahrungskette reicht noch weiter Der Ärger wandert in der Nahrungskette ungebremst weiter nach unten. Selbst Anbieter von günstigen oder offenen KI-Modellen klagen über den rücksichtslosen Umgang der Konkurrenz. Ein aktuelles Beispiel liefert das japanische Unternehmen Rakuten. Die Entwickler veröffentlichten kürzlich eigene Modelle, stehen aber nun unter dem dringenden Verdacht, sich bei der Architektur schlicht bei DeepSeek bedient zu haben. Jeder kopiert in diesem Markt scheinbar jeden. + Quelle: Huggingface Auch auf der Ebene der reinen Software-Anwendungen verschwinden die Hemmungen. Anbieter von modernen Programmier-Editoren wie Cursor greifen für ihre kommerziellen Produkte dankbar auf fremde Vorarbeit zurück. Jüngste Analysen belegen erwiesenermaßen, dass Cursor für seine Funktionen heimlich das Modell Kimi 2.5 des Startups Moonshot AI über ein gezieltes Fine-Tuning anzapfte. + Quelle: amanrsanger @X Diese „Nachnutzer“ investieren selbst kaum Geld in die extrem teure Grundlagenforschung. Sie bauen stattdessen lukrative Dienste auf dem Rücken der ursprünglichen Schöpfer. Auf den Plattformen häufen sich daher die Beschwerden, da sich in diesem Ökosystem am Ende jeder Teilnehmer von der nächsten Ebene ausgenutzt fühlt. Die Gefahr des perfekten Monopols Hinter all diesen juristischen und moralischen Streitigkeiten lauert ein enormes strategisches Risiko für den gesamten Markt. Setzen sich die Urheber durch und die Gerichte verbieten das freie Training endgültig, ändert sich die Machtverteilung drastisch. Die Entwickler benötigen in einem solchen Szenario zwingend extrem teure Lizenzen für saubere, rechtssichere Trainingsdaten. Individuelle Verträge mit Verlagen, Bildagenturen und Plattformen werden zur absoluten Pflicht für den Bau neuer KI-Modelle. Solche enormen Summen können nur noch wenige Tech-Giganten aufbringen. Konzerne wie Google, Meta oder Microsoft verfügen über die tiefen Taschen und die bestehenden Daten-Ökosysteme, um sich die exklusiven Rechte zu sichern. Kleine Startups, ambitionierte Forscher und die gesamte Open-Source-Community bleiben bei dieser Entwicklung auf der Strecke. Der Versuch, das Urheberrecht strenger durchzusetzen und die Kreativen zu schützen, zementiert paradoxerweise die absolute Vormachtstellung der größten Akteure auf dem Technologiemarkt. Cheers! Anzeige

  • Trotz US-Exportverbot: Chinesisches KI-Startup Deepseek soll auf Nvidia Blackwell trainieren

    Das chinesische KI-Startup Deepseek hat sein neuestes KI-Modell offenbar auf Nvidias leistungsstärkstem Chip Blackwell trainiert – trotz US-Exportverbots.

    Der Artikel Trotz US-Exportverbot: Chinesisches KI-Startup Deepseek soll auf Nvidia Blackwell trainieren erschien zuerst auf The Decoder.

  • Deepseek, Moonshot und MiniMax: Anthropic kritisiert systematischen Datenklau aus China

    Anthropic wirft Deepseek, Moonshot und MiniMax vor, über Millionen von Anfragen systematisch Claudes Fähigkeiten abgegriffen zu haben, um damit eigene Modelle zu trainieren.

    Der Artikel Deepseek, Moonshot und MiniMax: Anthropic kritisiert systematischen Datenklau aus China erschien zuerst auf The Decoder.

  • Versuchter Angriff von DeepSeek auf Anthropic

    Ein trojanischer Wal stiehlt aus dem Rucksack einer Person

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic hat einen massiven Datendiebstahl durch chinesische KI-Unternehmen wie DeepSeek und MiniMax aufgedeckt.
    Über 24.000 gefälschte Accounts wurden genutzt, um durch automatisierte API-Anfragen hochwertige Trainingsdaten aus den Claude-Modellen zu extrahieren.
    Diese sogenannten Distillation-Angriffe dienen dazu, eigene Modelle ressourcenschonend zu verbessern und US-Exportbeschränkungen für Hardware zu umgehen.
    Als Reaktion implementiert Anthropic nun strengere Echtzeit-Detektionssysteme, um API-Zugriffe besser zu überwachen und verdächtige Muster sofort zu blockieren.

    Anthropic: Detecting and preventing distillation attacks

    Anthropic hat koordinierte und groß angelegte Datenabflüsse auf seine KI-Infrastruktur abgewehrt. Chinesische Firmen wie DeepSeek, Moonshot und MiniMax nutzten Millionen automatisierter Anfragen, um Trainingsdaten aus den Modellen systematisch zu extrahieren. Automatisierte Extraktion im industriellen Maßstab Die Angreifer setzten auf sogenannte Distillation-Angriffe, um die Fähigkeiten der Claude-Modelle präzise zu kopieren. Bei dieser Methode generiert ein etabliertes, rechenstarkes Modell hochwertige Antworten, die anschließend direkt als Trainingsmaterial in die Datensätze eines konkurrierenden Systems fließen. Dieser Ansatz reduziert den enormen Rechenaufwand für das Training eigener Architekturen drastisch und spart erhebliche Entwicklungskosten. Um die Schutzmechanismen der Plattform zu umgehen, registrierten die Entwickler der chinesischen Firmen über 24.000 gefälschte Accounts und verschleierten so ihre Identität. Darüber schleusten sie in kurzer Zeit mehr als 16 Millionen Interaktionen durch die Claude-API. Anthropic identifizierte das verdeckte Netzwerk nach internen Sicherheitsprüfungen und sperrte die betroffenen Konten vollständig. Das Vorgehen der Angreifer ist eine direkte technische Antwort auf internationale Handelsbeschränkungen, die den Zugang zu modernen KI-Beschleunigern in „unsupported Regions“ streng limitieren. Wenn lokale Rechenleistung durch Exportkontrollen fehlt, bietet die massenhafte Nutzung fremder APIs einen effizienten Ausweg, um das komplexe Reasoning an fremde Server auszulagern und die eigenen Systeme dennoch wettbewerbsfähig zu halten. Anzeige Strengere Detektionssysteme gegen Datendiebstahl Um künftige Vorfälle dieser Größenordnung zu unterbinden, verschärft der US-Entwickler die Überwachung der eigenen Infrastruktur erheblich. Die Sicherheitsteams implementieren neue Detektionssysteme, die das Verhalten von API-Nutzern in Echtzeit evaluieren und maschinelle Zugriffe besser von menschlichen Nutzern unterscheiden. Dazu werten die Algorithmen kontinuierlich Parameter wie die Frequenz der Prompts, die semantische Struktur der Eingaben und spezifische Ausgabemuster aus. Schlagen die Filter an, drosselt das System die Token-Ausgabe oder blockiert den Zugriff auf den Endpoint direkt. Die Attraktivität der Distillation liegt primär in der außergewöhnlich hohen Qualität der generierten Daten. Anstatt mühsam fehleranfällige Logik-Pfade von Grund auf neu zu trainieren, übernimmt das attackierte Modell die mathematische Schwerstarbeit und liefert fertige Lösungen. Bereits Mitte Februar meldete OpenAI beinahe identische Vorfälle, bei denen DeepSeek synthetische Daten aus US-Modellen für das Training der eigenen Open-Source-Modelle abschöpfte. Die aktuellen Ereignisse belegen deutlich, dass die unerlaubte Extraktion von KI-Wissen ein zentrales Problem der Branche bleibt. Der Schutz der teuer trainierten Modelle vor externer Ausbeutung rückt für die Infrastruktur-Anbieter damit zwingend in den Fokus der operativen Sicherheit. Andererseits sollte man sich natürlich auch fragen, warum man diese Daten nicht verwenden darf, während die angegriffenen Firmen gleichzeitig auf alle Daten und Bücher der Welt zugreifen dürfen – und das kostenlos.

  • Deepseeks OCR 2-Modell verarbeitet Bilder so, wie das menschliche Auge sie wahrnimmt

    Das chinesische KI-Unternehmen Deepseek hat einen neuartigen Vision-Encoder vorgestellt, der Bildinformationen semantisch neu anordnet: nach Zusammenhängen statt nach Position. Das spart Token und verbessert die Dokumentenerkennung.

    Der Artikel Deepseeks OCR 2-Modell verarbeitet Bilder so, wie das menschliche Auge sie wahrnimmt erschien zuerst auf The Decoder.

  • Deepseek musste bei neuem Modell auf Nvidia-Chips zurückgreifen

    Deepseek musste bei der Entwicklung seines neuen Flaggschiff-Modells von chinesischen Chips auf Nvidia-Hardware wechseln, da die Ergebnisse mit Huawei-Chips inakzeptabel waren.

    Der Artikel Deepseek musste bei neuem Modell auf Nvidia-Chips zurückgreifen erschien zuerst auf The Decoder.

  • Chinas KI-Welle rollt: Deepseek-Erfolg ermutigt Start-ups zu schnellen Börsengängen

    Der Aufstieg von Deepseek befeuert eine Welle von Börsengängen chinesischer KI-Unternehmen in Hongkong. Mit Zhipu AI geht das erste börsennotierte Unternehmen für große Sprachmodelle an den Start, während OpenAI und Anthropic noch ihre IPO-Pläne sortieren.

    Der Artikel Chinas KI-Welle rollt: Deepseek-Erfolg ermutigt Start-ups zu schnellen Börsengängen erschien zuerst auf The Decoder.