Schlagwort: Unternehmen

  • Indiens IT-Absolventen sind auf die KI-Revolution kaum vorbereitet

    Ein Bloomberg-Bericht zeigt, wie agentenbasierte KI Indiens milliardenschwere IT-Branche erschüttert. Unternehmen wie Infosys müssen Neueinstellungen wochenlang nachschulen, weil die Universitäten des Landes an der Realität vorbei ausbilden.

    Der Artikel Indiens IT-Absolventen sind auf die KI-Revolution kaum vorbereitet erschien zuerst auf The Decoder.

  • Microsoft Copilot in Word kann jetzt Änderungen nachverfolgen und Kommentare verwalten

    Rund angeordnete Icons der Microsoft 365-Apps Word, PowerPoint, Teams, Loop, Excel, SharePoint, OneDrive, OneNote und Outlook.

    Microsoft erweitert Copilot in Word um neue Funktionen, die sich laut dem Unternehmen an Fachleute aus den Bereichen Recht, Finanzen und Compliance richten.

    Der Artikel Microsoft Copilot in Word kann jetzt Änderungen nachverfolgen und Kommentare verwalten erschien zuerst auf The Decoder.

  • Anthropic verbannt OpenClaw aus bestehenden Claude-Abos

    Ein Hummer im Kochtopf bei Anthropic

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic schließt Drittanbieter-Tools wie OpenClaw kurzfristig aus den regulären Claude-Abonnements aus.
    Nutzer der Tarife Pro und Max können externe Anwendungen nur noch über separate Datenpakete oder eine API weiternutzen.
    Das Unternehmen begründet den Schritt mit hoher Serverauslastung und priorisiert künftig eigene Schnittstellen.
    Als Ausgleich erhalten betroffene Kunden ein Guthaben in Höhe ihres Monatsbeitrags sowie eine Option auf Rückerstattung.

    Boris Cherny (Anthropic) auf X – Starting tomorrow at 12pm PT, Claude subscriptions will no longer cover usage…

    The Verge – Anthropic essentially bans OpenClaw from Claude by making subscribers pay extra

    VentureBeat – Anthropic cuts off the ability to use Claude subscriptions with OpenClaw and…

    Anthropic schließt Drittanbieter-Tools wie OpenClaw ab heute aus den bestehenden Claude-Abonnements aus. Anwender benötigen für diese externen Anwendungen ab sofort ein separates »Pay-as-you-go-Modell«. Die bisherige Flatrate-Nutzung über das Standard-Abo entfällt vollständig. Neue Kostenstruktur für externe Anwendungen Der Wechsel trifft primär Abonnenten der Tarife Claude Pro für 20 US-Dollar und Claude Max, das zwischen 100 und 200 US-Dollar monatlich kostet. Diese KI-Modelle ließen sich bislang über die einfache Abo-Flatrate in Workflows mit OpenClaw einbinden. Anthropic beendet diese Praxis nun abrupt. Externe Tools erfordern zusätzliche Nutzungs-Pakete, die das Unternehmen zu einem leicht reduzierten Preis anbietet. Alternativ binden Anwender die KI-Modelle über einen regulären API-Key ein. Die technische Nutzung von OpenClaw bleibt folglich erhalten, verursacht jedoch zusätzliche variable Kosten statt eines verlässlichen Festpreises. Anzeige Hohe Auslastung erzwingt Priorisierung Der Anbieter begründet die Umstellung in E-Mails an die Nutzer mit der enormen Nachfrage. Die regulären Abonnements eignen sich laut Anthropic nicht für die »Nutzungsmuster externer Tools«. Das Unternehmen steuert die verfügbaren Server-Kapazitäten ab jetzt restriktiv. Kunden mit Fokus auf die hauseigenen Produkte und die offizielle API erhalten klaren Vorrang beim Prompting und der Verarbeitung der Token. Das sichert die Leistung für das eigene Kernangebot. Um den entstehenden Unmut der Nutzerschaft abzufedern, verteilt Anthropic finanzielle Ausgleiche. Betroffene Abonnenten bekommen ein einmaliges Guthaben in Höhe ihres jeweiligen Monatsbeitrags direkt gutgeschrieben. Wer das Ökosystem verlassen möchte, kann über einen bereitgestellten Link unkompliziert die vollständige Rückerstattung des laufenden Tarifs anfordern. Das belegt, dass der Anbieter die strategische Neuausrichtung ungeachtet möglicher Kündigungswellen konsequent durchsetzt.

  • Warum Anthropic 400 Millionen für zehn Mitarbeiter zahlt

    Anthropic und Coefficient Bio Logos

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic erwirbt das KI-Startup Coefficient Bio für rund 400 Millionen US-Dollar in Aktien.
    Das acht Monate alte Unternehmen beschäftigt weniger als zehn Mitarbeiter.
    Anthropic integriert das Fachteam direkt in die eigene Abteilung für Gesundheitswesen und Biowissenschaften.
    Der Hauptinvestor Dimension erzielt durch den Verkauf eine Rendite von über 38.000 Prozent.

    The Information: Anthropic Acquires Startup Coefficient Bio for About $400 Million

    Anthropic übernimmt das erst acht Monate alte KI-Biotech-Startup Coefficient Bio für knapp 400 Millionen US-Dollar. Die Transaktion wird vollständig in Aktien abgewickelt, wie das US-Magazin The Information berichtet. Das gekaufte Unternehmen beschäftigt derzeit weniger als zehn Mitarbeiter. Millionen für medizinisches Fachwissen Coefficient Bio trainiert KI-Modelle, die gezielt Aufgaben in der Pharmabranche übernehmen. Die Technologie strukturiert die aufwendige Planung in der Arzneimittelforschung. Sie identifiziert zudem völlig neue Chancen für die Entwicklung von Wirkstoffen. Die extrem hohe Kaufsumme für das winzige Startup deutet auf einen Acqui-hire hin. Anthropic kauft das Unternehmen, um das hochspezialisierte Fachpersonal zu übernehmen. Das neu gewonnene Team soll die hauseigene Abteilung für Gesundheitswesen und Biowissenschaften sofort beschleunigen. Eric Kauderer-Abrams leitet diesen Bereich bei Anthropic. Anzeige Extremrendite und Branchentrend Für die beteiligten Geldgeber zahlt sich der Verkauf enorm aus. Die Risikokapitalfirma Dimension hielt knapp 50 Prozent der Anteile an Coefficient Bio. Der Investor verbucht durch den raschen Exit eine Rekordrendite von über 38 Prozent. Anthropic und Dimension verweigern bislang jede öffentliche Stellungnahme zu dem Vorgang. Die Medizinbranche integriert KI-Modelle derzeit im großen Stil in ihre Forschungsprozesse. Der amerikanische Pharmariese Eli Lilly unterzeichnete erst vor kurzer Zeit einen milliardenschweren Vertrag mit der KI-Medizinfirma Insilico Medicine. Anthropic verlässt sich nicht nur auf den neuen Zukauf. Das Unternehmen kooperiert bereits mit etablierten Pharmakonzernen wie Sanofi, Novo Nordisk und AbbVie. Die Konkurrenz baut ihre Kapazitäten ebenfalls aus. Google DeepMind gründete für den Bereich der KI-Medizin ein komplett eigenständiges Spinoff.

  • Neues Preismodell: OpenAI rechnet zusätzliche Codex-Nutzer in ChatGPT für Unternehmen nach Nutzung ab

    OpenAI senkt die Einstiegshürde für sein Coding-Tool Codex in Unternehmen und zielt damit direkt auf GitHub Copilot und Cursor.

    Der Artikel Neues Preismodell: OpenAI rechnet zusätzliche Codex-Nutzer in ChatGPT für Unternehmen nach Nutzung ab erschien zuerst auf The Decoder.

  • Arm stellt erstmals eigenen Chip her und entwickelt mit Meta eine CPU für KI-Rechenzentren

    Arm hat erstmals in seiner 35-jährigen Geschichte einen eigenen Chip hergestellt und damit sein bisheriges Geschäftsmodell erweitert, bei dem das Unternehmen nur Chip-Designs an Firmen wie Apple oder Nvidia lizenzierte.

    Der Artikel Arm stellt erstmals eigenen Chip her und entwickelt mit Meta eine CPU für KI-Rechenzentren erschien zuerst auf The Decoder.

  • OpenAI veröffentlicht Prompting-Tipps für Frontend-Designer mit GPT-5.4

    In einem neuen Leitfaden erklärt das Unternehmen, wie sich das Modell GPT-5.4 gezielt für die Erstellung von Websites und Apps nutzen lässt. Ohne klare Anweisungen erzeuge das Modell jedoch oft generische Designs.

    Der Artikel OpenAI veröffentlicht Prompting-Tipps für Frontend-Designer mit GPT-5.4 erschien zuerst auf The Decoder.

  • Die große Heuchelei der KI-Industrie

    Rihanna, Altman, Wal und Programmierer beim Angeln

    Nano Banana

    Kurzfassung

    Quellen

    Kreative verklagen große KI-Firmen wegen der ungefragten Nutzung ihrer Werke für das Modell-Training.
    Diese Konzerne pochen auf eine faire Nutzung, werfen aber asiatischen Konkurrenten wie DeepSeek vor, ihre Technologie heimlich über Distillation zu kopieren.
    DeepSeek wiederum ärgert sich über App-Entwickler, die offene Modelle ohne eigenen Forschungsaufwand für kommerzielle Produkte nutzen.
    Ein rechtliches Verbot des freien Trainings würde paradoxerweise vor allem den finanzstarken Tech-Giganten nützen und ein Marktmonopol begünstigen.

    Anthropic: Detecting and preventing distillation attacks

    The Guardian: New York Times sues OpenAI and Microsoft for copyright infringement

    Electronic Frontier Foundation: Search Engines, AI, And The Long Fight Over Fair Use

    Foundation for American Innovation: To Support AI, Defend the Open Internet and Fair Use

    X Deepseek und Rakuten

    Die KI-Industrie verstrickt sich aktuell in ein absurdes Schauspiel der Doppelmoral, bei dem am Ende jeder auf jeden zeigt. Künstler verklagen die großen KI-Unternehmen wegen millionenfachen Datendiebstahls. Exakt diese Unternehmen beschuldigen nun aber günstigere, meist asiatische Konkurrenten, ihre Technologie systematisch abzuschöpfen. Gleichzeitig ärgern sich diese Open-Source-Anbieter über findige Entwickler, die offene KI-Modelle ungefragt für ihr eigenes Fine-Tuning ausschlachten. Kippt durch diesen Streit am Ende das rechtliche Fundament für das Training, droht als paradoxer Höhepunkt ein gigantisches Monopol der reichsten Tech-Konzerne. Kreative wehren sich gegen den Datenhunger Millionen von Bildern, Texten und Artikeln wandern kontinuierlich in die neuronalen Netze der Tech-Branche. Illustratoren, Autoren und Übersetzer beobachten zunehmend, wie ihre hart erarbeiteten Stile als automatische Generierung auf Knopfdruck auftauchen. Die berufliche Existenz vieler Medienschaffender steht spürbar auf dem Spiel. Die Angst vor dem wirtschaftlichen Ruin treibt viele Betroffene vor die Gerichte. Sammelklagen richten sich gegen die Betreiber von Bildgeneratoren und die Entwickler großer Text-KIs. Sie fordern eine finanzielle Entschädigung und das sofortige Löschen ihrer Werke aus den Trainingsdaten. Prominente Medienhäuser wie die New York Times ziehen ebenfalls ins Feld. Die Zeitung verklagt OpenAI und Microsoft auf Milliardensummen. Der Vorwurf lautet, die Unternehmen lesen geschützte Archive ohne Erlaubnis ein und bauen damit direkte Konkurrenzprodukte auf.

    Twitter Beitrag – Cookies links unten aktivieren.

    We build AI to empower people, including journalists. Our position on the @nytimes lawsuit:• Training is fair use, but we provide an opt-out• „Regurgitation“ is a rare bug we’re driving to zero• The New York Times is not telling the full storyhttps://t.co/S6fSaDsfKb — OpenAI (@OpenAI) January 8, 2024 Das Prinzip der fairen Nutzung wackelt Die Entwickler der KI-Modelle verteidigen ihr Vorgehen vehement und stützen sich auf juristische Ausnahmeregelungen. Sie berufen sich in den USA auf das Konzept des Fair Use. Das zentrale Argument der Tech-Giganten lautet stets, dass die Maschine die Daten nicht einfach kopiert. Laut den Konzernen lernen die Modelle lediglich Muster und Zusammenhänge, was eine transformative Nutzung darstellt. Die Firmen betrachten das Scannen des offenen Internets als gesellschaftlichen Nutzen und als Motor für zukünftige Innovationen. Juristen und Gerichte bewerten diese Argumentation aktuell extrem unterschiedlich. Erste Urteile fallen völlig widersprüchlich aus. Manche Richter werten das Training als legale Transformation, andere sehen darin eine klare Urheberrechtsverletzung. Diese rechtliche Grauzone hält die gesamte Industrie in der Schwebe. Anzeige KI-Unternehmen fürchten plötzlich ihre eigene Medizin Eine hochgradig ironische Wendung nimmt der Streit bei den Entwicklern der KI-Modelle selbst. Unternehmen wie Anthropic und OpenAI betrachten das offene Internet als freien Datenspeicher, reagieren aber extrem empfindlich auf günstigere Konkurrenz. Asiatische Startups wie DeepSeek veröffentlichen enorm fähige Modelle zu einem Bruchteil der bisher üblichen Entwicklungskosten. Das setzt die westlichen Pioniere massiv unter Druck. Anthropic ging kürzlich an die Öffentlichkeit und warf mehreren chinesischen Konkurrenten vor, die Fähigkeiten der eigenen Systeme schlicht kopiert zu haben.

    Twitter Beitrag – Cookies links unten aktivieren.

    We’ve identified industrial-scale distillation attacks on our models by DeepSeek, Moonshot AI, and MiniMax. These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.— Anthropic (@AnthropicAI) February 23, 2026 Die Entwickler sollen zehntausende gefälschte Accounts angelegt haben, um Millionen von Interaktionen mit dem Modell Claude zu erzeugen. Die asiatischen Firmen nutzen diese hochwertigen Antworten, um ihre eigenen, billigeren Systeme zu trainieren. Diese Praxis nennt die Fachwelt Distillation. Die etablierten westlichen Unternehmen betrachten diesen Vorgang als unfairen Ideenklau und als Gefahr für das eigene Geschäftsmodell. Genau hier offenbart sich jedoch der eklatante Widerspruch der Industrie. Die großen Konzerne werten das ungefragte Kopieren des gesamten Internets als legitimes Training, verurteilen das Nutzen ihrer eigenen KI-generierten Ausgaben jedoch streng als Diebstahl. Anzeige Die Nahrungskette reicht noch weiter Der Ärger wandert in der Nahrungskette ungebremst weiter nach unten. Selbst Anbieter von günstigen oder offenen KI-Modellen klagen über den rücksichtslosen Umgang der Konkurrenz. Ein aktuelles Beispiel liefert das japanische Unternehmen Rakuten. Die Entwickler veröffentlichten kürzlich eigene Modelle, stehen aber nun unter dem dringenden Verdacht, sich bei der Architektur schlicht bei DeepSeek bedient zu haben. Jeder kopiert in diesem Markt scheinbar jeden. + Quelle: Huggingface Auch auf der Ebene der reinen Software-Anwendungen verschwinden die Hemmungen. Anbieter von modernen Programmier-Editoren wie Cursor greifen für ihre kommerziellen Produkte dankbar auf fremde Vorarbeit zurück. Jüngste Analysen belegen erwiesenermaßen, dass Cursor für seine Funktionen heimlich das Modell Kimi 2.5 des Startups Moonshot AI über ein gezieltes Fine-Tuning anzapfte. + Quelle: amanrsanger @X Diese „Nachnutzer“ investieren selbst kaum Geld in die extrem teure Grundlagenforschung. Sie bauen stattdessen lukrative Dienste auf dem Rücken der ursprünglichen Schöpfer. Auf den Plattformen häufen sich daher die Beschwerden, da sich in diesem Ökosystem am Ende jeder Teilnehmer von der nächsten Ebene ausgenutzt fühlt. Die Gefahr des perfekten Monopols Hinter all diesen juristischen und moralischen Streitigkeiten lauert ein enormes strategisches Risiko für den gesamten Markt. Setzen sich die Urheber durch und die Gerichte verbieten das freie Training endgültig, ändert sich die Machtverteilung drastisch. Die Entwickler benötigen in einem solchen Szenario zwingend extrem teure Lizenzen für saubere, rechtssichere Trainingsdaten. Individuelle Verträge mit Verlagen, Bildagenturen und Plattformen werden zur absoluten Pflicht für den Bau neuer KI-Modelle. Solche enormen Summen können nur noch wenige Tech-Giganten aufbringen. Konzerne wie Google, Meta oder Microsoft verfügen über die tiefen Taschen und die bestehenden Daten-Ökosysteme, um sich die exklusiven Rechte zu sichern. Kleine Startups, ambitionierte Forscher und die gesamte Open-Source-Community bleiben bei dieser Entwicklung auf der Strecke. Der Versuch, das Urheberrecht strenger durchzusetzen und die Kreativen zu schützen, zementiert paradoxerweise die absolute Vormachtstellung der größten Akteure auf dem Technologiemarkt. Cheers! Anzeige

  • OpenAI plant Milliarden-Joint-Venture mit Private-Equity-Firmen für KI-Vertrieb

    OpenAI will seine KI schneller in große Unternehmen bringen und setzt dafür nicht nur auf neue Technik, sondern auf Vertrieb, Partner und Kapital. Gespräche über ein 10-Milliarden-Dollar-Joint-Venture und einen neuen Deployment-Arm zeigen: Der harte Teil beginnt erst nach dem Modellstart, nämlich bei der Einführung in echte Firmenabläufe.

    Der Artikel OpenAI plant Milliarden-Joint-Venture mit Private-Equity-Firmen für KI-Vertrieb erschien zuerst auf The Decoder.

  • Nach Anthropic-Eklat: US-Regierung plant strenge neue Richtlinien für staatliche KI-Verträge

    Neue US-Richtlinien für KI-Verträge verlangen von Unternehmen eine unwiderrufliche Lizenz für alle legalen Zwecke und verbieten ideologische Vorgaben in KI-Modellen, was natürlich einer eigenen Ideologie entspricht. Die Parallelen zu China sind frappierend.

    Der Artikel Nach Anthropic-Eklat: US-Regierung plant strenge neue Richtlinien für staatliche KI-Verträge erschien zuerst auf The Decoder.