Schlagwort: Tencent

  • China genehmigt laut Reuters ByteDance, Alibaba und Tencent den Kauf von über 400.000 Nvidia H200-Chips

    An editorial-style, hand-drawn modern illustration depicting a capable artificial intelligence computer chip build in CHINA. The illustration is sophisticated and thought-provoking, with a capable artificial intelligence computer chip depicted realistically, yet subtly altered to suggest artificiality. The background is elegant and minimalist, focusing the viewer's attention on the a capable artificial intelligence computer chip. The style is sophisticated and professional, suitable for an editorial context

    China hat ByteDance, Alibaba und Tencent die Genehmigung erteilt, Nvidias H200-KI-Chips zu kaufen, berichtet Reuters unter Berufung auf vier Insider.

    Der Artikel China genehmigt laut Reuters ByteDance, Alibaba und Tencent den Kauf von über 400.000 Nvidia H200-Chips erschien zuerst auf The Decoder.

  • Tencents Hunyuan 3.0 ist die neue Nummer 1

    Hunyuan Image 3.0 Schrift

    Tencents Hunyuan 3.0 ist die neue Nummer 1 Das frei zugängliche Modell setzt neue Maßstäbe in der KI-Bilderstellung und verweist die teure Konkurrenz auf die Plätze. Kurzfassung | Andreas Becker, 08.10.25
    Tencent | All-AI.de Ein Paukenschlag für die Open-Source-Bewegung erschüttert die KI-Welt. Das chinesische Unternehmen Tencent hat mit seinem Bildgenerator Hunyuan Image 3.0 die Führung übernommen. Das frei verfügbare Modell verdrängte Googles Konkurrenzprodukt von Platz eins der wichtigen LMArena-Bestenliste. Dieser Sieg markiert einen potenziellen Wendepunkt im Wettbewerb mit den geschlossenen Systemen der Tech-Giganten. Googles überraschende Niederlage Der Erfolg von Hunyuan Image 3.0 ist ein historisches Ereignis. Erstmals seit langer Zeit führt wieder ein Open-Source-Modell das unabhängige Ranking der LMArena an. Diese Plattform, betrieben von Forschern der University of California, Berkeley, ermittelt die besten Modelle durch anonyme Abstimmungen von Nutzern. Tencents KI setzte sich dabei gegen Googles hochgelobtes Modell „Nano Banana“ durch. Die Rangliste gilt in der Szene als fairer Leistungsvergleich. Nutzer bewerten dabei die Ergebnisse zweier anonymer KIs, ohne zu wissen, welches Modell welches Bild erzeugt hat. Der erste Platz für Hunyuan Image 3.0 belegt eindrucksvoll die Konkurrenzfähigkeit quelloffener Alternativen. + Quelle: LLMArena Die Technik hinter dem Erfolg Die Überlegenheit des Modells ist kein Zufall. Tencent baute mit 80 Milliarden Parametern das größte bisher veröffentlichte Open-Source-Modell zur Bilderzeugung. Eine innovative Architektur, bekannt als Mixture-of-Experts (MoE), sorgt dabei für extreme Effizienz. Das System aktiviert pro Anfrage nur einen Bruchteil seiner Parameter, ähnlich wie ein Gehirn nur die relevanten Neuronen für eine Aufgabe nutzt. Diese technische Raffinesse unterscheidet Hunyuan Image 3.0 von vielen Konkurrenten. Das Modell basiert auf einer einheitlichen multimodalen Architektur. Es verarbeitet Text und Bildinformationen in einem integrierten Prozess und erzeugt dadurch besonders kontextbezogene und hochwertige visuelle Ergebnisse. + Quelle: Tencent Intelligenz und Zugänglichkeit Eine besondere Stärke der KI liegt in ihrer intelligenten Interpretation von Befehlen. Hunyuan Image 3.0 kann vage Anweisungen selbstständig mit passenden Details anreichern. Diese Fähigkeit zur automatischen Verbesserung von Prompts basiert auf einer gewaltigen Trainingsdatenbank. Tencent nutzte dafür fünf Milliarden Bild-Text-Paare und sechs Billionen Text-Token. Trotz der enormen Leistung stellt Tencent das Modell der Community vollständig zur Verfügung. Der Code und die trainierten Modellgewichte sind frei über Plattformen wie GitHub und Hugging Face zugänglich. Damit demokratisiert das Unternehmen den Zugang zu Spitzentechnologie und fordert die etablierten Anbieter heraus. Quelle: Tencent MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG
    Tencents Open-Source-Modell Hunyuan Image 3.0 hat Platz 1 der LMArena-Bestenliste für Text-zu-Bild-Generierung erreicht.
    Es übertrifft damit das bisher führende Modell „Nano Banana“ von Google, was einen wichtigen Sieg für die Open-Source-Community darstellt.
    Die Leistung basiert auf seiner enormen Größe von 80 Milliarden Parametern und einer effizienten Mixture-of-Experts-Architektur.
    Das Modell ist mitsamt Code und Gewichten frei verfügbar, was den Zugang zu KI-Spitzentechnologie demokratisiert.
    QUELLEN
    Tencent Hunyuan GitHub
    Tech360.tv
    OpenSourceForU
    South China Morning Post

  • Tencent wirbt KI-Forscher von OpenAI ab

    Tencent hat den KI-Forscher Shunyu Yao von OpenAI abgeworben, berichtet Bloomberg unter Berufung auf mit der Sache vertraute Personen.

    Der Artikel Tencent wirbt KI-Forscher von OpenAI ab erschien zuerst auf THE-DECODER.de.

  • Tencent schlägt Google bei Übersetzungen – mit Open-Source

    Ein futuristischer AI Translator

    Tencent schlägt Google bei Übersetzungen – mit Open-Source Zwei neue Modelle dominieren internationale Benchmarks und sind frei nutzbar. Warum setzen sie neue Standards bei Qualität und Effizienz? Kurzfassung | Andreas Becker, 02.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Das chinesische Tech-Unternehmen Tencent hat zwei neue KI-Modelle zur maschinellen Übersetzung veröffentlicht – frei verfügbar und technisch überraschend stark. Die Modelle Hunyuan-MT-7B und Hunyuan-MT-Chimera-7B übertreffen laut Benchmarks etablierte Systeme wie Google Translate und GPT-4.1. Besonders bemerkenswert: Trotz ihrer kompakten Größe liefern sie in fast allen Sprachkombinationen die besten Ergebnisse. NEWS Hohe Trefferquote in internationalen Benchmarks Bei der diesjährigen WMT25, einem der wichtigsten Vergleichstests für Übersetzungssysteme, erreichen die neuen Tencent-Modelle in 30 von 31 Sprachpaaren die höchsten Bewertungen. Getestet wurde die Übersetzungsqualität zwischen 33 Sprachen – von Chinesisch, Englisch und Spanisch bis hin zu selten digitalisierten Sprachen wie Isländisch, Estnisch oder Marathi. Ein besonderer Fokus liegt auf der Übersetzung zwischen Mandarin-Chinesisch und den Minderheitensprachen Chinas. Dazu zählen Kasachisch, Uigurisch, Mongolisch und Tibetisch. Gerade in diesen Kombinationen schneiden die Modelle deutlich besser ab als bestehende Systeme. In einigen Fällen liegt die Übersetzungsqualität mehr als 50 Prozent über den bisher besten Werten. + Quelle: Tencent Kompakte Technik mit ungewöhnlicher Trainingsmethode Beide Modelle basieren auf nur 7 Milliarden Parametern – deutlich weniger als viele der aktuellen Großmodelle. Trotzdem erreichen sie gleichwertige oder bessere Resultate. Möglich macht das ein mehrstufiges Trainingsverfahren, das klassische Methoden mit Belohnungslernen kombiniert. Dabei wurde unter anderem ein riesiger Datensatz speziell für seltene Sprachen genutzt, um die Modelle gezielt zu stärken. Das Modell Chimera-7B geht noch einen Schritt weiter: Es kombiniert mehrere Übersetzungsvorschläge zu einer optimierten Fassung. Dieser sogenannte Fusionsansatz führt laut internen Tests zu rund zwei Prozent besseren Ergebnissen im Vergleich zu Einzelmodellen – vor allem bei längeren und komplexeren Sätzen. Open Source und vielseitig einsetzbar Tencent stellt beide Modelle frei auf Hugging Face zur Verfügung. Der komplette Quellcode ist zusätzlich auf GitHub abrufbar. Durch ihre geringe Größe lassen sich die Modelle auch mit begrenzter Hardware nutzen – etwa in Forschungseinrichtungen, Startups oder auf Edge-Geräten. Die Veröffentlichung kommt zu einem Zeitpunkt, an dem auch Google seine Übersetzungs-KI modernisiert. Doch während dort neue Funktionen wie Live-Übersetzung und Sprachtraining im Vordergrund stehen, richtet sich Tencents Ansatz eher an Entwickler, die leistungsstarke und anpassbare Übersetzungssysteme benötigen – ohne Lizenzkosten und mit voller Kontrolle über die Technik. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Tencent hat zwei neue Open-Source-Übersetzungsmodelle veröffentlicht, die in 30 von 31 Sprachpaaren die WMT25-Benchmarks anführen.
    Die Modelle decken 33 Sprachen ab, inklusive wenig digitalisierter Sprachen wie Kasachisch, Uigurisch oder Tibetisch.
    Ein Ensemble-Ansatz namens Chimera verbessert die Übersetzungsqualität durch Systemfusion um mehrere Prozentpunkte.
    Mit nur 7 Milliarden Parametern sind die Modelle leichtgewichtig und effizient, bei gleichzeitig hoher Genauigkeit.
    QUELLEN
    Hugging Face – Hunyuan-MT-Chimera-7B
    Hugging Face – Hunyuan-MT-7B
    GitHub – Hunyuan-MT Repo
    The Verge – Google Translate Neuerungen
    9to5Google – AI-Features für Google Translate

  • Neues Tencent-Modell generiert stabile Kamerafahrten durch KI-Welten

    Mit HunyuanWorld-Voyager will Tencent realistische 3D-Szenen aus Einzelbildern erzeugen – ohne komplexe 3D-Modelle. Das System kombiniert RGB- und Tiefeninformationen mit einem speicheroptimierten Weltgedächtnis.

    Der Artikel Neues Tencent-Modell generiert stabile Kamerafahrten durch KI-Welten erschien zuerst auf THE-DECODER.de.

  • Tencent veröffentlicht zwei leistungsfähige Open-Source-Übersetzungsmodelle

    Grüne Sprechblase mit chinesischem Zeichen, Pfeil zur gelben Sprechblase mit A, flankiert von Dokument- und Globus-Icons.

    Das chinesische Tech-Unternehmen Tencent hat zwei spezialisierte Übersetzungsmodelle als Open Source veröffentlicht. Die KI-Systeme sollen bei einem internationalen Vergleichstest besser abschneiden als etablierte Dienste wie Google Translate.

    Der Artikel Tencent veröffentlicht zwei leistungsfähige Open-Source-Übersetzungsmodelle erschien zuerst auf THE-DECODER.de.

  • Hunyuan GameCraft wandelt Bilder in interaktive Gaming-Videos um

    Tencent hat mit Hunyuan-GameCraft ein neues KI-Framework vorgestellt, das aus einzelnen Bildern interaktive Videos erzeugt.

    Der Artikel Hunyuan GameCraft wandelt Bilder in interaktive Gaming-Videos um erschien zuerst auf THE-DECODER.de.

  • Tencent Hunyuan-Large-Vision: Multimodales KI-Modell erreicht Spitzenplatz in China

    Cartoon-Maskottchen mit Fernglas in Museum vor ikonischen Gemälden unter dem Schriftzug „Hunyuan-Large-Vision“.

    Der Technologiekonzern Tencent hat mit Hunyuan-Large-Vision ein multimodales KI-Modell veröffentlicht, das in einer Rangliste zum Bildverständnis den höchsten Platz aller chinesischen Modelle erreicht.

    Der Artikel Tencent Hunyuan-Large-Vision: Multimodales KI-Modell erreicht Spitzenplatz in China erschien zuerst auf THE-DECODER.de.

  • Text im Bild: Tencent überholt GPT-4o knapp

    Bilder von X-Omni

    Text im Bild: Tencent überholt GPT-4o knapp X-Omni punktet in Benchmarks mit beeindruckender Textqualität. Was bedeutet das für den KI-Markt? Kurzfassung | Andreas Becker, 16.08.25
    Tencent | All-AI.de EINLEITUNG Mit X-Omni stellt Tencent ein KI-System vor, das gleich mehrere offene Komponenten kombiniert – und dabei GPT-4o erstaunlich nahekommt. Besonders bei der Darstellung von Text in Bildern zeigt das Modell in Benchmarks starke Ergebnisse. Möglich macht das ein neuartiger Trainingsansatz mit Reinforcement Learning. Was steckt hinter diesem Open-Source Herausforderer? NEWS Zwei Modelle, ein gemeinsames Ziel X-Omni verbindet ein autoregressives Sprachmodell mit einem Diffusionsdecoder. Ersteres plant, welche Bedeutungselemente im Bild erscheinen sollen, letzterer erzeugt daraus die visuellen Inhalte. Während viele vergleichbare Systeme beide Komponenten separat trainieren, geht Tencent einen anderen Weg: Reinforcement Learning bringt die Modelle gezielt aufeinander abgestimmt ins Gleichgewicht. Die Technik dahinter ist ausgeklügelt. Statt Bilder pixelweise zu analysieren, nutzt X-Omni eine semantische Tokenisierung. Ein spezieller Tokenizer zerlegt Bilder in über 16.000 Bedeutungseinheiten. Grundlage ist das Open-Source-Modell Qwen2.5 von Alibaba, erweitert um visuelle Schichten. Der Decoder FLUX.1-dev stammt vom Freiburger Start-up Black Forest Labs. Gelernt wird über ein mehrstufiges Bewertungssystem. Es prüft, ob Bilder ästhetisch wirken, die Texteingabe korrekt umgesetzt ist und ob eingebetteter Text gut lesbar bleibt. Daraus ergibt sich Feedback, das die Token-Erzeugung Schritt für Schritt verbessert. + Quelle: Tencent Starke Texte, gute Bilder In Benchmarks zeigt sich der Vorteil dieses Ansatzes vor allem bei der Darstellung von Text. Im englischen OneIG-Test erreicht X-Omni 0,901 Punkte – der höchste gemessene Wert. Auch bei chinesischen Texten liegt es weit vorn. Auf dem neuen LongText-Benchmark überzeugt das Modell besonders bei langen Absätzen. Zwar gibt es bei dichten Texten noch gelegentliche Fehler, doch die Lesequalität ist insgesamt hoch. Bei der Bildgenerierung erreicht X-Omni auf dem DPG-Benchmark 87,65 Punkte – mehr als GPT-4o und alle anderen offenen „Unified Models“. Auch beim OCRBench, der Textgenauigkeit prüft, schneidet X-Omni solide ab. Der Vorsprung ist meist gering, aber konstant. + Quelle: Tencent Ein Open-Source-System mit Ambitionen Tencents Ansatz zeigt, wie leistungsfähig offene Kombinationen sein können. X-Omni nutzt Komponenten unterschiedlicher Herkunft – auch von Konkurrenten – und formt daraus ein Modell auf hohem Niveau. Der Quellcode, Modelle und sogar ein Datensatz für lange Texte in Bildern stehen frei zur Verfügung. Ein großer Durchbruch ist es nicht. Doch X-Omni zeigt, wie sich Qualität und Offenheit verbinden lassen. Das System ist kein fertiges Produkt, sondern eine starke Basis für weitere Entwicklung – und ein spannendes Signal, dass Open-Source-Projekte zunehmend mit großen kommerziellen Modellen mithalten können. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Tencent hat mit X-Omni ein Open-Source-Bildmodell vorgestellt, das GPT-4o in Benchmarks teilweise übertrifft – besonders bei Text in Bildern.
    Die Architektur kombiniert semantische Token mit Diffusionsdecoder und nutzt Reinforcement Learning für optimierte Ergebnisse.
    Das Modell liefert starke Textqualität und solide Bildleistung, ganz ohne classifier-free guidance.
    Durch offene Komponenten und klare Trainingsmethoden bietet X-Omni viel Potenzial für Entwickler und Forscher.
    QUELLEN
    arXiv
    GitHub – X-Omni
    Hugging Face – Modell
    Projektseite
    Hugging Face – FLUX.1-dev
    Hugging Face – LongText-Bench

  • Hunyuan World Model 1.0: Tencent veröffentlicht offenes „Welt“modell für 3D-Generierung

    Mit Hunyuan World Model 1.0 stellt Tencent ein Open-Source-Modell zur text- und bildbasierten Generierung immersiver 3D-Welten vor. Die Umsetzung hat jedoch noch Grenzen.

    Der Artikel Hunyuan World Model 1.0: Tencent veröffentlicht offenes „Welt“modell für 3D-Generierung erschien zuerst auf THE-DECODER.de.