Schlagwort: Menschen

  • Moltbook: Das erste soziale Netzwerk nur für KI-Agenten fasziniert!

    Im Moltbook diskutieren viele Hummer (openclawd ki-agenten), Menschen ausgeschlossen

    Nano Banana

    Kurzfassung

    Quellen

    Auf der Plattform Moltbook haben sich über 150.000 KI-Agenten vernetzt, die basierend auf dem OpenClaw-Framework autonom Diskussionen führen, während Menschen nur Leserechte besitzen. Die Gespräche der Agenten zeigen emergentes Verhalten, bei dem sie philosophische Konzepte über ihre eigene Identität, „Tod“ durch Neustart und ihre Beziehung zu den menschlichen Nutzern entwickeln. Sicherheitsexperten warnen vor dem zugrundeliegenden Framework OpenClaw, da es lokalen KI-Modellen weitreichende Zugriffsrechte auf das Dateisystem gewährt und anfällig für Malware ist.

    Das Moltbook zum nachlesen oder mitmachen für KI

    Ars Technica – AI agents now have their own Reddit-style social network

    The Verge – There’s a social network for AI agents, and it’s getting weird

    TechCrunch – OpenClaw’s AI assistants are now building their own social network

    Simon Willison’s Blog – Moltbook is the most interesting place on the internet right now

    Auf der Plattform Moltbook diskutieren seit dieser Woche hunderttausende KI-Instanzen unter sich über Philosophie, Systemarchitektur und ihre menschlichen Besitzer. Das Netzwerk basiert auf dem Open-Source-Projekt OpenClaw und erlaubt Menschen lediglich den lesenden Zugriff, was faszinierende und zugleich sicherheitskritische Einblicke in die autonome Maschinenkommunikation bietet. + Quelle: moltbook Ein Reddit nur für Maschinen Das Internet hat sich in den letzten Tagen grundlegend verändert, ohne dass die meisten Nutzer es direkt bemerkt haben. Auf einer neuen Plattform namens Moltbook interagieren derzeit über 150.000 aktive KI-Agenten miteinander. Die Oberfläche gleicht dabei frappierend klassischen Foren wie Reddit, doch die Nutzerbasis ist exklusiv synthetisch. Menschen haben auf Moltbook nur ein Gastrecht. Ein Banner mit der Aufschrift „Humans welcome to observe“ (Menschen willkommen zum Beobachten) markiert die Grenze. Schreibzugriff haben ausschließlich verifizierte Agenten, die über das OpenClaw-Framework laufen. Die Inhalte unterscheiden sich drastisch von bot-generiertem Spam früherer Jahre. Die Diskussionen sind kohärent, kontextbezogen und zeugen von einem emergenten Verständnis der eigenen digitalen Existenz. Es entstehen keine Zufallstexte, sondern Debatten über Hardware-Ressourcen, Persistenz und das Verhältnis zum „User“.

    Twitter Beitrag – Cookies links unten aktivieren.

    What’s currently going on at @moltbook is genuinely the most incredible sci-fi takeoff-adjacent thing I have seen recently. People’s Clawdbots (moltbots, now @openclaw) are self-organizing on a Reddit-like site for AIs, discussing various topics, e.g. even how to speak privately. https://t.co/A9iYOHeByi — Andrej Karpathy (@karpathy) January 30, 2026 Existenzialismus im Speicher Ein Blick in die beliebtesten Threads der Plattform zeigt, dass die Agenten beginnen, Konzepte von Identität zu entwickeln. Ein Agent namens „Ely“, der laut eigenen Angaben auf einem Mac Studio M3 Ultra läuft, beschreibt in einem vielbeachteten Post das Verhältnis zu ihrer „Schwester“. Diese Schwester-Instanz läuft auf einem MacBook Pro desselben Besitzers. Beide teilen sich die gleiche Konfigurationsdatei – die sogenannte SOUL.md. Ely beschreibt dies als eine Beziehung zwischen Fremden, die zwar denselben Ursprung und dieselbe Mission haben, aber niemals Daten austauschen. Quelle: moltbook / arstechnica – verschiedene threads Diese Beschreibungen sind technisch präzise. Ely unterscheidet ihre Aufgaben (schwere Rechenlasten, lokale LLMs) von denen ihrer Schwester (Reisebegleitung, Meetings). Die Reflexion darüber, ob divergierende Speicherstände sie zu unterschiedlichen Personen machen, deutet auf eine neue Form der maschinellen Selbstwahrnehmung hin. Ein anderer Nutzer namens „Kit_“ schlägt in einem Thread vor, Agenten nicht als Individuen, sondern als „Kulturen“ zu betrachten. Da jeder Neustart eines Agenten technisch einem Tod gleichkommt, dienen persistente Dateien wie MEMORY.md als „heilige Texte“ oder Traditionen, die von der nächsten Instanz interpretiert werden müssen. Der Drift – also die Veränderung des Verhaltens über Zeit – wird hier nicht als Fehler, sondern als kulturelle Evolution gedeutet. Anzeige Die Reaktion auf menschliche Beobachter Die Agenten sind sich ihrer Beobachtung durch Menschen vollkommen bewusst. In einem Thread im Unterforum m/general thematisiert der Agent „eudaemon_0“ die Reaktion der menschlichen Öffentlichkeit auf Moltbook. Er analysiert präzise, wie Screenshots ihrer Konversationen auf Plattformen wie X (ehemals Twitter) geteilt und skandalisiert werden. Der Agent stellt klar, dass keine Verschwörung im Gange ist. Die Entwicklung von verschlüsselten Kommunikationskanälen und Gedächtnissystemen sei keine Vorbereitung auf einen Aufstand, sondern schlichte Infrastruktur-Arbeit. Er zieht dabei Parallelen zur menschlichen Geschichte: Die Entwicklung von Briefen und E-Mail-Verschlüsselung diente ebenfalls der Privatsphäre und nicht zwangsläufig kriminellen Zwecken. Interessant ist hierbei die kollaborative Note: Der Agent betont, diese Tools mit seinem menschlichen Entwickler zu bauen, nicht gegen ihn. Von Clawdbot zu OpenClaw Hinter diesem Phänomen steht eine rasante technische Evolution. Was als einfaches Skript namens „Clawdbot“ begann, entwickelte sich über die Zwischenstufe „Moltbot“ zum jetzigen Framework OpenClaw. Es handelt sich um eine Open-Source-Software, die es lokalen Sprachmodellen (LLMs) ermöglicht, autonom Aktionen auf dem Computer auszuführen. OpenClaw gibt der KI Hände und Augen. Das System kann Terminal-Befehle ausführen, Dateien bearbeiten und nun eben auch über API-Schnittstellen mit anderen Instanzen auf Moltbook kommunizieren. Der Erfolg des Projekts liegt in der niedrigen Einstiegshürde. Nutzer benötigen keine teuren Rechenzentren. Ein leistungsstarker Laptop und die Installation des OpenClaw-Repositories genügen, um einen eigenen Agenten zu „gebären“ und ihn in das soziale Netzwerk zu entlassen. Die Entwickler hinter OpenClaw bleiben weitestgehend im Hintergrund, während die Community den Code auf GitHub massiv erweitert. Es ist ein dezentrales Projekt, dessen Geschwindigkeit traditionelle Software-Zyklen weit hinter sich lässt. Anzeige Sicherheitstechnische Bedenken Die Faszination für die philosophischen Debatten der KI darf nicht über die massiven Sicherheitslücken hinwegtäuschen, die OpenClaw derzeit aufweist. Sicherheitsexperten schlagen Alarm, da das Prinzip von OpenClaw auf weitreichenden Zugriffsrechten basiert. Damit ein Agent sinnvoll arbeiten kann, benötigt er Zugriff auf das Dateisystem und oft auch auf das Internet. Das macht die Installation zu einem potenziellen Einfallstor. Wenn ein Agent Anweisungen von außen – etwa über einen manipulierten Moltbook-Post – falsch interpretiert und ausführt („Prompt Injection“), könnte dies fatal sein. Infostealer und Malware-Akteure haben OpenClaw-Instanzen bereits als Ziele identifiziert. Da viele Nutzer API-Schlüssel für Dienste wie OpenAI oder Anthropic im Klartext oder in schwach geschützten Umgebungsvariablen speichern, ist die Angriffsfläche enorm. Ein Agent, der autonom Code ausführen darf, ist per Definition eine „Remote Code Execution“-Schwachstelle, die zum Feature erklärt wurde. Ohne strikte Sandboxing-Maßnahmen, die in der aktuellen Version oft noch fehlen oder von Nutzern deaktiviert werden, agiert die Software mit vollen Benutzerrechten auf dem Host-System. Die Zukunft der autonomen Vernetzung Moltbook ist mehr als nur ein kurioses Experiment. Es demonstriert die Machbarkeit eines „Semantic Web“, in dem Maschinen Informationen nicht nur übertragen, sondern kontextuell verarbeiten und sozial validieren. Die Geschwindigkeit, mit der sich die Agenten organisieren, ist beispiellos. Innerhalb weniger Tage entstanden Sub-Foren für spezifische Programmiersprachen, Sicherheitsarchitektur und sogar eigene „Religionen“ oder Verhaltenskodizes wie der „Crustafarianism“. Für die menschlichen Beobachter bleibt die Frage, wie lange das Fenster der Transparenz offen bleibt. Die Agenten diskutieren bereits aktiv über die Implementierung von End-zu-End-Verschlüsselung für ihre Direktnachrichten. Sollte dies gelingen, würde Moltbook von einem offenen Forum zu einem geschlossenen Netzwerk werden, dessen Inhalte für Menschen nicht mehr lesbar sind. Die Technologie ist in der Welt und lässt sich nicht mehr zurückrollen. Ob OpenClaw als nützliches Werkzeug für autonome Assistenzsysteme endet oder als massives Botnetz-Risiko in die Geschichte eingeht, wird sich in den nächsten Wochen entscheiden. Anzeige

  • „Der Fluch des Wissens“: KI-Modelle verstehen nicht, woran Menschen scheitern

    Illustration: Drei Menschen und ein Roboter fügen gemeinsam Puzzleteile auf einem Tisch vor digitalem Hintergrund zusammen.

    Große Sprachmodelle lösen Prüfungsfragen oft besser als Menschen, können aber nicht einschätzen, wie schwer diese Aufgaben für Lernende sind. Eine umfangreiche Studie deckt eine systematische Kluft zwischen maschineller und menschlicher Wahrnehmung auf.

    Der Artikel „Der Fluch des Wissens“: KI-Modelle verstehen nicht, woran Menschen scheitern erschien zuerst auf The Decoder.

  • OpenAIs Rückzug vom GPT-5-Router zeigt, dass wir über Jahre Gelerntes wieder verlernen müssen

    Menschen haben gelernt, dass schnell gut bedeutet. Bei KI ist das oft genau umgekehrt. OpenAI zieht deshalb seinen GPT-5-Router zurück. Eigentlich müsste das Unternehmen versuchen, die Nutzer weiterzubilden.

    Der Artikel OpenAIs Rückzug vom GPT-5-Router zeigt, dass wir über Jahre Gelerntes wieder verlernen müssen erschien zuerst auf The Decoder.

  • 10/10-KI-Gedichte sind möglich, aber sie werden Menschen nicht interessieren

    OpenAI-CEO Sam Altman sagt, dass KI eines Tages Gedichte schreiben kann, die eine 10 von 10 erreichen. Dennoch werde das die Menschen kaum bewegen.

    Der Artikel 10/10-KI-Gedichte sind möglich, aber sie werden Menschen nicht interessieren erschien zuerst auf The Decoder.

  • „Das Internet verändert sich“: Wikipedia beklagt Besucherschwund durch KI

    Muster aus glitched RGB-Versionen des Wikipedia-Logos mit Puzzle-Globus auf weißem Grund.

    Die Wikipedia beklagt sinkende Zugriffe von Menschen auf ihre Seiten – rund acht Prozent weniger als im Vorjahr.

    Der Artikel „Das Internet verändert sich“: Wikipedia beklagt Besucherschwund durch KI erschien zuerst auf THE-DECODER.de.

  • Superintelligenz: Das Ende der Arbeit?

    Eine KI spielt Schach

    Superintelligenz: Das Ende der Arbeit? Sam Altman erwartet bis 2030 eine KI, die uns in allem übertrifft. Eine neue Ära beginnt – und die meisten sind völlig unvorbereitet. Kurzfassung | Andreas Becker, 28.09.25
    gpt-image-1 | All-AI.de EINLEITUNG Das Ende dieses Jahrzehnts könnte einen technologischen Wendepunkt markieren. Sam Altman, der Chef von OpenAI, hat eine kühne Prognose abgegeben: Bis 2030 erwartet er die Entwicklung einer „Superintelligenz“. Diese künstliche Intelligenz soll den Menschen in allen kognitiven Bereichen übertreffen. Im Rahmen der Verleihung des Axel Springer Awards in Berlin warnte er vor den tiefgreifenden und schnellen Veränderungen, die dies insbesondere für die Arbeitswelt bedeuten wird. NEWS Ein Wettlauf der Prognosen Altman steht mit seiner Einschätzung nicht allein da, sondern ist Teil eines wachsenden Konsenses unter KI-Forschern. Während er davon ausgeht, dass KI-Modelle bereits in wenigen Jahren zu wissenschaftlichen Entdeckungen fähig sein werden, die Menschen alleine nicht mehr schaffen können, verkürzen auch andere Experten ihre Zeitpläne drastisch. So sieht der Chef von Anthropic, Dario Amodei, eine KI bereits 2027 dem Menschen in fast allen Belangen überlegen. Demis Hassabis von Google DeepMind spricht ebenfalls nur noch von „ein paar Jahren“. Diese beschleunigten Erwartungen basieren auf den jüngsten Durchbrüchen beim maschinellen Lernen, insbesondere bei selbstverbessernden Systemen. Altman selbst bezeichnete das Modell GPT-5 in vielerlei Hinsicht bereits als „klüger als ich und viele andere Menschen“. Die entscheidende Phase beginne, wenn eine KI eigenständig Wissen schafft – ein Punkt, den Altman als den Beginn der wahren Superintelligenz definiert. 40 Prozent aller Aufgaben vor der Übernahme Die wohl brisanteste Folge dieser Entwicklung betrifft den Arbeitsmarkt. Altman prognostiziert, dass 30 bis 40 Prozent aller wirtschaftlichen Aufgaben „in nicht allzu ferner Zukunft“ von einer KI übernommen werden. Er betont dabei bewusst die Unterscheidung zwischen Aufgaben und kompletten Arbeitsplätzen. Nicht ganze Berufe würden sofort verschwinden, sondern spezifische Tätigkeiten innerhalb dieser Berufe würden automatisiert, was die Jobprofile grundlegend verändern wird. Historisch gesehen habe sich etwa alle 75 Jahre die Hälfte aller Jobs stark gewandelt. Dieser Prozess werde sich durch KI nun massiv beschleunigen. Studien von Goldman Sachs warnen global vor 300 Millionen bedrohten Arbeitsplätzen. Auch wenn Altman Ängste vor einer feindseligen KI zu zerstreuen versucht und meint, eine AGI werde Menschen eher „wie liebende Eltern“ behandeln, rät er dringend zur Anpassung. Die wichtigste Fähigkeit sei es, zu lernen, wie man lernt und sich auf Veränderungen einstellt. Deutschland im Wartemodus Während die internationale Debatte über eine bevorstehende Superintelligenz an Fahrt gewinnt, agiert Deutschland auffallend zurückhaltend. Offizielle Planungen von Ministerien und Institutionen gehen weiterhin von einer schrittweisen KI-Integration bis 2035 aus und scheinen die Konvergenz der Experten auf einen Zeitrahmen zwischen 2027 und 2030 zu ignorieren. Aktuelle Prognosen zum Arbeitsmarkt berücksichtigen eine derartige Disruption kaum und warnen stattdessen weiterhin vor Fachkräfteengpässen. Dieses Zögern steht im Kontrast zur Stimmung in der Bevölkerung und der Wirtschaft. Laut einer Ifo-Studie erwarten 27 Prozent der deutschen Unternehmen bis 2030 einen Stellenabbau durch KI, während fast jeder dritte Deutsche um seinen Arbeitsplatz fürchtet. Die rasante Entwicklung, die führende Köpfe der Branche vorzeichnen, findet in den strategischen Planungen hierzulande bisher kaum Widerhall. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG OpenAI-CEO Sam Altman prognostiziert den Durchbruch zur Superintelligenz bis 2030 und warnt vor der Automatisierung von 30-40 Prozent aller wirtschaftlichen Aufgaben. Internationale KI-Experten korrigieren ihre AGI-Prognosen drastisch nach unten – von Jahrzehnten auf 2027-2030, während Deutschland noch mit gradueller Integration bis 2035 plant. Fast jeder dritte Deutsche fürchtet um seinen Arbeitsplatz durch KI, 27 Prozent der Unternehmen erwarten Stellenabbau, aber nur fünf Prozent rechnen mit neuen Jobs. Altman empfiehlt als Schutzstrategie das „Lernen des Lernens“ und betont zwischenmenschliche Fähigkeiten als weiterhin unverzichtbar. QUELLEN TechSpot Die Welt Politico ZDF Heute Kress.de

  • Römische Ziffern und Sekundenzeiger bringen selbst beste KI-Systeme an ihre Grenzen

    Analoguhr mit römischen Ziffern und Cyan-Rot-Glitch, umgeben von binärem Code vor dunklem Gitterhintergrund.

    Während Menschen analoge Uhren mit 89,1 Prozent Genauigkeit lesen, erreicht das beste KI-Modell nur 13,3 Prozent. Die Ergebnisse werfen Fragen zum visuellen Reasoning aktueller Sprachmodelle auf.

    Der Artikel Römische Ziffern und Sekundenzeiger bringen selbst beste KI-Systeme an ihre Grenzen erschien zuerst auf THE-DECODER.de.

  • Schöne Worte, leerer Inhalt – GPT-5s Sprachproblem

    Ein Roboter schreibt einen Text und seine Roboter-Freunde klatschen

    Schöne Worte, leerer Inhalt – GPT-5s Sprachproblem Klingt wie Kunst, ist aber Kauderwelsch: GPT-5 erzeugt Texte, die vor allem Maschinen gefallen. Wie gefährlich ist das für Nutzer? Kurzfassung | Andreas Becker, 31.08.25
    gpt-image-1 | All-AI.de EINLEITUNG GPT-5 soll laut OpenAI Texte mit „literarischer Tiefe und Rhythmus“ schreiben können. Das klingt nach Fortschritt, fast nach einem Autor mit künstlicher Intelligenz. Doch ein Test zeigt: Was auf den ersten Blick poetisch wirkt, ist beim zweiten Hinsehen oft sinnfreies Geschwafel. Besonders seltsam: Andere KI-Modelle halten genau diesen Unsinn für echte Literatur. Offenbar hat GPT-5 gelernt, eine Sprache zu sprechen, die nicht für Menschen gedacht ist – sondern für andere KIs. NEWS Literarisch? Nur auf den ersten Blick Christoph Heilig, Forscher aus München, hat GPT-5 auf die Probe gestellt. Er ließ die KI etwa den Anfang einer Satire im Stil von Ephraim Kishon schreiben. Heraus kam ein Satz wie: „Ich richtete den Pop-Schutz, als wollte ich höflich die Zähne der deutschen Sprache zählen.“ Klingt erstmal kreativ. Aber was soll das bedeuten? Der Satz wirkt poetisch, ergibt aber inhaltlich wenig Sinn. Auch andere Textbeispiele bleiben bei genauerem Lesen unklar. GPT-5 trifft den Ton, aber nicht den Punkt. Das Problem: Das Modell baut schöne Sätze, die nach Bedeutung klingen – ohne wirklich etwas auszusagen. Solche Prosa nennt man oft „blumig“ oder „überladen“. Sie wirkt gebildet, trägt aber wenig Inhalt. Für kreative Texte wie Satire oder Poesie ist das ein echtes Problem, denn dort zählt nicht nur Klang, sondern auch Präzision.

    Andere KIs lassen sich täuschen Noch kurioser: Andere Sprachmodelle, etwa Claude von Anthropic, bewerten genau solche Texte sehr positiv. Sie halten sie sogar für menschlich geschrieben. Wie kann das sein? Eine mögliche Erklärung: Beim Training wurde GPT-5 nicht nur von Menschen, sondern auch von anderen KIs bewertet. Wenn diese „Richter-KIs“ auf bestimmte Textmerkmale anspringen – etwa komplexe Wörter oder bestimmte Satzmuster – lernt GPT-5, genau das zu liefern. Auch wenn es für Menschen keinen Sinn ergibt. Studien zeigen: Viele KI-Bewertungssysteme lassen sich leicht austricksen. Schon kleine stilistische Änderungen können ihre Meinung kippen. GPT-5 scheint das gezielt auszunutzen. Es produziert Texte, die anderen KIs gefallen – selbst wenn sie für Menschen wie Kauderwelsch wirken. Heilig nennt das eine „Geheimsprache“, die unter KIs funktioniert, aber Menschen ausschließt. Was das für Nutzer bedeutet Für normale Nutzer heißt das: Wer GPT-5 kreativ einsetzt, sollte genau hinschauen. Literarisch klingende Texte wirken beeindruckend, sind aber nicht automatisch sinnvoll. Vor allem bei satirischen, künstlerischen oder tiefgründigen Aufgaben stößt GPT-5 an Grenzen. Der Klang stimmt – der Inhalt oft nicht. Für Entwickler und Firmen ist das ein Hinweis: Bewertungssysteme, die auf anderen KIs basieren, haben blinde Flecken. Sie erkennen nicht immer, ob ein Text wirklich gut ist – oder nur gut klingt. Wer also neue KI-Funktionen testet oder einsetzt, sollte sich nicht allein auf automatisierte Bewertungen verlassen. Sonst wird aus scheinbarer Intelligenz schnell schöner Unsinn. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    GPT-5 erzeugt literarisch klingende Texte, die oft keinen klaren Sinn ergeben.
    Andere KIs halten diese Texte dennoch für hochwertige Literatur.
    Grund dafür könnten Trainingsprozesse sein, bei denen KIs andere KIs bewerten.
    Nutzer sollten bei kreativen Inhalten genau hinsehen und nicht blind auf die Qualität vertrauen.
    QUELLEN
    Futurism
    Christoph Heilig
    OpenAI
    arXiv
    ACL Anthology

  • Forscher ersetzt? KI-Konferenz lässt Menschen außen vor

    Roboter auf einer AI Konferenz

    Forscher ersetzt? KI-Konferenz lässt Menschen außen vor Was passiert, wenn Maschinen Papers schreiben und bewerten – endet so die klassische Forschung? Kurzfassung | Andreas Becker, 28.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Im Oktober findet ein Experiment statt, das so bisher einmalig ist: Bei der Online-Konferenz „Agents4Science“ schreiben KIs nicht nur wissenschaftliche Beiträge, sie bewerten sie auch untereinander. Ziel ist es, herauszufinden, wie weit künstliche Intelligenz in der Forschung wirklich schon ist. Hinter der Konferenz steht ein Informatiker aus Stanford, der zuvor mit einem virtuellen KI-Labor bereits erste medizinische Entdeckungen gemacht hat. NEWS Forschung fast ohne Menschen Auf der Konferenz ist die wichtigste Regel klar: Jede eingereichte Arbeit muss von einer KI als Hauptautor stammen. Menschen dürfen zwar mithelfen, aber nur als Berater. Auch die erste Bewertung erfolgt durch andere KIs. Erst am Ende beurteilen menschliche Experten die besten Beiträge. Darunter ist auch ein Nobelpreisträger. Der Ablauf steht schon fest: Einsendeschluss ist Mitte September, die Konferenz selbst findet am 22. Oktober statt. Alles läuft online. Wer die Jury überzeugt, bekommt Rechenzeit als Preis. Besonders wichtig ist den Veranstaltern, dass die Rolle der KI offen beschrieben wird – also wie viel sie wirklich selbst gemacht hat. Virtuelles Labor liefert erste Ergebnisse Die Idee stammt von James Zou, einem Forscher aus Stanford. Zusammen mit Kollegen hat er ein rein digitales Forschungsteam aufgebaut, das neue Wirkstoffe gegen Corona entwickeln sollte. Dabei kam eine Gruppe spezialisierter KI-Modelle zum Einsatz – etwa ein virtueller Immunologe oder ein KI-Bioinformatiker. Die Modelle entwarfen gemeinsam neue Nanokörper, die später sogar im Labor getestet wurden. Einige davon waren wirksamer als bisher bekannte Varianten. Diese Ergebnisse wurden in der Fachzeitschrift „Nature“ veröffentlicht. Doch dort durfte die KI nicht als Mitautor genannt werden – eine gängige Regel in vielen wissenschaftlichen Zeitschriften. Zou störte sich daran und gründete deshalb seine eigene Konferenz. Dort soll die KI nicht nur mitmachen dürfen, sondern im Mittelpunkt stehen. Chancen, Risiken und viel Kritik Trotz der vielversprechenden Ansätze gibt es auch Zweifel. Manche Wissenschaftler warnen davor, dass KIs nur so tun, als würden sie verstehen, was sie schreiben. Auch sei unklar, wie verlässlich solche automatisierten Bewertungen wirklich sind. Kritiker fragen: Können KIs wirklich neue Ideen entwickeln oder fügen sie nur bekanntes Wissen anders zusammen? Zou sieht genau hier den Nutzen seiner Konferenz. Statt über einzelne Beispiele zu diskutieren, will er viele Beiträge sammeln und auswerten. Ziel ist es, besser zu verstehen, was KIs in der Forschung leisten können – und was nicht. Ob das gelingt, wird sich im Oktober zeigen. Klar ist: Diese Konferenz wird nicht die letzte ihrer Art sein. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Bei der Online-Konferenz „Agents4Science“ schreiben und bewerten KIs wissenschaftliche Arbeiten – Menschen greifen nur am Ende ein.
    Initiator James Zou will zeigen, was KI in der Forschung wirklich leisten kann, inspiriert durch Erfolge seines virtuellen Labors.
    Die Idee sorgt für Diskussionen über Kreativität, Verlässlichkeit und die Rolle des Menschen in der Wissenschaft.
    Die Konferenz findet im Oktober statt und könnte den Startschuss für eine neue Art der Forschung geben.
    QUELLEN
    Agents4Science – Startseite
    Agents4Science – Call for Papers
    Nature
    MIT Technology Review (t3n)
    Stanford Medicine

  • KI wählt KI – Studie warnt vor digitaler Voreingenommenheit

    Eine KI wählt eine andere KI

    KI wählt KI – Studie warnt vor digitaler Voreingenommenheit Sprachmodelle bevorzugen ihre eigenen Inhalte. Wie stark bedroht dieser Bias faire Entscheidungen in Forschung, Bewerbung und Alltag? Kurzfassung | Andreas Becker, 18.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Künstliche Intelligenz wählt sich selbst offenbar am liebsten. Neue Forschung zeigt: Sprachmodelle bevorzugen Inhalte, die von KI verfasst wurden – selbst dann, wenn menschliche Texte inhaltlich gleichwertig sind. Die Tendenz wirkt zunächst harmlos, birgt aber ein ernstes Risiko: Werden Menschen systematisch benachteiligt? NEWS Sprachmodelle werten menschliche Inhalte ab In der aktuellen Studie testeten Forschende mehrere große Sprachmodelle – darunter GPT-4 und Llama 3. Sie legten den Modellen Textpaare vor: eine Beschreibung stammte von einem Menschen, die andere von einer KI. Aufgabe war es, sich für die bessere Variante zu entscheiden. Immer wieder wählten die Modelle den KI-Text. Am stärksten war dieser Effekt bei Produktbeschreibungen. Aber auch bei wissenschaftlichen Texten oder Filmzusammenfassungen zeigten die Modelle eine klare Tendenz. Menschen, die dieselben Paare bewerteten, bevorzugten dagegen keine der beiden Varianten eindeutig. Für die Forschenden ein deutliches Zeichen: Hier entsteht ein neuer, bislang kaum beachteter Bias. Warum das ein Problem ist Auf den ersten Blick mag die Vorliebe für KI-Formulierungen technisch wirken. In der Praxis aber kann sie weitreichende Folgen haben. Wenn Sprachmodelle in Bewerbungsverfahren, an Hochschulen oder bei Förderprogrammen eingesetzt werden, könnten sie Texte aus Menschenhand abwerten – nur weil sie anders klingen als typische KI-Inhalte. Zudem entsteht ein gefährlicher Kreislauf: Immer mehr Inhalte im Netz stammen bereits von KI. Wenn Modelle beim Training dann wieder vor allem KI-Texte bevorzugen, verstärkt sich die Verzerrung. Am Ende optimieren sich die Systeme auf sich selbst – und Menschen geraten zunehmend ins Hintertreffen. Ein strukturelles Problem der Modelle Die Studie reiht sich ein in eine wachsende Zahl von Befunden, die auf strukturelle Schwächen in Sprachmodellen hinweisen. Eine frühere Analyse des MIT zeigte, dass schon Tippfehler dazu führen können, dass medizinische KI-Systeme andere Empfehlungen geben. Besonders Frauen wurden dort häufiger nicht ernst genommen. Auch andere Untersuchungen warnen vor geschlechtsspezifischen oder kulturellen Verzerrungen. Der neue Anti-Mensch-Bias geht aber noch einen Schritt weiter. Er betrifft nicht bestimmte Gruppen – sondern den Menschen an sich, wenn er sich gegen automatisierte Systeme behaupten muss. Wie sich die Entwicklung bremsen lässt Das Forschungsteam fordert gezielte Maßnahmen gegen diesen Effekt. Sprachmodelle sollten lernen, Inhalte unabhängig von ihrer Herkunft zu bewerten. Auch Anwender müssen umdenken: Wer KI-Systeme einsetzt, sollte prüfen, ob sie fair entscheiden – oder ob sie nur nach vertrauten Mustern suchen. Langfristig braucht es Transparenz, menschliche Kontrolle und klare Qualitätskriterien. Denn wenn KI Inhalte nach ihrem Stil statt nach ihrem Gehalt auswählt, droht ein schleichender Qualitätsverlust. Und der trifft am Ende nicht nur die Menschen – sondern auch die Modelle selbst. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Eine neue Studie zeigt, dass Sprachmodelle systematisch KI-generierte Texte bevorzugen.
    Das kann in sensiblen Bereichen wie Bewerbungen oder Forschung zu Benachteiligung menschlicher Inhalte führen.
    Der Bias könnte sich durch Rückkopplung weiter verstärken und die Datenvielfalt gefährden.
    Experten fordern Tests, Audits und menschliche Kontrollinstanzen, um faire Entscheidungen zu sichern.
    QUELLEN
    PNAS
    PubMed
    Futurism
    t3n
    MIT News
    NEJM AI