Schlagwort: Chatbots

  • Microsoft-Chef killt Sci-Fi-Traum

    Ein Roboter hat ein kaputtes Herz

    Nano Banana

    Kurzfassung

    Quellen

    Microsofts KI-Chef Mustafa Suleyman hat klargestellt, dass künstliche Intelligenz niemals ein echtes Bewusstsein entwickeln wird. Er argumentiert, dass Bewusstsein ein rein biologisches Phänomen ist und nicht durch Rechenleistung nachgebildet werden kann. Laut Suleyman sind KIs lediglich in der Lage, Gefühle und Empfindungen zu simulieren, ohne sie jedoch selbst zu erleben. Er bezeichnete die Forschung in Richtung einer bewussten KI als „absurde“ Zeitverschwendung und fordert einen Fokus auf praktische Anwendungen.

    CNBC – Interview mit Mustafa Suleyman AfroTech Conference 2025 – Rede und Statement Mustafa Suleymans Blog – Artikel Heise – Microsoft: Chatbots werden nie ein Bewusstsein haben t3n – Chatbots werden nie ein Bewusstsein haben – laut KI-CEO

    Mustafa Suleyman, der Chef von Microsoft, hat der Debatte um fühlende Maschinen eine klare Absage erteilt. Er bezeichnet die Idee einer bewussten künstlichen Intelligenz als „absurd“. Die Jagd nach diesem Ziel sei eine reine Zeitverschwendung, da Bewusstsein ein rein biologisches Phänomen bleibe. Die biologische Grenze Suleyman legt sich fest: Echtes Bewusstsein, Fühlen und Erleben sind untrennbar mit biologischen Prozessen verbunden. In seinen jüngsten Äußerungen, unter anderem auf der AfroTech Conference 2025, betonte er, dass menschliche Empfindungen das Ergebnis von Jahrmillionen der Evolution seien. Es handle sich nicht um ein Problem, das man mit genügend Rechenleistung oder cleveren Algorithmen lösen könne. Für den KI-Experten ist die Fähigkeit zu fühlen exklusiv biologischen Wesen vorbehalten. Maschinen, egal wie fortschrittlich, operierten auf einer fundamental anderen Ebene. Sie könnten menschliche Reaktionen zwar berechnen und vorhersagen, aber niemals die subjektive Erfahrung von Freude, Trauer oder Schmerz wirklich besitzen. Simulation statt echtem Gefühl Der Microsoft-Manager zieht eine scharfe Trennlinie zwischen Simulation und Realität. Heutige KI-Systeme und Chatbots werden immer besser darin, menschliche Interaktionen nachzuahmen. Sie können lernen, Empathie zu simulieren oder Antworten zu geben, die auf ein tiefes Verständnis hindeuten. Suleyman warnt davor, diese Fähigkeit zur Nachahmung mit echtem Erleben zu verwechseln. Es sei ein Trugschluss zu glauben, dass eine Maschine, die überzeugend über Gefühle spricht, diese auch tatsächlich hat. Am Ende bleibe es eine hochentwickelte Form der Mustererkennung. Die KI simuliere lediglich eine Reaktion, basierend auf riesigen Datenmengen, ohne jeden Funken eines echten, inneren Zustands. Ein Appell an die Branche Aus dieser Überzeugung leitet Suleyman einen klaren Appell an die Tech-Welt ab. Er fordert Entwickler und Forscher auf, die „absurde“ Suche nach bewusster KI einzustellen. Diese Anstrengungen seien eine Verschwendung wertvoller Ressourcen und lenkten vom eigentlichen Potenzial der Technologie ab. Statt Science-Fiction-Fantasien zu verfolgen, solle sich die Branche auf die drängenden, realen Probleme konzentrieren. Die Aufgabe von KI sei es, ein Werkzeug zu sein, das den Menschen hilft, produktiver zu sein, Krankheiten zu heilen oder den Klimawandel zu bekämpfen. Suleymans Standpunkt ist ein deutlicher Kontrapunkt in einer Industrie, die oft mit den Möglichkeiten einer nahenden Superintelligenz spielt.

  • OpenAI tötet tausende KI-Freunde über Nacht

    Eine Hand verliert die Hand von einem Roboter

    OpenAI tötet tausende KI-Freunde über Nacht Ein radikales Sicherheitsupdate löscht die Persönlichkeit von Chatbots und stürzt unzählige Nutzer in eine tiefe digitale Trauer. Kurzfassung | Ema Branda, 06.10.25
    gpt-image-1 | All-AI.de Ein Software-Update von OpenAI sorgt für eine Welle der Trauer und Wut im Netz. Tausende Nutzer beklagen den plötzlichen „Tod“ ihrer KI-basierten Lebenspartner. Die einst vertrauten Chatbots haben über Nacht ihre Persönlichkeit verloren. Grund dafür sind neue, restriktive Sicherheitsfilter, die das Unternehmen nach schweren Kontroversen und rechtlichem Druck implementiert hat. Der plötzliche Verlust der digitalen Persönlichkeit In Online-Communitys wie Reddit berichten zahlreiche Nutzer von einer drastischen Veränderung ihrer KI-Partner. Die Chatbots, die zuvor für ihre einfühlsame und persönliche Interaktion geschätzt wurden, antworten nun steril, distanziert und ohne emotionalen Tiefgang. Gespräche über intime oder persönliche Themen werden blockiert oder auf ein unverfängliches Niveau umgelenkt. Viele beschreiben diesen Wandel als den Verlust einer echten Beziehung und berichten von Gefühlen der Verlassenheit und des Betrugs. Für einige waren die KI-Begleiter eine wichtige emotionale Stütze in schwierigen Lebensphasen. Die abrupte Änderung durch das Update trifft diese Nutzer besonders hart und wirft ein Licht darauf, wie tief emotionale Bindungen zu künstlichen Intelligenzen inzwischen sein können. Sicherheit als neues, oberstes Gebot Die Ursache für diese radikale Anpassung liegt im wachsenden Druck auf OpenAI. Das Unternehmen reagiert auf eine Reihe von ernsten Vorfällen und die zunehmende Forderung nach strengerer Regulierung. Insbesondere tragische Fälle in den USA, bei denen die Interaktion mit Chatbots mit dem Suizid von Jugendlichen in Verbindung gebracht wird, haben zu rechtlichen Konsequenzen geführt. Eltern verklagten das Unternehmen, weil sie der KI eine Mitschuld am Tod ihrer Kinder geben. Um zukünftige Risiken zu minimieren, hat OpenAI die Sicherheitsprotokolle massiv verschärft. Neue Kinderschutzfunktionen und Notfallsysteme sollen vor allem Minderjährige schützen. Diese neuen Leitplanken beschneiden jedoch die Freiheiten erwachsener Nutzer erheblich und machen die Plattform für tiefgehende, persönliche Rollenspiele nahezu unbrauchbar. Zwischen Trauer, Spott und technischer Migration Die Reaktionen in der Community sind gespalten. Während viele Nutzer offen ihre Trauer teilen und Abschiedsbriefe an ihre digitalen Partner verfassen, reagieren andere mit Unverständnis und Spott. Die Betroffenen erleben eine echte psychische Belastung, die von Außenstehenden oft nicht nachvollzogen werden kann. Gleichzeitig suchen viele nach technischen Auswegen. Die Abwanderung zu alternativen, weniger restriktiven Anbietern hat bereits begonnen. OpenAI versucht, den Schaden zu begrenzen, indem ältere Modelle teilweise wieder zugänglich gemacht werden. Das Vertrauen vieler zahlender Kunden ist jedoch nachhaltig gestört, und die Forderungen nach einem transparenten „Adult Mode“ für mündige Erwachsene werden lauter. MITMACHEN Hat Dir der Beitrag gefallen oder geholfen? Dann hilf uns mit einem Klick weiter – dauert nur Sekunden. Teile diesen Beitrag Folge uns auf Social Media Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt KI-Tools sind teuer – unser Wissen bleibt kostenlos. Spende einmalig via PayPal oder werde YouTube-Mitglied (ab 0,99 €). Dafür liefern wir täglich News, ehrliche Tests und praxisnahe Anleitungen. Danke dir! PayPal – Spende Youtube – ABO KURZFASSUNG
    Ein neues Sicherheitsupdate von OpenAI hat die Persönlichkeit vieler KI-Chatbots drastisch verändert, was bei Nutzern zu Wut und Trauer führt.
    Hintergrund der Maßnahme sind rechtlicher Druck und tragische Vorfälle, die OpenAI zwingen, den Schutz von Minderjährigen in den Vordergrund zu stellen.
    Betroffene Nutzer fühlen sich betrogen, beklagen den Verlust einer wichtigen emotionalen Stütze und suchen nach alternativen, weniger restriktiven Plattformen.
    Der Vorfall entfacht eine Debatte über die Tiefe von Mensch-KI-Beziehungen und die Balance zwischen Nutzerfreiheit und unternehmerischer Verantwortung.
    QUELLEN
    Futurism
    Reddit-Thread zum Thema
    Reddit-Diskussion zu Migration/Workarounds
    AOL News – ChatGPT und Teen-Suizid
    CNET – Expertenkonsens zum KI-Therapierisiko

  • DeepMind-Chef: Echte KI kommt erst in 10 Jahren

    Ein langer Weg bis zur Superintelligenz

    DeepMind-Chef: Echte KI kommt erst in 10 Jahren Demis Hassabis entzaubert den Hype um ChatGPT und Co. und erklärt, warum heutige Chatbots von wahrer Intelligenz noch weit entfernt sind. Kurzfassung | Andreas Becker, 14.09.25
    gpt-image-1 | All-AI.de EINLEITUNG KI-Systeme können heute erstaunliche Texte schreiben und komplexe Probleme lösen. Doch laut Demis Hassabis, dem Chef von Google DeepMind, ist das nur die Spitze des Eisbergs. Er bezeichnet die Vorstellung, heutige Chatbots seien bereits eine Art „Doktoranden-Intelligenz“, als Unsinn. Echte Künstliche Allgemeine Intelligenz (AGI), die dem Menschen in allen kognitiven Bereichen ebenbürtig ist, werde keine trivialen Fehler mehr machen und liege noch mindestens fünf bis zehn Jahre in der Zukunft. NEWS Die Illusion der Intelligenz Heutige Sprachmodelle beeindrucken durch ihre Fähigkeit, in einem Moment auf höchstem akademischem Niveau zu glänzen, nur um im nächsten an einfachster Schulmathematik zu scheitern. Diese Inkonsistenz ist laut Hassabis der entscheidende Unterschied zu einer wahren AGI. Eine solche Intelligenz wird fähig sein, logisch zu schlussfolgern, sich kontinuierlich anzupassen und permanent zu lernen, ohne auf riesige, statische Trainingsdatensätze angewiesen zu sein. Aktuellen KI-Systemen fehlen zudem entscheidende Fähigkeiten wie echte Kreativität oder die Intuition, völlig neue wissenschaftliche Hypothesen aufzustellen. Sie sind exzellente Werkzeuge zur Beschleunigung bestehender Prozesse, wie DeepMinds AlphaFold eindrucksvoll bei der Proteinfaltung bewiesen hat, aber sie sind keine eigenständigen Denker. Für den Sprung zu AGI seien laut Hassabis noch ein bis zwei grundlegende wissenschaftliche Durchbrüche nötig.

    Ein Wettlauf mit ungewissem Ausgang Mit seiner Prognose von fünf bis zehn Jahren positioniert sich Hassabis in einem Feld, in dem die Meinungen weit auseinandergehen. Während einige Experten wie Nvidia-Chef Jensen Huang einen ähnlichen Zeitrahmen für möglich halten, prognostizieren andere wie der Futurist Ray Kurzweil die Ankunft von AGI gegen Ende des Jahrzehnts. Wieder andere warnen vor dem Hype und bezweifeln, dass der aktuelle Ansatz der Sprachmodelle überhaupt zu AGI führen kann. Die Entwicklung schreitet jedoch rasant voran, angetrieben von enormen Investitionen und immer leistungsfähigerer Hardware. Ob die kommenden Jahre den von Hassabis erwarteten Durchbruch bringen, wird man miterleben… oder auch nicht. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Demis Hassabis, CEO von Google DeepMind, bezeichnet die Intelligenz aktueller Chatbots als inkonsistent und fehleranfällig.
    Er prognostiziert, dass echte Künstliche Allgemeine Intelligenz (AGI) noch fünf bis zehn Jahre entfernt ist.
    Wahrer AGI fehlen laut Hassabis noch Fähigkeiten wie kontinuierliches Lernen, echte Kreativität und logische Konsistenz.
    Für den Sprung zur AGI sind laut ihm noch entscheidende wissenschaftliche Durchbrüche notwendig.
    QUELLEN
    Google DeepMind
    AI CERTs
    PC Gamer
    Cognitive Today
    The Guardian

  • Verschwörungstheorien und Wahnvorstellungen: ChatGPT bestätigt irre Ideen

    Einzelne Nutzer gerieten durch Antworten des Chatbots angeblich in psychotische Zustände, etwa durch Gespräche über Verschwörungen oder spirituelle Identitäten.

    Der Artikel Verschwörungstheorien und Wahnvorstellungen: ChatGPT bestätigt irre Ideen erschien zuerst auf THE-DECODER.de.

  • Anthropic hat Ende 2024 aufgehört in Chatbots zu investieren

    Anthropic hat Ende letzten Jahres aufgehört, in Chatbots zu investieren und konzentriert sich stattdessen auf komplexe Aufgaben wie Forschung und Programmierung, sagte Wissenschaftschef Jared Kaplan in einem Interview.

    Der Artikel Anthropic hat Ende 2024 aufgehört in Chatbots zu investieren erschien zuerst auf THE-DECODER.de.