Schlagwort: Sam

  • OpenAI investiert in Gehirn-Computer-Schnittstellen Start-up Merge Labs

    OpenAI investiert in ein Start-up für Gehirn-Computer-Schnittstellen, das von Sam Altman mitgegründet wurde.

    Der Artikel OpenAI investiert in Gehirn-Computer-Schnittstellen Start-up Merge Labs erschien zuerst auf The Decoder.

  • OpenAI sucht Krisenchef: Warum Sam Altman vor KI-Katastrophen warnt

    Ein Roboter beschädigt ein Atomkraftwerk

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI schreibt die Position des Head of Preparedness mit einem Grundgehalt von 555.000 US-Dollar neu aus. Die Aufgabe umfasst die Überwachung katastrophaler Risiken wie chemische, biologische oder nukleare Bedrohungen durch KI. CEO Sam Altman warnt explizit vor der extremen psychischen Belastung und dem hohen Stresslevel dieser Führungsposition. Besonderes Augenmerk liegt auf der Sicherheit autonomer Agenten, die zunehmend ohne menschliche Kontrolle agieren könnten.

    TechCrunch – OpenAI is looking for a new Head of Preparedness

    Mashable – OpenAI Looks To Hire A New Head Of Preparedness To Deal With AI’s Dangers

    Business Insider – Sam Altman says OpenAI’s latest job opening pays over half a million dollars

    t3n – OpenAI sucht Head of Preparedness: Was muss die neue Führungskraft können?

    Gulf News – OpenAI Job Alert: $555K Role for Head of Preparedness

    OpenAI besetzt die Schlüsselposition des Head of Preparedness neu, um potenzielle Katastrophenrisiken durch fortschrittliche Künstliche Intelligenz frühzeitig zu erkennen. Die Besetzung ist entscheidend für die Sicherheit künftiger Modelle und die gesellschaftliche Akzeptanz zunehmend autonom agierender Systeme. Sechsstelliges Gehalt für Krisenmanagement Das Unternehmen bietet für die Leitung der Abteilung für Krisenvorsorge ein jährliches Grundgehalt von rund 555.000 US-Dollar an. CEO Sam Altman bezeichnete die Aufgabe öffentlich als extrem stressig und fordernd. Die verantwortliche Person übernimmt die Überwachung katastrophaler Gefahren, die direkt von KI-Modellen ausgehen könnten. Hierzu gehören spezifisch chemische, biologische, radiologische sowie nukleare Bedrohungen. Zudem steht die Abwehr von automatisierten Cyberangriffen im Fokus der Abteilung. Die Neubesetzung erfolgt nach personellen Umstrukturierungen im Sicherheitsbereich des Unternehmens. Zuvor leitete Aleksander Madry diesen Bereich, bevor er eine andere strategische Rolle innerhalb der Organisation übernahm. Die Suche nach einer kompetenten Nachfolge unterstreicht den hohen Druck, unter dem OpenAI bei der Entwicklung der nächsten Modellgenerationen steht. Investoren und Regulierungsbehörden fordern gleichermaßen belastbare Sicherheitskonzepte für die rasant wachsende Technologie. Anzeige Risikobewertung autonomer Systeme Ein wesentlicher Schwerpunkt der Arbeit liegt auf der Analyse von Sicherheitslücken bei autonomen KI-Agenten. Diese Software-Werkzeuge handeln zunehmend selbstständig und führen komplexe Aufgabenketten ohne menschliches Eingreifen aus. OpenAI warnte zuletzt intern vor unvermeidbaren Schwachstellen, die bei der Interaktion solcher Agenten entstehen können. Die neue Führungskraft muss Verfahren entwickeln, um unvorhersehbare Kettenreaktionen oder eine unkontrollierte Ausbreitung der Systeme zu verhindern. Das Team nutzt hierfür sogenanntes Red Teaming, bei dem Experten gezielt versuchen, die Sicherheitsbarrieren der KI zu durchbrechen. Auf diese Weise sollen Schwachpunkte identifiziert werden, bevor ein Modell für die breite Öffentlichkeit freigegeben wird. Die Ergebnisse dieser Tests fließen direkt in die Entscheidungsprozesse des Vorstands ein.

    Twitter Beitrag – Cookies links unten aktivieren.

    We are hiring a Head of Preparedness. This is a critical role at an important time; models are improving quickly and are now capable of many great things, but they are also starting to present some real challenges. The potential impact of models on mental health was something we…— Sam Altman (@sama) December 27, 2025 Strategische Bedeutung der Sicherheitsregeln Die Abteilung für Preparedness, also die Bereitschaft für den Ernstfall, operiert nach einem strengen Framework. Dieses Regelwerk definiert exakte Schwellenwerte für Risiken, ab denen eine Veröffentlichung neuer Modelle gestoppt werden muss. Die verantwortliche Person bewertet die Modelle anhand einer Skala von niedrig bis kritisch. Nur wenn die Sicherheitsvorkehrungen greifen, erfolgt eine kommerzielle Freigabe.

  • Sam Altmans Warnung vor „übermenschlicher Überzeugungskraft“ holt die KI-Branche ein

    Im Oktober 2023 sagte OpenAI-CEO Sam Altman vorher, dass „sehr seltsame Dinge“ passieren würden, wenn KI übermenschliche Überzeugungskräfte erlange. In diesem Jahr wurde deutlich, wie richtig er mit dieser Prognose lag – und wie gefährlich „Verständnis“ als Geschäftsmodell sein kann.

    Der Artikel Sam Altmans Warnung vor „übermenschlicher Überzeugungskraft“ holt die KI-Branche ein erschien zuerst auf The Decoder.

  • Metas neues KI-Modell SAM Audio lässt Nutzer Töne in Videos anklicken

    Frau telefoniert im Straßenszenario, Audiosegmentierung hebt vorbeifahrenden Zug mit grüner Kontur hervor und zeigt Wellenform

    Hundegebell aus dem Straßenlärm filtern oder per Mausklick im Video eine Tonquelle isolieren: Mit SAM Audio bringt Meta sein bewährtes visuelles Segmentierungskonzept in die Audiowelt. Das Modell vereinfacht Audio-Bearbeitung durch Text, Klicks oder Zeitmarkierungen. Code und Gewichte sind frei verfügbar.

    Der Artikel Metas neues KI-Modell SAM Audio lässt Nutzer Töne in Videos anklicken erschien zuerst auf The Decoder.

  • Von Dota über GPT-5 zur AGI: Sam Altman zieht Bilanz zum OpenAI-Jubiläum

    Zum zehnjährigen Bestehen von OpenAI prognostiziert CEO Sam Altman, dass Superintelligenz „nahezu sicher“ innerhalb der nächsten zehn Jahre entwickelt wird.

    Der Artikel Von Dota über GPT-5 zur AGI: Sam Altman zieht Bilanz zum OpenAI-Jubiläum erschien zuerst auf The Decoder.

  • Metas neues KI-Modell SAM 3 verbindet Sprache und Vision flexibler als zuvor

    Meta veröffentlicht die dritte Generation seines „Segment Anything Model“. SAM 3 soll Bilder und Videos gleichermaßen verstehen und setzt auf eine neue Trainingsmethode, die menschliche und künstliche Annotatoren kombiniert.

    Der Artikel Metas neues KI-Modell SAM 3 verbindet Sprache und Vision flexibler als zuvor erschien zuerst auf The Decoder.

  • KI-Forscher entschlüsselt Alzheimer

    Ein Roboter Forscher erfindet Sachen

    Nano Banana

    Kurzfassung

    Quellen

    Edison Scientific hat Kosmos vorgestellt, ein KI-System für autonome wissenschaftliche Entdeckungen. Die KI nutzt ein strukturiertes Weltmodell, um Forschung in Neurowissenschaft, Genetik und Materialwissenschaft zu beschleunigen. Kosmos hat bereits bestehende Studien, etwa zu Alzheimer und Diabetes, erfolgreich reproduziert und neue Zusammenhänge analysiert. Branchenführer wie Sam Altman sehen darin einen der zukünftig wichtigsten Beiträge der KI.

    Edison Scientific – Technical Report: Kosmos: An AI Scientist for Autonomous Discovery

    Edison Scientific – Plattform für Kosmos

    Edison Scientific – Bekanntgabe der kommerziellen Plattform „Edison Scientific“

    Kosmos Discovery 6: Analyse von Tau-Akkumulation bei Alzheimer

    Sam Altman auf Twitter/X – Kurzer Kommentar von Sam Altman zur Bedeutung von Kosmos

    Edison Scientific stellt Kosmos vor, einen neuen KI-Wissenschaftler. Das System soll autonom komplexe Analysen durchführen und neue wissenschaftliche Erkenntnisse gewinnen. Es knüpft an das frühere Robin-Modell an und zeigt bereits erste Erfolge in der Alzheimer- und Materialforschung. Was Kosmos leistet Kosmos ist kein gewöhnliches Sprachmodell. Edison Scientific, das Team hinter dem Vorgänger FutureHouse Robin, konzipierte es als autonomen Forscher. Die KI nutzt ein strukturiertes Weltmodell, um Hypothesen zu testen und Daten zu analysieren. Ziel ist es, den wissenschaftlichen Prozess zu beschleunigen. Kosmos soll nicht nur bestehende Daten durchsuchen, sondern eigenständig neue Verbindungen herstellen. Das System agiert dabei wie ein spezialisierter Assistent für komplexe Problemstellungen. + edisonscientific Quelle: Konkrete Ergebnisse in der Forschung Die Entwickler demonstrieren die Fähigkeiten von Kosmos anhand mehrerer Beispiele. Die KI reproduzierte erfolgreich Forschungsergebnisse aus verschiedenen Disziplinen. Dazu gehören Studien zur Materialwissenschaft für Solarzellen und zur Genetik. Besonders im medizinischen Bereich zeigt das Modell Potenzial. Es analysierte Mechanismen beim Typ-2-Diabetes und untersuchte die Tau-Akkumulation bei der Alzheimer-Krankheit. Kosmos lieferte auch neue Erkenntnisse zur neuronalen Anfälligkeit im Alterungsprozess. Weitere veröffentlichte Arbeiten umfassen die Reproduktion einer Studie zu Stoffwechselveränderungen bei Mäusen unter Hypothermie. Auch mathematische Regeln neuronaler Konnektivität und neue Hinweise zu Herzfibrose (SOD2) finden sich in den Beispielen. Einordnung der Branche Die Vorstellung von Kosmos erzeugt Aufmerksamkeit in der KI-Szene. Sam Altman, Chef von OpenAI, kommentierte die Entwicklung positiv. Er erwartet, dass solche Systeme einen der wichtigsten Beiträge von KI darstellen werden. Edison Scientific stellt die Ergebnisse über eine eigene Plattform bereit. Forscher können dort die Entdeckungen der KI nachvollziehen. Die Technologie bietet Forschern ein neues Werkzeug, um komplexe wissenschaftliche Hürden schneller anzugehen.

  • 10/10-KI-Gedichte sind möglich, aber sie werden Menschen nicht interessieren

    OpenAI-CEO Sam Altman sagt, dass KI eines Tages Gedichte schreiben kann, die eine 10 von 10 erreichen. Dennoch werde das die Menschen kaum bewegen.

    Der Artikel 10/10-KI-Gedichte sind möglich, aber sie werden Menschen nicht interessieren erschien zuerst auf The Decoder.

  • Sam Altman verteidigt OpenAIs 1,4-Billionen-Wette nach Bubble-Kritik

    OpenAI plant Investitionen in Billionenhöhe für die Recheninfrastruktur – und das bei vergleichsweise geringen 20 Milliarden ARR. OpenAI-CEO Sam Altman rechtfertigt diese Pläne in einem langen Beitrag auf der Plattform X. Staatliche Subventionen lehnt er ab, eine staatliche KI-Infrastruktur hält er jedoch für sinnvoll.

    Der Artikel Sam Altman verteidigt OpenAIs 1,4-Billionen-Wette nach Bubble-Kritik erschien zuerst auf The Decoder.

  • Fliegender Tesla oder heiße Luft?

    Ein Tesla Roadstar fliegt

    Nano Banana

    Kurzfassung

    Quellen

    Elon Musk kündigte in Joe Rogans Podcast eine „unvergessliche“ Demo des Tesla Roadsters mit „fliegenden“ Fähigkeiten für Ende 2025 an. Er verglich die Technologie mit James-Bond-Fahrzeugen und heizte damit den Hype um das 2017 vorgestellte Auto neu an. Fast zeitgleich postete OpenAI-Chef Sam Altman auf X, dass er nach 7,5 Jahren Wartezeit seine 50.000 Dollar Anzahlung zurückfordert. Der öffentliche Spott von Altman untergräbt Musks neue Versprechen und hebt die massive Verzögerung des Projekts hervor.

    Joe Rogan Experience Archive (YouTube) Sam Altman (X) Mashable CNBC Ars Technica

    Elon Musk heizt die Gerüchteküche an. In einem Podcast versprach er eine „unvergessliche“ Demo des neuen Tesla Roadsters noch vor Ende 2025. Der Haken: Das Auto soll „fliegen“ können. Fast zeitgleich fordert OpenAI-Chef Sam Altman seine Anzahlung zurück – nach 7,5 Jahren Wartezeit. Ein Auto wie bei James Bond Der Auftritt bei Joe Rogan hatte es in sich. Elon Musk nutzte die reichweitenstarke Plattform, um den Hype um den seit Jahren verschobenen Roadster neu zu entfachen. Er kündigte eine Demonstration mit „verrückter Technologie“ an, die noch vor Jahresende 2025 stattfinden soll. Wörtlich sprach Musk von „fliegenden“ Fähigkeiten und zog Parallelen zu den Spezialfahrzeugen von James Bond. Was genau das bedeutet, ließ er im Vagen. Experten spekulieren, ob es sich um eine Art Schwebe-Modus oder nur um starke Beschleunigungseffekte handeln könnte. Das Fahrzeug wurde ursprünglich 2017 vorgestellt und sollte 2020 auf den Markt kommen. Die wiederholten Verschiebungen haben viele frühe Besteller frustriert. Musks neue Ankündigung soll nun offenbar das Vertrauen zurückgewinnen und die technologische Überlegenheit von Tesla demonstrieren. Altmans späte Stornierung Mitten in diese neue PR-Welle platzte ein viraler Post von Sam Altman. Der Chef von OpenAI und einer der bekanntesten Köpfe der KI-Branche veröffentlichte auf X seine Versuche, die 7,5 Jahre alte Reservierung für einen Roadster zu stornieren. In einer „Geschichte in drei Akten“ zeigte er, wie er 50.000 Dollar angezahlt hatte und nun um eine Rückerstattung bittet. Der Tweet ist ein unübersehbarer Seitenhieb auf die extremen Verzögerungen bei Teslas Prestigeprojekt. Die öffentliche Aktion von Altman unterstreicht die wachsende Ungeduld. Sie zeigt, dass selbst die wohlhabendsten Kunden nicht ewig auf ein Produkt warten wollen, das immer wieder mit neuen, fast unglaublichen Features beworben wird, aber nicht erscheint.
    Cookies aktivieren um den Inhalt zu sehen:
    Cookiebar öffnen

    A tale in three acts: pic.twitter.com/ClRZBgT24g — Sam Altman (@sama) October 30, 2025 Spat zwischen Tech-Titanen Altman und Musk verbindet eine komplizierte Vergangenheit. Altman und Musk waren Mitbegründer von OpenAI, bevor Musk das Unternehmen im Streit verließ. Die Spannungen zwischen den beiden Tech-Führungskräften sind ein offenes Geheimnis im Silicon Valley. Altmans Post ist daher mehr als nur die Beschwerde eines Kunden. Es ist eine gezielte Provokation, die Musks Glaubwürdigkeit in einem sensiblen Moment untergräbt. Während Musk von fliegenden Autos fantasiert, erinnert ihn Altman an handfeste Schulden. Die Reaktionen im Netz sind gespalten. Teslas Anhänger feiern die Vision ihres Chefs, während Kritiker in Altmans Tweet die Bestätigung sehen, dass Musks Versprechen oft mehr Marketing als Realität sind. Die angekündigte Roadster-Demo steht nun unter enormem Druck und muss beweisen, dass Tesla mehr als nur leere Versprechungen liefert.