Schlagwort: First

  • OpenAI stellt KI vor die schwerste Mathematik-Aufgabe der Welt

    Ein Roboter hat die Weltformel gefunden

    Nano Banana

    Kurzfassung

    Quellen

    OpenAI hat offizielle Lösungsversuche für den anspruchsvollen „First Proof“-Wettbewerb veröffentlicht.
    Dieser Test konfrontiert KI-Modelle mit exklusiven, unveröffentlichten Mathematikaufgaben auf Forschungsniveau.
    Ziel ist es, echtes logisches Denken anstelle von bloßem Auswendiglernen aus Trainingsdaten nachzuweisen.
    Die Fachwelt prüft derzeit die von OpenAI eingereichten Beweise auf ihre formale Richtigkeit.

    Our First Proof submissions (OpenAI)

    oai_first_proof.pdf (OpenAI – vollständige Proof Attempts als PDF)

    OpenAI hat offizielle Lösungsversuche für den neuen „First Proof“-Wettbewerb veröffentlicht. Dieser Test konfrontiert künstliche Intelligenz gezielt mit ungelösten mathematischen Problemen auf Forschungsniveau, um die tatsächlichen Fähigkeiten im logischen Denken abseits bekannter Trainingsdaten zu überprüfen. Abkehr vom reinen Auswendiglernen Der „First Proof“-Test unterscheidet sich grundlegend von bisherigen Benchmarks in der Informatik. Eine Gruppe renommierter Mathematiker hat exklusiv für diese Prüfung komplexe Aufgaben entworfen, die in keiner wissenschaftlichen Datenbank existieren. Dieses Vorgehen schließt einen entscheidenden Faktor aktueller KI-Modelle aus. Bisherige Sprachmodelle schließen oft erfolgreich bei mathematischen Standardproblemen ab, da sie die Lösungswege während der Trainingsphase verarbeitet und gespeichert haben. Bei „First Proof“ fehlt diese Datengrundlage komplett. Die Systeme müssen folglich echtes Reasoning anwenden. Sie müssen selbstständig tiefgreifende logische Schlüsse ziehen und fehlerfreie formale Beweise über mehrere Schritte hinweg konstruieren. Anzeige “We’re currently training a new model for which a primary focus is increasing the level of rigor in its thinking, with the goal that the model can think continuously for many hours and remain highly confident in its conclusions. When the First Proof problems were announced, it seemed like the perfect testbed, so over the weekend I tried it out. Already it was able to solve two of the problems (#9 and #10). As it trained, it became increasingly capable, eventually solving–in our estimation–at least three more. We were particularly pleased when it solved #6 and then, two days later, #4, as those problems were from fields familiar to many of us. It’s pretty incredible to watch a model get tangibly smarter day by day.” James R. Lee (OpenAI Researcher, Reasoning) Ungeprüfte Lösungsansätze OpenAI dokumentiert in den veröffentlichten Dokumenten den genauen Lösungsweg der eigenen Modelle. Das Unternehmen geht dabei davon aus, bei einigen der hochkomplexen Probleme sehr wahrscheinlich korrekte mathematische Beweise gefunden zu haben. Diese Selbsteinschätzung bleibt vorerst unbestätigt. Eine unabhängige und formale Verifikation der eingereichten Beweise durch die Initiatoren des „First Proof“-Projekts steht aktuell noch aus. Dennoch diskutiert die mathematische Fachwelt die publizierten Lösungswege bereits im Detail, um Schwachstellen oder tatsächliche Durchbrüche in der Argumentationskette der KI zu identifizieren. Mathematik gilt in der KI-Forschung als der ultimative Härtetest für kognitive Fähigkeiten. Ein Bestehen solcher Prüfungen markiert einen nachvollziehbaren Schritt von der reinen Mustererkennung hin zu Systemen mit echter Problemlösungskompetenz. Anzeige

  • Anthropic spendet 20 Millionen Dollar für politische KI-Regulierung

    Anthropic Grafik

    Nano Banana

    Kurzfassung

    Quellen

    Anthropic spendet 20 Millionen US-Dollar an das Super PAC „Public First Action“ zur Beeinflussung der US-Zwischenwahlen 2026. Das Geld soll gezielt Kandidaten unterstützen, die sich für strengere Sicherheitsvorgaben und staatliche Regulierung von KI einsetzen. Dieser Schritt markiert einen Strategiewechsel vom reinen Technologie-Entwickler hin zum aktiven politischen Akteur im Silicon Valley.

    Anthropic – Anthropic is donating $20 million to Public First Action

    Der KI-Entwickler Anthropic greift aktiv in die US-Innenpolitik ein und spendet 20 Millionen US-Dollar an die Organisation „Public First Action“. Mit diesem Kapital sollen im Vorfeld der US-Zwischenwahlen 2026 gezielt Kandidaten unterstützt werden, die sich für striktere Sicherheitsvorgaben und staatliche Regulierung von Künstlicher Intelligenz einsetzen. Strategische Einflussnahme auf die Midterms Die Summe fließt an ein sogenanntes Super PAC (Political Action Committee). Diese Organisationsform erlaubt es in den Vereinigten Staaten, unbegrenzte Mittel von Unternehmen oder Einzelpersonen anzunehmen, um damit unabhängig von den Kandidaten Wahlwerbung zu finanzieren. Der Zeitpunkt der Spende ist taktisch gewählt: Im November 2026 stehen die „Midterms“ an, bei denen Teile des Kongresses neu gewählt werden. Anthropic zielt darauf ab, die politische Landschaft zugunsten von Abgeordneten zu verschieben, die technische Sicherheitsmechanismen nicht nur befürworten, sondern gesetzlich verankern wollen. Bislang positionierte sich das Unternehmen hinter dem Sprachmodell Claude primär durch technische Sicherheitsforschung („Constitutional AI“). Dieser finanzielle Schritt markiert den Übergang von theoretischen Sicherheitskonzepten zu direkter Realpolitik. Das Unternehmen macht damit deutlich, dass freiwillige Selbstverpflichtungen der Industrie aus seiner Sicht nicht mehr ausreichen. Anzeige Regulierung als Wettbewerbsfaktor Die Unterstützung von „Public First Action“ deutet auf eine spezifische Vorstellung von Regulierung hin. Im Fokus stehen voraussichtlich Maßnahmen zur Eindämmung existenzieller Risiken, wie etwa die Nutzung von KI für Biowaffen oder massive Cyberangriffe. Anthropic fordert seit Längerem verbindliche Tests für Frontier-Modelle vor deren Veröffentlichung. Branchenbeobachter werten diesen Schritt jedoch nicht nur altruistisch. Strenge Regulierungen und hohe Sicherheitsstandards erzeugen Markteintrittsbarrieren. Diese sind für kapitalkräftige Akteure wie Anthropic, Google oder OpenAI leichter zu bewältigen als für Open-Source-Projekte oder kleine Startups. Kritiker sehen hier die Gefahr von „Regulatory Capture“ – der Versuch etablierter Firmen, Gesetze so zu gestalten, dass sie den eigenen Marktstatus schützen. Abgrenzung im Silicon Valley Mit dieser offensiven Strategie setzt sich Anthropic von Teilen des Silicon Valley ab, die staatliche Eingriffe traditionell ablehnen. Während einige Investoren und Tech-Firmen eine ungebremste Beschleunigung der Entwicklung fordern, setzt Anthropic auf eine kontrollierte Skalierung unter staatlicher Aufsicht. Ob der finanzielle Einsatz ausreicht, um die komplexe US-Gesetzgebung gegen den Widerstand anderer Interessengruppen tatsächlich zu beschleunigen, wird der Wahlausgang im Herbst zeigen.