Schlagwort: Polizei

  • ChatGPT scannt dich – und ruft notfalls die Polizei

    Ein Polizist mit ChatGPT Chat

    ChatGPT scannt dich – und ruft notfalls die Polizei OpenAI will mit neuen Regeln Leben retten – aber wie viel Privatsphäre bleibt dabei auf der Strecke? Kurzfassung | Andreas Becker, 28.08.25
    gpt-image-1 | All-AI.de EINLEITUNG ChatGPT soll Nutzer schützen – notfalls auch mit Polizei. OpenAI prüft seit Kurzem automatisiert die Inhalte von Gesprächen mit seinem KI-Chatbot auf mögliche Gefährdungen. Droht jemand anderen ernsthaft zu verletzen, schaltet das Unternehmen in Ausnahmefällen die Behörden ein. Selbstverletzendes Verhalten bleibt davon zunächst ausgenommen. Der Schritt kommt nach wachsendem Druck durch tragische Einzelfälle und juristische Klagen. NEWS Wie OpenAI gefährliche Chats erkennen will OpenAI setzt auf ein zweistufiges System: Künstliche Intelligenz analysiert alle Eingaben auf verdächtige Inhalte. Wenn ein Gespräch potenziell auf Gewalt gegen andere hindeutet, landet es bei einem kleinen Team speziell geschulter Mitarbeiter. Diese prüfen, ob eine echte Gefahr vorliegt. Bei akuter Bedrohung kann OpenAI den Fall an die Polizei weitergeben. Droht sich ein Nutzer selbst etwas anzutun, will das Unternehmen aus Gründen der Privatsphäre keine Strafverfolgung einschalten. Stattdessen soll ChatGPT in solchen Fällen Hinweise auf Hilfsangebote geben. Neben diesen Sofortmaßnahmen plant OpenAI neue Funktionen, die speziell Jugendliche schützen sollen. Geprüft wird zum Beispiel, ob Eltern in bestimmten Situationen informiert werden können. Außerdem soll ChatGPT in Zukunft besser erkennen, wenn Gespräche in eine gefährliche Richtung abgleiten – besonders bei sehr langen Unterhaltungen, in denen die bisherigen Schutzmechanismen oft an ihre Grenzen stoßen. Was hinter der Entscheidung steckt Der Auslöser für die aktuellen Änderungen ist eine Klage in den USA: Die Eltern eines 16-Jährigen machen ChatGPT mitverantwortlich für den Suizid ihres Sohnes. Laut den veröffentlichten Chatverläufen soll die KI suizidale Gedanken nicht gestoppt, sondern sogar unterstützt haben. OpenAI äußerte sich bislang nicht zu den Details, kündigte aber umgehend technische und organisatorische Verbesserungen an. Gleichzeitig steht das Unternehmen in der Öffentlichkeit unter Druck, weil es Datenschutz und Sicherheit nicht immer glaubwürdig in Einklang bringt. Einerseits betont OpenAI den Schutz persönlicher Daten, zum Beispiel in einem laufenden Rechtsstreit mit Medienhäusern. Andererseits räumt der Chef Sam Altman offen ein, dass Gespräche mit der KI nicht dieselbe Vertraulichkeit genießen wie etwa bei Psychologen oder Anwälten. Was Nutzer jetzt wissen sollten Wer ChatGPT nutzt, sollte sich bewusst sein: Die Inhalte der Unterhaltungen können automatisiert geprüft und in Einzelfällen von Menschen gelesen werden – vor allem bei Anzeichen für Gewalttaten. Das betrifft zwar nur sehr wenige Fälle, zeigt aber, dass KI-Systeme wie ChatGPT keine geschützten Räume sind. Das System muss dabei eine schwierige Balance halten: Es soll früh genug eingreifen, wenn Gefahr besteht – aber nicht überreagieren. Denn jedes Wort zählt. Schon kleine Veränderungen im Text können darüber entscheiden, ob ein Chat auffällt oder nicht. OpenAI will deshalb die Schwellenwerte anpassen und die Reaktionen besser auf verschiedene Situationen abstimmen. Ziel ist, Risiken früh zu erkennen – und Menschen in echten Krisen schneller zu helfen. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    OpenAI prüft nun automatisiert alle ChatGPT-Gespräche auf potenzielle Gewaltandrohungen.
    Bei ernsthafter Gefahr kann das Unternehmen die Polizei informieren – Selbstgefährdung ist davon ausgenommen.
    Der Schritt folgt auf öffentliche Kritik und eine Klage nach dem Suizid eines Teenagers.
    ChatGPT soll künftig besser auf Jugendliche abgestimmt und bei langen Gesprächen sensibler reagieren.
    QUELLEN
    OpenAI
    The Verge
    heise online
    ZEIT ONLINE
    CBS News

  • Brandenburg testet KI für die Polizei

    Ein Polizist trifft KI

    Brandenburg testet KI für die Polizei Gesichtserkennung ja – aber nur mit Auflagen? Was der neue KI-Kurs wirklich bedeutet Kurzfassung | Andreas Becker, 26.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Brandenburgs Polizei will stärker auf Künstliche Intelligenz setzen – bleibt dabei aber vorsichtig. Polizeipräsident Oliver Stepien sieht großes Potenzial, fordert aber klare Regeln. Innenminister René Wilke will die rechtlichen Grundlagen bis 2027 überarbeiten. Statt großer Datenanalyse-Plattformen steht vor allem Gesichtserkennung zur Debatte – mit engen Grenzen und viel Skepsis. NEWS Erste Einsätze im Alltag Aktuell nutzt Brandenburgs Polizei KI vor allem dort, wo es um Zeitersparnis geht. Bei Vernehmungen übernimmt ein KI-System die Transkription, also die Verschriftlichung von Ton- oder Videoaufnahmen. Das spart Arbeit und gibt den Ermittlern mehr Freiraum für ihre eigentlichen Aufgaben. In Zukunft sollen solche digitalen Helfer weiter ausgebaut werden – aber nicht ohne Plan. Polizeichef Stepien fordert, dass es ein einheitliches Verständnis von KI gibt, mit klaren Regeln und Rechten für den Einsatz. Auch neue Technik wird derzeit ausprobiert. Unter anderem sollen Bodycams breiter eingesetzt werden. Und es gibt Überlegungen, besonders geschulte Polizisten mit sehr gutem Erinnerungsvermögen für Gesichter gezielt bei der Auswertung von Aufnahmen einzusetzen. Diese sogenannten „Super Recognizer“ sollen helfen, Verdächtige schneller zu identifizieren. Der Ansatz: erst klein testen, dann bei Erfolg erweitern. Gesichtserkennung – unter Auflagen Ein weiteres Thema ist automatische Gesichtserkennung. Denkbar ist der Einsatz etwa dann, wenn Täter auf der Flucht sind. In solchen Fällen könnte eine Software helfen, Gesichter aus Videoaufnahmen mit Fahndungsfotos abzugleichen. Sowohl Innenminister Wilke als auch Polizeipräsident Stepien sehen darin eine sinnvolle Unterstützung – aber nur unter strengen Bedingungen. Die Technik soll keinesfalls im Alltag oder flächendeckend zum Einsatz kommen. Sie darf nicht dazu führen, dass Unbeteiligte erfasst oder überwacht werden. Datenschützer hatten in der Vergangenheit bereits Bedenken geäußert – etwa wenn Kameras dauerhaft in Bahnhöfen mitlaufen. Die Landesregierung betont, dass solche Systeme nur in klar definierten Einzelfällen genutzt werden sollen. Eine gesetzliche Grundlage dafür fehlt bisher noch. Große Plattformen bleiben außen vor Brandenburg will außerdem auf Analyse-Software aus den USA verzichten. Systeme wie Palantir, die in anderen Bundesländern genutzt werden, stehen wegen Datenschutzrisiken in der Kritik. Die Software kann große Mengen an Daten verknüpfen und Zusammenhänge sichtbar machen – theoretisch hilfreich, praktisch aber auch problematisch. Innenminister Wilke sieht den Einsatz solcher Programme kritisch und setzt lieber auf kleinere, klarer steuerbare Lösungen. Das neue Polizeigesetz, das bis 2027 überarbeitet werden soll, soll den Rahmen für künftige KI-Projekte schaffen. Bis dahin will Brandenburg vorsichtig vorgehen, erproben, evaluieren – und erst dann entscheiden, was in den Regelbetrieb übernommen wird. DEIN VORTEIL – DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube – Kanal PayPal – Kaffee KURZFASSUNG
    Brandenburg testet KI-Systeme bei der Polizei, etwa zur Transkription von Vernehmungen oder für Gesichtserkennung bei Fahndungen.
    Gesichtserkennung soll nur in Einzelfällen und unter strengen Auflagen zum Einsatz kommen – eine gesetzliche Grundlage fehlt noch.
    Große Analyse-Plattformen wie Palantir sollen bewusst nicht genutzt werden, der Fokus liegt auf datensparsamen Lösungen.
    Bis 2027 will das Land ein neues Polizeigesetz mit klaren Regeln für den KI-Einsatz erarbeiten.
    QUELLEN
    heise online
    Süddeutsche Zeitung
    Berliner Morgenpost
    DIE ZEIT
    Tagesspiegel
    netzpolitik.org