Startseite
Icon Pfeil nach unten
Allgäu
Icon Pfeil nach unten

Schockanrufe im Allgäu: Verbrecher nutzen Künstliche Intelligenz - die Polizei darf das noch nicht

Künstliche Intelligenz

Schockanrufe und Deepfakes: So gehen Polizei und Verbrecher mit KI um

    • |
    Verbrecher nutzen mittlerweile auch Künstliche Intelligenz. Bei der Polizei sieht das noch anders aus.
    Verbrecher nutzen mittlerweile auch Künstliche Intelligenz. Bei der Polizei sieht das noch anders aus. Foto: Julian Stratenschulte, dpa (Archiv)

    "Auf einen Schockanruf reinfallen, das kann mir nicht passieren", denken sich sicher viele Menschen. Aber was, wenn die Stimme am anderen Ende genauso klingt, wie der eigene Verwandte? Mithilfe von Künstlicher Intelligenz (KI) ist das heute schon möglich - und noch mehr.

    "Dass Straftaten mit KI verübt werden, dafür haben wir erste Anhaltspunkte", sagt Holger Stabik von der Pressestelle des Polizeipräsidiums Schwaben Süd/West. Nachgewiesen habe die Polizei es aber noch nicht. Die Polizei selbst verfüge noch über keinerlei KI. "Wir haben das Thema auf dem Schirm."

    Problem sei aber der Datenschutz. Damit die Beamten auf eine KI zugreifen können, müsse sich erst das Gesetz ändern, vermutet Stabik. Sollte das in den kommenden Jahren der Fall sein, könnte die Künstliche Intelligenz den Polizisten zum Beispiel bei der Auswertung von Daten helfen oder bei der Verfolgung von Cyberkriminalität.

    Predicitve Policing im Allgäu - So ist die Lage aktuell

    Dass die Polizei auf solche Tools zurückgreifen könnte, ist aber nicht ganz unumstritten. Bei Polizeiarbeit mit Künstlicher Intelligenz geht es schnell um Predicitve Policing, also um das Vorhersagen von Straftaten. Die KI analysiert dabei Fälle aus der Vergangenheit. Anhand dessen berechnet sie dann die Wahrscheinlichkeit, dass zum Beispiel an einem bestimmten Ort wieder Straftaten passieren. Aufgrund dieser Daten wird dann der Einsatz von Polizeikräften gesteuert. Ob es jedoch jemals so weit kommt, muss man laut Stabik abwarten.

    Verbrecher sind der Polizei da schon einen Schritt voraus. Sie wenden die Künstliche Intelligenz an. Nicht nur, um Stimmen bei Schockanrufen zu imitieren: Sogenannte Deep Fakes gibt es nicht nur in Audio-Form sondern auch schon im Video-Format. "Das funktioniert noch nicht ganz perfekt, aber schon erschreckend gut", sagt Jonas Pichler vom digitalen Zukunftszentrum in Leutkirch im Allgäu.

    Verbrecher nutzen Künstliche Intelligenz - Diese Gefahren bergen Deep Fakes

    Je mehr Daten die KI zur Verfügung hat, desto besser sei das Produkt am Ende. Dass Privatpersonen Opfer von Deep Fakes werden, ist also relativ gering. Bei bekannteren Persönlichkeiten sieht das anders aus. Ihnen können Worte in den Mund gelegt werden, die sie so nie gesagt haben. So kursierten 2023 schon Videos von Moderatoren von ARD und ZDF im Internet, in welchen sie Werbung für Anlage-Websites machten. In einem anderen gefälschten Video warnte Olaf Scholz vor der AfD.

    Doch das ist noch nicht alles: Auch schon in Video-Anrufen sei es möglich, sich als eine andere Person auszugeben, sagt Philipp Maruhn. Er ist Projektmanager beim digitalen Zukunftszentrum. Für solche Fakes müsse man aber schon viel Arbeit hineinstecken, damit sie wirklich echt wirken.

    Wie erkennt man Deep Fakes? Allgäuer Experte gibt Tipps

    Deep Fakes seien auf den ersten Blick meist nicht erkennbar. Wirkt ein Video aber komisch, rät Maruhn, einmal genauer hinzusehen. Wer sich die Bilder detailliert anschaue, dem fallen eventuell Unstimmigkeiten auf. Das könne beispielsweise sein, dass ein Mensch zu viele Finger hat. Bei einem Schockanruf mit KI sei eine schlechte Anrufqualität ein Anzeichen. Ansonsten könne man solche Fakes meistens nur anhand ihres verdächtigen Inhalts erkennen.

    Und auch in Textform könne die KI schon so einiges, was sich Verbrecher zu Nutze machen. "Phishing-Mails werden immer besser", sagt Jonas Pichler. Um so mit Künstlicher Intelligenz zu arbeiten, brauche es nur ein minimales technisches Verständnis. Und je einfacher die Anwendung wird, desto mehr Menschen werden das auch nutzen, warnt der KI-Experte.

    Diskutieren Sie mit
    0 Kommentare
    Dieser Artikel kann nicht mehr kommentiert werden