Wie Wahrscheinlich ist es, als Terrorist verdächtigt zu werden?

Ein Schulfreund von mir wollte beruflich in die USA fliegen, konnte die Reise aber nicht antreten, weil ihm die amerikanischen Behörden die Einreise verweigerten. Sein Name stand auf der No-Fly Liste, warum und seit wann, war nicht zu erfahren. Nicht mal auf Behördenebene konnte der Grund ermittelt werden. Unklar bleibt bis heute, wie seine Name (etwa so deutsch wie ‚Herbert Müller‘) auf die Liste kam, zumal seine Aktivitäten und Ansichten nicht ansatzweise extrem oder fundamental waren/sind. Das war so um 2006, da waren die Spähprogramme der NSA schon am Laufen, wie wir seit den Snowden-Enthüllungen wissen. Da stellt sich doch die Frage, wie viele solcher Fälle unschuldig Verdächtiger es geben mag.

Corey Chivers hat einen Artikel zu eben diese Frage erstellt und benutzt den Satz von Bayes, um zu errechnen, wie wahrscheinlich es ist, einen Terroristen zu fangen. Ich möchte den Artikel aufgreifen, um den Satz von Bayes bzw. die grafische Form dazu als Ereignisbaum an einem anderen Beispiel als Brustkrebs zu zeigen. Denn auch hier haben wir es wieder mit bedingten Wahrscheinlichkeiten zu tun, die unsere Intuition gerne in die Irre führen.

Zahlen

Da NSA und andere Geheimdienste keine genauen Daten offenlegen, schätzt Corey Chivers diese zu Gunsten der Geheimdienste und kommt dabei auf folgende grobe Zahlen [1]:

Prävalenz

1/1 Mio

Ein Terrorist pro 1 Million Menschen.

Sensitivität

99%

der Terroristen werden richtig erkannt.

Spezifität

99%

der Nicht-Verdächtigten werden richtig erkannt.

 

Wenn sich unter einer Million Menschen ein Terrorist findet, wird dieser von den Spähprogrammen mit einer Wahrscheinlichkeit von 99% erkannt. Nur einer von 100 Bürgern (1%) wird falsch verdächtigt. Somit liegt die Spezifität ebenfalls bei 99%.

Dargestellt als Ereignisbaum erhalten wir somit folgende Grafik:

Wie viele unschuldig verdächtigte Bürger kommen auf einen Terroristen?

Was bedeutet das Ergebnis?

Auf jeden richtig erkannten Terroristen kommen ca. 10.000 friedliche Bürger, die fälschlicherweise als Terrorverdächtig eingestuft werden. Bei insgesamt 10.001 Verdächtigten liegt dich Erkennungsrate durch den Geheimdienst also bei lächerlichen 1/10.001, also 0.01%

Wahrscheinlichkeit von

0,01%

bei Terrorverdacht durch die NSA tatsächlich Terrorist zu sein

Wahrscheinlichkeit von

99,99%

bei Terrorverdacht durch die NSA kein Terrorist zu sein 

 

Wir gehen davon aus, dass die Algorithmen der NSA fast perfekt arbeiten und tatsächliche Terroristen zu 99% richtig und tatsächlich unschuldige ebenfalls zu 99% richtig erkennen. Dieser Erkennungsrate geht aber eine sehr geringe Wahrscheinlichkeit von 1/1Mio voraus, dass ein Bürger tatsächlich Terrorist ist (Prävalenz). Bei solchen bedingten Wahrscheinlichkeiten schickt uns die Intuition gerne in die Irre, wir unterliegen dem Prävalenzfehler: Den sehr wenigen Terroristen stehen sehr viele Nicht-Terroristen gegenüber, so dass durch die höheren Zahlen auch die Ergebnisse entsprechend höher ausfallen, als auf der Seite der Terroristen. Wie wir schnell an der Grafik erkennen können, führt jede niedrigere Erkennungsrate von 99% sehr schnell zu noch unglaublicheren Verhältnissen.

Die Zahlen wurden wie erwähnt sehr grob geschätzt, können aber nicht verifiziert werden, insofern gibt es an einiger Stelle berechtigte Kritik bezüglich der Größenordnungen. Allerdings dreht sich dieses Beispiel nicht um die zahlenmäßige Korrektheit, sondern will zeigen, dass bei einem Ereignis, das sehr selten Auftritt, auch sehr genaue Algorithmen falsche Ergebnisse liefern. Weiteres Problem bei allen Terrorlisten/Akten/Datenbanken ist, dass es keinen formalen/juristischen Weg gibt, jemals wieder gelöscht zu werden.

Vor diesem Hintergrund erscheinen die Spähprogramme der Geheimdienste absolut fragwürdig und in keinerlei Weise gerechtfertigt, weil nicht verhältnismäßig. Aber das ist ein anderes Thema. Wer sich hierzu weiter informieren möchte, dem sei Netzpolitik.org empfohlen!

Weiterführende Artikel:

 

Quellen: