Themen Themen Profil Profil Hilfe/Anleitungen Hilfe Teilnehmerliste Teilnehmerliste [Wahlrecht.de Startseite]
Suche Letzte 1|3|7 Tage Suche Suche Verzeichnis Verzeichnis  

Benfords Gesetz und die Bundestagswah...

Wahlrecht.de Forum » Tagesgeschehen » Benfords Gesetz und die Bundestagswahlen: Wahlbetrug in Hof? « Zurück Weiter »

Autor Beitrag
 Link zu diesem Beitrag

Dennis Heidsiek
Registriertes Mitglied
Veröffentlicht am Dienstag, 03. Mai 2011 - 17:19 Uhr:   

Im Mathlog gibt es einen interessanten Eintrag: Zwei Mathematiker haben getestet, ob die Bundestagsergebnisse in den Wahlkreisen dem Benfordschem Gesetz folgen (was man statistisch bei unverfälschten Daten erwarten sollte) – oder nicht.

Es gibt recht wenige Auffälligkeiten, aber interessant ist, dass sie sich in den Bundesländern häufen, im dem eine Partei zur Zeit der Wahl dominant war; und im Wahlkreis Hof gab es sogar 2002 wie 2005 signifikante Abweichungen. Ein Schelm, wer böses dabei denkt …

Für genauere Informationen ist hier noch der direkte Link zum Originalartikel.
 Link zu diesem Beitrag

Ratinger Linke
Registriertes Mitglied
Veröffentlicht am Mittwoch, 04. Mai 2011 - 00:10 Uhr:   

Die strikte Einhaltung des benfordschen Gesetz sollte man bei Daten, die auf einen recht engen Bereich beschränkt sind, eher nicht erwarten. Wahlbezirke sind in ihrer Größe strikt nach oben begrenzt. Die Masse liegt recht nah an der oberen Grenze, und die Wahlergebnisse sind auch nur begrenzt verschieden.

Für 2009 weichen insbesondere die Zahlen der Wahlberechtigten, die wohl kaum systematisch gefälscht sind, krass von Benford ab. Wahrscheinlichkeiten der zweiten Ziffern in Prozent bei den 75'068 Wahlbezirken mit mindestens 2-stelligen Wahlberechtigtenzahlen:

0 15.10
1 13.49
2 12.08
3 10.91
4 9.78
5 8.64
6 7.84
7 7.60
8 7.39
9 7.18

Das liegt daran, dass ein sehr großer Teil der Wahlbezirke Zahlen im niedrigen 4-stelligen Bereich hat. Bei den Summen der Zweitstimmen der Unter-Sperrklausel-Parteien dürften eventuelle Fälschungen auch keinen nennenswerten Effekt mehr haben; trotzden weichen sie so von Benford ab, wie es auch für die größeren Parteien tendenziell typisch ist (zweite Ziffern bei 79'154 Wahlbezirken, darunter auch Briefwahlbezirke):

0 11.00
1 10.64
2 10.55
3 10.30
4 10.12
5 9.76
6 9.61
7 9.58
8 9.43
9 9.02

Die Mehrzahl der denkbaren Fälschungen könnte auch nicht die Zahlen direkt benfordrelevant fälschen, sondern müsste die Zwischensummen der Niederschriften fälschen, womit das Endresultat automatisch eher benfordkonform wird. Grundsätzlich ist das Verfahren aber brauchbar, um etwa besonders auffällige Wahlkreise zu selektieren, die eine genauere Überprüfung lohnen.
 Link zu diesem Beitrag

Dennis Heidsiek
Registriertes Mitglied
Veröffentlicht am Mittwoch, 04. Mai 2011 - 15:44 Uhr:   

Gut argumentiert, vielen Dank für die ausführliche Antwort!
 Link zu diesem Beitrag

Ratinger Linke
Registriertes Mitglied
Veröffentlicht am Montag, 28. Dezember 2015 - 03:57 Uhr:   

 Link zu diesem Beitrag

Danny
Unregistrierter Gast
Veröffentlicht am Mittwoch, 13. Januar 2016 - 23:10 Uhr:   

Hm, ich hab Benfords law eher als Phänomen der Skaleninvarianz kennengelernt, das deshalb allgemein auftritt a-priori jeder Kenntnis der Verteilung, quasi als Konsequenz der Art wie wir Zahlen als als Reihe von Zehnerpotenzen darstellen.

Natürlich hat man dann bei speziellen Verteilungen andere Ergebnisse und Wahlergebnisse in Deutschland haben ja eindeutig spezielle Verteilungen.

ABER: das dürfte man ignorieren können wenn man die ersten paar Ziffern weglässt und z.B. nur die Nachkommaziffern betrachtet. Zumindest ist es da nicht direkt einsichtig, warum es da irgendeine besondere Verteilung geben sollte. Hast du das mal probiert?

Predictive power für Wahlfälschung würd ich aber auch dann nur da erwarten, wo Prozentwerte oder Stimmenanzahl direkt gefälscht werden, weil Menschen dazu neigen selbstausgedachte Zufallszahlen besonders schräg zu generieren. Bei der Fälschung von Wahlzetteln würde ich eher keine grossen Effekte erwarten, weil die ja quasi dann von der Zufälligkeit der echten Stimmen mitprofitieren.

Man könnte auch mal versuchen die Verteilung von vergleichbaren zweifellos korrekten Wahlen als Vergleichsmassstab zu nehmen.

Methodisch kann man damit aber vllt eh nur sehr breite Wahlfälschung erkennen, weil bei Einzelzahlen Abweichungen ja zu erwarten sind. Am besten man guckt sich die Stimmenzahlen auf den niedrigsten Ebenen gemeinsam an.
 Link zu diesem Beitrag

Ratinger Linke
Registriertes Mitglied
Veröffentlicht am Donnerstag, 14. Januar 2016 - 06:26 Uhr:   

 Link zu diesem Beitrag

Danny
Unregistrierter Gast
Veröffentlicht am Samstag, 16. Januar 2016 - 06:50 Uhr:   

Was ich nicht verstehe ist, warum bei deinen Tabellen über die zweite Ziffer, die Zahlen gleichverteilt sind statt Benford- oder Benford-2te-Ziffer verteilt. Oder sind das schon in Prozent umgerechnete Werte?
Sogar die Bevölkerungszahlen sind ja schon deutlich benfordiger, also mit häufiger vorkommenden kleinen Zahlen (auch wenn sie vom ideal abweichen).


Aber stimmt, dass sich Fälschungen in DE auf diese Weise zeigen könnten glaub ich auch eher nicht.

Wenn man davon ausgeht, dass alles was ab den Wahllokalen aufwärts passiert unter genug Zeugen abläuft, dürfte in Deutschland kein Potential für direkte Manipulationen von Zahlen sein. Selbst wenn die Wahlhelfer z.B. AFD-Stimmen "unbewusst" eher als ungültig bewerten dürfte das ja bei der zweiten Zählung zu anderen Ergebnissen führen, weil man sich wohl kaum merken kann welche Stimmzettel man beim ersten mal falsch gezählt hat.

Dann bleibt nur die Manipulation über Briefwahlen, die man vermutlich so garnicht entdecken kann, ohne Erkenntnisse wie sich Briefwähler von normalen Wählern unterscheiden und wieviele wo zu erwarten sind.
Da die Regierungsparteien die Briefwahl eingeführt haben kann man wohl davon ausgehen, dass Briefwähler v.a. CDU und SPD Wähler sind. Irgendwie erscheint mir das genauso illegitim wie wenn man bestimmte Wählergruppen mit Bussen zu Wahllokalen fährt, also selbst bei Briefwahlen komplett ohne Fälschung. Also weil es selektiv für bestimmte Gruppen den Wahlteilnahmekosten herabsetzt, so eine Art indirekter Gleichheitsverstoss.


Die Auffälligkeiten in der % Darstellung bei Russland kann man dann ja eigentlich nur erklären, wenn das so abläuft, dass sich die Fälscher eine glatte Zielprozentzahl ausdenken und von da aus zurückrechnen in dann notwendigen Stimmenzahlen gegeben die Bezirksgrösse, was merkwürdig "unschuldig" erscheint, weil ja evident sein dürfte, dass es auffallen muss (allerdings fehlen mir auch die Sprachkenntnisse um den russischen Artikel zu verstehen).
 Link zu diesem Beitrag

Ratinger Linke
Registriertes Mitglied
Veröffentlicht am Samstag, 16. Januar 2016 - 09:48 Uhr:   

 Link zu diesem Beitrag

Danny
Unregistrierter Gast
Veröffentlicht am Sonntag, 17. Januar 2016 - 12:44 Uhr:   

Hab das Paper nun mal komplett gelesen und finde das Ergebnis doch sehr bedenklich.

Bei den Zweitstimmen seh ich keine überzeugende Rechtfertigung, die solche extremen Abweichungen in einigen Bundesländern erklären könnten. Da bleibt eigentlich nur die Hoffnung, dass es systemische Flüchtigkeitsfehler sind, sprich Unfähigkeit des Personals statt Manipulation. Das Argument mit den grösseren Bevölkerungszahlen find ich abwegig, weil chi-square test bei grösserer sample size genauer wird, und ohnehin alle samples gross genug sind. Und die Korrelation mit Parteidominanz spricht ja wohl auch Bände.

Bei den Erststimmen, wo ich eigentlich eher mehr Manipulation erwartet hätte, kann ich nicht ganz nachvollziehen warum man ein Signifikanzniveau von 0.01 gewählt hat statt die üblichen 0.05. Klar dass man dann weniger findet.

Imho ist das abstract angesichts der Ergebnisse (weitverbreitete und konzentrierte Abweichungen) ziemlich schöngeredet. Das Ergebnis ist Evidenz entweder für weitverbreitete Wahlfälschung oder dafür, dass in manchen Bundesländern systematisch Erhebungs- oder Verarbeitungsdefizite bestehen (zB vllt Runden der Zahlen).


Freut mich aber, dass mein Gedanke die erste Ziffer wegzulassen zur Analyse anscheinend state of the art ist. Warum 2nd digit Benford bei manchen Bundesländern/Parteien selektiv nicht zutreffen sollte seh ich auch nicht. Deine Log-Analyse bzgl. der CSU ist da imho nur eine andere Art das Problem (dass Abweichungen bestehen) darzustellen, aber keine Rechtfertigung dafür, also be- und nicht entlastend. Es zeigt einfach informal, dass der Grund für den negativen chi-square Test in Bayern tatsächlich darin liegt dass die Ergebnisse absolut nicht Benfordverteilt sind.
 Link zu diesem Beitrag

Ratinger Linke
Registriertes Mitglied
Veröffentlicht am Sonntag, 17. Januar 2016 - 13:44 Uhr:   

 Link zu diesem Beitrag

Danny
Unregistrierter Gast
Veröffentlicht am Dienstag, 26. Januar 2016 - 00:11 Uhr:   

Also ich sehe das so:

1. Es ist anerkannt, dass 2BL für von diesem Typ von Stimmzahlen aus theoretischen Gründen (wegen dem Entstehungsprozess) gelten muss (siehe Mebane 2006)
2. Das wurde auch empirisch für viele Länder bestätigt (siehe Referenzen in dem verlinkten Paper)
3. Speziell in Deutschland hat sich das nun ebenfalls über viele Bundesländer/Parteien hinweg bestätigt. Ausserdem wären fast alle bestandenen chi-square Tests auch noch bei einem deutlich geringerem Signifikanzniveau als den schon sehr konservativen 0.01 bestanden gewesen (Tabelle S.5). Damit ist es praktisch ausgeschlossen, dass diese Verteilungen nicht 2BL verteilt sind. Stellt man eine solche reale Verteilung Ziffernverteilung und 2BL wie in Fig. 2 (S. 6) dürften die Linien optisch kaum zu unterscheiden sein.
4. Insbesondere gilt 2BL auch fast perfekt und fast überall für die Erststimmen.
5. Gleichzeitig zeigt eine Anzahl von Tests in einigen Bundesländern extreme Abweichungen von 2BL auf. Was haben nun diese Fälle gegenüber dem Rest gemeinsam? Eine schon länger dominante Regierungspartei.
Wenn man die zeitliche Abfolge der chi-square Statistik für NRW und deren Parteiabhängigkeit anschaut (S. 5) ist das (dort) auch nicht mehr als systematischer Flüchtigkeitsfehler/Unfähigkeit (Rundungsfehler oder so) erklärbar.

Es gibt einfach keinen theoretischen Grund der so extreme Abweichungen erklären könnte und warum sie nur dort auftreten während 2BL ansonsten extrem gut erfüllt wird. Jedenfalls hab ich bisher nichts überzeugendes gelesen (auch nicht in dem Paper).

Wenn man übrigens nur annähernd 2BL erwarten würde wäre das eher ein Argument ein schwächeres Signifikanzniveau zu benutzen, also weniger streng zu testen.
 Link zu diesem Beitrag

Ratinger Linke
Registriertes Mitglied
Veröffentlicht am Dienstag, 26. Januar 2016 - 19:24 Uhr:   

Beitrag verfassen
Beitrag:
Fett Kursiv Unterstrichen Erstelle Link Clipart einfügen

Benutzername: Hinweis:
Dies ist ein geschützter Bereich, in dem ausschliesslich registrierte Benutzer Beiträge veröffentlichen können.
Kennwort:
Optionen: HTML-Code anzeigen
URLs innerhalb des Beitrags aktivieren
Auswahl:

Admin Admin Logout Logout   Vorige Seite Vorige Seite Nächste Seite Nächste Seite