Sind Männer rechts?

 

Männerrechte werden von rechten Männern eingefordert. Also sind Männer rechts. Das klingt nach einem billigen Wortspiel. Zu billig, um wahr zu sein. Dennoch ist diese Meinung weit verbreitet – sie wird sogar vorsätzlich verbreitet, wird gezielt von einigen Propagandisten in Umlauf gebracht, um den Eindruck zu erwecken, dass alles, was mit Männern zu tun hat, automatisch rechts, ja sogar rechtsradikal ist. 

Stimmt das?

» weiter lesen