US-Kolonie

This tag is associated with 1 posts

Die amerikanische Kolonie – US-Firmen entscheiden in Deutschland, was die Wahrheit ist

Dass Deutschland nichts weiter ist, als eine US-Kolonie, ist für viele eine provokante These. Aber wenn man sich anschaut, wer in Deutschland die Deutungshoheit über Wahrheit und Unwahrheit hat, dann wird es schwer, der These zu widersprechen.

Man stelle sich einmal vor, chinesische Firmen würden in Deutschland bestimmen, was wahr ist und was unwahr und würden das auch deutlich sichtbar kennzeichnen. Das ist unvorstellbar? Grotest? Deutschland würde sich so etwas unter keinen Umständen bieten lassen und alle nur erdenklichen Maßnahmen dagegen ergreifen?

Die letzten 100 Artikel