Seit wann bedeutet Natur, eine Welt haben zu wollen, die sich nicht mehr ändert oder nur wie es einigen „guten Menschen“ gefällt? Es darf keinen Klimawandel mehr geben? Berge müssen genauso bleiben, wie sie sind, aber in D muss der Wolf wieder heimisch werden. Wer kann es mir erklären?
Ich verstehe es nicht
Schreibe eine Antwort