-
Deutsche Filme
Das Thema klang in einem anderen Topic gerade an, gehört da nicht hin, ist aber sehr interessant, und sollte deshalb, wie ich finde, hier weiter diskutiert werden.
Die Meinung der Allgemeinheit gegenüber Filmen aus Deutschland präsentiert sich sehr negativ. Ich verstehe das nicht ganz, da ich ziemlich viele sehr gute deutsche Filme kenne, dagegen das hochgefeierte Hollywood erbärmlich finde.
In Deutschland hat man irgendwie generell eine andere Einstellung zu Spielfilmen. Sagst du hier "Ich möchte einen Spielfilm produzieren" wirst du ausgelacht, sagst du selbiges in Amerika wirst du gefragt, ob du noch Darsteller oder Crewmitglieder brauchen kannst (das jedenfalls entnahm ich kürzlich einem Interview mit einem deutschen Regiesseur, der, wie so viele, nach Amerika abgewandert ist.)
Woran liegt das? Ich meine, schließlich hatte Deutschland mal eine Vorreiter position im Punkto Film inne, auch nach dem Kriegn, als in Bendestorf eine Art deutsche Antwort auf Hollywood entstand.
Eure Meinung ist also gefragt. Stimmt es, gibt es nur schlechte deutsche Filme? Oder gibt es nur wenige gute, weil es hier sehr schwer ist, die Mittel aufzutreiben, einen guten Film zu finanzieren? Oder ist das alles Quatsch und es kommen doch sehr viele gute Filme aus Deutschland? Und wie steht es mit dem deutschsprachigen Ausland?
Auf eine nette Diskussion.
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- Anhänge hochladen: Nein
- Beiträge bearbeiten: Nein
-
Foren-Regeln