Zitat Zitat
Äh weil man erst hochrechnet mit einem Filter gegen eventuelle Bildfehler (oder theoretisch ein pixeliges Bild) und dann runterrechnet damit man u.a. die Bildschärfe ohne Qualitätsverlust (des hochgerechneten Bildes) ändern kann.
Ist dies ein allgemeingültiger Standard?
Wie arbeitet dieser Filter genau?
Diese Umrechnung müsste meinem Verständnis nach doch nur für Multiplikatoren gelten, die nicht im ganzzahligen Bereich liegen.
Wie kann man die Bildschärfe erhalten, wenn man aus einem Pixel zuerst fünf macht und von diesen fünf Pixeln dann die Hälfte nimmt? Da es hier zu einer rationalen Zahl kommt, gibt es dann doch nur wieder einen Mischmasch aus verrechneten 2er und 3er Pixeln und Annäherungen oder wie der jeweilige Algorithmus das halt behandelt.
Zitat Zitat
Aber abgesehen davon bräuchte man für dein Beispiel ja jetzt einen Monitor mit einer Auflösung von 1280x960 nur hat man bei HD Readys 1366x768 (man kann auch einige so 1:1 ansprechen mit einem PC oder einer Xbox 360 (die aber dann selber skaliert)) oder einem FHD mit 1920x1080 (wo man auch im Idealfall mit 1080i/p Material auch ohne skalieren auskommt)
Das mein Beispiel nicht auf HD Ready angewand werden kann und man hier immer mit einem Qualitätsverlust rechnen muss, ist mir klar, darum habe ich in meinem ersten Post ja auch von einem "1080er HDTV" gesprochen.