Leider stimmt "HDRR ist so hell, da sieht man die Kanten gar nicht mehr" (ich weiß, dass Du es auch ironisch gemeint hast, nehme es jetzt aber, weil es eine durchaus verbreitete Meinung ist) so nicht.
Denn HDRR bedeutet zwar z.B. Überstrahlungseffekte es wird aber v.a. allgemein eine besser Beleuchtung/Farbgebung mit mehr effektiven dB Bandbreite und Kontrast erzeugt. Und gerade durch den realistischeren Kontrast sieht man die Kanten noch mehr... wenn die dann auch noch wegen fehlendem AA flimmern...

Das mit der Auflösung ist so eine Sache.
Eigentlich ist eine Erhöhung der Auflösung zwecks Gewinn von Bildqualität generell ineffizient, da der Aufwand quadratisch ansteigt im Vergleich z.B. zu anisotroper Filterung, wo man sich auf je nach Lage horizontale oder vertikale Reihen konzentrieren kann, nur meinen die beiden großen Grafikkartenhersteller ja leider, ihre Karten müssten Benchmarks in 1600*1200 gewinnen, was im Normalfall kein Mensch nutzen müsste und auch nicht tut und drehen dafür am AF. Da werden immer mehr winkelabhängige "Optimierungen" vorgenommen, damit ja nicht die Konkurrenzkarte (sinnlose) 1600*1200 Benchmarks gewinnt.
Im Endeffekt zahl man für Performance auf einem Gebiet, die vollkommen unnötig ist und muss generell niedrige Bildqualität in Kauf nehmen.
Das AF der meisten "next-generation" Karten ist ein einziges Trauerspiel, besonders bei nVidia, wo evtl. noch mangelnde Kompensation von Texturflimmern zu sehen ist.
ATI macht jedoch trotz Area-AF generell den gleichen Fehler, weiß es aber (noch?) besser zu kompensieren.

Im Großen und Ganzen heißt das, dass dank dem Pseudo-AF doch an der Auflösungsschraube gedreht werden muss - nunja, ich habe einen TFT und der läuft auf seiner nativen Auflösung von 1280*1024, Punkt.
Eigentlich traurig das ganze.

Grüße