Archiv verlassen und diese Seite im Standarddesign anzeigen : HDR und AA bei Oblivion
Die_Nachtigall
10.03.2006, 10:45
Auf der Seite von Gamestar habe ich gelesen, dass es nicht möglich sein wird, beide Techniken (also High Dynamic Range Rendering und Anti-Aliasing) gleichzeitig zu benutzen.
Hier sind die Links
Gamestar-News (http://www.gamestar.de/news/pc-spiele/rollenspiele/32027/index.html)
ein Bethesda- Forenbeitrag auf den sich Gamestar bezieht (http://www.elderscrolls.com/forums/index.php?showtopic=255119&st=100&p=4595884&#entry4595884)
Ich muss zugeben, dass ich die technischen Details dazu nicht verstehe, z.B. ob dies absichtlich gemacht wurde, oder ob dies allgemein nicht möglich ist. Schließen sich diese Techniken denn gegenseitig aus? Wenn nicht, warum wurde das gleichzeitige Benutzen unmöglich gemacht? Wäre beides zusammen überhaupt notwendig bzw. sinnvoll?
Schauts euch einfach mal an, vielleicht wisst ihr mehr dazu...
ich finde das irgendwie schade...
die neuen grafikkartengenerationen haben nun endlich beide features zusammen und dann unterstützt es das spiel nicht..
und ich hatte mir überlegt auf ne neue karte umzusteigen... das lohnt dann wohl nicht wenn einer der hauptbelastungspunkte wegfällt (AA oder HDRR)
*seufz* (http://theelderscrolls.info/?go=comments&id=293)
Wir sind in der Regel Tage schneller als Gamestar und co, trotzdem schaut scheinbar niemand auf unsere Seite. Der wievielte Thread mit so einem Vorkommnis ist das schon? Ich glaube, der sechste in diesem Monat. Frustrierend :(.
Die_Nachtigall
10.03.2006, 11:21
*seufz* (http://theelderscrolls.info/?go=comments&id=293)
Wir sind in der Regel Tage schneller als Gamestar und co, trotzdem schaut scheinbar niemand auf unsere Seite. Der wievielte Thread mit so einem Vorkommnis ist das schon? Ich glaube, der sechste in diesem Monat. Frustrierend :(.
Mmmh... das liegt wohl daran, dass die Gamestar-Seite sehr beliebt ist...
*rechtfertigungsmode*
Ich habe in den Foren keinen Beitrag dazu gesehen...
*/rechtfertigungsmode*
Es ist mir mir auch nicht klar geworden, warum dies technisch nicht möglich sein sollte.
Nvidia Grafikkarten koennen bis heute nicht HDR und AA gleichzeitig, bei Ati Grafikkarten sit die X1900 die erste die beides gleichzeitig kann. Da die X1900 relativ frisch auffen markt ist, wird sie bei der entwicklung nicht berücksichtig worden sein und daher wird es nicht unterstützt...
Die Xbox 360 version wird btw HDR und AA gleichzeitig dastellen, also maybe wird es auch auffem PC per patch gefixt.
Interessant ist auch die frage welche Grafikkarten überhaupt HDR in Oblivion dastellen koennen? Braucht es SM3.0, also nur die X1 Serie von Ati? oder unterstützt oblivion auch HDR auf X800 und co.
Nochmal, ALLE DircetX 9 faehigen Karten koennen HDRR "anzeigen".
Aber die Leistung ist dementsprechend schlecht. Also kann zB. eine ATI Radeon 9700 Pro HDRR bieten aber man hat dann wohl eine Diashow.
Am besten man gibt unter Google HDRR ein und sucht danach. Oder man geht auf Wikipedia und liest dort auch noch darueber. Aus den Infos kann man sich dann ein Bild zusammenschustern.
Ist jetzt die dritte Disskusion ueber HDRR innerhalb zwei Wochen. Wurde das nicht alles schon geklaert?
Und warum die nVidia das nicht koennen hat einen Grund. Lest es nach. Hat was mit der Genauigkeit zu tun bei denen nVidia vorne liegt.
ATI hat nur einen Kopromiss getroffen.
Hier ein kleines Zitat:
Da jede DirectX9-Grafikkarte im Pixelshader mindestens FP24-Genauigkeit unterstützen muss, und jede relevante DirectX9-Karte auch FP32-Texturen einlesen kann, ist dynamisches HDR-Rendering im Prinzip auf jeder DirectX9-Karte möglich. Die Frage ist nur, zu welchem Preis. Analysieren wir die Arbeitsschritte:
HDR-Eingangsdaten lesen.
Eingangsdaten in einem HDR-tauglichen Zahlenformaten verrechnen.
Daten im HDR-Format zwischenspeichern.
Vom im Schritt 3 angelegten Zwischenspeicher Kenngrößen (z. B. den Mittelwert) feststellen.
Die im Schritt 3 angelegten Zwischendaten je nach im Schritt 4 ermittelten Parametern auf ein vom Monitor darstellbares LDR-Format umrechnen.
Bei Schritt 1 ist die Frage, welche Daten in hoher Dynamik vorliegen müssen, konkret ob man auch HDR-Texturen braucht (Vertex-Daten können sowieso in hoher Dynamik angegeben werden, das gilt auch für die beleuchtete Materialfarbe). Sofern man HDR-Texturen braucht, muss man fragen, ob man diese filtern muss. Texturfilterung findet in der TMU statt. Lightmaps sollte man grundsätzlich filtern. Um die Rechenlast zu reduzieren, sollten statische Lichteinflüsse nach wie vor als Lightmap vorliegen. Damit benötigt man für HDR-Rendering also "HDR-TMUs".
Bei 2. haben wir kein Problem, da FP24-Genauigkeit eine für unsere Zwecke extrem hohe Dynamik bietet.
3. ist zunächst unproblematisch, denn ein FP16-Format als Rendertarget bieten alle wichtigen DirectX9-Karten. Wenn es zum Alphablending kommt, müssen natürlich "HDR-Alphablender" vorhanden sein.
4. Zur Mittelwertbildung könnte man die Automipmapping-Funktion der GPU nutzen, welche wiederum auf die bilineare Texturfilterung zurückgreift. Dazu brauchen wir wieder "HDR-TMUs".
5. Das Herunterrechnen von HDR auf LDR, kurz "Tonemapping", könnte mit einer dedizierten Unit gemacht werden – wenn es die denn gäbe. Mangels Tonemapper muss dies im Pixelshader erledigt werden.
NV40 und G70 bieten FP16-TMUs und FP16-Alphablender, R520 bietet nur FP16-Alphablender und die Möglichkeit, Multisampling-Antialiasing zu nutzen.
Kann man auch "HDR-TMUs" und "HDR-Alphablender" im Pixelshader emulieren? Ja. Allerdings kostet dies erheblich Performance. Texturfilterung im Pixelshader kostet mindestens viermal so viele Takte (soweit wir wissen, in der Realität sogar achtmal so viele Takte) verglichen mit "HDR-TMUs". Um Alphablending nachzustellen, sind umständliche Umkopier-Funktionen notwendig, was die Leistung ebenfalls drückt.
Uns interessiert primär, welche Karten zu HDR-Rendering in Echtzeit fähig sind. Spielt Zeit keine Rolle, könnte man schließlich auch die CPU rendern lassen. Um aus dynamischem HDR-Rendering sinnvoll Nutzen zu ziehen, lohnt es nun nicht, LDR-Spiele fix auf HDR-Rendering umzuschreiben. Denn der auf LDR-Rendering optimierte LDR-Content würde ja weiterhin genutzt. Man hätte immerhin reduziertes Colorbanding, aber viel mehr nicht. HDR-Rendering spielt daher primär bei Spielen eine Rolle, die speziell dafür entwickelt werden. Allerdings wird man bei neu entwickelten Spielen allgemein auf Grafikpracht setzen, was die GPU belastet.
Dazu noch das:
__________
NV40 und G70 bieten vom Featureset her für HDR-Rendering das meiste (der NV40 enthält zudem eine nicht richtig funktionierende, daher deaktivierte Tonemapping-Unit). Die Verwendung von vierkanaligen FP16-Texturen als Eingangsmaterial und Framebuffer-Format zieht natürlich im Vergleich zu FX8 eine verdoppelte Bandbreitenlast nach sich. Damit wird die Framerate bei Verwendung von HDR-Rendering im Vergleich zum LDR-Rendering deutlich gedrückt. Kantenglättung ist schwierig zu realisieren. Das ist inbesondere deshalb tragisch, da HDR-Rendering für bessere Kontraste sorgen sollte – Kantenglättung wäre besonders hilfreich, um den damit deutlicher hervortretenden Treppeneffekt zu vermeiden.
__________
R520 bietet keine FP16-Texturfilterung, nur FX16-Texturen können in den TMUs gefiltert werden. FX16 ist aber klar nur ein MDR-Format. HDR-Texturen müssten aufwändig im Pixelshader gefiltert werden, wobei bilineare Filterung schon sehr aufwändig, anisotrope Filterung praktisch unmöglich ist. Kantenglättung wird im Prinzip geboten, bishin zu 6x sparse Multisampling. In welcher Endgeschwindigkeit das resultiert, wissen wir noch nicht
Der R580 sollte in der Richtung keine Aussnahme machen.
Das sollte erklaeren warum ATI Kantenglaetung bei gleichzeitigem HDRR kann und nVidia nicht.
Achja, lest euch doch biiiiitte diesen Bericht durch, dann seid ihr schlauer, habt nie wieder Fragen und gut ist.
Hoffe das reicht fuers erste.....
http://www.3dcenter.org/artikel/2006/01-01_a.php
Regen der text ist leider irrelevant da HDR immer noch emuliert wird, ist es eine entscheidung der entwickler auf welcher karte HDR läuft oder nicht. Viele Spiele bieten HDR nur auf SM3.0 karten an und SM2.0 Karten werden aussen vorgelassen. Dir bringt eine DirectX9 grafikkarte mit SM2.0 null und gar nichts wenn Oblivion für HDR SM3.0 vorraussetzt, und daher wird dann auch kein HDR auf der graka laufen.
Soll nur eine Hilfe sein. Nicht klaeren auf welchen Karten es laeuft oder nicht.
Wird wohl so sein das nur SM3.0 Karten es bieten werden, sollten die Hersteller das so machen, tja.
Apropo, Bloom oder Glow, wer da was zu meckern hat, dem kann ich auch nichtmehr helfen.
Ist zwar nicht Oblivion aber Bloom sieht trotzdem super aus:
http://img72.imageshack.us/img72/7943/x3screen00018copy8eq.th.jpg (http://img72.imageshack.us/img72/7943/x3screen00018copy8eq.jpg)http://img132.imageshack.us/img132/2082/x3screen00017copy8bv.th.jpg (http://img132.imageshack.us/img132/2082/x3screen00017copy8bv.jpg)
Also X3 sieht aufjedenfall auch ohne HDRRendering genial aus. Halt mit Bloom. Soll nurn Beispiel sein, vll bringts was.
Also das einzige was man merken duerfte ist dieser Blendeffekt, sollte aber wirklich nicht sooo tragisch auffallen, stelle ich mir mal vor.
Irgendwie bin ich nun total verwirrt hab das mit Hdr und AA noch nie wirklich verstanden also Hdr = bessere Leucht effekte und Licht usw und AA ist bessere Kantenglättung also = Bischen bessere grafik ? Und beides auf einmal geht nicht zusamm bei Oblivion ? Was soll ich den jetzt nehm von den beiden oder bin ich nun der totale Idiot und hab alles falsch verstanden :\
AA und HDRR geht nur mit aktuellen ATI Karten (X1xxxer Serie), weil die HDRR ein wenig anders berechnen. NVidia koennen kein AA zusammen mit HDRRendering, da sie wiederum etwas anders berechnen (ab 6xxx Serie aufwaerts).
Eigentlich ist es alles Schwachsinn ^^. Eher Korintenkackerrei um genau zu sein, sorry fuer den Ausdruck.
heißt das dann, dass man in oblivion mit einer X1900 XTX beide techniken verwenden kann oder geht es generell mit keiner karte?
weiß man schon ob die 7900er reihe von nvidia dasselbe problem hat wie die vorgänger?
heißt das dann, dass man in oblivion mit einer X1900 XTX beide techniken verwenden kann oder geht es generell mit keiner karte?
Gar keine Karte kann beides bei Oblivion.
weiß man schon ob die 7900er reihe von nvidia dasselbe problem hat wie die vorgänger?
Die 7900 wird laut computerbase.de auch kein HDR + AA können.
heißt das dann, dass man in oblivion mit einer X1900 XTX beide techniken verwenden kann oder geht es generell mit keiner karte?
weiß man schon ob die 7900er reihe von nvidia dasselbe problem hat wie die vorgänger?
die X1900 kann THEORETISCH beides gleichzeitig, Oblivion erlaubt es aber nicht. Nur auf der Xbox 360 wird HDR + AA gleichzeitig gehen...
Und ansonsten sollte man eigentlich HDR immer dem AA vorziehen.
Stellt man Hdr oder AA dann ingame unter Einstellungen an und aus oder muss ich da die Grafikkarte irgedwnie anders einstellen kenn mich da nich so aus ?
Ehem, dass Spiel ist noch nichtmal im Laden..... ok ich befrage meine Kristallkugel...
Meint ihr nicht das es bald ueberhand nimmt mit den Fragen? :rolleyes:
Wir wissen doch auch nicht mehr als die anderen.
Lasst es doch einfach erstmal erscheinen, danach kann man immer noch genug drueber disskutieren welche Einstellung wie am besten ist.
Kennen uns auch nicht aus, wie auch.
Hätte ja sein können vll kennt ihr sowas aus anderen Games ich hab mein Lebtag noch nie was von AA und Hdr gehört und mach mir jetzt irgendwie sorgen das das Game bei mir scheiße aussieht weil viele alles mögliche an vermutungen usw schreiben und ich vollhorst weiß nichma wie man das dann anstellen würde :o
Wichtig ist nur das du weisst wie gut dein System den Anforderungen entgegen kommt.
HDRRendering ist wohl nur fuer die gut betuchten Grafikkarten/PCs empfehlenswert.
Mit einer Geforce 6600 GT, die ja Pixelshader 3.0 unterstuetzt, kannst du sicherlich HDRRendering nutzen aber die Leistung einer 66er ist wohl nicht die beste fuer Oblivion MIT HDRR aaaaber sie bietet es zumindest.
Hier gibt es irgendwo eine Liste der Grafikkarten und der Anforderungen die Oblivion laut Hersteller braucht um zu laufen.
Und dieses hin und her mit dem HighDynamicRangeRendering ist bestimmt nicht halb so wild wie hier beschrieben wird.
Hier wurde nur eines gesagt: ATI KOOOEEENNTE beides (Kantenglaettung und HDRR), wenn es das Spiel zulassen wuerde, was es wohl nicht tut.
nVidia Karten koennen von Haus aus nur eines davon, also entweder oder.
Ist aber gehuepft wie gesprungen, beide koennen es laut Spiel nicht, auch wenn sie es koennten.
Hoffe das war jetzt verstaendlich erklaert, halbwegs.
PS:
Denke es wird aehnlich wie folgt ablaufen:
Du stellst HDRR ein, dann wird die Option fuer AA ausgeschalten, also die Option fuer AA wird nicht mehr verfuegbar sein.
Macht man den Hacken zB weg bei HDRR, ist die Option fuer AA wieder verfuegbar.
Vermute sowas in der Richtung, mehr kann ich dazu auch nicht sagen, bzw vermuten.
Wenthoff
10.03.2006, 20:30
HDRR bei Oblivion läuft aber mit allen DirectX 9 karten, nicht nur mit denen mit SM 3.0 heißt auch alle ATI mit DirectX 9 :)
Ah danke für die Hilfe ich hab ne Geforce 7800 GTX da is das denke ich 0 prob mich würds ma interessieren was ihr nehmen würdet Hdr oder AA aber warscheinlich kann ma des eh erst bei Release sagen glaub ich.
OFFTOPIC:
Eine 7800 GTX und sich Gedanken ueber SOWAS machen?... und dann noch nie was von Kantenglaetung gehoert :D ? Da passt doch was ned :p .
Also an deiner Stelle wuerd ich mir keinen Kopf mehr machen ~,^. Die Fragen eruebrigen sich.
Hm, theoretisch wuerde HDRR ja auf DX9 Karten laufen, aber manche sagen das dies nur mit Karten machbar sein wird die dazu auch noch SM3.0 bieten. Naja, mal sehn.
Najoa ich hatte Konformations Geld, Weihnachtsgeld, Geburtstagsgeld bin halt das totale Spar Brötchen aber irgendwann musst ich mir ma n neuen Pc leisten und da hab ich mit nem Freund den Pc *bischen* aufgerüstet :D
Runners High
10.03.2006, 23:45
Nun, wenn man sich wirklich nur für eine der beiden Einstellungen entscheiden kann, dann werde ich dies mit einem lachenden Auge sehen. Da ich mir fest vorgenommen habe, meine X800XL noch nicht in Rente zu schicken und nach 9 Monaten schon wieder viel Kohle für ne Graka hinzublättern (wobei ich mir nicht sicher wäre, ob ich wirklich standhaft bleiben könnte), hätte ich diesbezüglich wieder ein Argument mehr (meine alte zu behalten). Kantenglättung wäre mir immer viel wichtiger, als besondere Lichteffekte. Beides würde meine Karte ja nicht packen, leistungsmäßig, aber so......gibt es wohl keine Grund für ne Neue.
lol eine 7800GTX haben und dann weiß man nciht mal was AA und HDR sind!
Wegen denn scheiss kauft man sich doch so ne High end Karte!
Da hätte dich dein Freund echt aufklären sollen was das ist denn sonst hätte auch ne 7600Gt ausgereicht da du nie AA oder HDR eingeschaltet hättest.
lol eine 7800GTX haben und dann weiß man nciht mal was AA und HDR sind!
Wegen denn scheiss kauft man sich doch so ne High end Karte!
Da hätte dich dein Freund echt aufklären sollen was das ist denn sonst hätte auch ne 7600Gt ausgereicht da du nie AA oder HDR eingeschaltet hättest.
Na und muss ich des wissen ? Nein.. ich will nur gute Grafik und das ich die ganzen guten Spiele die rauskommen werden Spielen kann und das war mit meiner alten überhaupt nicht möglich.
Naja ^^'', ist schon etwas merkwuerdig das nicht zu wissen wenn man schon laengere Zeit spielt.
Ist so aehnlich als wuesste man nicht das ein Auto Scheinwerfer hat fuer die Nacht, um besser zu sehen :p .
Aber halb so wild, jetzt weisst du es ja.
Zur HDR und AA problematik denke ich wird da ein Patch nachgereicht oder um geld zu verdienen nur inverbingen mit ner Erweiterung!
Sind Erweiterungen schon überhaupt angekündigt worden? Ist doch da was gesagt worden das sich ein Team für Patches und Erweiterungen kummert!
ich hoffe auch, dass das per patch gefixt wird, allerdings habe ich wenig hoffnung... das würde ja nur der ati flagschiffabteilung zugute kommen und das ist sicher nur ein kleiner käuferanteil...
ich hoffe auch, dass das per patch gefixt wird, allerdings habe ich wenig hoffnung... das würde ja nur der ati flagschiffabteilung zugute kommen und das ist sicher nur ein kleiner käuferanteil...
Wieso klein? Man konnte sagen es gibt ungefähr 50/50 an leuten die ne ati oder ne nvidia haben! Aber unfair wäre es scon doch ich denke das die Bethesda leute eigentlich recht unparteiisch sind :)
ja, und von der hälfte haben wieviele ne 1900XTXXLXTRALONG-Dingens?
;)
Hm, irgendwie sieht das solala aus, HDRR ohne Kantenglaettung.
Hoffe die bringen dagegen was um es auf einer ATI doch zu nutzen.
Wenthoff
14.03.2006, 14:17
Ich nehm natürlich HDRR! Da is dann alles so hell, da sieht man gar keine kanten mehr :D
Nein im ernst, bei mir gehts immer nach folgender reihenfolge:
- Performance
- Effekte
- Auflösung
ich werde auch HDRR nehmen, das wirkt atmosphärischer...
wenn 1600x1200 unterstützt wird, sieht man sowieso keine kanten mehr
Ich werd warscheinlich doch mal so eine Art von Preis/Leistungs-Test machen. Wenn HDRR in ner angenehmen Auflösung (eigentlich würd mir schon 1024*768 reichen, wobei dann die Kanten wachsen :rolleyes: ) spielbar ist nehm ich das, andernfalls AA. Mal sehen.
Hm, hier ist ein Ausschnitt aus einem Bericht wo das Problem von nVidia beschrieben wird.
Unter anderem der Grund warum auch ich noch schwanke zwischen den beiden Firmen.
Ein auch beim neuen Chip nicht behobener Schwachpunkt der Nvidia-Karten bleibt der Anisotrope Filter. Seit der GeForce6-Serie schafft die Karte trotz eingestellten 16-fach-Filters bei bestimmten Neigungen oder Verzerrungen von Polygonen nur eine zweifache Filterung - das bringt Unschärfe ins Bild. ATI behebt dieses Problem mit dem implementierten "Area-AF"-Verfahren, das die Texturen winkelunabhängig schärft. In Sachen Bildqualität kann Nvidia hier also nicht punkten.
Tja, also entweder "schwaechere" Leistung aber besseres Bild oder aber schnellere Leistung mit nicht so guter Qualitaet......
Dazu kommt das ATI HDRRendering MIT Anit-Aliasing bietet, auch wenn dies in Oblivion noch nicht nutzbar sein wird. Wenn nicht dort, dann vll. bei andern kommenden Spielen.
Hm, hier ist ein Ausschnitt aus einem Bericht wo das Problem von nVidia beschrieben wird.
Unter anderem der Grund warum auch ich noch schwanke zwischen den beiden Firmen.
Tja, also entweder "schwaechere" Leistung aber besseres Bild oder aber schnellere Leistung mit nicht so guter Qualitaet......
Dazu kommt das ATI HDRRendering MIT Anit-Aliasing bietet, auch wenn dies in Oblivion noch nicht nutzbar sein wird. Wenn nicht dort, dann vll. bei andern kommenden Spielen.
ohne jetzt in fanboy-blabla zu verfallen: wieviele ATI-Karten kennst du denn die auch leistungsungstechnisch HDRR UND AA schaffen? Und wieviele davon liegen bei dir am PC-Tisch rum?
Nur die High-End-Modelle zu vergleichen macht einfach wenig Sinn weil vielleicht 0,05% diese Karten benutzen. Deswegen sind solche Argumente einfach quatsch, mal davon abgesehen das ich zum Glück niemanden kenne der über 600 Euro für ne Grafikkarte ausgibt nur damit das Licht schön funkelt UND die Kanten hübscher werden.
Und nochmal ganz nebenbei: Die neue GeForce kann ebenfalls AA und HDRR. ;)
Link:
http://www.3dcenter.org/artikel/nvidia_g70_benchmarks/fazit.php
Ich weiss das sie das koennen. Das koennen sogar 6600GT´s aber gleichzeitig ist dies bei nVidia nicht moeglich.
Aber das ist nicht der Punkt, der Punkt ist einfach das nVidia fuer Leistung die Grafikqualitaet aufs Spiel setzt. Einem normalen Spieler mag dies weniger auffallen aber ich bin nunmal pingelig oder nenn mich verwoehnt. Wenn ich ein Spiel spiele, dann will ich davon auch was sehen.
Ausserdem, ich kaufe das was ein besseres Preis-Leistungsverhaeltnis hat und was fuer die Zukunft reicht.
Ich und Freund werden uns zumindest eine ATI kaufen.
Und es sei vergewissert, dies ist nicht Alltag das unsereins sich eine suendhaft teure Karte kauft, verrueckt sind wir nicht.
Das hin und her mit den Mittelklassekarten mache ich nicht mehr mit.
Die sind, wenn man viel spielt, schnell am Ende und das wird teurer als wenn man sich gleich eine gute Karte kauft, nicht die beste aber eine gute. Die halten laenger als Mittelklassekarten, kosten aber zu Anfang mehr.
Leider stimmt "HDRR ist so hell, da sieht man die Kanten gar nicht mehr" (ich weiß, dass Du es auch ironisch gemeint hast, nehme es jetzt aber, weil es eine durchaus verbreitete Meinung ist) so nicht.
Denn HDRR bedeutet zwar z.B. Überstrahlungseffekte es wird aber v.a. allgemein eine besser Beleuchtung/Farbgebung mit mehr effektiven dB Bandbreite und Kontrast erzeugt. Und gerade durch den realistischeren Kontrast sieht man die Kanten noch mehr... wenn die dann auch noch wegen fehlendem AA flimmern...
Das mit der Auflösung ist so eine Sache.
Eigentlich ist eine Erhöhung der Auflösung zwecks Gewinn von Bildqualität generell ineffizient, da der Aufwand quadratisch ansteigt im Vergleich z.B. zu anisotroper Filterung, wo man sich auf je nach Lage horizontale oder vertikale Reihen konzentrieren kann, nur meinen die beiden großen Grafikkartenhersteller ja leider, ihre Karten müssten Benchmarks in 1600*1200 gewinnen, was im Normalfall kein Mensch nutzen müsste und auch nicht tut und drehen dafür am AF. Da werden immer mehr winkelabhängige "Optimierungen" vorgenommen, damit ja nicht die Konkurrenzkarte (sinnlose) 1600*1200 Benchmarks gewinnt.
Im Endeffekt zahl man für Performance auf einem Gebiet, die vollkommen unnötig ist und muss generell niedrige Bildqualität in Kauf nehmen.
Das AF der meisten "next-generation" Karten ist ein einziges Trauerspiel, besonders bei nVidia, wo evtl. noch mangelnde Kompensation von Texturflimmern zu sehen ist.
ATI macht jedoch trotz Area-AF generell den gleichen Fehler, weiß es aber (noch?) besser zu kompensieren.
Im Großen und Ganzen heißt das, dass dank dem Pseudo-AF doch an der Auflösungsschraube gedreht werden muss - nunja, ich habe einen TFT und der läuft auf seiner nativen Auflösung von 1280*1024, Punkt.
Eigentlich traurig das ganze.
Grüße
c³
Powered by vBulletin® Version 4.2.3 Copyright ©2025 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.