-
Ehrengarde
*aus der Hölle hervorsteig*
Ist zwischen Good und Beautiful zufällig die Texturauflösungsgrenze von 16 zu 32-Bit?
Moderne Karten (So die letzten 4-5 Jahre) sind heutzutage so überoptimiert auf 32-Bit Auflösung,
das sie darin viel schneller laufen als unter 16-Bit in den Standardeinstellungen der Treiber.
Manchmal hilft es in dem Falle einfach die ganzen Kompabilitätssachen auf Leistung zu stellen.
Hat denke ich damit etwas zu tun das ne Menge Kompabilitätssachen über Bord geworfen wurden in den Jahren.
Ich denke es ist intern langsamer weil die Karte live aus der höherauflösenden Textur die geringer Aufgelöste berechnet,
und sie nicht im Cache gehält, warum auch immer. Zumindest erkläre ich mir es so. Jedenfalls ist der Effekt definitiv vorhanden.
Oder es liegt an einem nicht 100% unterstützten GL-Model, du hast ja immerhin eine ATI Graka und GL war schon immer Nvidia Gebiet.
Oder die CPU ist im Energiesparmodus und greift der Graka nicht unter die Arme beim Vorberechnen... Oder doch ein Zahlendreher 
Slowdowns und Konsorten bei meiner Karte fallen jedenfalls (neben fehlender Gesamtperformance) meistens auf 16/32 Bit zurück
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- Anhänge hochladen: Nein
- Beiträge bearbeiten: Nein
-
Foren-Regeln