danke für die vielen tipps und ratschläge ich werde sie beim kauf einer neue grafikkarte beherzigen
danke für die vielen tipps und ratschläge ich werde sie beim kauf einer neue grafikkarte beherzigen
Wenn ich mit meiner FX5600 n Game wie Oblivion zocken würde auf maximalen Details dann bekomm ich Ruckeldizuckel mit 1-3 FPS... ist nicht einfach "nicht" spielbar, es ist sozusagen ein Totalausfall oder Schwächeanfall bis zum Kollaps. Ich habs aber nicht getan, das ganze ist rein spekulativ, aber ich bin mir deren Richtigkeit ziemlich sicher.
Bei World of Warcraft würde es anfangen extrem ruckelig zu werden und oft wird die FPS auf unter 5 fallen, was dann nicht mehr spielbar ist. Und das bei obengennanter Einstellung. Diese Behauptung ist bewiesen da ichs selbst getestet habe.
Oder im Vergleich bei Wold of Warcraft:
Geforce 8600GT (Vista, DX10):
Auf höchsten Details, 1280x1024: 40-60 FPS, sehr flüssig selbst wenn auf dem Bild viel los ist, selbst bei 100+ Charakteren bleibt es auf 30+ FPS, das System hatte 2GB RAM unter Vista (vergleichbar mit 1 GB RAM unter XP).
Geforce FX5600 (XP, DX9.0b):
Auf tiefsten Details, 1280x1024: 10-25 FPS, läuft einigermassen OK, aber sobald auf dem Bild viel los ist dann sackt die FPS ab auf teilweise unter 5 und es wird sehr ruckelig und zu diesem Zeitpunkt kaum noch spielbar. Manchmal stockt die Karte komplett wenn auf dem Bild 100+ Charaktere sind und erst wenn man sich von denen abwendet (ganz schwer da die Karte kaum noch reagiert) läufts wieder normal. Die RAM auf dem System wo das getestet wurde waren 1 GB unter Windows XP, also daran wirds nicht liegen.
Und dieses Game geht noch sehr "liebevoll" mit schwachen Grafikkarten um, die Mindestanforderung ist gerade mal ne Geforce 4TI, selbst ne Geforce 2TI kanns noch knapp darstellen.
Es gibt andere Games wie Oblivion die kein Erbarmen mehr zeigen und dann ist die FX5600 raus, ausser man deaktiviert sämtliche Grafikoptionen und selbst solche die normalerweise nicht deaktiviert werden können ausser man "manipuliert" die Shader-Dateien um es auf ein unterirdisch tiefen Shader zu forcen.
Geändert von Justy (24.08.2007 um 13:46 Uhr)
Äh, ja, und was wolltest du mir damit sagen? Ich weiß, dass eine Geforce 5 FX5600 keine Leistungskarte ist und nicht viel taugt bei grafisch anspruchsvollen Titeln wie Oblivion. Aber gerade dieses Spiel konnte ich auch meiner X800XT auf maximalen Details flüssig spielen.
Und World of Warcraft ist nun wirklich kein Grafikwunder, das liegt schon in der Natur eines MMORPGs. Wie du schon sagst reicht da sogar eine Geforce 4 oder sogar noch schlechter.
Die X800 XT stellt dir aber nicht alle Details die Oblivion bietet dar, auch nicht mit max. Details. Die FX 5irgendwas allerdings auch nicht.
Meines Wissens nach ist das einzige, was in Oblivion nicht geht, die HDR Option. Und selbst wenn es da noch irgendwas Kleines sein sollte, ich hab Oblivion auf einer X800 XT und auf einer Geforce 8 8600GTS jeweils auf maximum gespielt und beides nimmt sich optisch nichts. (HDR sieht in meinen Augen zu Glänzend unreal aus, habs also nicht aktiviert gehabt)
Sicherlich kann jeder das halten, wie er will. Fakt ist aber, dass der Monitor, auf dem man spielt, ob er nun 17", 19" oder 21" groß ist, sehr wohl in Bezug auf die Auflösung eine Rolle spielt.
Je größer der Monitor und je kleiner die Auflösung, desto schlechter ist das Bild. Eigentlich auch völlig logisch.
@HDR:
Finde ich, dass es (richtig eingesetzt) ein großes Plus an Realismus ausmacht.
NFS Most Wanted: Ich fahre aus einem Tunnel in die knalle Sonne. In wirklichkeit haben die Augen eine kurze Gewöhnungszeit, von dunkel (Tunnel) auf hell (Sonne). In Spielen ohne HDR nicht umzusetzen.
@AF:
Ebenfalls wird dadurch ein nervender "Effekt" entfernt.
FEAR: Ich laufe ein gelöchertes Stahlgeländer entlang. Ca. 2 Meter vor mir sind die Löcher aber noch gar nicht da. Sie bauen sich erst noch auf.
Klar kann ich auf all das genauso auch keinen Wert legen. Aber welches Spiel hat denn ohne genanntes (und vieles andere) gute Grafik?
@Ynnus:
Nimms mir nicht übel. Du kannst Grafik für dich selbst einschätzen, wie du willst. Ne angestaubte X800XT aber als eine "keine Probleme" Karte zu "verkaufen", kann zum Problem werden, wenn jemand andere Ansichten vertritt.
--
Das beeinflusst aber nicht die Leistung einer Grafikkarte. Die ist auf einem 17" genauso flott wie auf einem 19" oder 21".
Ich NFS mag es auch gut eingesetzt sein. Aber in Oblivion oder auch in Gothic 3 wirkt diese Überstrahlung einfach nur total unrealisitsch. Keine echten Flächen strahlen so extrem wie als wenn sie extrem spiegeln würden und die Sonne voll draufknallt.Zitat
Und wie man HDR umsetzt ist eine Frage der Engine. Theoretisch kann auch eine X800XT HDR darstellen. HDR ist nichts anderes als High Dynamic Range was bedeutet, ein Mehr an Farbinformationen bzw Helligkeitsinformationen. In der Regel 32 bit pro Farbkanal statt 8 bit. Und da ein Monitor sowieso nur 8 bit pro Farbkanal darstellen kann, ist es eh kein "echtes" HDR, was man bei NFS sieht sondern nur eine Trick mit der Beleuchtung.
Ich habe sie nicht als "keine Probleme"-Karte verkauft sondern als "Keine Probleme" in Verbindung mit den genannten Titeln. Und da bei mir Fear und Oblivion und was auch im oberen Detailbereich flüssig lieg, spreche ich da durchaus von keinen Problemen. Dass es immer ein MEHR gibt ist klar, gibt nicht umsonst SLI oder Crossfire und Karten für 600 €, natürlich gibt es immer was besseres. Aber für die 99 € ist das immernoch eine gute Karte die aktuelle Titel gut darstellen kann. Und da es hier auch um AGP geht kommen neuere Karten wie die Geforce 8er oder die neuen ATIs auch garnicht in Frage.Zitat
Muss ja keine GF8 sein, eine GF7 tuts da auch, gibts ab ~120€. Von ATI die X1950 GT aufwärts. Die teuersten (~200€) AGP Karten sind auch High-End DX9 Karten
Geändert von NeM (26.08.2007 um 03:19 Uhr)
Indirekt beeinflusst der Monitor die Leistung einer Grafikkarte schon, wenn man davon ausgeht, mind. in der Standard Auflösung eines jeden Monitors zu spielen (was meiner Meinung nach, nichts besonderes sein sollte).
Also 22" 16:10 = 1680x1050 und das wird die X800XT definitiv in keinem Spiel bringen.
Aber auch ohne Übertreibung: 19" 4:3 = 1280x960 wird die Karte nur in Spielen packen, älter als FEAR oder CPU lastige Spiele.
Und genau da trennen sich unsere Ansichten. FEAR ist ein eher langsames Spiel, indem man auch mal Zeit hat sich alles genauer anzusehen, da man sich ja ganz vorsichtig fortbewegt (ähnlich Resident Evil). In solchen Spielen finde ich es wichtig, dass alles so gut wie möglich aussieht. Hohe Auflösungen + mind. 8xAF finde ich bei Spielen wie FEAR einfach wichtig.Zitat
--
Es ist sehr einfach:
Ich hab bei meinem alten ne FX5600 drinn.
Es ist ein VIA KM266 Chipset mit max. 4x AGP
Und ein upgraded 300 W Netzteil (welcher auch nen 4 pin stromanschluss hätte für ne AGP Karte).
Nun möcht ich diese alte verstaubte Kiste noch bischen zum rennen bringen für die alten Tage. Und ich suche das Allerstärkste was es dafür gibt und was kompatibel wäre. Ich dachte ne 6800 GT wäre das Stärkste, aber es gibt sogar 7600GTs mit anscheinend 4x AGP und erst noch verbrauchen sie weniger Strom als die 6800GT. Wenns BIOS, Anschluss, und netzteilmässig ok ist dann sollte es klappen.
Reden wir eigentlich von X800XT oder FX5600? Ich dachte du hättest ne FX5600, ... muss wohl n Irrtum sein.
Geändert von Justy (31.08.2007 um 01:00 Uhr)
X1950 XT / 7950 GT sind die schnellsten AGP Karten. Ich glaub aber dass du das mit deinem Netzteil vergessen kannst, außerdem bremst der AGP 4x Slot da bereits aus
*edit* Moment mal, welche Karten für AGP die schnellsten sind, hab ich dir bereits auf Seite 1 gesagt.....![]()
Geändert von NeM (31.08.2007 um 01:55 Uhr)
O_o
Dir ist schon klar, dass du das Geld nur zum Fenster rauswirfst, oder?
Eine schnellere Grafikkarte bringt da rein gar nicht, da alles andere im Rechner nur ein Flaschenhals für die Karte sein wird.
Da dies wohl noch ein AGP 4x Mainboard ist, schätze ich mal, dass dort ein AMD Athlon XP CPU unter 2 Ghz werkelt.
Da ist selbst die FX5600 nicht mal ausgelastet genug, um daran zu denken, eine neue Karte einbauen zu wollen
--
Die CPU werkelt mit genau 2GHz, also falsch geraten.Ausserdem ists nen Athlon XP 2400+ d.h. die waren generell etwas schneller als P4 mit selbem Takt. Ich denke die CPU ist stärker als die FX5600. Und ich hab 1 GB RAM drin, die aufgrund höherer Stabilität auf 200MHz runtergetaktet sind.
Also ne FX5600 werkelt mehr schlecht als recht, z.B. mit World of Warcraft gehe ich tiefste Details und habe dennoch krasse Frameeinbrüche manchmal. Und da ist wohl nicht der 2400er Prozi daran schuld, da könnt ich drauf wetten. Ich bin ziemlich sicher dass mit ner besseren Karte mehr drinliegen könnte.
Geändert von Justy (31.08.2007 um 14:27 Uhr)
Bei dem System ist wohl alles jenseits einer 9800 Pro Geldverschwendung
9800 PRO ist fast so stark wie 6800GT. Und ich müsste keine Treiber auswechseln wenn ich 6800GT benutzen würde. Aber die sind ja 8x AGP. Ne 7600GS kommt mir nicht teurer als ne alte 9800PRO ohne Garantie. Die Preise sind meist zu hoch wenn du auf Ebay über 50 Euro bezahlst für uralte Karten für die du keinerlei Garantie mehr hast. Aber seit die deutschen den Euro bekamen ist Deutschland sowieso Wucherpreis-Markt. Die haben irgendwie alles 1:1 (1 DEM = 1 EUR) von Demark auf Euro umgerechnet (jedenfalls kommt es mir so vor). Ob sie auch 1:1 Lohnumrechnung bekamen ist mir unklar aber das müsste ja so sein, ohne die Kaufkraft ins Bodenlose zu senken. Jedenfalls, seit der Euro da ist scheint einkaufen auf Ebay innerhalb Europa deutlich teurer als früher. Und wenn ich auf Ebay gehe dann meistens Deutschland da die Schweizer Ebay so gut wie gar nicht benutzen (obwohl sie auch eines haben). Die Schweizer versteigern ihre Dinger hauptsächlich auf Ricardo. Wobei auch da die Preisvorstellungen daneben sind aber bei uns wars noch nie billig.
Geändert von Justy (31.08.2007 um 15:16 Uhr)
Junge, wenn du zuviel Geld hast, dann schenk es mir -.-
Es macht keinen Sinn, bei dieser Krücke eine bessere Grafikkarte einzubauen, weil die Karte sich langweilen wird.
Und diese 2400+ Zahl ist nur ne PR Zahl.
AMD hat einfach gesagt, dass die CPUs genauso schnell wären, wie ein Intel CPU mit einer Taktung von 2,4 Ghz.
Belegen konnte AMD dies aber nicht.
Und es kommt auch immer an, in welchen Bereich sie das angeblich getestet haben.
Auch ist es mir schleierhaft, wie sie das angeblich getestet haben.
Wenn das Board tatsächlich nur AGP 4x unterstützt, laufen AGP 8x Karten fast nur mit halber Geschwindigkeit, da sie nur 4 anstatt 8 Datenpakete pro Takt bekommen und eine max. Datentransferrate von 1066 MB/s anstatt von 2133 MB/s erreicht.
Du kannst bei so einer Krücke nicht erwarten, dass WoW mit allen Details flüssig läuft.
Selbst bei den empfohlenen Systemvoraussetzung wird ein AMD Athlon XP 1500+ vorausgesetzt.
Allerdings sind diese Systemvorraussetzung, aus PR Gründen, extrem niedrig gehalten, damit mehr Leute dieses Spiel kaufen.
Also man kann sagen, ein 2 Ghz CPU ist da minimum, um es ansehnlich spielen zu können. Da bringt dir eine neue Grafikkarte wenig.
--
Aber es liegt mehr drinn? Ja oder nein?
Also bei den Benchmark-Tests haben gleichgetaktete XPs meist besser abgeschnitten als gleichgetakete P3/P4. AMD hatte zu dieser Zeit die Nase vorn gehabt. Und jetzt ists genau umgekehrt und bei den Core 2 Duos hatt Intel die Nase vorn, obwohl die Duos auch net schneller getaktet sind als AMDs X2 u.a. CPUs.
Geändert von Justy (31.08.2007 um 15:49 Uhr)
Ein paar FPS mehr, wenn überhaupt.
Falsch.
Die Taktung sagt rein gar nichts aus.
Intel und AMD verringern sogar wieder die Taktung, weil sie gemerkt haben, dass eine hohe Taktung nur negatives hervorruft. Hoher Stromverbrauch und hohe Verlustleistung.
Daher werkeln sie nun an Mehrkern CPUs mit geringerer Taktung.
AMD hatte damals die Nase vorn gehabt, weil sie ein besseres Preis-Leistungs-Verhältnis hatten und aufgrund ihrer Popularität haben Spieleschmieden ihre Spiele für AMD CPUs optimiert.
Daher waren Intel CPUs geringfügig in Spielen langsamer, als AMD CPUs.
In Arbeitsbereichen waren Intel CPUs immer schneller als AMD CPUs.
Heute hat Intel ein besseres Preis-Leistungs-Verhältnis, dass dazu sorgt, dass Heimandwender wieder zu Intel CPUs greifen und die Spieleschmieden wieder ihre Spiele für Intel CPUs optimieren.
--