Weil der E4400 am wenigsten säuft (50 Watt), alle notwendigen Technologien drinhatt und dennoch ziemlich leistungsstark ist mit 2x2 GHz Core Clock, die anderen haben nicht viel mehr aber sie haben ein paar zusätzliche, jedoch nicht benötigte, Technologien und doppelt soviel Cache (wobei die 2 MB L2 des 4400er ausreichen sollte um der 8800 GTX ne gute CPU zu sein.) Dank dieser CPU müsste ich auch keine Angst haben dass das System instabil werden könnte falls ich später ne 8800GTX (oder Ultra) reintue. Und es zählt echt jedes bischen wenn ich dermassen ans Limit gehe und die Graka ist definitiv n Schluckspecht. Ev. könnte sogar ne 8800Ultra gehen wenn ich die CPU mit der Peitsche zwinge noch weniger zu fressen.Und ich kann klar sagen dass Intel bei ihren CPUs einen viel besseren Job gemacht hatte, da sie trotz höherer Leistung auch noch den Verbrauch reduziert haben, dass schafft Nvidia oder ATI irgendwie nicht mehr... die stopfen einfach 1 Milliarde Transistoren rein welche Durst bekommen.
Jedoch: Beim obengennanten Link wurde genau mein Modell sogar mit nem Quadcore betrieben und es ging offenbar nix hoch. Aber bei mir wäre das ganze auf Kosten von einiger Leistung halt einfach viel sicherer und es wird weniger heiss. Und mit der 8800GTX wird Leistung in jedem Fall zufriedenstellend sein.
Ich denke ich werde n halbes Jahr mit der 8600GT irgendwie auskommen müssen, einfach alles auf tiefste Einstellungen gamen, das dürfte reichen. Und sobald die 8800 Ultra einiges billiger geworden ist, der momentane Preis verursacht fast ne Herzattacke, werd ich mir dann so eine reintun, dank den 15 Watt die ich durch die sparsamere CPU (50W vs 65W der 6000er Serien) einspare hab ich mehr Sicherheit um ne solche Karte zu betreiben, in nem Barebone. Aber ich habe gehört dass die 8800 Ultra sogar sparsamer sein soll als ne 8800 GTX, trotz mehr Leistung, somit deutlich die bessere *und unbezahlbare* Karte.
Und stellt euch vor wenn man die im SLI Modus betreiben würde, da bist du nach dem Kauf von 2 solchen Karten (bis zu 1500 Euro) so ziemlich verarmt. Eine 8800 Ultra säuft 175 Watt, ne 8800 GTX sogar 177 Watt. Im SLI wärens demzufolge über 350 Watt (!) alleine für Grafikadapters...
DX9 + Vista kompatibel ist aber auch noch hart. Muss ich auch erstmal wissen welche das sind.
Ausserdem: Auf tiefsten Einstellungen wird schon etwas gehen, wäre ja fast Betrug wenn du ne Karte anbietest die ne Technologie drinnhatt welche überhaupt nicht nutzbar ist, aufgrund einem Schwächeanfall. Dann machen sie dem Kunden etwas vor und dabei ist es nicht real nutzbar. Aber es ist klar: Wenn du auf volle Details gehst wird nix laufen, aber selbst ne 8800 GTX oder Ultra wird da in die Knie gehen, da müssen wir uns keine Illusionen machen, du kannst absolut jede Karte (oder CPU) runterzwingen, vorallem bei schlechter Software, vielleicht auch weil jegliche CPU ebenfalls zu schwach ist (da die CPU anscheinend ja genausoviel ausmacht wie die GPU.. nur weiss ich nicht wieviel das genau sein könnte, was aber sehr schwer zu sagen ist).
Ich hab mal alte Benchmarks angesehen wo verschiedene CPUs eingesetzt wurden bei selben Karten. Und da war es etwa so dass ne doppelt so starke CPU hatte ungefähr 30% mehr Leistung (FPS) rausgeholt mit selber Karte. Wogegen selbst die stärkste 6000er Serie dürfte noch keine 2-fache Leistung einer 4000er Serie besitzen, somit ist der Leistungsüberschuss wohl etwas geringer (ich schätze es sind etwa 20%, bei selber Grafikkarte, und damit könnt ich leben). GPU + CPU sind stets ein Team, das eine kann das andere ausbremsen, somit muss da ein guter Kompromiss gefunden werden.
Und net vergessen: Bei diesen Grafikkarten-Tests werden z.T. 800-900 Euro teure CPUs verwendet Intel Core 2 Extreme X6800 (übertaktet auf 3,46 GHz, Dual-Core) und so ne irrsinnige CPU für den Heimanwender, selbst als Gamer, ziemlich unreal weil sowas haben dann wirklich nur Geldsäcke eingebaut (vorallem weil es ist ja nur einer von vielen Teilen und ne so starke CPU braucht auch wieder ein starkes Board u.a). Und auch noch übertaktet was die Meisten net tun würden da es die Lebensdauer + Stabilität verringert und ne Garantie versemmelt für etwas was im Schadensfall ziemlich wehtut. Und da muss ich dann sagen, es mangelt denen auch an realistischer Objektivität.





Und ich kann klar sagen dass Intel bei ihren CPUs einen viel besseren Job gemacht hatte, da sie trotz höherer Leistung auch noch den Verbrauch reduziert haben, dass schafft Nvidia oder ATI irgendwie nicht mehr... die stopfen einfach 1 Milliarde Transistoren rein welche Durst bekommen.
Zitieren