PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : X1800 mit 1GB



first_emperor
01.11.2005, 18:34
Was sagt ihr dazu?
http://www.gamestar.de/news/hardware/29335/

Whiz-zarD
01.11.2005, 18:39
nichts ...
1 GB RAM auf Grafikkarten ist schon lang nichts ungewöhnliches.
Sicherlich für Heim PCs schon. Aber im professionellen 3D Bereich haben das die Karten schon lange ;)

first_emperor
01.11.2005, 18:45
Naja, man sieht ja wieviel Vorsprung die X1800 auf die 7800GTX hat. Praktisch keinen, trotz der 512MB. Was sollte dann 1GB bringen?

Whiz-zarD
01.11.2005, 18:50
Naja, man sieht ja wieviel Vorsprung die X1800 auf die 7800GTX hat. Praktisch keinen, trotz der 512MB. Was sollte dann 1GB bringen?

Momentan nichts.
Aber die Spiele Industrie macht ja nicht halt.

Irgendwann werden Texturen mit einer extrem großen Auflösung gespeichert. Da braucht man die 1 GB. Aber momentan ist das für die heutigen Spiele übertrieben.
Da sollten sie mehr auf die kommunikation der einzelnen Bausteien achten (mehr Pipelines etc.), als dass sie mehr RAM zur verfügung stellen.

Barney
01.11.2005, 18:53
Naja, so weit ich weiß, gibt es für Doom 3 eine Mod, die die Grafikqualität nochmal erhöht und dadurch 512mb benötigt. Wenn man jetzt so ne ähnliche Mod z.B. für UT2007 machen würde, dürfte 1gb schon nicht verkehrt sein. Die frage ist eben nur, wie viel mehr eine Karte mit 1gb dann kostet. Gerade bei diesen Prototyp-Modellen ist eine Karte mit 1gb eher Schwachsinn, wenn es erste Spiele gibt, die so etwas benötigen gibt es schon mehr Karten und der Preis sinkt. Ist halt wie mit Arbeitsspeicher, es gibt 4gb-Riegel, aber kein Privatanwender wird sich in den nächsten 2 Jahren sowas kaufen.

Whiz-zarD
01.11.2005, 18:58
Ist halt wie mit Arbeitsspeicher, es gibt 4gb-Riegel, aber kein Privatanwender wird sich in den nächsten 2 Jahren sowas kaufen.
Es gibt keine Mainboard für Heim PCs, die 4 GB RAM Module unterstützen ;)
Das höchste der Gefühle ist 2 GB und das kann auch nicht mal jedes Board

NeM
01.11.2005, 19:32
Naja, so weit ich weiß, gibt es für Doom 3 eine Mod, die die Grafikqualität nochmal erhöht und dadurch 512mb benötigt

Das ist nichtmal ne Mod, sondern einfach die Ultra High Quality Einstellung. Dafür wird eine 512MB Karte empfohlen, weil Doom 3 dabei keinerlei Kompressionsverfahren mehr benutzt. Allerdings wird für High Quality auch ne 256MB Karte empfohlen, trotzdem kann ichs mit 128MB gut spielen.

Die 512MB braucht vorerst kein Mensch. 256 reichen derzeit vollkommen aus, bis die 512er Karten wirklich sinnvoll sind vergehen noch einige Monate. Insofern ist 1GB absolut unnötig vor schätzungsweise 2007 (und auch da wird man mit einer 512MB Karte noch sehr gut zurecht kommen)

kris
02.11.2005, 10:18
Die 512MB braucht vorerst kein Mensch. 256 reichen derzeit vollkommen aus, bis die 512er Karten wirklich sinnvoll sind vergehen noch einige Monate. Insofern ist 1GB absolut unnötig vor schätzungsweise 2007 (und auch da wird man mit einer 512MB Karte noch sehr gut zurecht kommen)

Ich komm mit meiner 128er Karte noch super zurecht. Im Vergleich mit der gleichen Karte mit 256 MB bringt die 256er allerdings (fast) keine Leistungsvorteile. :/
( Laut Benchmarks von Spiele-/Hardware-Zeitschriften nicht mehr als 4 FPS im Durchschnitt aus Splinter Cell 3, NSFU 2, Half Life 2, Riddick, Doom 3 )

Dune
02.11.2005, 12:12
Es gibt keine Mainboard für Heim PCs, die 4 GB RAM Module unterstützen ;)
Das höchste der Gefühle ist 2 GB und das kann auch nicht mal jedes Board

Zumal manchen Spiele mit 2 GB Ram schon Probleme haben, siehe WoW (vor dem letzten Update startete das Spiel nicht, wenn 2 GB im Steckplatz verbaut waren).
Useless, im Moment zumin..

So, nun zu meiner mneinung bezüglich 1GB Speicher für ATI Karten:
Ziemlicher Schwachsinn, schaut man sich die Lebensdauer heutiger Grafikchips an, dann erkennt man das Problem. Bis es Spiele gibt, die einen Nutzen aus soviel Speicher ziehen könnten, bis dahin gibt es längst schnellere GPUs, die wahrscheinlich viel mehr damit anfangen könnten als ein lausiger 16Pixel-Pipeline Baustein. ATI sollte sich lieber ganz schnell um die Treiber und Performance ihrer neusten Generation kümmern, denn selbst ich als absoluter Fan der roten Fraktion liebäugle mit der Geforce 7800GTO.
Zu laut, zu Stromfressend zu langsam erscheint mir die neuste Generation, aber vorallem der Preis und die mehr als schlechten Treiber schrecken mich gewaltig ab. Wie kann es sein, das ATI den Energiesparmodus unter Linux nicht zum laufen bekommt aber dieser Bug schon seit 2002 auf ihrer Bugfix-Liste enthalten ist?
Traurig, denn technisch gesehen ist der R520 dem G70 wieder um Welten voraus, doch was nützt es, wenn man die Vorteile der Karte nicht mal Ansatzweise abruft?:(

Justy
04.11.2005, 13:08
Mit GPU Lebensdauer meinst du einfach die Dauer wie lange es geht bis sie "veraltet" sind, oder? Das ist aber allgemein ein Problem, deshalb kauf ich auch keine neuen PCs mehr da es mir das einfach nicht wert ist wenns sofort wieder wertlos wird.
Keine Ahnung wann ich mal nen neuen kaufe, jedenfalls nicht so bald.

Nova eXelon
04.11.2005, 17:19
Also finde ich es schon mal ganz klar besser, das es erst starke Grafikkarten gibt und dann die Spiele, die das brauchen. Man erinnere sich an das Spiel "Outcast" (schon alt). Damals gab es eine Zeit lang keinen PC der stark genug war, um es flüssig spielen zu können (auch PC mit Voodoo2 SLI nicht, gab immer wieder kleine FPS-Slow-downs). Auch die Limitierung von 512x384 Pixel half da nicht viel.

Außerdem glaube ich schon, das es auch eine sinnvolle Anwendungsmöglichkeit für solche Karten mit 1GB oder aktuelle SLI Systeme gibt:
Man nehme einen 22 Zoll Monitor und spiele 1600x1200 mit 4AA und 16AF. Glaube nicht, dass das ne Karte mit 512MB so locker mal macht.
Bei 19 Zoll oder kleiner reicht auch 1280x1024 oder geringer, ohne das alles nach Treppen steigen aussieht. Da wäre so eine Karte auf jeden Fall überdimensioniert. Da es aber so langsam auch mit Flachbild-Fernsehern los geht, die dann auch mal locker 110cm durchmesser haben, sind bessere Auflösungen schon notwendig. Es sei denn man sitzt 5 Meter weg.

Aktuelle Tests belegen auch das zB SLI eher gar keinen oder negativen Effekt hat, solange man eher niedrige Auflösungen nimmt und ohne AA und AF spielt. Sobald man das aber ändert, hat man schon teilweise 15-30 FPS mehr (UT2004 15 FPS und Doom3 30 FPS). Klar rechtfertigt dieser Unterschied nicht eine solch teure Investion, fakt ist aber dennoch, dass es Möglichkeiten gibt, 1GB Karten oder SLI sinnvoll zu nutzten.

Ich persönlich finde es auch Schwachsinn, aber eben nur weil es (mir) zu teuer ist, nicht weil es nichts bringt.

Whiz-zarD
04.11.2005, 17:50
Also finde ich es schon mal ganz klar besser, das es erst starke Grafikkarten gibt und dann die Spiele, die das brauchen. Man erinnere sich an das Spiel "Outcast" (schon alt). Damals gab es eine Zeit lang keinen PC der stark genug war, um es flüssig spielen zu können (auch PC mit Voodoo2 SLI nicht, gab immer wieder kleine FPS-Slow-downs). Auch die Limitierung von 512x384 Pixel half da nicht viel.


Erstmal informieren, wie Outcast funktionierte ;)
Das war keine 3D Grafik. Also, hätte die dickste 3D Grafkkarte nichts genutzt.
Das Spiel basierte auf eine Grafik Technik, die sich Voxel Grafik nannte. Diese Technik basiert auf 2D. Soll heissen, das Spiel ist kein 3D Spiel, sondern ein 2D Spiel.
Mit dieser Voxel Grafik konnte man 2D Grafiken erzeugen, die nach 3D aussahen.
Man war dort auf DirectDraw und nicht auf Direct3D angewiesen. OpenGL, Glide etc haben da auch nichts genutzt. Nur haben die Grafikkartenhersteller mehr auf 3D gesetzt und 2D vernachlässigt. Deswegen gab (oder gibt) es keine Grafikkarten, die das Spiel flüssig darstellen konnte.

Justy
04.11.2005, 18:29
Also... das ist nicht ganz so. Es gibt 3-D Mark Testprogramme die sehr alt sind aber die selbst neuste Grafikkarten noch total fordern. Und selbst die besten Grafikkarten können Programme wie 3D Mark 05 immer noch nicht total ruckelfrei darstellen, soviel ich weiss.
Es ist durchaus möglich Programme zu machen die jede Graka die es gibt überlastet! Und die solls auch geben... ;)

Jo wegen Grafikkarten-Speicher: Das Problem ist ja dann der RAM-TAKT. Also bei meiner ist der 399 MHz und sie hat 256 RAM. Aber der RAM-TAKT ist zu langsam um die 256 MB wirklich richtig zu nutzen. Und genau so ergeht es auch vielen Grakas die 1 GB RAM haben. Die RAMs bringen halt auch nur dann was wenn die genug schnell getaktet ist. Ist dann manchmal etwas beschiss und machen sie nur damits nach "viel" aussieht.
Am wichtigsten ist nach wie vor die GPU.

Dune
04.11.2005, 19:08
@Whizard:
Schon fast richtig, man sollte halt noch erwähnen, das Voxelgrafik ausschließlich vom Prozessor berechnet wird, die Graka hat glaube ich nur das Texturieren übernommen. Die Vorteile der Technik waren feinere Grafikeffekte, zum Darstellen einer realen Welt gab es keine bessere Techink, zu dem war die Sichtweite sehr hoch. Allerdings auf Kosten der CPU Power. Im Zeitalter der 3D Beschleuniger eine unnütze Technik.

@Nova eXelon:
Glaub mir, selbst für deine genannten Einstellungen bräuchte man nur 512MB, der Nutzen von 1 GB würde sich wohl bei dieser karte auf 3 Fps beschräncken, zu wenig für soviel Geld.
Überhaupt gibt es bis jetzt nur 3 Spiele, die über 256MB Grafikspeicher belegen, das wären Fear, Doom/Quake und BF2. Allerdings sind diese bei ungefähr 300MB, also selbst da ist noch Platz für Kantenglättung usw..

@Justy:
Lol, deine Aussage finde ich lustig, man kann jede Grafikkarte und CPU zum abstottern bringen, es muß dabei nicht mal gut aussehen...die von dir genannten 3D Mark Testprogramme sind der reinste Schwindel, denn sie wurden nur programmiert um eben zu zeigen, das man selbst eine neue Graka in Verlegenheit bringen kann und der Spieler gleich zum nächsten Geschäft rennt um sich eine neue, bessere zu holen...Software sells Hardware.

Eine GPU auszureizen ist heute ohne Probleme Möglich, man müsste nur über 1Million Polygone über den Bildschirm tanzen lassen oder Wahlweise die volle Anzahl der Befehle des Shadermodells 3.0 ausreizen (1024). Das wäre der Tod für alle gängigen GPUs.

Aber zu welcher Aussage sollte uns das führen?

Und Justy, dein Ramtakt wird nicht das Problem sein, eher deine GPU.;)

By the way: Heutige GPUs werden nicht mal Ansatzweise augereizt, hinzu kommen Software Titel, die plötzlich ungeheuere Grafikpower brauchen, nur um diese zu verschwenden. Bestes Beispiel ist hier Halo für den PC...obwohl das spiel angeblich DirectX 9 Grakas brauchnt nutzt es diese nicht mal. Im Gegenteil, setzt man per Tool das Shadermodell 1.4 von DirectX 8.1 ein läuft das Spiel je nach Karte 20% schneller, erstaunlich, oder?:eek:
Man hat dabei auch keine Qualitätseinbußen bemerken können,a lso wofür braucht man da zwingend eine DX9 Karte? Fragen wir doch mal Microshit...

Whiz-zarD
04.11.2005, 19:25
@ Justy:
Der takt hat rein gar nichts damit zu tun, ob man den Grafikkarten Speicher ausnutzen kann, oder nicht ;)
Das einzige, was am PC fehlt ist die Synchronisation der einzelnen Takte, was bei einer Konsole der Fall ist.
Ein PC besitzt einfach zu viele unterschiedliche Taktfrequenzen, die nicht synchron harmonieren können. Dies hat aber nichts mit dem RAM zu tun.
Genau betrachtet, ist der Takt viel zu schnell für den RAM.
Ein RAM besitzt eine Latenzzeit, die noch relativ hoch ist. Daten werden zuerst in den Cache gespeichert, bevor sie in den RAM gelangen. Der Cache dient hier als Pufferzone, da der RAM nicht mit den Daten hinterherkommt.
Ein PC zu überfordern ist auch kein Problem. Jeder, der ein wenig Ahnung mit programmieren hat, bekommt das in weniger als ein paar Minuten hin.
Genauso sieht es bei den Grafikkarten aus: Einfach die Grafikkarte extrem viele Polygone berechnen lassen und schon ist sie überfordert.

Nova eXelon
04.11.2005, 21:04
OK, was Outcast und die 1GB Ram Karten angeht, gebe ich mich geschlagen.
Fakt ist dennoch: Lieber Überschuss als Unterschuss an Leistung, egal ob CPU, GPU usw.

Ich höre mich bestimmt so an, als würde ich mir jeden Monat irgendwas neues fürn PC kaufen..............

Justy
05.11.2005, 01:41
Ja aber am Ende läuft es doch genau darauf hinaus dass das RAM zu langsam ist! Und doch genau wegen diesem Takt... :rolleyes:
Also kannst du nicht einfach endlos viele RAMs haben, selbst 1 GB ist zuviel.

Und ich hab ja gesagt dass eigentlich nur die GPU wichtig ist... die ist mit Abstand das allerwichtigste, alles andere ist nur Beifutter. Natürlich möcht ich euch nicht wiedersprechen, ihr habt da verdammt viel Ahnung, das ist mir klar.
Aber ich hab IMHO echt nicht was falsches gesagt... ausser dass es vielleicht echt auch wieder an der GPU liegt dass RAM nicht richtig genutzt werden können (dann wäre es ja echt immer nur die GPU).

Das mit den Grafikprogrammen stimmt wohl, da habt ihr absolut recht! Diese Grafik-Test-Programme wie "3D-Mark" sind nicht wirklich "intelligent" weils ja echt easy ist jede Graka hochgehen zu lassen. Aber was es uns sagt? Dass alle Grakas Mist sind und keine einzige genügend Power hat wenn die Programmierer mit Absicht ne Graka zusehr auslasten mit sinnlos vielen Grafikoptionen. Gerade Shader 3.0 ist ein extrem belastendes Grafikprogramm. Meine alte FX 5600 liegt sogar bei Shader 2.0 sehr schnell ab! Und 3.0 ist der Tod für jede Graka.

Es liegt also am Programmierer ne Graka nicht unnötig zu belasten aber trotzdem ein gutes Ergebniss hinzubringen. Aber das tun sie halt oft nicht... und jagen sie hoch.
OK... die 3D Marks machen mit Absicht viel Furore indem sie jede Graka hochgehen lassen... und dann jeder Gamer meint seine Graka sei zu schwach. Aber dabei ist er zu dumm zu begreifen dass es gar keine genug starke Graka geben kann wenn der Programmierer es nicht will! Das ist doch der springende Punkt! ;)

Justy
05.11.2005, 01:51
hinzu kommen Software Titel, die plötzlich ungeheuere Grafikpower brauchen, nur um diese zu verschwenden. Bestes Beispiel ist hier Halo für den PC...obwohl das spiel angeblich DirectX 9 Grakas brauchnt nutzt es diese nicht mal. Im Gegenteil, setzt man per Tool das Shadermodell 1.4 von DirectX 8.1 ein läuft das Spiel je nach Karte 20% schneller, erstaunlich, oder?:eek:
Man hat dabei auch keine Qualitätseinbußen bemerken können,a lso wofür braucht man da zwingend eine DX9 Karte? Fragen wir doch mal Microshit...
Noch ein anderes Beispiel:
Wenn ich für das Game "Earth 2160" statt Pixel Shader 2.0 nur Pixel Shader 1.3 verwende (muss man runterforcen) dann läuft das Game auch sofort viel besser. Höhere Pixel Shader sind ja gar nicht schneller und geben erst recht nicht mehr Leistung. Aber sie haben vermutlich bessere Technologien die ein besseres Ergebniss erzeugen. Aber ich weiss das eigentlich nicht. Hab davon keine Ahnung. Ich weiss nur: Pixel Shader, je höher sie sind, sind wahre GPU Killer!

Also ich hab das Game nicht, nicht dass wir uns falsch verstehen. Für das Game ist die FX5600 sogar mit runtergeforctem Pixel Shader 1.3 einfach zu schwach. Aber die meisten Games kann ich noch einigermassen normal gamen. Auch World of Warcraft läuft auf niedrigen Details noch ziemlich gut.

NeM
05.11.2005, 05:29
Es gibt 3-D Mark Testprogramme die sehr alt sind aber die selbst neuste Grafikkarten noch total fordern

Nope, meine 9800 Pro tut sich mit dem 3DMark 03 nicht wirklich schwer. Obwohl der 3DMark 03 der zweitneueste 3DMark ist und die GraKa vor über einem Jahr in Aktion war, also inzwischen alles andere als neu ist.


Und selbst die besten Grafikkarten können Programme wie 3D Mark 05 immer noch nicht total ruckelfrei darstellen, soviel ich weiss.


Da es inzwischen einige Systeme gibt die mehr als die doppelte Punktezahl verglichen mit meinem System rauskriegen, sollte das dann doch recht ruckelfrei laufen.


Und genau so ergeht es auch vielen Grakas die 1 GB RAM haben


Es gibt noch keine GraKas mit 1GB RAM. Zumindest keine die ein 0815 User kaufen kann.


Gerade Shader 3.0 ist ein extrem belastendes Grafikprogramm. Meine alte FX 5600 liegt sogar bei Shader 2.0 sehr schnell ab! Und 3.0 ist der Tod für jede Graka.

Das Shader Model 3.0 ist kein Programm in dem Sinne. In Far Cry, Age of Empires 3 und irgendeinem Splinter Cell Teil kann man das SM3.0 aktivieren, allerdings nur mit modernen nVidia Karten (ab der GeForce 6 Reihe afaik), ich glaub die neuesten ATI Karten unterstützen das inzwischen auch. Auf jeden Fall bringts optisch ein paar Extras, die zumindest in Far Cry kaum erkennbar sind, hauptsächlich aber Performance gegenüber dem Shader Model 2.0 (im Verhältnis zum Dargestellten natürlich). So ziemlich alles was das SM3.0 heute grafisch bringt könnte auch mit dem SM2.0 realisiert werden, nur ist der Programmieraufwand dafür zu groß soweit ich das gehört hab. Außerdem würde die Performance unter SM2.0 wohl nicht so toll sein. Trotzdem laufen die SM3 Spiele mit Karten ab GF 6800 durchaus flüssig.

Justy
05.11.2005, 05:43
Hmmm... ds ist ja alles OK. Aber was ist ein 8/15 User?
Für nen 8/15 User ist selbst ne Geforce 6800 noch zu stark. Die meisten User hier haben wahrscheinlich etwas so schwaches wie ich habe (zwischen FX 5600-6600 respektive 9600-9800 PRO der ATI Reihe).

Die sind selbst von 512 MB meilenweit davon entfernt.
8/15 User... also die ganz grosse Masse... hat vielleicht die 3. oder 4. schlechteste Generation der Grakas. 6800 wäre die zweitbeste und 7800 die momentan beste, aber beide haben eher Hardcore-Gamer als ein 8/15 User. Bei ATI fängt alles über 9800 PRO bereits an wo es IMHO keine 8/15 User mehr sind.
Also bei Geforce alles über 6600 und bei ATI alles über 9800. Aber selbst die sind noch nichtmal 512 MB, maximal 256.

first_emperor
05.11.2005, 08:25
@Ich bin kein Hardcoregamer (hab dazu zu wenig Zeit) musste mir aber einen neuen PC zulegen weil unser alter wirklich das letzte war. Und wer Gothic 3 mit hohen Details spielen will muss schon investieren. Weil ich der Meinung bin, dass wenn man sich einen PC kauft sich etwas zukunftsicheres zulegen sollte hab ich so ziemlich die aktuellste Hardware gekauft um nocht so bald wieder einen kaufen zu müssen. Als Schüler kann man sich nicht jedes zweites Jahr was neues kaufen und deswegen sollte man meiner Meinung nach eben gleich was gescheites kaufen (Für X2 4400+, 7800GTX, 1GB RAM und den Rest 1600€). Aber das ist Geschmackssache.
BTW: Es heist 08/15 ;)

@ NeM: Tja, seltsamerweiße hab ich mit meiner 7800GTX bei Chronikels of Riddick ziemliche Probleme im Shader 3.0 Modus. Könnte das an meinem X2 4400+ liegen?

Justy
05.11.2005, 08:37
Überhaupt nicht liegt es an dieser Power CPU. Damit verbannst du jedes Game in ein Speedy-Modus. Ist eigentlich immer die Graka die in die Knie geht... :rolleyes:
Shader 3.0 ist schlimm... das kann ich dir sagen, arme Graka.

08/15 und 8/15... wo ist denn da der Unterschied? Reden wir schon Computus-Language indem wir es Zweistellig machen wenns nur eine Stelle hat? ÜÜps...
Kommt vielleicht von daher dass ich die Herkunft nicht kenne...

first_emperor
05.11.2005, 08:39
Was meinst du mit arme GraKa?
Wenn man das schon mit einer 6800 Ultra flüssig spielen können soll.

08/15: Es heißt einfach so:rolleyes:

NeM
05.11.2005, 08:39
Mit 0815 User meine ich den Heimanwender oder Spieler. Es gibt für den Heim-PC jetzt noch keine 1GB Grafikkarten, die 512MB Modelle wurden erst vor kurzem rausgebracht. Die neueste ATI Kartengeneration könnte 1GB Speicher verwalten, aber die sind auf noch keiner Karte verbaut.


Für nen 8/15 User ist selbst ne Geforce 6800 noch zu stark.

Wenn man gern zockt treibt man die Karte schnell an ihre Grenzen. Die 6800 Karten hat man außerdem schon in GT Ausführung um nur knapp über 200€ gekriegt (das hab ich für meine 9800 Pro vor einem Jahr bezahlt), deshalb sind die auch fast überall ausverkauft.

Justy
05.11.2005, 08:43
Nein ich meine nicht dass ne 6800er zu stark ist. Zu stark ist gar keine Graka... sind alles schwache Dinger.
Alle GPUs sind eh sofort am Anschlag wenn ein Game mal kräftig loslegt.

Ich meine dass es 08/15 (zufrieden?) User immer noch zuwenig haben, obwohl es ausverkauft sein soll. Ich denke nicht dass die grosse Masse (die nicht oft gamt) ne 6800 GT hat, zumindest nicht zu genau dem jetzigen Zeitpunkt. Wird sich aber bald wandeln. Richtige Gamer sind keine 08/15 User... die sind alle irgendwie PC-Hardcore und rüsten oft auf. Mit 08/15 mein ich Privatanwender im ganzen Querschnitt durch die ganze Gesellschaft.


Was meinst du mit arme GraKa?
Wenn man das schon mit einer 6800 Ultra flüssig spielen können soll.

08/15: Es heißt einfach so:rolleyes:
Du glaubst doch nicht dass dein 4400+ Dualcore zu schwach ist für ein Game was sogar mit ner 6800GT Graka flüssig läuft? Diese CPU ist verglichen mit der 6800GT noch ne ganze Nummer grösser.
Oder meinst du das echt?
*wirft sich lachend aus dem Fenster*

NeM
05.11.2005, 09:01
Tja, seltsamerweiße hab ich mit meiner 7800GTX bei Chronikels of Riddick ziemliche Probleme im Shader 3.0 Modus. Könnte das an meinem X2 4400+ liegen?

Das SM3.0 bringt neben ein paar anderen Extras auch Performancevorteile, siehe hier: http://www.microsoft.com/whdc/winhec/partners/shadermodel30_NVIDIA.mspx

Evtl. werden mit dem SM3.0 aber zuviele Effekte aktiviert, so dass die Karte in die Knie geht, ich hab von dem Spiel ehrlich gesagt wenig Ahnung. Ich hab aber den Eindruck dass mit dem SM3 manchmal Effekte aktiviert werden, für die man es eigentlich garnicht bräuchte. z.B. in AoE 3 gibts diesen netten Beleuchtungseffekt (heißt der Bloom-Effekt? Bin mir jetzt nicht sicher) nur mit dem SM3, in HL2 Lost Coast findet man aber einen ganz ähnlichen (den gleichen?) Effekt, auch ohne SM3.

Vielleicht hast du auch AA/AF zu hoch eingestellt, kann mir vorstellen dass das System stockt wenn man so grafiklastige Spiele mit max. AA/AF, max. Details, auf hoher Auflösung etc. etc. spielt ;) Die Hardware hinkt dem was man in aktuellen Spielen einstellen kann immer ein wenig hinterher. Splinter Cell, AoE 3 und FC sollten mit dem SM3 und nicht übertriebenen Einstellungen aber flüssig laufen, sonst könnts ja keiner spielen (in der Regel hat der User nen schwächeren Rechner als du :)). Kann aber auch sein dass die Leute dafür einfach ein paar Details runterstellen, AA/AF komplett deaktivieren oder wasweißich, hab keine SM3 fähige Karte und kann die Performance daher nicht selbst testen.

Nova eXelon
05.11.2005, 10:39
Geschrieben von Justy:
Du glaubst doch nicht dass dein 4400+ Dualcore zu schwach ist für ein Game was sogar mit ner 6800GT Graka flüssig läuft? Diese CPU ist verglichen mit der 6800GT noch ne ganze Nummer grösser.

Das Problem könnte am DualCore liegen. Einige Spiele machen damit große Probleme, da sie darauf nicht optimiert sind. Immerhin müssen sich die beiden Kerne einen FSB teilen, quasi konkurieren sie miteinander. Das verursacht Managementprobleme

Was Shadermodel angeht:
ATI verbreitet seit einiger Zeit, dass nVidias 7800GTX Karten den Shader 1.2, 1.3 und 3.0 mit dem "Display Compatibility Test Kit" von Microsoft nicht bestehen.
OK, das ATI sowas sagt ist ja nicht verwunderlich (Konkurenz schlecht machen). Obs nun wirklich stimmt glaube ich aber nicht wirklich.

@first_emperor:
Du bist also Schüler oder wie? Ich hätte mir in meiner gesamten Schulzeit nichts für 1600€ leisten können, selbst wenn ich nie Taschengeld oder Zeitungsgeld ausgegeben hätte.
Davon mal ab:
Ich kaufe mir alle 3 Jahre ca. was neues, aber auch dann nicht das beste vom besten, eher im Gegenteil und trotzdem komme ich aus. Ich bin auch keine Gamer, weshalb ich bis vor 6 Monaten mit ner GeForce4 Ti 4200 ausgekommen bin. Die meisten Teile in meinem PC sind auf nem Stand von vor 3 Jahren. P4 S478 eben. Dennoch kann ich standardmäßig meine Spiele (UT2004, Earth2160) mit 1024x768x32, 16xAF und vollen Details spielen und Spiele wie BattleField dann halt ohne AF und nur erhöhter, statt voller Details, was mich als nicht-Hardcore-Gamer nicht stört.

Die Hardware, die du dir gekauft hast, kaufen sich aber nur Hardcore-Gamer, denn was bleibt noch übrig, was man sich besser als du hätte kaufen können? SLI vielleicht noch, aber zwischen deinem PC und den dann mit SLI und 4,8 statt 4,4 unterscheidet nicht gelegenheitsspieler von Hardcore-Gamer.

Versteh mich nicht falsch, kannst dir kaufen was du willst. Aber 1600€ sind nunmal die Beträge, die Hardcore-Gamer inverstieren.

Justy
05.11.2005, 10:48
Ich finde das mit den Dual Core Prozessoren eh Mist da sie für Gamer-PCs nicht wirklich was bringen. Da bin ich mit meinem 2 jährigen Single-Core Athlon XP 2400+ (mit 2 GHz Core-Takt) immer noch auf allerbestem Stand. Aber sie kriegens wohl net gebacken einen richtigen 4.4 GHz Prozi zu bauen und verkaufen dann einfach 2x 2.2 GHz als 4400+ was ich ehrlich gesagt beschiss finde. Aber so läufts halt... können sie keinen starken Single Core mehr bauen, dann verkaufen sie dir Dual Core als Totalleistung.

Wobei Hyper Threading ist ja schon super für fast alle gängigen Programme, nicht aber unbedingt für Games. Ich glaub... bei Games bringts nicht viel. Hab aber echt keine Ahnung...

Gamabunta
05.11.2005, 11:48
Ich finde das mit den Dual Core Prozessoren eh Mist da sie für Gamer-PCs nicht wirklich was bringen. Da bin ich mit meinem 2 jährigen Single-Core Athlon XP 2400+ (mit 2 GHz Core-Takt) immer noch auf allerbestem Stand. Aber sie kriegens wohl net gebacken einen richtigen 4.4 GHz Prozi zu bauen und verkaufen dann einfach 2x 2.2 GHz als 4400+ was ich ehrlich gesagt beschiss finde. Aber so läufts halt... können sie keinen starken Single Core mehr bauen, dann verkaufen sie dir Dual Core als Totalleistung.

Wobei Hyper Threading ist ja schon super für fast alle gängigen Programme, nicht aber unbedingt für Games. Ich glaub... bei Games bringts nicht viel. Hab aber echt keine Ahnung...
Beschiss ist da gar nichts. Vielleicht nur beim Marketing, die dir eine CPU mit 4400 Mhz andrehen, aber dort "nur" zwei mal 2200 Mhz drin sind. Du hast schon Recht, dass heutige Spiele besser mit einer SingleCore CPU laufen als mit einer DualCore CPU mit vermeintlich selben Schnelligkeit, da sie halt einfach nicht darauf ausgelegt sind ihren Verbrauch auf mehrere Cores zu verteilen, aber ab der nächsten Generation an Spielen wird das anders sein. Gothic 3 wird AFAIK eins der ersten Spiele sein, die auf Multi Core Prozessoren ausgelegt sind. Dann kann es sein, dass die 2*2000 Mhz die 1*4000Mhz überholt. In spätestens 2-3 Jahren werden dann eh alle/fast alle Spiele und Anwendungen auf Multicore Prozessoren ausgelegt sein und auf dem Hardwaremarkt wird es dann auch keine Singlecore CPUs mehr geben.

Justy
05.11.2005, 14:41
Ganz nach dem Motto "Cell". ;)
Whatever... du hast schon recht. Da kann ich zustimmen. Da es sowieso nur noch Dual Core geben wird müssen die Entwickler die Games zwangsläufig darauf auslegen oder sie wären schön blöd. Anscheinend ist die Technologie ja soviel leistungsfähiger als ein Single-Core mit doppeltem Takt. Wobei das nicht der einzige Grund ist. Ich denke... ein doppelt getakteter Single-Core ist auch viel teurer herzustellen und technisch kaum noch realisierbar da er zu heiss wird und zuviel Strom frisst. Oder anders gesagt: 2 Single Core könnten dasselbe leisten mit weniger Hitze/Verbrauch und Kosten.

first_emperor
06.11.2005, 10:56
@ Nova eXelon: Die 1600€ betehen aus 920€ Arbeiten, 595€ Sparbuch (jetzt leer) und der Rest ist Weihnachten und Geburtstag. Unser voriger PC hatte gerade mal eine Radeon Rage 6, 256MB RAM, 40GB Festplatte, P4 1,5Ghz. Damals war für mich nur wichtig das die Spiele funktionieren. Irgentwann hat jedes Spiel so gut wie nur Probleme gemacht, der PC ist andauernd abgestürzt. Aufrüsten war bei dem PC nicht mehr drinnen und da meine Eltern (verständlicher Weise) keinen neuen kaufen wollten und ich eigentlich der einzige war der neuere Hardware brauchte (wegen den Spielen), war klar das ich kaufen "musste". Und eben weil ich sicher nicht so bald im selben Schlamassel stehen möchte, legte ich auf Zukunftsicherheit wert.

@ Justy: Genau deswegen hab ich mir keine (derzeit) schnellere Singelcore CPU zugelegt. Wenn die Spieleprogrammierer erstmal Dualcore nutzen (bei Gothic 3 wird ein Kern z.B. für die Physik zuständig sein) werde ich mit meiner CPU um einiges besser da stehen als mit einem gleich schnellen 3700+. Und Beschiss ist bei einer 4000+ (Singelcore) CPU gar nichts. Das 4000+ soll nur zeigen was für einen Takt ein P4 ca. braucht um zur gleichen Leistung zu kommen. Klar, dass das nicht immer 100% stimmt, Marketing ist immer dabei.

@ NeM: Hast Recht ich hab AF und AA auf voll. Für SM 3.0 zusätzlich bräuchte ich da wohl SLI.

ID
07.11.2005, 21:53
Da bin ich mit meinem 2 jährigen Single-Core Athlon XP 2400+ (mit 2 GHz Core-Takt) immer noch auf allerbestem Stand. Aber sie kriegens wohl net gebacken einen richtigen 4.4 GHz Prozi zu bauen und verkaufen dann einfach 2x 2.2 GHz als 4400+ was ich ehrlich gesagt beschiss finde. Aber so läufts halt... können sie keinen starken Single Core mehr bauen, dann verkaufen sie dir Dual Core als Totalleistung.


Wasn schwachsinn, sorry aber du scheinst nicht auf dem laufenden zu sein was im mom in der Singlecore Welt so abgeht o0 . Justy du denkst wohl nur weil AMD mit ihren Athlon 64er immer noch um die 2Ghz Marke herumhüpft (der schnellste AMD hat zurzeit 2,8ghz) wäre dein Athlon XP 2400+ mit realen 2ghz noch so super aktuell und vorne dabei ?

Also da musste ich schon sehr stark schmunzeln. :D der neue Athlon ist extrem schnell und sogar Intel ist endlich von ihrer wahnsinnsschiene heruntergekommen ihren P4 mit weiteren Mhz Rekorden zu quälen und haben eingesehen das ein neues Konzept hermuss. Deswegen werden sie ihren Pentium M ( Centrino ) weiter für den Desktopmarkt ausbauen und der neue Pentium wird auf der Centrino-Technologie basieren.

Es gibt noch weitere Dinge die eine CPU schnell und modern machen und dies ist bestimmt nur sehr minimal der reale Mhz-Takt des Kernes. Schonmal was vom neuen Memory Controller gehört den der Athlon 64 beherscht ? Dieser Spricht mit einem HT von 1Ghz den speicher direkt an und erlaubt somit endlich wirkliche 6,4Gb/s an Bandbreite mit denen die CPU auf den Speicher zugreifen kann ( 128Bit *400 :8 ) und auch noch sehr viel Luft nach oben lässt für OC.
Zum vergleich dein Athlon XP hat einen FSB von 133 Mhz und einen 64 Bit Speicherinterface (64Bit *266 :8) und das sind dann pupsige 2,13Gb/s. Auch die neuen Befehle wie X64, SSE2 und neuerdings mit Venice und San Diego Kern auch SSE3 und ein vergrösserter L2 Cache bei Opterons, FX und San-Diego Modellen auf 1024KB ( du hast einen L2 Cache von 256KB) geben den neuen Athlons sehr viel Performance.

Im Grunde sind das die wichtigsten Argumente die ein Athlon 64 bietet aber es gibt noch mehr und alles in allem ist eine Athlon 64 CPU mit 2Ghz locker 50% schneller als ein Athlon XP auf gleichem Takt. Das die neuen X2 Dualcores noch nicht viel bringen ist ja schon klar, es muss ja erst optimiert werden usw ^^. SLI brachte am anfang auch kaum was :o also von daher.

@first_emperor stell AA etwas runter am besten Fährste mit 4x AA und 8x AF. Auf voll ist zu heavy, du hast zwar ne 7800GTX und man möchte sie auch an ihre Grenzen bringen aber das Problem liegt an HDR was Shader 3,0 beherscht. HDR sieht zwar sehr geil aus aber frisst enorm an Leistung. Gepaar mit maximalen AA und AF ( Ich nehme an 6x AA und 16x AF ) geht sogar eine GTX an ihre Grenzen ^^.

first_emperor
08.11.2005, 13:55
Chronicles of Riddik beherrscht HDR? Falls das so ist und ich es gewusst hätte, hätte ich sicher sonst nicht auf voll gespielt. Was wahrscheinlicher ist (sag ich mal so), dass es an den Softshadows von Shader 3.0 liegt und davon gibt es bei Riddik ja verdammt viele. Wenn ich ehrlich bin habe ich noch keine so großen Unterschiede (außer den fps :D ) bei den 2 Modi entdeckt. Hab aber auch noch nicht so besonders drauf geachtet, sonder nur ausprobiert. Das komische ist eher, dass ich bei der Demo (auch bei FEAR) wirklich alles auf maximum gestellt hat und dort hat es super funktioniert. Haben wohl noch einiges geändert.