Seite 2 von 2 ErsteErste 12
Ergebnis 21 bis 33 von 33

Thema: X1800 mit 1GB

  1. #21
    @Ich bin kein Hardcoregamer (hab dazu zu wenig Zeit) musste mir aber einen neuen PC zulegen weil unser alter wirklich das letzte war. Und wer Gothic 3 mit hohen Details spielen will muss schon investieren. Weil ich der Meinung bin, dass wenn man sich einen PC kauft sich etwas zukunftsicheres zulegen sollte hab ich so ziemlich die aktuellste Hardware gekauft um nocht so bald wieder einen kaufen zu müssen. Als Schüler kann man sich nicht jedes zweites Jahr was neues kaufen und deswegen sollte man meiner Meinung nach eben gleich was gescheites kaufen (Für X2 4400+, 7800GTX, 1GB RAM und den Rest 1600€). Aber das ist Geschmackssache.
    BTW: Es heist 08/15

    @ NeM: Tja, seltsamerweiße hab ich mit meiner 7800GTX bei Chronikels of Riddick ziemliche Probleme im Shader 3.0 Modus. Könnte das an meinem X2 4400+ liegen?

  2. #22
    Überhaupt nicht liegt es an dieser Power CPU. Damit verbannst du jedes Game in ein Speedy-Modus. Ist eigentlich immer die Graka die in die Knie geht...
    Shader 3.0 ist schlimm... das kann ich dir sagen, arme Graka.

    08/15 und 8/15... wo ist denn da der Unterschied? Reden wir schon Computus-Language indem wir es Zweistellig machen wenns nur eine Stelle hat? ÜÜps...
    Kommt vielleicht von daher dass ich die Herkunft nicht kenne...

  3. #23

  4. #24
    Mit 0815 User meine ich den Heimanwender oder Spieler. Es gibt für den Heim-PC jetzt noch keine 1GB Grafikkarten, die 512MB Modelle wurden erst vor kurzem rausgebracht. Die neueste ATI Kartengeneration könnte 1GB Speicher verwalten, aber die sind auf noch keiner Karte verbaut.

    Zitat Zitat
    Für nen 8/15 User ist selbst ne Geforce 6800 noch zu stark.
    Wenn man gern zockt treibt man die Karte schnell an ihre Grenzen. Die 6800 Karten hat man außerdem schon in GT Ausführung um nur knapp über 200€ gekriegt (das hab ich für meine 9800 Pro vor einem Jahr bezahlt), deshalb sind die auch fast überall ausverkauft.

  5. #25
    Nein ich meine nicht dass ne 6800er zu stark ist. Zu stark ist gar keine Graka... sind alles schwache Dinger.
    Alle GPUs sind eh sofort am Anschlag wenn ein Game mal kräftig loslegt.

    Ich meine dass es 08/15 (zufrieden?) User immer noch zuwenig haben, obwohl es ausverkauft sein soll. Ich denke nicht dass die grosse Masse (die nicht oft gamt) ne 6800 GT hat, zumindest nicht zu genau dem jetzigen Zeitpunkt. Wird sich aber bald wandeln. Richtige Gamer sind keine 08/15 User... die sind alle irgendwie PC-Hardcore und rüsten oft auf. Mit 08/15 mein ich Privatanwender im ganzen Querschnitt durch die ganze Gesellschaft.

    Zitat Zitat von first_emperor
    Was meinst du mit arme GraKa?
    Wenn man das schon mit einer 6800 Ultra flüssig spielen können soll.

    08/15: Es heißt einfach so
    Du glaubst doch nicht dass dein 4400+ Dualcore zu schwach ist für ein Game was sogar mit ner 6800GT Graka flüssig läuft? Diese CPU ist verglichen mit der 6800GT noch ne ganze Nummer grösser.
    Oder meinst du das echt?
    *wirft sich lachend aus dem Fenster*

    Geändert von Justy (05.11.2005 um 08:50 Uhr)

  6. #26
    Zitat Zitat
    Tja, seltsamerweiße hab ich mit meiner 7800GTX bei Chronikels of Riddick ziemliche Probleme im Shader 3.0 Modus. Könnte das an meinem X2 4400+ liegen?
    Das SM3.0 bringt neben ein paar anderen Extras auch Performancevorteile, siehe hier: http://www.microsoft.com/whdc/winhec...30_NVIDIA.mspx

    Evtl. werden mit dem SM3.0 aber zuviele Effekte aktiviert, so dass die Karte in die Knie geht, ich hab von dem Spiel ehrlich gesagt wenig Ahnung. Ich hab aber den Eindruck dass mit dem SM3 manchmal Effekte aktiviert werden, für die man es eigentlich garnicht bräuchte. z.B. in AoE 3 gibts diesen netten Beleuchtungseffekt (heißt der Bloom-Effekt? Bin mir jetzt nicht sicher) nur mit dem SM3, in HL2 Lost Coast findet man aber einen ganz ähnlichen (den gleichen?) Effekt, auch ohne SM3.

    Vielleicht hast du auch AA/AF zu hoch eingestellt, kann mir vorstellen dass das System stockt wenn man so grafiklastige Spiele mit max. AA/AF, max. Details, auf hoher Auflösung etc. etc. spielt Die Hardware hinkt dem was man in aktuellen Spielen einstellen kann immer ein wenig hinterher. Splinter Cell, AoE 3 und FC sollten mit dem SM3 und nicht übertriebenen Einstellungen aber flüssig laufen, sonst könnts ja keiner spielen (in der Regel hat der User nen schwächeren Rechner als du ). Kann aber auch sein dass die Leute dafür einfach ein paar Details runterstellen, AA/AF komplett deaktivieren oder wasweißich, hab keine SM3 fähige Karte und kann die Performance daher nicht selbst testen.

    Geändert von NeM (05.11.2005 um 09:06 Uhr)

  7. #27
    Zitat Zitat
    Geschrieben von Justy:
    Du glaubst doch nicht dass dein 4400+ Dualcore zu schwach ist für ein Game was sogar mit ner 6800GT Graka flüssig läuft? Diese CPU ist verglichen mit der 6800GT noch ne ganze Nummer grösser.
    Das Problem könnte am DualCore liegen. Einige Spiele machen damit große Probleme, da sie darauf nicht optimiert sind. Immerhin müssen sich die beiden Kerne einen FSB teilen, quasi konkurieren sie miteinander. Das verursacht Managementprobleme

    Was Shadermodel angeht:
    ATI verbreitet seit einiger Zeit, dass nVidias 7800GTX Karten den Shader 1.2, 1.3 und 3.0 mit dem "Display Compatibility Test Kit" von Microsoft nicht bestehen.
    OK, das ATI sowas sagt ist ja nicht verwunderlich (Konkurenz schlecht machen). Obs nun wirklich stimmt glaube ich aber nicht wirklich.

    @first_emperor:
    Du bist also Schüler oder wie? Ich hätte mir in meiner gesamten Schulzeit nichts für 1600€ leisten können, selbst wenn ich nie Taschengeld oder Zeitungsgeld ausgegeben hätte.
    Davon mal ab:
    Ich kaufe mir alle 3 Jahre ca. was neues, aber auch dann nicht das beste vom besten, eher im Gegenteil und trotzdem komme ich aus. Ich bin auch keine Gamer, weshalb ich bis vor 6 Monaten mit ner GeForce4 Ti 4200 ausgekommen bin. Die meisten Teile in meinem PC sind auf nem Stand von vor 3 Jahren. P4 S478 eben. Dennoch kann ich standardmäßig meine Spiele (UT2004, Earth2160) mit 1024x768x32, 16xAF und vollen Details spielen und Spiele wie BattleField dann halt ohne AF und nur erhöhter, statt voller Details, was mich als nicht-Hardcore-Gamer nicht stört.

    Die Hardware, die du dir gekauft hast, kaufen sich aber nur Hardcore-Gamer, denn was bleibt noch übrig, was man sich besser als du hätte kaufen können? SLI vielleicht noch, aber zwischen deinem PC und den dann mit SLI und 4,8 statt 4,4 unterscheidet nicht gelegenheitsspieler von Hardcore-Gamer.

    Versteh mich nicht falsch, kannst dir kaufen was du willst. Aber 1600€ sind nunmal die Beträge, die Hardcore-Gamer inverstieren.

  8. #28
    Ich finde das mit den Dual Core Prozessoren eh Mist da sie für Gamer-PCs nicht wirklich was bringen. Da bin ich mit meinem 2 jährigen Single-Core Athlon XP 2400+ (mit 2 GHz Core-Takt) immer noch auf allerbestem Stand. Aber sie kriegens wohl net gebacken einen richtigen 4.4 GHz Prozi zu bauen und verkaufen dann einfach 2x 2.2 GHz als 4400+ was ich ehrlich gesagt beschiss finde. Aber so läufts halt... können sie keinen starken Single Core mehr bauen, dann verkaufen sie dir Dual Core als Totalleistung.

    Wobei Hyper Threading ist ja schon super für fast alle gängigen Programme, nicht aber unbedingt für Games. Ich glaub... bei Games bringts nicht viel. Hab aber echt keine Ahnung...

    Geändert von Justy (05.11.2005 um 10:52 Uhr)

  9. #29
    Zitat Zitat von Justy
    Ich finde das mit den Dual Core Prozessoren eh Mist da sie für Gamer-PCs nicht wirklich was bringen. Da bin ich mit meinem 2 jährigen Single-Core Athlon XP 2400+ (mit 2 GHz Core-Takt) immer noch auf allerbestem Stand. Aber sie kriegens wohl net gebacken einen richtigen 4.4 GHz Prozi zu bauen und verkaufen dann einfach 2x 2.2 GHz als 4400+ was ich ehrlich gesagt beschiss finde. Aber so läufts halt... können sie keinen starken Single Core mehr bauen, dann verkaufen sie dir Dual Core als Totalleistung.

    Wobei Hyper Threading ist ja schon super für fast alle gängigen Programme, nicht aber unbedingt für Games. Ich glaub... bei Games bringts nicht viel. Hab aber echt keine Ahnung...
    Beschiss ist da gar nichts. Vielleicht nur beim Marketing, die dir eine CPU mit 4400 Mhz andrehen, aber dort "nur" zwei mal 2200 Mhz drin sind. Du hast schon Recht, dass heutige Spiele besser mit einer SingleCore CPU laufen als mit einer DualCore CPU mit vermeintlich selben Schnelligkeit, da sie halt einfach nicht darauf ausgelegt sind ihren Verbrauch auf mehrere Cores zu verteilen, aber ab der nächsten Generation an Spielen wird das anders sein. Gothic 3 wird AFAIK eins der ersten Spiele sein, die auf Multi Core Prozessoren ausgelegt sind. Dann kann es sein, dass die 2*2000 Mhz die 1*4000Mhz überholt. In spätestens 2-3 Jahren werden dann eh alle/fast alle Spiele und Anwendungen auf Multicore Prozessoren ausgelegt sein und auf dem Hardwaremarkt wird es dann auch keine Singlecore CPUs mehr geben.

  10. #30
    Ganz nach dem Motto "Cell".
    Whatever... du hast schon recht. Da kann ich zustimmen. Da es sowieso nur noch Dual Core geben wird müssen die Entwickler die Games zwangsläufig darauf auslegen oder sie wären schön blöd. Anscheinend ist die Technologie ja soviel leistungsfähiger als ein Single-Core mit doppeltem Takt. Wobei das nicht der einzige Grund ist. Ich denke... ein doppelt getakteter Single-Core ist auch viel teurer herzustellen und technisch kaum noch realisierbar da er zu heiss wird und zuviel Strom frisst. Oder anders gesagt: 2 Single Core könnten dasselbe leisten mit weniger Hitze/Verbrauch und Kosten.

  11. #31
    @ Nova eXelon: Die 1600€ betehen aus 920€ Arbeiten, 595€ Sparbuch (jetzt leer) und der Rest ist Weihnachten und Geburtstag. Unser voriger PC hatte gerade mal eine Radeon Rage 6, 256MB RAM, 40GB Festplatte, P4 1,5Ghz. Damals war für mich nur wichtig das die Spiele funktionieren. Irgentwann hat jedes Spiel so gut wie nur Probleme gemacht, der PC ist andauernd abgestürzt. Aufrüsten war bei dem PC nicht mehr drinnen und da meine Eltern (verständlicher Weise) keinen neuen kaufen wollten und ich eigentlich der einzige war der neuere Hardware brauchte (wegen den Spielen), war klar das ich kaufen "musste". Und eben weil ich sicher nicht so bald im selben Schlamassel stehen möchte, legte ich auf Zukunftsicherheit wert.

    @ Justy: Genau deswegen hab ich mir keine (derzeit) schnellere Singelcore CPU zugelegt. Wenn die Spieleprogrammierer erstmal Dualcore nutzen (bei Gothic 3 wird ein Kern z.B. für die Physik zuständig sein) werde ich mit meiner CPU um einiges besser da stehen als mit einem gleich schnellen 3700+. Und Beschiss ist bei einer 4000+ (Singelcore) CPU gar nichts. Das 4000+ soll nur zeigen was für einen Takt ein P4 ca. braucht um zur gleichen Leistung zu kommen. Klar, dass das nicht immer 100% stimmt, Marketing ist immer dabei.

    @ NeM: Hast Recht ich hab AF und AA auf voll. Für SM 3.0 zusätzlich bräuchte ich da wohl SLI.

  12. #32
    Zitat Zitat von Justy
    Da bin ich mit meinem 2 jährigen Single-Core Athlon XP 2400+ (mit 2 GHz Core-Takt) immer noch auf allerbestem Stand. Aber sie kriegens wohl net gebacken einen richtigen 4.4 GHz Prozi zu bauen und verkaufen dann einfach 2x 2.2 GHz als 4400+ was ich ehrlich gesagt beschiss finde. Aber so läufts halt... können sie keinen starken Single Core mehr bauen, dann verkaufen sie dir Dual Core als Totalleistung.
    Wasn schwachsinn, sorry aber du scheinst nicht auf dem laufenden zu sein was im mom in der Singlecore Welt so abgeht o0 . Justy du denkst wohl nur weil AMD mit ihren Athlon 64er immer noch um die 2Ghz Marke herumhüpft (der schnellste AMD hat zurzeit 2,8ghz) wäre dein Athlon XP 2400+ mit realen 2ghz noch so super aktuell und vorne dabei ?

    Also da musste ich schon sehr stark schmunzeln. der neue Athlon ist extrem schnell und sogar Intel ist endlich von ihrer wahnsinnsschiene heruntergekommen ihren P4 mit weiteren Mhz Rekorden zu quälen und haben eingesehen das ein neues Konzept hermuss. Deswegen werden sie ihren Pentium M ( Centrino ) weiter für den Desktopmarkt ausbauen und der neue Pentium wird auf der Centrino-Technologie basieren.

    Es gibt noch weitere Dinge die eine CPU schnell und modern machen und dies ist bestimmt nur sehr minimal der reale Mhz-Takt des Kernes. Schonmal was vom neuen Memory Controller gehört den der Athlon 64 beherscht ? Dieser Spricht mit einem HT von 1Ghz den speicher direkt an und erlaubt somit endlich wirkliche 6,4Gb/s an Bandbreite mit denen die CPU auf den Speicher zugreifen kann ( 128Bit *400 :8 ) und auch noch sehr viel Luft nach oben lässt für OC.
    Zum vergleich dein Athlon XP hat einen FSB von 133 Mhz und einen 64 Bit Speicherinterface (64Bit *266 :8) und das sind dann pupsige 2,13Gb/s. Auch die neuen Befehle wie X64, SSE2 und neuerdings mit Venice und San Diego Kern auch SSE3 und ein vergrösserter L2 Cache bei Opterons, FX und San-Diego Modellen auf 1024KB ( du hast einen L2 Cache von 256KB) geben den neuen Athlons sehr viel Performance.

    Im Grunde sind das die wichtigsten Argumente die ein Athlon 64 bietet aber es gibt noch mehr und alles in allem ist eine Athlon 64 CPU mit 2Ghz locker 50% schneller als ein Athlon XP auf gleichem Takt. Das die neuen X2 Dualcores noch nicht viel bringen ist ja schon klar, es muss ja erst optimiert werden usw ^^. SLI brachte am anfang auch kaum was also von daher.

    @first_emperor stell AA etwas runter am besten Fährste mit 4x AA und 8x AF. Auf voll ist zu heavy, du hast zwar ne 7800GTX und man möchte sie auch an ihre Grenzen bringen aber das Problem liegt an HDR was Shader 3,0 beherscht. HDR sieht zwar sehr geil aus aber frisst enorm an Leistung. Gepaar mit maximalen AA und AF ( Ich nehme an 6x AA und 16x AF ) geht sogar eine GTX an ihre Grenzen ^^.

  13. #33
    Chronicles of Riddik beherrscht HDR? Falls das so ist und ich es gewusst hätte, hätte ich sicher sonst nicht auf voll gespielt. Was wahrscheinlicher ist (sag ich mal so), dass es an den Softshadows von Shader 3.0 liegt und davon gibt es bei Riddik ja verdammt viele. Wenn ich ehrlich bin habe ich noch keine so großen Unterschiede (außer den fps ) bei den 2 Modi entdeckt. Hab aber auch noch nicht so besonders drauf geachtet, sonder nur ausprobiert. Das komische ist eher, dass ich bei der Demo (auch bei FEAR) wirklich alles auf maximum gestellt hat und dort hat es super funktioniert. Haben wohl noch einiges geändert.

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •