Seite 2 von 3 ErsteErste 123 LetzteLetzte
Ergebnis 21 bis 40 von 41

Thema: Welchen Computer?

  1. #21
    Sieh' dir mal die geplanten Modelle von ATI und NVidia an: 160, bzw. 220 Millionen Transistoren. Der P4EE kommt auf 29 Millionen.
    Für Matrizenrechnung sind GPUs CPUs um einiges überlegen; eine Untersuchung der Universität von Washington ergab, daß eine GeForce 4 TI 4600 im Vergleich mit einem 1,5 GHz-P4 um den Faktor 3,2 schneller war.
    GPUs sind zwar spezialisiert aber verdammt schnell.

    Siehe eine Slashdot-Story [slashdot.org] vom 9. Mai.



    Vielleicht mag das Zusammenspiel von AGP-Bus, Grafikkartenspeicher und GPU dafür sorgen, daß die Grafikkarte die Leistung limitiert. Es könnte aber auch daran liegen, daß moderne Grafik einfach die CPU nicht fordert.
    Die Grafikkarte ist nicht deshalb der Flaschenhals, weil ihr Prozessor nicht so schnell wie die CPU ist oder auf ihren RAM langsamer zugreift. Sie ist der Flaschenhals, weil der Rest des Systems immer weniger gebraucht wird, weil die Grafikkarte mittlerweile vieles alleine erledigt.

    Geändert von Jesus_666 (25.05.2004 um 22:14 Uhr)

  2. #22
    Ich kann mich noch erinnern, dass UT die CPU stark gefordert hat. Aber wenn Grafikkarten derartig schnell wären, dürften neue Grafikkarten (GF4 aufwärts) keinen Leistungsschub mehr bringen. Immerhin würde ja die CPU, spätestens der RAM das Teil ausbremsen. Wie schon gesagt hab ich keinen Leistungsunterschied festgestellt (Benchmarks) nachdem ich die CPU (von 900 auf 1833 MHz) und den RAM (endlich DDR =) ausgetauscht habe.

    Also entweder ist die Grafikkarte zu langsam um ne 900 MHz CPU auszulasten (was ja nicht sein sollte, wenn Grafikkarten verglichen zu CPUs schneller sind) oder mein Athlon XP 2500+ arbeitet genauso schnell wie ein Thunderbird 900 (was nicht sein kann)

  3. #23
    Entweder sind Grafikkarten dann SEHR ineffizient (bei fast zehnfach höherer Transistorenzahl und Optimierung/Spezialisierung auf Matrizenverarbeitung immer noch langsamer als ein generischer CPU) oder es liegt an was anderem. Der Umstand, daß neue Grafikkarten bessere Ergebnisse bringen könnte auch daran liegen, daß Grafikkarten extreme Datenmengen verarbeiten müssen - Die Unreal 3-Engine soll pro Gegner so um die 2 Millionen Polygone im Low Poly-Modell haben. Wenn ich mir vorstelle, daß ein generischer CPU mit Standard-RAM und Standard-Datenbus das alles mit Texturirung, Kantenglättung und Zusatzeffekten handhaben soll sehe ich eine Ruckelorgie voraus.
    Außerdem muß der Prozessor ja nicht unbedingt ausgelastet werden - neuere Grafikkarten übernehmen mehr und mehr Arbeit, die eigentlich der CPU macht. Wenn der CPU nichts zu tun hat, weil die Grafikkarte alles macht kann er auch nicht die Leistung begrenzen.

    Es ist so: GPUs sind sehr schnelle RISC-Prozessoren, während CPUs im Normalfall durchschnittlich schnelle CISC-Prozessoren sind. Daß der CPU die Arbeit des GPU nicht annehmbar nachahmen kann sieht man, wenn man versucht, ein modernes Spiel im Software-Modus zu betreiben: Weder hat man einige der besseren Effekte noch eine akzeptable Framerate. Das kommt nicht daher, daß beim Softwaremodus grundlos schlechter gearbeitet wird, sondern daher, daß die CPU einen schnelleren Prozessor mit anderer Architektur emulieren muß. Von Dingen wie Datentransfers ganz zu schweigen, die auf der Graka auch bis zum Geht-nicht-mehr optimiert sind.

    Um eine Analogie zu benutzen: Die GPU ist ein LKW, der, sagen wir mal, 100 Tonnen Material von Punkt A nach Punkt B transportieren soll; ein modernes Modell könnte z.B. ein Zwölftonner sein. Je größer der LKW umso schneller geht's, aber selbst ein wirklich großer LKW kriegt nie im Leben 100 Tonnen auf einmal transportiert.
    Die CPU ist ein PKW mit einem zulässigen Gesamtgewicht von 3,5 Tonnen.

    Deshalb bringt eine neue Grafikkarte mehr Leistung: Weil sie immer ausgereizt wird. Das werden Grafikkarten vom Konzept her, weil sie eigentlich eine unendliche Menge an Daten verarbeiten müssen. Je schneller eine Grafikkarte arbeitet, umso mehr kann sie arbeiten und umso schneller arbeitet sie auch. Es gibt keine Obergrenze.
    Das, was sie da unendlich viel verarbeitet, fällt aber zu 99% nicht in den Zuständigkeitsbereich der CPU oder des RAM.

  4. #24
    was regt euch alle nur so über den athlon 64 auf? der is doch gar nich sooooo schlecht und soooooo teuer wie ihr sagt.

    zum beispiel kostet der athlon 64/3000+ 210 € und der P4 3,0 220 €.
    die sind (zumindest im 32 bit-modus) ungefähr gleich schnell und der athlon sogar ein wenig billiger.....
    noch ein besseres beispiel: athlon 64 3400+ --- 430€
    P4 HT 3,4 --- 980€
    bitte nich gleich schlagen wenns nich ganz genau stimmt. hab die preise aus der gamestar......
    und zumindest das zweite beispiel zeigt doch das der kauf eines athlon sich auch lohnt wenn man den nur für 32 bit nutzt

    wer zahlt denn schon doppelt so viel für (nahezu!) die gleiche leistung

  5. #25
    Erstmal hat der AMD Athlon 64 3000+ keine 3 Ghz, sondern 2 Ghz.
    Also hat der P4 einen um 1 Ghz höheren Takt.
    Zum anderen, warum sollte ich mir jetzt einen 64 Bitter kaufen, wenn ich nur 32 bit nutzen kann? Dann benutze ich doch den CPU nur halb aber ich will diesen CPU komplett ausnutzen, also die kompletten 64 Bit! Darum ist der kauf noch schwachsinnig. Wenn Windows Longhorn erscheint, gibt es viel schnellere CPUs für weniger Geld.
    Der P4 ist ausserdem ein reiner Arbeitsprozessor und ist eigentlich für Spiele weniger geeignet. Dafür hat er aber im Arbeitsbereich weit die Nase vorn und das sind höhere Aufgaben als Spiele darstellung.

    EDIT:
    Die 64 Bit Prozessoren sind sowieso eigentlich für Heimanwender schwachsinn.
    Keiner brauch so hohe Zahlen und keiner Besitzt so viel Hardware, dass er die 64 Bit Adressen (bei reinen 64 Bit Prozessoren, wie z.B. Intel Xeon) überhaupt benötigt. 16 Bit Adressen dabei reichen völlig aus. Oder welcher Normalsterblicher hat mehr als 16 Festplatten, IDE Karten etc. im Rechner stecken?

    Geändert von Whiz-zarD (27.05.2004 um 02:24 Uhr)

  6. #26
    Info: Eine GPU ist wie eine CPU auch ein RISC (Reduced Instruction Set Coprocessor), kein CISC (Complete Instruction Set Coprocessor). CISCs könnte sich ein Heimanwender wie wir es sind nicht leisten und auch nicht brauchen, weil sowas in Großrechnern arbeitet, die z.B. Dinge wie Wetter, Flugbahnen etc. berechnen müssen.

    Theoretisch ist eine GPU natürlich schneller was Grafik angeht, dafür wurde sie auch gebaut. Allerdings geht es da um Grafik. Bei so manchen Programmen die mit Bildbearbeitung zu tun haben oder anderen Aufgaben könnte die GPU das garnicht, die CPU kann wenigstens die GPU emulieren wie du sagst (Softwaremode). Nebenbei haben gute CPUs Taktraten im Bereich von gut x5 gegenüber Grafikkarten.

    Ich weiß nicht wie GPUs genau funktionieren, würde man davon ausgehen dass sie die selben Aufgaben wie eine CPU übernehmen würde, wäre sie wohl um einiges langsamer, weil die GPU für Grafik und sonst nichts gedacht ist.

    Unterm Strich sind bei Spielen (!) die CPUs nicht so wichtig, da tun (z.B.) 300 MHz Unterschied auch nichts zur Sache.

    Vielleicht hab ich dich auch Missverstanden, ich ging davon aus dass du mir erklären willst, dass man für neue Spiele auch neue und leistungsfähigere CPUs braucht (was nicht der Fall ist, sonst würde man CPUs statt Grafikkarten aufrüsten =)

  7. #27
    @whizzard

    1. der athlon 3000+ hat zwar nur 2 ghz, aber das sacht eigentlich ert mal gar nichts aus. in den test (3DMark, PCMark etc.) liegt er mit dem P4 HT 3 ghz gleich auf. mal ein bisschen drunter, mal drüber....

    2.du hast ja recht das es eigentlich schwachsinn ist einen 64bitter zu kaufen, wenn man eh nur 32 bit nutzt. aber wenn der 64 bitter um die hälfte (!) billiger ist als ein vergleichbarer 32bitter, dann kauf ich mir doch den billigeren. bei 32 bit sind sie ja beide gleich schnell und das 64 bit-feature belächel ich kurz und kümmer mich dann nicht mehr drum....

  8. #28
    Wenn du das noch nicht weisst, Benchmarks kann man nicht trauen.
    z.B. 3D Mark 2003: Da spielt der CPU sogut wie keine Rolle, die Grafikkarte spiel hierbei die grosse Rolle. Die Detonator Treiber, wo NVidia Karten 30-40% schneller sein soll, sind speziell für 3D Mark optimiert und erhalten dort diesen Leistungsschub. Aber in Spielen nicht. GXI hatte mal den Vogel dabei abgeschossen. Sie versprachen 120% Leistungssteigerung bei neuen Treibern. Aber diese Treiber hatten lediglich die Qualität der Spiele runterschraubt um diesen Leistungsschub zu erreichen. 3d Mark 2001 hatte die Max Payne Engine und diese Engine war für den AMD optimiert, deswegen konnte der P4 auch dort nicht glänzen.
    Also ein Benchmarkprgramm kann man nicht trauen.
    Ein Benchmark, wo alle Komponenten gleich behandelt werden, gibt es nicht. Irgendwelche Treiber sind immer für irgendwelche Benchmarks optimiert worden.

  9. #29
    Man muss einfach verschiedene Benches machen. Neben 3DMark gibts ja auch noch ingame Benches (die meisten Games haben das) wie z.B. Q3, UT usw. =)

  10. #30
    Zitat Zitat
    Original geschrieben von NeM
    Man muss einfach verschiedene Benches machen. Neben 3DMark gibts ja auch noch ingame Benches (die meisten Games haben das) wie z.B. Q3, UT usw. =)
    Schon klar.
    Aber man kommt so nie auf einen Nenner, wie schnell mein PC wirklich ist. Denn UT 99 ist für Voodoo Karten optimiert, also haben Nvidia, ATI etc. Karten schon mal weniger FPS. Zumindest die alten Karten. UT 2, 2003 und 2004 sind für P4 optimiert, also sieht der AMD auch dort altz aus. So sieht es auch bei den Treibern aus. Wenn Nvidia Treiber für ein bestimmtes Spiel besser optimiert sind als z.B. ATI Treiber, sind die NVidia Karten besser. Aber wenn ich jetzt ein Spiel spiele, wo die ATI Treiber die besten sind, sind die ATI Karten am besten.
    Wie du siehst, kann man auch durch tausende von Benchmarks nicht erkennen, wie Leistungsstark wirklich mein Rechner ist, da ich keine einheitlichen Referenzwerte von anderen PCs nehmen kann.

  11. #31
    Zitat Zitat
    Original geschrieben von NeM
    Info: Eine GPU ist wie eine CPU auch ein RISC (Reduced Instruction Set Coprocessor), kein CISC (Complete Instruction Set Coprocessor). CISCs könnte sich ein Heimanwender wie wir es sind nicht leisten und auch nicht brauchen, weil sowas in Großrechnern arbeitet, die z.B. Dinge wie Wetter, Flugbahnen etc. berechnen müssen.
    Der Unterschied zwischen RISC und CISC liegt im verwendeten Befehlssatz. Bei CISC-Architekturen werden sehr viele, teilweise sehr komplexe Befehle verwendet. Als Resultat stehen weniger Register (extrem schneller prozessorinterner Speicher) zur Verfügung. RISC-Architekturen haben einen kleineren Befehlssatz und sind effizienter, u.A. weil sie auf mehr Register zugreifen können. RISC-Rechner sind auch einfacher und billiger in der Produktion.
    Großrechner arbeiten übrigens auch gerne mit RISC. CISC wäre zu ineffizient.

    Ich bin mir nicht sicher, ob die modernen IA32-Prozessoren noch CISC sind oder RISC und nur die anderen Funktionen emulieren. Hmm, ich glaube sie sind mitterweile schon RISC.

    BTW, * Instruction Set Computer, nicht Coprocessor.

    Zitat Zitat
    Theoretisch ist eine GPU natürlich schneller was Grafik angeht, dafür wurde sie auch gebaut. Allerdings geht es da um Grafik. Bei so manchen Programmen die mit Bildbearbeitung zu tun haben oder anderen Aufgaben könnte die GPU das garnicht, die CPU kann wenigstens die GPU emulieren wie du sagst (Softwaremode). Nebenbei haben gute CPUs Taktraten im Bereich von gut x5 gegenüber Grafikkarten.
    Die GPU kann die Aufgaben der CPU wahrscheinlich gar nicht übernehmen, weil sie anders funktioniert. Trotzdem ist sie _verdammt_ schnell. Teils weil sie sehr spezialisiert ist, teils weil sie, nun, leistungstechnisch stärker ist.
    Es wird nicht umsonst daran geforscht, wie die GPU als Recheneinheit für allgemeine Matrizenberechnungen genutzt werden kann: Da ist sie gut drin und mit Grafikkarten würden so schnelle und billige Matrizenrechner zur Verfügung stehen.

    Zitat Zitat
    Ich weiß nicht wie GPUs genau funktionieren, würde man davon ausgehen dass sie die selben Aufgaben wie eine CPU übernehmen würde, wäre sie wohl um einiges langsamer, weil die GPU für Grafik und sonst nichts gedacht ist.
    Wie gesagt: Sie würde wohl gar nicht.

    Zitat Zitat
    Unterm Strich sind bei Spielen (!) die CPUs nicht so wichtig, da tun (z.B.) 300 MHz Unterschied auch nichts zur Sache.
    Yup. In anderen Fällen kann die CPU die Leistung begrenzen oder der Speicher. Oder die Geschwindigkeit der Festplatte...

    Zitat Zitat
    Vielleicht hab ich dich auch Missverstanden, ich ging davon aus dass du mir erklären willst, dass man für neue Spiele auch neue und leistungsfähigere CPUs braucht (was nicht der Fall ist, sonst würde man CPUs statt Grafikkarten aufrüsten =)
    Nein, ich wollte erklären, daß moderne GPUs abstrus leistungsfähig sind.

    Geändert von Jesus_666 (27.05.2004 um 03:30 Uhr)

  12. #32
    Die Festplatte hat mit Spielen meist wenig zu tun, das macht sich nur beim Laden bemerkbar. Wenn das Spiel erstmal geladen ist (spreche jetzt von Shootern oder Taktik a'la C&C) wird ja meist vom RAM gelesen als von der Festplatte, sonst würde man bei einer Partie ja alt werden =)

    Sorry für Computer / Coprocessor Fehler.. Ist inzwischen 3-4 Jahre her als ich das gelernt habe =/

    Wenn man ne 500 MHz CPU mit ner Radeon 9800 Pro kombiniert, werden Games natürlich langsam laufen, denke aber dass es ab bestimmten MHz (GHz) Zahlen schon egal wird. Bin mir sicher, dass auf einer 2 GHz CPU die Spiele genausogut laufen wie auf einer 2,5 GHz CPU. Nebenbei ist eine z.B. 2 GHz CPU nicht wirklich doppelt so schnell wie 1 GHz, ich weiß jetzt nicht mehr warum das so ist, aber ist Fakt, also unterscheiden sich CPUs ab höheren Taktraten nicht mehr stark voneinander.

    Und dass GPUs was drauf haben weiß ich selbst, damals war man erstaunt über 80 FPS in einem Q3 Benchmark, heute ist das mit knapp 300 FPS machbar (1024x768, max Details). Ich brings zum Vergleich mit Athlon XP 2500+ und GF2 GTS auf vielleicht 80 =)

  13. #33
    Zitat Zitat
    Original geschrieben von NeM
    Die Festplatte hat mit Spielen meist wenig zu tun, das macht sich nur beim Laden bemerkbar. Wenn das Spiel erstmal geladen ist (spreche jetzt von Shootern oder Taktik a'la C&C) wird ja meist vom RAM gelesen als von der Festplatte, sonst würde man bei einer Partie ja alt werden =)
    Ich sagte ja: In anderen Fällen. Das wäre vor Allem die Bearbeitung großer Datenmengen, wie sie z.B. beim Video-Encoding vorkommt.
    Außerdem kann eine langsame Festplatte, wenn auf ihr die Pagefile abgelegt ist, auch Spiele bremsen - wenn die Spiele mangels RAM auf virtuellen Speicher zugreifen müssen. Noch schlechter wird's, wenn die Pagefile auf der selben Festplatte wie das Spiel selbst liegt...

  14. #34
    Zitat Zitat
    Noch schlechter wird's, wenn die Pagefile auf der selben Festplatte wie das Spiel selbst liegt...
    wenn ich die Pagefile datei sagen wir ma auf "D" habe wie das Game, beeintraechtigt das das Game?
    aber nur wenn die Platte langsam ist oder? oder ist das auch zB. bei einer Maxtor 7200u/m ata133?

  15. #35
    Zitat Zitat
    Original geschrieben von NeM
    Bin mir sicher, dass auf einer 2 GHz CPU die Spiele genausogut laufen wie auf einer 2,5 GHz CPU. Nebenbei ist eine z.B. 2 GHz CPU nicht wirklich doppelt so schnell wie 1 GHz, ich weiß jetzt nicht mehr warum das so ist, aber ist Fakt, also unterscheiden sich CPUs ab höheren Taktraten nicht mehr stark voneinander.
    Hm ja MHz ist halt nicht immer so wichtig wie einem versucht wird weiszumachen . Es ist im Grunde so : wenn man ein und die selbe CPU mit ein und dem selben FSB auf 1 GHZ und 2 Ghz vergleicht dann ist klar die 2GHz CPU wird nicht doppelt so schnell sein. Die Faktoren dafür sind Eindeutig. Selber L1 und L2 Cache und selber FSB bringen keine Gesammtleistungssteigerung. Die CPU hat ein und die selben Optimierungen wie 3dnow oder SSE die nochmal zu Leistungssrpüngen verhelfen.
    Im Grunde steigt nur der Takt an und dieser ist nicht wirklich für eine Gesammtleistung 100% verantwortlich sondern auch die oben genannten Eigenschaften.
    Deßhalb gibt es auch intensive Unterschiede zwischen CPUs wie Celeron und P4 oder Duron und Athlon. Wobei der Takt gleich sein könnte die verkleinerung des Caches und verminderung des FSB sorgen für weit weniger Performance.

    Die Aussage das ab einem gewissen GHz-Faktor die Leistung nicht mehr so steigt wie bei niedrigereren ist aber recht waage.
    Limitierende Eigenschaften wie Grafikkarte + Qulaitätseinstellungen ,Rams und eventuell Mobo-Chipsätze können einer CPU den Limit verweissen.
    Eine Leistungssteigerung zwischen 2 und 3 ghz bringt auch FPS Vorteile genau wie zwischen 1 und 2. Man merkt bloss keinen Spürbaren Unterschied wenn eh alles schon schnell genug läuft.

  16. #36
    Wenn die Pagefile auf der selben Platte ist wie das Spiel, dann muß die Platte gleichzeitig mit der Pagefile arbeiten und evtl. spieldaten nachladen. Das geht ein klein bißchen auf die Performance (etwas mehr, wenn das Spiel auch noch von einer gemounteten ISO gespielt wird, die auf der selben Platte liegt).
    Wenn diese Platte natürlich von vorneherein durch phänomenal schlechte Zugriffszeiten herausragt, dann ist der Effekt noch deutlicher.

    In einer idealen Welt hat man den Auslagerungsspeicher auf einer eigenen Festplatte. Oder noch besser, man hat gleich einen Großrechner mit einem Terabyte an RAM und installiert alles auf einer Ramdisk.

  17. #37

    Toll...

    Wisst ihr,
    ihr helft mir gannnnnnnnnnnnnnnzzzzzzzz doll
    mit euer gestreite um eine
    Festplatte.

    Nun bin ich mir aber immer
    noch nicht im klaren welchen
    Prozessor ich nehme (bezw. Computer)

    Ihr habt zwar schon was
    gesagt von AMD-Gut fürs spielen
    und P4-gut fürs Arbeiten aber
    ich mach BEIDES.
    Was sollte man denn DA nehmen?

    Trotzdem Danke!8)

  18. #38
    Erstens: Warum schreibst du in deiner Sig, daß du aus eigener Erfahrung wüßtest, daß der 64er von AMD "das ultimative erlebnis von Power und Spielleistung" sei und fragst dann, ob du den AMD64 oder den P4 nehmen sollst?

    Zweitens: Nimm' irgendeinen! Die null-bis-zwei Prozent unterschiedliche Leistung sind letztendlich unerheblich und in drei Monaten ist das Teil eh veraltet!

  19. #39
    Ich würde dir den AMD 64 3200+ empfehlen!

  20. #40
    Zitat Zitat
    Original geschrieben von Moogleguy
    Ich würde dir den AMD 64 3200+ empfehlen!
    Und noch einer, der es nicht versteht warum ein 64 Bit Prozessor heute noch schwachsinnig ist.

    @ Topic:
    Wie setzt du denn deine Prioritäten?
    Willst du schnell und effizieient Arbeiten mit Video- und Bilbearbeitungs Programmen oder willst du nur ein paar Text Dokumente schreiben? Oder willst du fast ausschliesslich spielen?
    Wenn du so gut wie nur spielen willst, dann empfehle ich dir, kauf dir einen AMD Athlon XP (KEIN 64). Aber wenn das hauptsächlich ein Arbeits Rechner sein soll, wo du Bildbearbeitung oder andere Sachen machen willst, wo der CPU gefordert wird, dann empfehle ich dir ein P4.

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •