Ergebnis 1 bis 9 von 9

Thema: Ich bin Bisamratte und suche die Wahrheit!

  1. #1

    Ich bin Bisamratte und suche die Wahrheit!

    Hallo!
    Könnt ihr mir helfen? Also:
    Ein Freund hat mir erzählt, dass man den RAM-Speicher in den
    Grafikkarten-Speicher umwandeln kann....stimmt das?
    Wenn ja, würde das ja tolle Möglichkeiten ergeben, seinen Computer
    aufzurüsten! Weiß irgendjemand etwas davon?

  2. #2
    1.) Hallo, Neuling. Willkommen in den leicht schmierigen Geekhöhlen, die den IT-Bereich des Forums bilden. Paß' auf, wenn du dich hinsetzt, aus der Pizzaschachtel auf dem Stuhl wächst seit einigen Wochen etwas. Es könnte nach dir schnappen.

    2.) Ich empfehle dir, in Zukunft sinnvollere Threadtitel zu benutzen. Die User gehen nicht in Threads, deren Inhalt sie nicht interessiert - und wenn sie aus dem Titel nicht auf den Inhalt schließen können gehen sie oft davon aus, daß der Thread nicht interessant ist.

    3.) Nein, das geht so nicht. Der Speicher auf der Grafikkarte hat eine erheblich schnellere Anbindung als normaler RAM und ist fest eingebaut. Außerdem sind Grafikkarten nicht darauf ausgelegt, mit irgendwelchem Speicher zu arbeiten sondern eben nur mit dem, der eingebaut ist.
    Es gibt zwar Grafikkarten, die den Systemspeicher mitbenutzen ("shared memory"-Karten, auf der Packung stehen Sprüche wie "unterstützt bis zu X MB RAM"); das ist aber allgemein eine schlechte Idee, da der Zugriff auf den normalen RAM erheblich langsamer ist als der auf den Speicher auf der Karte. Außerdem ist der Speicher, den diese Karten benutzen können, von der Karte her begrenzt.

  3. #3
    Meinst du vielleicht die neuen Turbo-Cache Grafikkarten wie die Geforce 6200? Soweit ich weiß benutzen die Teile des normalen RAM Speichers als Grafikspeicher.

  4. #4
    Zitat Zitat von mr_byte
    Meinst du vielleicht die neuen Turbo-Cache Grafikkarten wie die Geforce 6200? Soweit ich weiß benutzen die Teile des normalen RAM Speichers als Grafikspeicher.
    "Turbo-Cache" ist NVidias Marketingbegriff für shared memory. Man sollte sich auch nicht darüber hinwegtäuschen lassen, daß es sich weder um einen Cache* noch um etwas schnelles handelt. Es handelt sich schlicht um eine Grafikkarte, die ab Werk mit 16 Megabyte Speicher (oder einer ähnlich schwachen Menge) ausgerüstet ist und sich vom erheblich langsameren und ohnehin meist knappen System-RAM den Rest des angeblich verfügbaren Speichers holt.

    Da würde ich einen großen Bogen drum machen, wenn der Rechner als Spielegerät benutzt werden soll.


    * Ein Cache ist Speicher, der auf der CPU oder direkt daneben verbaut ist. Er ist erheblich schneller als jeder RAM, auch der in Grafikkarten. Er ist auch erheblich teurer als jeder RAM, weshalb man auf heutigen Rechnern Prozessoren mit Caches im unteren einstelligen Megabyte-Bereich findet, obwohl der RAM oft schon ein Gigabyte übersteigt.

  5. #5
    Zitat Zitat von Jesus_666
    * Ein Cache ist Speicher, der auf der CPU oder direkt daneben verbaut ist. Er ist erheblich schneller als jeder RAM, auch der in Grafikkarten. Er ist auch erheblich teurer als jeder RAM, weshalb man auf heutigen Rechnern Prozessoren mit Caches im unteren einstelligen Megabyte-Bereich findet, obwohl der RAM oft schon ein Gigabyte übersteigt.
    Naja, eigentlich gibt es nen anderen Grund, warum der Cache recht klein ist:
    Ein Cache ist nur ein Zwischenspeicher, der keine Latenzzeit aufweist (AFAIR ein Schieberegister).
    Allerdings hat ein RAM eine Latenzzeit (so wird die Zeit bezeichnet, wie lange es dauert, bis die Daten in den RAM gespeichert sind). Um diese Latenzzeit zu überbrücken, gibt es den Cache. Wo dann die Daten zwischengespeichert werden, bevor sie zum RAM geschickt werden. Damit der CPU die nächsten Daten bearbeiten kann. Da die Zeit nicht besonders groß ist, genügt auch ein relativ kleiner Cache.

  6. #6
    Zitat Zitat von Whiz-zarD
    Naja, eigentlich gibt es nen anderen Grund, warum der Cache recht klein ist:
    Ein Cache ist nur ein Zwischenspeicher, der keine Latenzzeit aufweist (AFAIR ein Schieberegister).
    Allerdings hat ein RAM eine Latenzzeit (so wird die Zeit bezeichnet, wie lange es dauert, bis die Daten in den RAM gespeichert sind). Um diese Latenzzeit zu überbrücken, gibt es den Cache. Wo dann die Daten zwischengespeichert werden, bevor sie zum RAM geschickt werden. Damit der CPU die nächsten Daten bearbeiten kann. Da die Zeit nicht besonders groß ist, genügt auch ein relativ kleiner Cache.
    Das mit der Latenzzeit liegt daran, daß der Cache eben direkt auf dem Chip ist (oder direkt daneben, wurdurch die Sache aber schon etwas langsamer wird) und daß Caches für gewöhnlich SRAM sind - im Gegensatz zu Hauptspeicher, der heutzutage aus DRAM besteht. SRAM ist größer und schneller als DRAM - allerdings ist derartiger direktintegrierter Hochgeschwinsigkeitsspeicher auch wahnsinnig teuer, was der Hauptgrund ist, warum die Caches heutzutage nicht im Gigabytebereich liegen.

  7. #7
    Zitat Zitat von Jesus_666
    Das mit der Latenzzeit liegt daran, daß der Cache eben direkt auf dem Chip ist (oder direkt daneben, wurdurch die Sache aber schon etwas langsamer wird) und daß Caches für gewöhnlich SRAM sind - im Gegensatz zu Hauptspeicher, der heutzutage aus DRAM besteht. SRAM ist größer und schneller als DRAM - allerdings ist derartiger direktintegrierter Hochgeschwinsigkeitsspeicher auch wahnsinnig teuer, was der Hauptgrund ist, warum die Caches heutzutage nicht im Gigabytebereich liegen.
    Naja, so teuer, ist der Cache auf wieder nicht
    Der Grund ist nicht das Geld, sondern den Platz, der er verbraucht. In heutigen CPUs verbraucht der Cache mehr als die Hälfe des Dies. Es gibt CPUs, mit 4 MB Cache, die aber nicht wegen ihrem Cache so teuer sind, sondern, wegen ihrer Performance, die sie mit 4 MB erreichen. z.B. der P4 EE.
    Und dass der Cache keine Latenzzeit aufweist, weil er direkt neben dem Register des CPUs liegt, ist auch nicht richtig. SRAM besitzt keine Latenzzeit. Egal, ob ausserhalb oder innerhalb des CPUs. DRAM hingegen schon. Aber DRAM wird für den Arbeitsspeicher benutzt, weil der kleiner ist und nicht so ein Platz braucht.
    (Mit Latentzzeit meine ich nicht die Zeit von der Strecke CPU -> RAM, sondern die Zeit, die der RAM braucht, damit die Daten vom Cache des RAMs in den RAM gespeichert werden. Die Zeit der Strecke der Leiterbahn ist nahezu Lichtgeschwindigkeit)

  8. #8
    Korrektur: Du hast recht, ich habe die Gesamtzugriffszeit gemeint. Allerdings erlaubt räumliche Nähe schon höhere Geschwindigkeiten: Man muß nicht einen riesig breiten Datenbus auf der ohnehin schon recht vollen Platine unterbringen.

  9. #9
    Man konnte früher (und bestimmt noch selten heute) die Grafikkarte aufrüsten.
    Der Grafikerbereich hatte "spezielle Grafikkarten" die man, bestimmt für ne menge Geld, mit Ram Modulen erweitern konnte.

    @Super Duper Ultra Shared Grafikkarten Monster:
    Für CS1.6 und UT wirds locker reichen, aber wie es mit aktuellen Titeln aussieht...

    X300 ist auch ein Flopteil.

    Dennis

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •