Ergebnis 1 bis 9 von 9

Thema: Ich bin Bisamratte und suche die Wahrheit!

Hybrid-Darstellung

Vorheriger Beitrag Vorheriger Beitrag   Nächster Beitrag Nächster Beitrag
  1. #1
    Zitat Zitat von Jesus_666
    * Ein Cache ist Speicher, der auf der CPU oder direkt daneben verbaut ist. Er ist erheblich schneller als jeder RAM, auch der in Grafikkarten. Er ist auch erheblich teurer als jeder RAM, weshalb man auf heutigen Rechnern Prozessoren mit Caches im unteren einstelligen Megabyte-Bereich findet, obwohl der RAM oft schon ein Gigabyte übersteigt.
    Naja, eigentlich gibt es nen anderen Grund, warum der Cache recht klein ist:
    Ein Cache ist nur ein Zwischenspeicher, der keine Latenzzeit aufweist (AFAIR ein Schieberegister).
    Allerdings hat ein RAM eine Latenzzeit (so wird die Zeit bezeichnet, wie lange es dauert, bis die Daten in den RAM gespeichert sind). Um diese Latenzzeit zu überbrücken, gibt es den Cache. Wo dann die Daten zwischengespeichert werden, bevor sie zum RAM geschickt werden. Damit der CPU die nächsten Daten bearbeiten kann. Da die Zeit nicht besonders groß ist, genügt auch ein relativ kleiner Cache.

  2. #2
    Zitat Zitat von Whiz-zarD
    Naja, eigentlich gibt es nen anderen Grund, warum der Cache recht klein ist:
    Ein Cache ist nur ein Zwischenspeicher, der keine Latenzzeit aufweist (AFAIR ein Schieberegister).
    Allerdings hat ein RAM eine Latenzzeit (so wird die Zeit bezeichnet, wie lange es dauert, bis die Daten in den RAM gespeichert sind). Um diese Latenzzeit zu überbrücken, gibt es den Cache. Wo dann die Daten zwischengespeichert werden, bevor sie zum RAM geschickt werden. Damit der CPU die nächsten Daten bearbeiten kann. Da die Zeit nicht besonders groß ist, genügt auch ein relativ kleiner Cache.
    Das mit der Latenzzeit liegt daran, daß der Cache eben direkt auf dem Chip ist (oder direkt daneben, wurdurch die Sache aber schon etwas langsamer wird) und daß Caches für gewöhnlich SRAM sind - im Gegensatz zu Hauptspeicher, der heutzutage aus DRAM besteht. SRAM ist größer und schneller als DRAM - allerdings ist derartiger direktintegrierter Hochgeschwinsigkeitsspeicher auch wahnsinnig teuer, was der Hauptgrund ist, warum die Caches heutzutage nicht im Gigabytebereich liegen.

  3. #3
    Zitat Zitat von Jesus_666
    Das mit der Latenzzeit liegt daran, daß der Cache eben direkt auf dem Chip ist (oder direkt daneben, wurdurch die Sache aber schon etwas langsamer wird) und daß Caches für gewöhnlich SRAM sind - im Gegensatz zu Hauptspeicher, der heutzutage aus DRAM besteht. SRAM ist größer und schneller als DRAM - allerdings ist derartiger direktintegrierter Hochgeschwinsigkeitsspeicher auch wahnsinnig teuer, was der Hauptgrund ist, warum die Caches heutzutage nicht im Gigabytebereich liegen.
    Naja, so teuer, ist der Cache auf wieder nicht
    Der Grund ist nicht das Geld, sondern den Platz, der er verbraucht. In heutigen CPUs verbraucht der Cache mehr als die Hälfe des Dies. Es gibt CPUs, mit 4 MB Cache, die aber nicht wegen ihrem Cache so teuer sind, sondern, wegen ihrer Performance, die sie mit 4 MB erreichen. z.B. der P4 EE.
    Und dass der Cache keine Latenzzeit aufweist, weil er direkt neben dem Register des CPUs liegt, ist auch nicht richtig. SRAM besitzt keine Latenzzeit. Egal, ob ausserhalb oder innerhalb des CPUs. DRAM hingegen schon. Aber DRAM wird für den Arbeitsspeicher benutzt, weil der kleiner ist und nicht so ein Platz braucht.
    (Mit Latentzzeit meine ich nicht die Zeit von der Strecke CPU -> RAM, sondern die Zeit, die der RAM braucht, damit die Daten vom Cache des RAMs in den RAM gespeichert werden. Die Zeit der Strecke der Leiterbahn ist nahezu Lichtgeschwindigkeit)

  4. #4
    Korrektur: Du hast recht, ich habe die Gesamtzugriffszeit gemeint. Allerdings erlaubt räumliche Nähe schon höhere Geschwindigkeiten: Man muß nicht einen riesig breiten Datenbus auf der ohnehin schon recht vollen Platine unterbringen.

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •