Rendertools, phh. Mach' mal statistisches text mining. Da kannst du problemlos mehrere dutzend Gigabyte RAM nur für Kookkurrenztabellen (Tabellen, die angeben, welche Dinge mit welchen anderen Dingen gemeinsam auftauchen) brauchen. Generell hast du solche Szenarien aber überall im Bereich der Batchverarbeitung. Amazon muß abgleichen, welche Leute, die einen von mehreren hunderttausend Artikeln gekauft haben, welche anderen Artikel gekauft haben und welche logischen Schlußfolgerungen man daraus ziehen kann. Oder frag' mal Ineluki, womit er monatelang einen Cluster beschäftigt hat.
Ganz ehrlich: Was du für einen schnellen Rechner hältst, ist Pipifax. In der Forschung fangen "schnelle Rechner" bei vier Quadcore-Opterons mit 32 GiB RAM erst an. Und denk' ja nicht, die würden beim Arbeiten nicht in jeder Hinsicht Volllast fahren.
Wie üblich gilt: Im professionellen Bereich haben die Werkzeug, wo der Hobbyist nur mit den Ohren schlackert.