PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie machen die PC Entwickler das bloß?!



Squall2k
20.03.2006, 23:04
Ist vielleicht ne blöde Frage, aber ich frag mich echt, wie die HardwareEntwickler, seien es nun Grafikkartenhersteller oder CPUHersteller es schaffen, ihre Produkte immer schrittweise zu verbessern?

Liegt bei denen vielleicht schon ein 7Ghz CPU rum, den sie aber noch nicht rausbrigen wollen, weil es sich von den Kosten her nicht so lohnen würde und sie sich gegenseitig irgendwie absprechen, wann sie bestimmte Neuentwicklungen veröffentlichen?

Oder drosseln sie bewusst die Entwicklung, damit sie immer der aktuellen Software angepasst ist?

Oder können sie tatsächlich die Leistung nur schrittweise erhöhen und müsste es da nicht irgendwo mal eine Grenze geben, durch die sie nicht mehr stoßen können?

Oder sind es explizite Faktoren, wie z.B. die RÜckwärtskompatinilität, die sie schrittweise verringern, um woanders weiter zu kommen.

Ynnus
21.03.2006, 00:08
Also speziell von Grafikkarten weiß ich von letztem Jahr, dass sich ATI und nVidia darauf geeinigt hatten, die Karten nicht vor einem gewissen Zeitraum mit 512 MB Speicher auszustatten. Das ist aber wohl eher der Sonderfall denn sonst versuchen die beiden sich doch immer wieder zu übertrumpfen mit neuen und neuen Karten.
Und wenn man sieht was sich an Leistung her getan hat, von einer Karte vor einem Jahr zu einer Karte die zur Zeit das Neueste ist, da wird man staunen wie viele % da noch gesteigert wurden. Also die tun schon einiges um noch leistungsfähiger zu werden.
Hinderniss bisher oft gewesen die Kühlung. Die Lüfter sind riesig geworden, laut, und vor allem Stromfresser. Extra Netzteil oder noch zusätzlich ans Netzteil anstöpseln war das Ergebnis. Und das ist natürlich nicht so schön. Also das ist jedenfalls schonmal ein hemmender Faktor der bei der Neuentwicklung zu berücksichtigen ist. ;)

Gleiches gilt für CPUs. Der Athlon XP wurde damals schon recht heiß und irgendwo war Sense beim 3000+, weil der einfach nicht mehr geschafft hat. Dann wurde dieser Vom Athlon 64 abgelöst, der ne komplett andere Architektur hat und somit leistungsfähiger aber auch wesentlich kühler als der XP. Somit mehr Spielraum für Verbesserungen bis dort die Grenze der Temperatur erreicht ist.
Und im Moment versuchen Intel wie AMD durch mehr Prozessorenkerne die Leistung zu steigern.
Also es sind schon neue Entwicklungen die gemacht werden. Logischerweise ist das nicht von hier auf jetzt entwickelt und fertig. Sonst hätten wir damals schon 386er Rechner mit Quad-CPU gehabt. ^^ Jeah, 4 x 8 Mhz. :D Mit Turbo sogar 4 x 25. :D

Anderes Hemmnis für Intel-CPUs war die Tatsache, dass AMD mit 64bit für Ottonormal-PCs angefangen hat und Microsoft nur mit der AMD-64iger Struktur ein Betriebssystem herausbringen wollte. Daher musste Intel die Architektur übernehmen um weiterhin CPUs bauen zu können die ein OS finden. Als Gegenleistung gab's damals den SSE 2 Befehlssatz für die Athlon 64 CPUs von Intel. Mittlerweile gibt's ja auch schon wieder den SSE3 er, vielleicht schon 4? (bin nicht ganz auf dem neuesten Stand :D)

Übrigens gab es sowas wie diese SLI-Link-Technik schon früher bei 3Dfx-Grafikkarten. Nur diese wurden geschluckt von nVidia (war doch nVidia oder?) und damals hat man der Technologie keine Bedeutung zugemessen. Demnach gab es die Technologie und die Idee schon viel früher nur kommt erst jetzt wieder zum Einsatz, wohl weil jetzt diese Power benötigt wird. Auslagern auf mehrere GPUs heißt wohl das neue Zauberwort. ;)
Soll ja sogar bald Grafikkarten geben die auch mehrere Kerne haben. (Oder gibt's schon? Bin ja leider zur Zeit unaktuell ^^)

Krool
21.03.2006, 10:51
Soll ja sogar bald Grafikkarten geben die auch mehrere Kerne haben. (Oder gibt's schon? Bin ja leider zur Zeit unaktuell ^^)

Ich glaub du meintest dieses Crossfire oder Sli methode.. zwei karten also 2 kerne.

Bei den CPU`s frage ich mich warum die immer so klein sind die chips.. das motherboard hingegen groß. wenn die CPU doppelt so groß wäre könnte man en bissl mehr reinpacken und die wärme abfuhr wäre nicht auf so einer kleinen fläche..

Crash-Override
21.03.2006, 11:45
Es gibt so ne Art "Gesetz" unter den CPU-Herstellern: Alle 1 1/2 Jahre verdoppeln sich die Transistoren.
Wenn man zu schnell macht sind die CPUs zu teuer und die Hersteller anderer Komponenten kommen nicht nach.
Wenn man zu langsam macht kauft niemand mehr die Produkte.
Das soll noch bis ca. 2012 gehen (geht schon siet den 70er JAhren so!), bis physikalishce Grenzen erreicht sind. Intel will bis dahin aber schon 10 GH CPUs bauen.

Hier hab mal schnell die Grafik aus meinem Assembler-Buch gescnanned wo die Architektur verdeutlicht werden sollte:
http://img80.imageshack.us/img80/2485/15ml.th.png (http://img80.imageshack.us/my.php?image=15ml.png)

FF
21.03.2006, 13:13
bei cps ist es zumindest so, das man zwar theoretisch schon welche mit IIRC 10GH bauen könnte, aber die 1. extrem imens ungeheuerlich teuer wären, und 2. derbst viel strom verbrauchen würden, sodass sie absolut nicht rentabel wären.

first_emperor
21.03.2006, 13:24
@ Crash-Override: Ähm, ich seh da irgentwie keine Grafik^^

Phryx
21.03.2006, 13:41
ich glaube das das ganze einfach daraus hinausläuft: ein großer teil der technologien sind schon bis ans ende ausgeschöpft nur muss man als hersteller etwas finden diese auch benutzerfreundlich an den mann zu bringen. bestes beispiel: pc's gibts schon lang aber warum haben normale haushalte erst seit ca. 20 jahren einen; weil die pc's vorher entweder zu groß, zu stromfressend oder ähnliches waren. ähnlich bei 10GH PC's. Wenn dich aber dein pc monatlich 200 euro strom kostet dann überlegst du dir die anschaffung. also gibt es praktisch 2 entwicklungswege: einmal schaut man die aktuelle technologie benutzerfreundlich zu machen (also kleiner, kompakter etc.)
und 2. entwickelt man nebenbei neue technologien um die grenzen der alten zu überschreiten

Phryx

Krool
21.03.2006, 14:32
Nochmal meine frage:

Warum baut man den CPU chip nicht größer? in der selben anzahl transistoren in einer gewissen fläche.. so könnte man gleich das doppelte an transistoren reinbauen. oder?
und die wärme abfuhr wäre auf einer größeren fläche verteilt.

Whiz-zarD
21.03.2006, 14:40
Nochmal meine frage:

Warum baut man den CPU chip nicht größer? in der selben anzahl transistoren in einer gewissen fläche.. so könnte man gleich das doppelte an transistoren reinbauen. oder?
und die wärme abfuhr wäre auf einer größeren fläche verteilt.
Das hätte wieder längere Wege der Elektronen zu folge, worauf der CPU wieder langsamer wird.
Man versucht die Hardware so klein, wie möglich zu halten, damit die Elektronen den geringsten Weg zurücklegen müssen. Längere Leiterbahnen heisst auch größeren Widerstand, den man überwinden muss. Dafür wird mehr Strom benötigt, was wiederrum mehr wärme bedeutet.
Da die Technik mittlerweile schon sehr minimal ist, versucht man nun, die Transisoren zu optimieren. Sie müssen schneller schalten. Je schneller sie schalten, desto schneller kann ein Prozessor getaktet werden.

noRkia
21.03.2006, 16:05
Whiz-zarD hat schon recht.

es wäre sicher schon möglich eine top cpu zu bauen.einzelanfertigungen sind halt nur wahnsinnig teuer.die preise für die komponennten fallen ja desto mehr produziert werden.
das problem mit der wäre kommt natürlich auch noch hinzu.

soweit ich weis müssen die komponenten ja auch in etwa zusammen passen.
das heisst wenn du ein cpu mit 10 ghz baust und in deinen rechner daheim einbaust naja das bringt nicht viel.die software muss die hardware ja auch irgendwie ausnutzen können.
das wäre problem ist auch gross.
ob es da eine technische grenze gibt weis ich nicht genau. das wichtigste ist bereits gesagt.

für den normalen gebrauch sind die rechner schon stark genug.schreiben,surfen bilder angucken.. naja toll das wars.
die gamer oder 3d designer sind eh die einzigen die die neuste technik richtig ausnutzen.
ich verstrete sowieso die meinung das es vollkommen unnötig ist das der normale mediamarkt-kunde nicht unbedingt immer den neusten rechner für 1000 € kaufen müsste.
es würde auch ein 1,5 ghz zb. oder noch weniger für die normalen anwendungen reichen.
der würde auch einen brauchteil kosten.
aber die industrie nimmt die alten geräte raus damit die neuen billiger werden und noch neuere gekauft werden können :rolleyes:

Teelicht
21.03.2006, 18:41
ich hätte auch nochmal ne frage dazu:

warum schaltet man nicht längst mehrere Prozessoren zusammen? Was für Nachteile hat das? Apple (bzw. IBM) hat es doch zum Beispiel schon viel länger gemacht (bevor es nun auf Intel Prozessoren umgestiegen ist) und war sogar schon bei Quad-Prozessoren. Warum gibt es sowas immernoch nicht von Intel und AMD? Die sind ja jetzt gaaaanz laaaangsam mit Dual Prozessoren am kommen :-/

Whiz-zarD
21.03.2006, 18:50
Dual CPUs gibt es von Intel von AMD schon lange ;)
Der Intel Pentum I, II und III waren Dual CPU tauglich. Nur der P4 bekam eine Dual CPU sperre.
Beim AMD gibt es den Opteron, Athlon 64 FX und den Athlon MP bzw. XP
Nur ist diese Technik zu teuer für den Hausgebrauch. Da man ein spezielles Mainboard braucht. Diese kosten über 300 €. Auch passen diese Mainboard gar nicht in viele Gehäuse rein. Und deutlich lauter ist die Technik auch, da 2 CPUs am Werken sind und 2 CPU Lüfter laufen. Zusätzlich fressen die beiden CPUs sehr viel an Strom.

Teelicht
21.03.2006, 20:37
Es scheint zumindest nicht unmöglich, wenn es Apple doch mit 4 Prozessoren geschafft hat ;) Die waren ja zeitweise sogar wassergekühlt... Aber egal, Apple verlangt dafür auch ein heidengeld, und das nicht nur wegen der 2 Dualprozessoren... schade eigentlich. Apple ist einfach cool. *willnenmachaben*

Merlin
22.03.2006, 12:42
Ich glaub du meintest dieses Crossfire oder Sli methode.. zwei karten also 2 kerne.

Bei den CPU`s frage ich mich warum die immer so klein sind die chips.. das motherboard hingegen groß. wenn die CPU doppelt so groß wäre könnte man en bissl mehr reinpacken und die wärme abfuhr wäre nicht auf so einer kleinen fläche..

Nein er meinte durchaus 2 Kerne auf einer einzigen Karte. Und das gab es schon...allerdings nur als limitierte Auflage von Asus. Da wurden soweit ich mich recht erinnere zwei 7800GT (Könnte auch 7600GT sein.) Chips auf eine Karte gebaut. Das Ding unterstützt dafür allerdings kein SLI mehr. Nja. Ich bin kein Freund von SLI. Ich habe lieber eine einzige Karte. Aber was soll's? kann man wohl wenig gegen machen.

Whiz-zarD
22.03.2006, 14:56
Nein er meinte durchaus 2 Kerne auf einer einzigen Karte. Und das gab es schon...allerdings nur als limitierte Auflage von Asus. Da wurden soweit ich mich recht erinnere zwei 7800GT (Könnte auch 7600GT sein.) Chips auf eine Karte gebaut. Das Ding unterstützt dafür allerdings kein SLI mehr. Nja. Ich bin kein Freund von SLI. Ich habe lieber eine einzige Karte. Aber was soll's? kann man wohl wenig gegen machen.
3dfx hatte mal ne Karte auf dem Markt geworfen mit 4 Kernen.
Immoment vegetiert eine Grafikkarte auf dem Markt, die ebenfalls 4 Kerne hat.
Sie ist aber deutlich langsamer, als die Karten von nVidia oder ATi, daher ein Flopp.
Also, das auch keine neue Technik.
Alles, was sie jetzt auf dem Markt werfen sind nur alte Techniken, die optimiert sind, mehr nicht.
In den letzten Jahren kam auf dem Hardwaremarkt nichts innovatives und bahnbrechendes.
Kann mir gut vorstellen, dass in den nächsten Jahren eine Laufwerksfirma wieder die Idee mit dem Diamanten anstatt einer Linse rauskramt. Der Diamant splittet den Laserstrahl in 8 Laserstrahlen auf. Damit kann ein Laufwerk 8 mal schneller lesen, als gewöhnlich.
So ein Laufwerk gab es mal. Allerdings wegen dem heftigen Preis und der miserablen Fehlerkorrektur ein Flopp. Die Lesegeschwindigkeit war aber atemberaubend.

Jesus_666
22.03.2006, 22:59
In den letzten Jahren kam auf dem Hardwaremarkt nichts innovatives und bahnbrechendes.
Ich denke, daß AMD mit dem K8 immerhin schon ein paar interessante Ansätze gebracht hat - beispielsweise die Eliminierung der Northbridge (und damit des FSB) oder die Verwendung von HyperTransport zur Vernetzung in Multiprozessorsystemen.



bestes beispiel: pc's gibts schon lang aber warum haben normale haushalte erst seit ca. 20 jahren einen; weil die pc's vorher entweder zu groß, zu stromfressend oder ähnliches waren.
Nein, seit es PCs gibt haben die Haushalte welche. "PC" ist nicht identisch mit "Computer". Der Personal Computer war ursprünglich ein Heimcomputer von IBM, der den Intel 8088-Prozessor verwendete. Allerdings sind innerhalb kurzer Zeit extrem viele IBM PC-Klone (die IBM-Kompatiblen)aufgetaucht, die durch ein gutes Preis/Leistungsverhältnis den Markt extrem vergrößert haben, wodurch die Architektur sich als der Standard unter den Heimanwendern durchgesetzt hat (und der Begriff "PC" heutzutage für alle Heimrechner verwendet wird).
Natürlich gab es vor dem IBM PC schon Rechner, aber das waren nicht nur Großrechner. Man denke an ehrwürdige Geräte wie den Atari ST oder den Commodore 64.

So, genug Pedanterie für heute. ^^

Ricky
24.03.2006, 20:03
will auch mal meinen teil dazu beitragen....
die Idee mit dem Multiprozessor is schon uralt....hab hier ein buch von Daniel Hillis...da steht, dass zu "anfang" des computers schon über sowas nachgedacht wurde...allerding wollte man dann die Arbeit der Prozessoren Hardware-technich steuern...aber damit sich das von der geschwindigkeit her lohnen würde, hätte man 64 prozessoren benötigt...deswegen hat man die Idee erstmal verworfen...jetzt kam man halt auf die Idee das einfach Softwaretechnisch zu verwalten :)

hatten bei uns in der schule mal ein buch über einen der ersten pcs...ich glaub der war 100m lang...und der Speicher war auch 13m Lang...beides jeweils ca. 2 meter hoch :D... soviel zur benutzerfreundlichkeit, auf die man immer achten muss...ausser man is bill gates mit 80.000m² wohnfläche ... da kamman sich sowas auch reinstellen :D

MfG
Ricky

Jesus_666
24.03.2006, 22:24
hatten bei uns in der schule mal ein buch über einen der ersten pcs...ich glaub der war 100m lang...und der Speicher war auch 13m Lang...beides jeweils ca. 2 meter hoch :D... soviel zur benutzerfreundlichkeit, auf die man immer achten muss...ausser man is bill gates mit 80.000m² wohnfläche ... da kamman sich sowas auch reinstellen :D
Nur um noch mal Pedant zu spielen: Es gab nie einen PC in dieser Größe. Die ersten PCs waren Heimrechner von IBM und alle danach waren Heimrechner, die zu denen von IBM kompatibel waren, bzw. solche, die auf der IBM PC-Architektur aufgebaut haben. Großrechner sind keine PCs und waren auch nie welche, das gleiche gilt für antike Rechenmachinen wie die Zuse Z3 oder ENIAC.

Interessanterweise gibt es heutzutage den Trend, statt Großrechnern Cluster von billigen Rechnern zu verwenden - beispielsweise PCs (oder auch Playstation 2s). Allerdings ist ein solcher Cluster immer noch ein ganz anderes Ding als ein einzelner PC.

Ricky
25.03.2006, 00:25
Nur um noch mal Pedant zu spielen: Es gab nie einen PC in dieser Größe. Die ersten PCs waren Heimrechner von IBM und alle danach waren Heimrechner, die zu denen von IBM kompatibel waren, bzw. solche, die auf der IBM PC-Architektur aufgebaut haben. Großrechner sind keine PCs und waren auch nie welche, das gleiche gilt für antike Rechenmachinen wie die Zuse Z3 oder ENIAC.
eieiei...nur weil ich mal pc statt computer verwendet habe :P.... aber... das war ja eigentlich keine antike rechenmachine...sondern nur ein taschenrechner für riesen *HAHAHA* ...okok...najaa...ich meinte auf jeden fall computer....

MfG
Ricky

Teelicht
25.03.2006, 09:29
und alle danach waren Heimrechner, die zu denen von IBM kompatibel waren, bzw. solche, die auf der IBM PC-Architektur aufgebaut haben.

Kommt drauf an, was du unter Architektur verstehst... Apples PPC's sind IBM Prozessoren, aber bei SPARC und MIPS bin ich mir nicht sicher, ob sie die selbe Architektur verwenden, warum sonst sind sie denn nicht kompatibel? Andererseits hab ich von sowas keine Ahnung, also nicht böse sein ^^

Jesus_666
25.03.2006, 11:51
Mir wäre kein als PC bezeichneter Rechner bekannt, der auf SPARC oder MIPS läuft. SPARC-Workstations kenne ich, aber die habe ich noch nicht als PCs bezeichnet gesehen.