1Byte = 8Bit (unicode oder so was, afaik jedenfalls)
1KB = 1024Byte (afaik)
1mb = 1024kb
1gb = 1024mb
1tb = 1024gb (afaik)
xb = 1024tb (afaik)
Und nein, xb ist nicht Xtreme viel Byte wie es Der Janinator aka getöteter_ork meint .
Das X ist ne Variable, was kommt nach Terra?
Das wird wohl jemand kennen, da es nach Primär und Sekundär ja auch noch was gibt (und zwar territär... oder so).
Der ganze Schrott enstand aus nem ICQ Gespräch, indem ich mit meinen 4TB im 2,5er Zoll Format in meinem Laptop doch ein kleines Stückchen Welt habe. xD
Dennis
--
«Wir können alles schaffen, wir brauchen nur genug dressierte Affen» - infinite monkey theorem
Stammt aus einem der "weiterführenden Links" des Wikipedia-Eintrags "Byte".
Edit:
Mehr gibt's glaub ich nicht, aber da ein Yottabyte 1.180.591.620.717.411.303.424 (in Worten: einetrilliardeeinhundertachtzigtrillionenfünfhunderteinundneunzigbilliardensechshundertzwanzigbillionensiebenhundertsiebzehnmilliardenvierhundertelfmillionendreihundertdreitausendvierhundertvierundzwanzig) Byte enthält, ist das wohl auch nicht nötig (Zahl stammt von der selben Seite wie die Namensangaben).
btw, das hier passt auch so ca. zum Thema. Iirc habe ich den Link aus dem IRC-Channel #rpg-maker.com, bin mir aber nicht mehr ganz sicher.
1Byte = 8Bit (unicode oder so was, afaik jedenfalls)
1KB = 1024Byte (afaik)
1mb = 1024kb
1gb = 1024mb
1tb = 1024gb (afaik)
xb = 1024tb (afaik
...
Falsch. Theoretisch. Praktisch ists richtig, da fast jeder andere es auch falsch macht. Die Präfixe Kilo, Mega, Giga, Terra etc. stehen für 10er Potenzen. Hier braucht man aber 2er Potenzen. Dafür wurden neue Abkürzungen eingeführt.Wikipedia. Vorsilben.
Seit wann hat Unicode mit den Bits zu tun?
Unicode ist eine andere Textcodierung um Sonderzeichen und andere Schriftarten anzeigen zu können.
1 Bit ist entweder eine logische 0 oder eine logische 1.
0 = 0 V - 2,5 V
1 = 3,5 V - 5 V
Die Programmierer werden es wohl als Boolsche Variable kennen ^^
Dazwischen (2,6 V- 3,4 V) liegt der sog. "Verbotene Bereich". In diesem Bereich darf nicht gearbeitet werden! Sonst kommt es zu fehlfunktonen der digiatalschaltung, da einige Bausteine den Bereich als 0 und andere als 1 defenieren.
Seit wann hat Unicode mit den Bits zu tun?
Unicode ist eine andere Textcodierung um Sonderzeichen und andere Schriftarten anzeigen zu können.
1 Bit ist entweder eine logische 0 oder eine logische 1.
0 = 0 V - 2,5 V
1 = 3,5 V - 5 V
Die Programmierer werden es wohl als Boolsche Variable kennen ^^
Dazwischen (2,6 V- 3,4 V) liegt der sog. "Verbotene Bereich". In diesem Bereich darf nicht gearbeitet werden! Sonst kommt es zu fehlfunktonen der digiatalschaltung, da einige Bausteine den Bereich als 0 und andere als 1 defenieren.
...
jaja, dann wars halt so:
1kb = 8bit = 1 unicodebuchstabe oder so >__>
Dennis
--
«Wir können alles schaffen, wir brauchen nur genug dressierte Affen» - infinite monkey theorem
Nein, 1 KB = 1000 Byte.
Falls das ein Tuppfehler war (wovon ich ausgehe): 1 Byte ist ein ASCII-Zeichen. Der Unicode verwendet mehr als ein Byte pro Zeichen, da liegt ja der Trick, dadurch kann er deutlich mehr Zeichen enthalten als ASCII. Ein Klassenkamerad von mir hat letztens gemeint, ein Unicode-Zeichen wären 4 Byte, ich weiß es aber nicht.
Ein ASCII-Zeichen ist eigentlich 7 Bit lang. Unicode gibt es afaik in mehreren Ausführungen. UTF8-Zeichen haben 8 Bit. Nun ratet mal wieviele Bit ein UTF16-Zeichen hat. Na? Na?
Nein. ASCII-Zeichen haben jeweils nur einen Byte. Da sich mit 8 Bit genau 255 Zeichen darstellen lassen, und ein normaler Windows-ASCII-Zeichensatz aus genau 255 Zeichen besteht!
[EDIT]
@Dingsi: Wieso habe ich wohl Windows-ASCII-Zeichensatz geschrieben?? Ich weiß, dass der ursprüngliche ASCII-Zeichensatz 128 Zeichen (davon 0-31 Steuerzeichen) hatte!
Ich schätze, Dingsi meinte 7 bit und nicht 7 byte. Früher war's afaik mal so, dass ein ASCII-Zeichensatz aus nur 128 Zeichen (0 - 127) bestand, also ein vorzeichenbehaftetes byte (= 7 bit).
Jetzt ist es ein vorzeichenloses byte und somit volle 8 bit, also 256 mögliche Zeichen. Ich kann mich aber auch irren, was die 7 bit von früher betrifft...
//EDIT: Mist, wieder zu langsam, was ist nur mit mir los? Ist es das Alter?
Ich kenn mich jetzt mit CPUs wahrlich nicht so gut aus, aber sicherlich ist diese Betriebsspannung nicht die Spannung welche gerade anhand des Bits herausgegeben wird. Sondern eben einfach die Spannung um die Funktionalität der CPU zu erhalten. Intern fließen dann eine Menge unterschiedliche Ströme verschiedener Spannungsgrößen, die anzuzeigen wäre aber schier unmöglich, so schnell wie die hin und her springen müssen (bei einer Frequenz von ~2 Ghz).
@Whizzard und wie bringt es dann eine CPU fertig eine 1 zu übertragen (1.3-1.8 V betriebsspannung)?
...
Ganz einfach. Gar nicht mit den Spannungswerten, die ist geschrieben hab ^^
Beim CPU sind diese Werte geringer. Weiss aber nicht, wie dort die Werte sind.
Die 5V Spannung ist das gängistie in der Digitaltechnik. Es gibt aber auch noch 12V, 24V und 48V und AFAIR 68V
Wobei 24V und 48V fast nur bei einer SPS (Speicher Programmierbare Steuerung) verwendet wird. Die SPS wird für die Programmierung für Industrielle Maschinen benutzt
Die Datenübertragung von PC <-> SPS erfolgt nicht durch Spannung, sondern durch Strom. Dort wird ein Spannung -> Strom bzw. Strom -> Spannung Konverter zwischengesetzt. Aus folgenden Grund: Spannung lässt sich durch Störfelder und durch lange Leitungen Manipulieren, Strom nicht.
Zitat von Sunny
Ich kenn mich jetzt mit CPUs wahrlich nicht so gut aus, aber sicherlich ist diese Betriebsspannung nicht die Spannung welche gerade anhand des Bits herausgegeben wird.
...
Doch, muss es.
Es gibt ja Inverter, die aus einer 0 eine 1 machen.
Und wie soll dies der CPU eine 5V 1 erzeugen, wen ihm nur 1,3 V zur verfügung stehen?