Normalmente le unità di misura nel sistema metrico decimale, hanno multipli e sottomultipli che cambiano di un ordine
di grandezza (x10). Nel caso delle unità informatiche l’ordine di grandezza è una potenza di due.
L’unità elementare è il bit (0 o 1), normalmente però si usa un suo multiplo il byte (formato da 8 bit).
Per comodità spesso si usano multipli e sottomultipli che variano di alcuni ordini di grandezza (nel sistema metrico
decimale spesso se ne usano 3 = x1000).
Portando un esempio: abbiamo il metro (x1), il chilometro (x1000), etc.
Ma come ho detto in precedenza in informatica, si usano potenze di 2 per cambiare ordine di grandezza, e per mantenere
una certa affinità con il sistema metrico decimale, si usano multipli vicini a quelli decimali. 1000 non è un multiplo
binario, e quindi si usa qualcosa che ci si avvicini (210 = 1024).
Quindi tutte le volte che troviamo un multiplo di 3 ordini di grandezza (decimali), in informatica o elettronica
digitale dobbiamo moltiplicare per 1024. Per cui abbiamo il byte (x1 = 20), il kilobyte(10241 = 1024 = 210), il
megabyte (10242 = 1048576 = 220),
il gigabyte (10243 = 1073741824 = 230),
il terabyte (10244 = 1099511627776 = 240).