Au commencement, il y avait le « bit »

data

Sommaire

Le bit constitue l’unité de mesure informatique la plus simple que l’on retrouve dans un système de numération. Cette unité à deux valeurs uniquement (de 0 à 1) appelée système binaire tire son nom de la contraction de l’anglais « Binary » et « digit ». Dans le domaine informatique, le bit permet d’évaluer les informations numériques transmises. Qu’est-ce que le bit ? Quelle différence existe-t-il entre les unités de mesure utilisées dans le monde de l’informatique ? Toutes les réponses dans cet article.

Le « bit » qu’est-ce que c’est ?

Vitesse de connexion, taille de mémoire interne ou d’un disque dur, ce sont des exemples de mesure d’information rencontrée dans le domaine numérique. Pour mesurer la taille du document envoyé sur Internet, il faut donc compter par bit.

Si les hommes utilisent une unité de mesure décimale, correspondant au nombre de ses doigts, il en est autrement en informatique. Mais qu’est-ce que le système binaire ? Le monde numérique ne connait que deux états : l’état positif lorsque le courant est allumé correspondant à 1 et l’état négatif mesuré par 0 si le courant. Le langage informatique est de ce fait limité à ce code binaire simple pour éviter les erreurs. Pour rappel, à la fin de l’année 30, Claude Shannon popularise et explique le fonctionnement de ce codage binaire.

Ainsi, on se réfère à cette unité binaire si l’on souhaite souscrire à une offre Internet, car elle mesure la vitesse de transmission des infos. Une connectivité ADSL s’avère donc moins puissante que la fibre optique, eu égard à la quantité « bit » transmise par seconde.

data bit byte

Quelle est la différence entre bit, byte et octet ?

Les unités de mesure en informatique sont variées et on retrouve souvent le bit, le Byte ou l’octet. Mais à moins d’être un expert dans le domaine, il vous est parfois difficile de distinguer ces unités. Il vous arrive même de penser qu’elles sont utilisées pour désigner une seule valeur. Alors, pour éviter toute ambiguïté à ce sujet, il convient de les redéfinir.

Bit, comme définie auparavant est la plus petite unité transmise lors du téléchargement d’une image, d’une vidéo, d’un mail ou d’une page entière. Pour estimer par exemple la vitesse d’upload et de download d’un box Internet – à lire : Extreme Download – les opérateurs utilisent cette valeur.

Le byte, abrégé « B » n’est rien d’autre qu’un multiple de bits équivalent à 8 bits. On utilise régulièrement cette valeur élémentaire, car l’unité standard de l’informatique est limitée à 8 bits. Sachez que les pays anglo-saxons conservent cette appellation « byte » pour désigner 8 bits vu qu’ils n’ont pas affecté un autre terme pour cette valeur.

L’octet équivalent au byte mesure 8 bits pour exprimer une quantité d’information plus étendue. Il désigne la valeur minimale pouvant être quantifiée sur les périphéries comme le RAM ou le disque dur. L’octet est généralement symbolisé par « B » ou « o » et représente 28, exprimant une valeur décimale de 0 à 255.

Comment calculer/reconnaitre un bit ?

Normalement, 1 byte équivaut à 1 octet ou à 8 bits. Toutefois, cette équivalence est loin d’être absolue, car dans des cas exceptionnels, 1 octet ne correspond pas forcément à 8 bits.

Pour vous aider à en savoir plus à ce sujet, voici les valeurs fondamentales et leurs multiples :

Le bit

  • 1000 bits équivalent à 1 kilobit (1 kb) ;
  • 1 000 000 000 bits équivalent à 1 Mégabit (1 Mb) ;
  • 1 000 000 000 000 bits équivalent à 1 Gigabit (1 Gb) ;
  • 1 000 000 000 000 000 000 bits équivalent à 1 Térabit (1 Tb).

L’octet et ses multiples

  • 1 octet = 8 bits ;
  • 1000 octets désignent 1 kilo-octet (1 Ko) ;
  • 1000 kilo-octets équivaut à 1 mega octet (1 Mo) ;
  • 1000 megas octets est égal à 1 giga-octet (1 Go).

À titre informatif, un fichier texte est quantifié en kilo-octets et n’excède pas 20 Ko. Une image en revanche peut atteindre 2 Mo à 5 Mo, selon son volume. Enfin, un fichier vidéo est en principe entre 200 Mo à 5 Go.

digitalisation

Le bit peut-il être redéfini par la suite ?

Autrefois, le premier ordinateur fonctionnait uniquement à 8 bits ou 1 octet. Puis, le système d’exploitation est passé de 8 bits à 16 bits. Les anciens ordinateurs sous Windows 1 à 3 sont essentiellement classifiés dans cette catégorie.

La forme la plus courante qu’on retrouve actuellement est de 32 bits à 64 bits. La différence entre 32 bits et 64 bits réside dans la quantité d’information délivrée. Pour éviter les confusions, sachez que la mesure de stockage est régulièrement exprimée en bytes ou en octet.

Entre autres, pour les appareils modernes, le terme bits par seconde permet de quantifier les données transférées par seconde. Cette valeur « bps » ou « b/s » devient la plus utilisée par les fournisseurs d’accès Internet.

Facebook
Twitter
LinkedIn