© Lightspring/Shutterstock.com
Malgré ce que cela peut sembler à l’extérieur, vous n’avez pas besoin d’être un ingénieur en informatique pour comprendre les différents termes et unités d’information en informatique.
Qu’il s’agisse d’un téraoctet, d’un gigaoctet, d’un mégaoctet ou de quelque chose d’aussi petit qu’un quartet — oui, un quartet — les unités d’information en informatique sont beaucoup moins complexes que leurs noms ne le suggèrent.
Quoi est exactement un grignotage en informatique? Et combien vaut un quartet par rapport à ces autres unités d’information en informatique ? Détaillons tout ci-dessous.
Un grignotage en informatique expliqué
En informatique, un grignotage peut être orthographié comme nybl, nyble ou nybble ; sans parler du tétrade ou du demi-octet, que l’unité utilise également de temps en temps. Le dernier de ces noms alternatifs nous indique le type d’unité d’information qu’est réellement un quartet : la moitié d’un octet.
Cependant, si vous ne savez pas à quoi correspond un octet, cela ne vous fait pas grand bien, n’est-ce pas ? Pour ajouter à la confusion, vous pouvez également considérer qu’un grignotage correspond à quatre fois la taille d’un morceau ou au double de la taille d’une miette.
Le terme grignoter vient de sa représentation de”demi-octet”, avec octet un homophone du mot anglais bite.
©MaraZe/Shutterstock.com
Voici comment tout cela se décompose : un bit est la plus petite unité d’information en informatique, équivalente à seulement deux chiffres : 0 et 1. Une miette, selon cette métrique , équivaut à deux bits. Un quartet, par extension, équivaut à quatre bits.
Un octet, alors, devrait être composé de huit bits. Vous pouvez continuer à vous multiplier comme ça jusqu’à la nausée et à obtenir une nouvelle unité d’information à chaque fois, mais pour les besoins de cet article, nous allons la couper ici au quartet.
Le terme « grignoter » date à la fin des années 1950, au moins. Selon l’informaticien de l’Université de l’État de Washington, David B. Benson, il se souvient avoir entendu et utilisé le terme pour un demi-octet dès 1958.
Cependant, il est tout à fait possible que le terme”grignoter”soit antérieur même ce premier souvenir. Les orthographes alternatives, telles que”nybble”et”nyble”, ont commencé à germer au cours des décennies suivantes pour correspondre plus étroitement à l’orthographe de”byte”.
Utilisations alternatives de Nibble en informatique
À divers moments de l’histoire du grignotage, il y a eu des utilisations alternatives (avec des significations alternatives) qui diffèrent de cette définition officielle ci-dessus. Jetons un coup d’œil à certaines des différentes versions alternatives du grignotage tout au long de l’histoire de l’ordinateur ci-dessous. Il convient de noter que ces deux utilisations alternatives proviennent d’Apple.
L’Apple II
L’Apple II est un ordinateur 8 bits à la maison.
©Anton_Ivanov/Shutterstock.com
En 1977 , avec le lancement officiel de la gamme de micro-ordinateurs Apple II, un quartet a été alternativement utilisé pour représenter cinq bits ou six bits. Encore plus étrange ? Le fait que les deux utilisations se retrouvent indifféremment. C’est l’une des rares fois où le grignotage a représenté autre chose que la définition traditionnellement utilisée de quatre bits.
La machine Woz intégrée
Curieusement, la machine Woz intégrée-une contrôleur de disquette à puce unique pour les produits Apple et Macintosh au début des années 1980-était souvent qualifié de quartet 8 bits dans sa documentation technique. C’est une utilisation assez rare, car”octet”est traditionnellement l’unité 8 bits en informatique. Apple semblait vraiment avoir du mal à s’en tenir à un seul usage.
Qu’est-ce qu’un grignotage en informatique et à quoi cela correspond-il ? FAQ (Foire Aux Questions)
Combien vaut un bit en informatique ?
En informatique, un bit équivaut à un chiffre binaire : soit un (1 ) ou zéro (0). Ni plus ni moins. Il est souvent considéré comme l’équivalent d’un interrupteur ou d’un bouton d’alimentation, existant en mode”marche”ou”arrêt”, mais jamais les deux en même temps.
Combien coûte une miette en informatique ?
Si un bit équivaut au chiffre binaire, alors une miette équivaut à dire deux bits. Vous pouvez également voir une miette appelée quart d’octet. En vérité, ce ne sont que deux façons de dire la même chose : qu’une miette vaut deux bits.
Combien coûte un grignotage en informatique ?
Un quartet vaut quatre bits, deux miettes ou un demi-octet. Chacune de ces définitions est vraie en informatique, car tout dépend du type de contexte dans lequel l’unité est utilisée. Peu importe comment vous le dites, cependant, un quartet équivaut toujours à quatre bits.
Combien coûte un octet en informatique ?
Un octet équivaut à huit chiffres binaires, ou”bits”. (L’unité”bit”est un portemanteau de ce concept de chiffres binaires, où l’unité vaut 1 ou 0 mais jamais les deux.) Vous pouvez également voir un octet appelé quatre miettes ou deux grignotages. Mille octets équivaut à un kilo-octet, et mille kilo-octets équivaut à un mégaoctet.
Quelle est la plus grande unité d’information en informatique ?
Bien que techniquement il n’y ait pas limite au nombre d’unités d’information là-bas-tout comme il n’y a techniquement aucune limite au nombre de périodes de nombres-le Système international d’unités reconnaît le yottaoctet comme la plus grande unité d’information en informatique aujourd’hui. Cela équivaut à un quadrillion de gigaoctets ou à un septillion d’octets. (C’est beaucoup de grignotages.)