© Lightspring/Shutterstock.com
Apesar de parecer externo, você não precisa ser um engenheiro de computação para entender os diferentes termos e unidades de informação na computação.
Seja um terabyte, um gigabyte, um megabyte ou algo tão pequeno quanto um nibble-sim, um nibble-as unidades de informação na computação são muito menos complexas do que seus nomes sugerem.
O que exatamente é uma mordidela em computação? E quanto um nibble equivale a essas outras unidades de informação na computação? Vamos detalhar tudo abaixo.
Um Nibble na Computação Explicado
Na computação, um nibble pode ser escrito como nybl, nyble ou nybble; sem falar no tetrade ou meio byte, que a unidade também passa de vez em quando. O último desses nomes alternativos nos dá uma pista sobre que tipo de unidade de informação um nibble realmente é: meio byte.
No entanto, se você não sabe o que significa um byte, isso não é muito bom para você, não é? Para aumentar a confusão, você também pode pensar em um nibble como quatro vezes o tamanho de um bit ou o dobro do tamanho de uma migalha.
O termo nibble vem de sua representação de “meio byte”, com byte um homófono da palavra inglesa bite.
©MaraZe/Shutterstock.com
Veja como tudo se divide: um bit é a menor unidade de informação em computação, equivalente a apenas dois dígitos: 0 e 1. Uma migalha, por essa métrica , é equivalente a dois bits. Um nibble, por extensão, equivale a quatro bits.
Um byte, então, teria que ser oito bits. Você pode continuar multiplicando assim ad nauseam e obtendo uma nova unidade de informação toda vez, mas para o propósito desta parte, vamos cortá-la aqui no nibble.
O termo “nibble” data de volta ao final dos anos 1950, pelo menos. De acordo com David B. Benson, cientista da computação da Washington State University, ele se lembra de ter ouvido e usado o termo para meio byte já em 1958.
No entanto, é inteiramente possível que o termo”nibble”seja anterior até mesmo esta lembrança precoce. As grafias alternativas, como “nybble” e “nyble”, começaram a surgir nas décadas subsequentes para corresponder melhor à grafia de “byte”.
Usos alternativos de nibble na computação
Em vários pontos da história do nibble, houve alguns usos alternativos (com significados alternativos) que diferem desta definição oficial acima. Vamos dar uma olhada em algumas das várias versões alternativas do nibble ao longo da história do computador abaixo. Digno de nota é o fato de que ambos os usos alternativos vêm da Apple.
O Apple II
O Apple II é um computador doméstico de 8 bits.
©Anton_Ivanov/Shutterstock.com
Em 1977 , com o lançamento oficial da linha de microcomputadores Apple II, um nibble passou a ser usado alternativamente para representar cinco bits ou seis bits. Ainda mais estranho? O fato de que ambos os usos são encontrados de forma intercambiável. Esta é uma das poucas vezes em que nibble representou algo diferente da tradicionalmente baseada na definição de quatro bits.
A Máquina Woz Integrada
Curiosamente, a Máquina Woz Integrada — uma controlador de disquete de chip único para produtos Apple e Macintosh no início dos anos 1980-era frequentemente referido como um nibble de 8 bits em sua documentação técnica. Este é um uso bastante incomum, já que “byte” é tradicionalmente a unidade de 8 bits na computação. A Apple parecia realmente lutar para se limitar a um uso.
O que é um nibble na computação e o que é igual? FAQs (Perguntas Frequentes)
Quanto é um bit em computação?
Na computação, um bit equivale a um dígito binário: um (1 ) ou zero (0). Nem mais nem menos. Muitas vezes, é visto como equivalente a um interruptor ou botão liga/desliga, existindo em “ligado” ou “desligado”, mas nunca os dois ao mesmo tempo.
Quanto custa uma migalha em computação?
Se um bit é equivalente ao dígito binário, então uma migalha é o mesmo que dizer dois bits. Você também pode ver uma migalha referida como um quarto de byte. Na verdade, são apenas duas maneiras de dizer a mesma coisa: que uma migalha vale dois bits.
Quanto custa um nibble em computação?
Um nibble vale quatro bits, duas migalhas ou meio byte. Qualquer uma dessas definições é verdadeira na computação, pois tudo depende do tipo de contexto em que a unidade está sendo usada. Não importa como você diga, um nibble é sempre equivalente a quatro bits.
Quanto custa um byte em computação?
Um byte é equivalente a oito dígitos binários, ou “bits”. (A unidade “bit” é um portmanteau deste conceito de dígitos binários, onde a unidade vale 1 ou 0, mas nunca ambos.) Você também pode ver um byte referido como quatro migalhas ou dois nibbles. Mil bytes equivalem a um kilobyte e mil kilobytes equivalem a um megabyte.
Qual é a maior unidade de informação na computação?
Embora tecnicamente não haja limite para o número de unidades de informação lá fora-assim como tecnicamente não há limite para o número de números-o Sistema Internacional de Unidades reconhece o yottabyte como a maior unidade de informação na computação hoje. É equivalente a um quatrilhão de gigabytes, ou um setilhão de bytes. (São muitos petiscos.)