Poco - Bit

El bit es la unidad de información más básica en informática y comunicaciones digitales . El nombre es una contracción de un dígito binario . El bit representa un estado lógico con uno de dos valores posibles . Estos valores se representan más comúnmente como " 1 " o " 0 " , pero se usan comúnmente otras representaciones como verdadero / falso , / no , + / - o encendido / apagado .

La correspondencia entre estos valores y los estados físicos del almacenamiento o dispositivo subyacente es una cuestión de convención, y se pueden usar diferentes asignaciones incluso dentro del mismo dispositivo o programa . Puede implementarse físicamente con un dispositivo de dos estados.

El símbolo del dígito binario es 'bit' según la recomendación del estándar IEC 80000-13 : 2008, o el carácter en minúscula 'b', según lo recomendado por el estándar IEEE 1541-2002 .

Un grupo contiguo de dígitos binarios se denomina comúnmente cadena de bits , vector de bits o matriz de bits unidimensional (o multidimensional) . Un grupo de ocho dígitos binarios se denomina un  byte , pero históricamente el tamaño del byte no está estrictamente definido. Con frecuencia, las palabras medias, completas, dobles y cuádruples constan de un número de bytes que es una potencia baja de dos.

En la teoría de la información , un bit es la entropía de información de una variable aleatoria binaria que es 0 o 1 con igual probabilidad, o la información que se obtiene cuando se conoce el valor de dicha variable. Como unidad de información , el bit también se conoce como shannon , llamado así por Claude E. Shannon .

Historia

La codificación de datos por bits discretos se utilizó en las tarjetas perforadas inventadas por Basile Bouchon y Jean-Baptiste Falcon (1732), desarrolladas por Joseph Marie Jacquard (1804), y posteriormente adoptadas por Semyon Korsakov , Charles Babbage , Hermann Hollerith y principios fabricantes de computadoras como IBM . Una variante de esa idea fue la cinta de papel perforada . En todos esos sistemas, el medio (tarjeta o cinta) portaba conceptualmente una serie de posiciones de los orificios; cada posición podría ser perforada o no, llevando así un bit de información. La codificación de texto por bits también se utilizó en el código Morse (1844) y en las primeras máquinas de comunicaciones digitales, como los teletipos y las máquinas de cotizaciones (1870).

Ralph Hartley sugirió el uso de una medida logarítmica de información en 1928. Claude E. Shannon utilizó por primera vez la palabra "bit" en su artículo seminal de 1948 " A Mathematical Theory of Communication ". Atribuyó su origen a John W. Tukey , que había escrito un memo de Bell Labs el 9 de enero de 1947 en el que contraía "dígito de información binaria" a simplemente "bit". Vannevar Bush había escrito en 1936 sobre "bits de información" que podían almacenarse en las tarjetas perforadas utilizadas en las computadoras mecánicas de esa época. La primera computadora programable, construida por Konrad Zuse , usó notación binaria para los números.

Representacion fisica

Un bit puede ser almacenado por un dispositivo digital u otro sistema físico que exista en cualquiera de dos posibles estados distintos . Estos pueden ser los dos estados estables de un flip-flop, dos posiciones de un interruptor eléctrico , dos niveles distintos de voltaje o corriente permitidos por un circuito , dos niveles distintos de intensidad de luz , dos direcciones de magnetización o polarización , la orientación del doble reversible ADN trenzado , etc.

Los bits se pueden implementar de varias formas. En la mayoría de los dispositivos informáticos modernos, un bit se suele representar mediante un voltaje eléctrico o un pulso de corriente , o por el estado eléctrico de un circuito flip-flop.

Para los dispositivos que usan lógica positiva , un valor de dígito de 1 (o un valor lógico de verdadero) se representa con un voltaje más positivo en relación con la representación de 0 . Los voltajes específicos son diferentes para diferentes familias lógicas y se permiten variaciones para permitir el envejecimiento de los componentes y la inmunidad al ruido. Por ejemplo, en la lógica de transistor-transistor (TTL) y circuitos compatibles, los valores de dígitos 0 y 1 en la salida de un dispositivo están representados por no más de 0,4 voltios y no menos de 2,6 voltios, respectivamente; mientras que las entradas TTL están especificadas para reconocer 0,8 voltios o menos como 0 y 2,2 voltios o más como 1 .

Transmisión y procesamiento

Los bits se transmiten de uno en uno en transmisión en serie y por un número múltiple de bits en transmisión en paralelo . Una operación bit a bit procesa opcionalmente bits de uno en uno. Las velocidades de transferencia de datos se miden generalmente en múltiplos SI decimales de la unidad de bit por segundo (bit / s), como kbit / s.

Almacenamiento

En los primeros dispositivos de procesamiento de información no electrónicos, como el telar de Jacquard o el motor analítico de Babbage , a menudo se almacenaba un bit como la posición de una palanca o engranaje mecánico, o la presencia o ausencia de un agujero en un punto específico de una tarjeta de papel. o cinta . Los primeros dispositivos eléctricos para lógica discreta (como los circuitos de control de ascensores y semáforos , interruptores telefónicos y la computadora de Konrad Zuse) representaban bits como estados de relés eléctricos que podían ser "abiertos" o "cerrados". Cuando los relés fueron reemplazados por tubos de vacío , a partir de la década de 1940, los constructores de computadoras experimentaron con una variedad de métodos de almacenamiento, como pulsos de presión que viajan por una línea de retardo de mercurio , cargas almacenadas en la superficie interior de un tubo de rayos catódicos o puntos opacos. impreso en discos de vidrio mediante técnicas fotolitográficas .

En las décadas de 1950 y 1960, estos métodos fueron reemplazados en gran medida por dispositivos de almacenamiento magnético como la memoria de núcleo magnético , cintas magnéticas , tambores y discos , donde un bit estaba representado por la polaridad de magnetización de un área determinada de una película ferromagnética , o por un cambio de polaridad de una dirección a la otra. El mismo principio se usó más tarde en la memoria de burbuja magnética desarrollada en la década de 1980, y todavía se encuentra en varios elementos de banda magnética , como boletos de metro y algunas tarjetas de crédito .

En la memoria de semiconductores moderna , como la memoria dinámica de acceso aleatorio , los dos valores de un bit pueden estar representados por dos niveles de carga eléctrica almacenados en un condensador . En ciertos tipos de matrices lógicas programables y memoria de solo lectura , un bit puede estar representado por la presencia o ausencia de una ruta conductora en un punto determinado de un circuito. En los discos ópticos , un bit se codifica como la presencia o ausencia de un pozo microscópico en una superficie reflectante. En los códigos de barras unidimensionales , los bits se codifican como el grosor de líneas alternas en blanco y negro.

Unidad y símbolo

El bit no está definido en el Sistema Internacional de Unidades (SI). Sin embargo, la Comisión Electrotécnica Internacional emitió la norma IEC 60027 , que especifica que el símbolo del dígito binario debe ser 'bit', y esto debe usarse en todos los múltiplos, como 'kbit', para kilobit. Sin embargo, la letra minúscula 'b' también se usa ampliamente y fue recomendada por el estándar IEEE 1541 (2002) . Por el contrario, la letra mayúscula 'B' es el símbolo estándar y habitual de byte.

Decimal
Valor  Métrico 
1000 kbit kilobit
1000 2 Mbit megabit
1000 3 Gbit gigabit
1000 4 Tbit terabit
1000 5 Pbit petabit
1000 6 Ebit exabit
1000 7 Zbit zettabit
1000 8 Ybit yottabit
Binario
Valor  IEC  Tradicional 
1024 Kibit kibibit Kbit Kb kilobit
1024 2 Mibit mebibit Mbit megabyte megabit
1024 3 Gibit Gibibit Gbit GB gigabit
1024 4 Tibit tebibit Tbit Tuberculosis terabit
1024 5 Pibit pebibit -
1024 6 Eibit exponer -
1024 7 Zibit zebibit -
1024 8 Yibit yobibit -

Múltiples bits

Se pueden expresar y representar múltiples bits de varias formas. Para la conveniencia de representar grupos de bits que se repiten comúnmente en la tecnología de la información , tradicionalmente se han utilizado varias unidades de información . El más común es el byte unitario , acuñado por Werner Buchholz en junio de 1956, que históricamente se usó para representar el grupo de bits utilizados para codificar un solo carácter de texto (hasta que la codificación multibyte UTF-8 asumió el control) en una computadora y para esto razón por la que se utilizó como elemento direccionable básico en muchas arquitecturas informáticas . La tendencia en el diseño de hardware convergió en la implementación más común de usar ocho bits por byte, como se usa ampliamente en la actualidad. Sin embargo, debido a la ambigüedad de depender del diseño de hardware subyacente, el octeto unitario se definió para denotar explícitamente una secuencia de ocho bits.

Las computadoras generalmente manipulan bits en grupos de un tamaño fijo, llamados convencionalmente " palabras ". Al igual que el byte, el número de bits en una palabra también varía con el diseño del hardware y suele estar entre 8 y 80 bits, o incluso más en algunas computadoras especializadas. En el siglo XXI, las computadoras personales o de servidor minoristas tienen un tamaño de palabra de 32 o 64 bits.

El Sistema Internacional de Unidades define una serie de prefijos decimales para múltiplos de unidades estandarizadas que comúnmente también se usan con el bit y el byte. Los prefijos kilo (10 3 ) a yotta (10 24 ) se incrementan en múltiplos de mil, y las unidades correspondientes son el kilobit (kbit) al yottabit (Ybit).

Capacidad de información y compresión de información

Cuando la capacidad de información de un sistema de almacenamiento o un canal de comunicación se presenta en bits o bits por segundo , esto a menudo se refiere a dígitos binarios, que es la capacidad del hardware de una computadora para almacenar datos binarios ( 0 o 1 , arriba o abajo, actual o no). , etc.). La capacidad de información de un sistema de almacenamiento es solo un límite superior a la cantidad de información almacenada en él. Si los dos valores posibles de un bit de almacenamiento no son igualmente probables, ese bit de almacenamiento contiene menos de un bit de información. Si el valor es completamente predecible, entonces la lectura de ese valor no proporciona ninguna información (bits entrópicos cero, porque no se produce una resolución de la incertidumbre y, por lo tanto, no hay información disponible). Si un archivo de computadora que usa n  bits de almacenamiento contiene solo m  <  n  bits de información, entonces esa información puede, en principio, codificarse en alrededor de m  bits, al menos en promedio. Este principio es la base de la tecnología de compresión de datos . Utilizando una analogía, los dígitos binarios de hardware se refieren a la cantidad de espacio de almacenamiento disponible (como la cantidad de cubos disponibles para almacenar cosas) y la información que contiene el llenado, que viene en diferentes niveles de granularidad (fina o gruesa, es decir, información comprimida o sin comprimir). Cuando la granularidad es más fina, cuando la información está más comprimida, el mismo depósito puede contener más.

Por ejemplo, se estima que la capacidad tecnológica combinada del mundo para almacenar información proporciona 1.300 exabytes de dígitos de hardware. Sin embargo, cuando este espacio de almacenamiento se llena y el contenido correspondiente se comprime de manera óptima, esto solo representa 295 exabytes de información. Cuando se comprime de manera óptima, la capacidad de carga resultante se acerca a la información de Shannon o la entropía de la información .

Computación basada en bits

Ciertas instrucciones del procesador de computadora bit a bit (como el conjunto de bits ) operan al nivel de la manipulación de bits en lugar de manipular datos interpretados como un agregado de bits.

En la década de 1980, cuando las pantallas de computadora con mapas de bits se hicieron populares, algunas computadoras proporcionaron instrucciones de transferencia de bloques de bits especializadas para establecer o copiar los bits que correspondían a un área rectangular determinada en la pantalla.

En la mayoría de las computadoras y lenguajes de programación, cuando se hace referencia a un bit dentro de un grupo de bits, como un byte o una palabra, generalmente se especifica mediante un número de 0 en adelante correspondiente a su posición dentro del byte o palabra. Sin embargo, 0 puede hacer referencia a la mayor parte o bit menos significativo dependiendo del contexto.

Otras unidades de información

Similar al par y la energía en física; La información teórica de la información y el tamaño del almacenamiento de datos tienen la misma dimensionalidad de las unidades de medida , pero en general no tiene sentido sumar, restar o combinar las unidades matemáticamente, aunque una puede actuar como un límite de la otra.

Las unidades de información utilizadas en la teoría de la información incluyen shannon (Sh), la unidad natural de información (nat) y hartley (Hart). Un shannon es el valor máximo esperado de la información necesaria para especificar el estado de un bit de almacenamiento. Estos están relacionados por 1 Sh ≈ 0.693 nat ≈ 0.301 Hart.

Algunos autores también definen un binit como una unidad de información arbitraria equivalente a un número fijo pero no especificado de bits.

Ver también

Referencias

enlaces externos

  • Bit Calculator : una herramienta que proporciona conversiones entre bit, byte, kilobit, kilobyte, megabit, megabyte, gigabit, gigabyte
  • BitXByteConverter : una herramienta para calcular el tamaño de los archivos, la capacidad de almacenamiento y la información digital en varias unidades