Concepto de Bit

Es la abreviación en inglés de BinaryDigit (dígito binario), la cual en términos técnicos viene a ser la menor unidad de información de una computadora. Un bit tiene solamente un valor de base 2 en el sistema numérico de la informática (que puede ser cero y uno), siendo que: si el nivel de la energía fuese bajo es 0 (corriente baja) y si el nivel de energía fuese alto, el valor es 1(corriente alta). Cuando es necesario representar números mayores, se combinarán varios bits y combinados entre sí dan origen a otras unidades como: byte, mega, giga y tera.

Bit

Origenes del BIT


Según algunos autores, el antiguo matemático hindú Pingala, fue quien mostró la primera descripción que se conoce de un sistema de numeración binario en el siglo III antes de nuestra era, lo que supuestamente coincidió con su descubrimiento del concepto del número cero.

Ahora bien, si seguimos indagando, encontramos que otras investigaciones sostienen que fue creado por Gottfried W. Leibnitz (1646-1716), otras que el inventor fue el matemático John Napier (1550-1617), luego señalan a John Tukey, que trabajaba en los Laboratorios Bell como científico y que según los usó por primera vez en 1947, a la par del cual mencionan a Claude Shanon, para el año de 1948.

Funcionamiento del Sistema Binario


El circuito electrónico en los ordenadores percibe la diferencia entre dos estados (corriente alta y corriente baja) y representa esos dos estados como uno de sus dos números base, 1 o 0. Toda la información procesada por el computador es medida y codificada en bits, el tamaño de los archivos son medidos y convertidos en bits; asimismo, las transferencias de información en unidades de tiempo (segundos) y en general todos los datos que confía el usuario, son convertidos en bits para que la computadora los "entienda" y pueda procesarlos.

Para traducir la información al lenguaje del ordenador, se necesita una gran cantidad de bits, lo que quiere decir que este procedimiento no puede ser logrado solamente por los dos valores bases que componen a un bit, a saberse “0 y 1”. Por consiguiente, si se utilizan dos bits, podrán ser procesadas hasta cuatro combinaciones posibles:

  • (0 0) Los dos están "apagados".
  • (0 1) El primero (de derecha a izquierda) está "encendido" y el segundo "apagado".
  • (1 0) El primero (de derecha a izquierda) está "apagado" y el segundo "encendido".
  • (1 1) Los dos están "encendidos".

Combinaciones que ha su vez se pueden ejecutar la representación sistemática de hasta cuatro valores distintos, como por ejemplo: los colores rojo, verde, azul y negro.

Mediante la utilización de una cantidad de bits en secuencia, el ordenador puede interpretar un conjunto de instrucciones y datos, que al momento de procesarlos se convierten en un valor discreto (forma particular que suele tomar un símbolo o un programa en el momento en que son procesados por el ordenador) como por ejemplo: números, palabras, e imágenes. En consecuencia, cuatro bits forman un nibble y pueden interpretar hasta 24 = 16 valores diferentes; ocho bits forman un octeto y se pueden representar hasta 28 = 256 valores diferentes o caracteres. De acuerdo al número de bits se pueden representar hasta 2n valores diferentes. El proceso de clasificación de colores de una imagen monocromática (que tiene un solo color) tiene 1 bit en cada punto (blanco o negro), mientras una imagen de 8 bits aguanta hasta 256 colores.

El dígito binario “Bit” como símbolo combinado sigue las mismas pautas que nuestro código decimal, pero en vez de tener 10 posibles valores para cada posición, sólo tiene dos. La capacidad de almacenamiento de una tarjeta de memoria 100% electrónica (memoria digital) también se mide en bits.

Importancia del Bit


Estos equipos, a nivel interno al funcionar con dos grados diferentes de voltaje, se valen del sistema binario para indicar el apagado, desenergizado, “cero voltios” (representado con el 0) o el encendido, energizado, +5 o +12 voltios (1).