- Un bit es un dígito del sistema de numeración binario, en el cual se usan dos dígitos, el 0 y el 1.
- El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información.
- En general, con un número "n" de bits pueden representarse hasta "2^n".
- El valor de los dígitos depende del lugar en el que se encuentren.
- Cuando se trabaja con varios sistemas de numeración, es típico usar un subindice para indicar que sistema de numeración se está usando.
Sistema binario
- Es un sistema de numeración en el que los números se representan utilizando 1 y 0. Es el que se usa en las computadoras pues trabajan internamente con dos niveles de voltaje.
- El antiguo matemático indio Pingala presenta la primera descripción que se conoce de un sistema de numeración binario en el siglo tercero antes de nuestra era.
- El sistema binario moderno fue documentado en su totalidad por Leibniz en el siglo diecisiete.
- Se usa desde el siglo pasado en relés y computadores, en definitiva, en circuitos digitales, para hacer cálculos en general.
- Un numero binario puede ser representado por cualquier secuencia de bits, que suelen representar cualquier mecanismo capaz de estar en dos estados mutuamente excluyentes.
- Para pasar de sistema decimal a binario, dividimos la cifra dada entre dos, y su resultado entero entre dos y así sucesivamente. Ordenando los restos del último al primero obtendremos el número binario que buscamos. Si tiene decimales se sigue con la parte fraccionaria, multiplicando cada número por 2; si el resultado es mayor o igual que 1, se anota como un uno binario, si es menor, como 0.
- Para pasar de sistema binario a decimal, empezando por el lado derecho, cada cifra se multiplica por dos elevado a la potencia consecutiva, y después de realizar cada una de las multiplicaciones, se suman todas y el número resultante será el equivalente al número decimal. Si tiene decimales, empezando por la izquierda, cada número se multiplica por 2 elevado a la potencia consecutiva a la izquierda; después de realizar cada una de las multiplicaciones se suman todas y el número resultante es el equivalente en el sistema decimal.
Byte
- Secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido.
- No tiene unidad.
- Se usa como unidad básica de almacenamiento de información.
- Originalmente fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits.
ASCII
- Es un código de caracteres basado en el alfabeto latino tal como se usa en inglés moderno y en otras lenguas occidentales.
- Fue creado como una evolución de los conjuntos de códigos utilizados entonces en telegrafía.
- Utiliza 7 bits para representar los caracteres.
- Es un método para una correspondencia entre cadenas de bits y una serie de símbolos, permitiendo esta forma la comunicación entre dispositivos digitales así como su procesado y almacenamiento.
No hay comentarios:
Publicar un comentario