martes, 4 de noviembre de 2014

Tema 2: Hardware (1ªParte: Datos e información)

Bit

  • Un bit es un dígito del sistema de numeración binario, en el cual se usan dos dígitos, el 0 y el 1.
  • El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información.
  • En general, con un número "n" de bits pueden representarse hasta "2^n".
  • El valor de los dígitos depende del lugar en el que se encuentren.
  • Cuando se trabaja con varios sistemas de numeración, es típico usar un subindice para indicar que sistema de numeración se está usando.
Sistema binario
  • Es un sistema de numeración en el que los números se representan utilizando 1 y 0. Es el que se usa en las computadoras pues trabajan internamente con dos niveles de voltaje.
  • El antiguo matemático indio Pingala presenta la primera descripción que se conoce de un sistema de numeración binario en el siglo tercero antes de nuestra era.
  • El sistema binario moderno fue documentado en su totalidad por Leibniz en el siglo diecisiete.
  • Se usa desde el siglo pasado en relés y computadores, en definitiva, en circuitos digitales, para hacer cálculos en general.
  • Un numero binario puede ser representado por cualquier secuencia de bits, que suelen representar cualquier mecanismo capaz de estar en dos estados mutuamente excluyentes.
  • Para pasar de sistema decimal a binario, dividimos la cifra dada entre dos, y su resultado entero entre dos y así sucesivamente. Ordenando los restos del último al primero obtendremos el número binario que buscamos. Si tiene decimales se sigue con la parte fraccionaria, multiplicando cada número por 2; si el resultado es mayor o igual que 1, se anota como un uno binario, si es menor, como 0.

  • Para pasar de sistema binario a decimal, empezando por el lado derecho, cada cifra se multiplica por dos elevado a la potencia consecutiva, y después de realizar cada una de las multiplicaciones, se suman todas y el número resultante será el equivalente al número decimal. Si tiene decimales, empezando por la izquierda, cada número se multiplica por 2 elevado a la potencia consecutiva a la izquierda; después de realizar cada una de las multiplicaciones se suman todas y el número resultante es el equivalente en el sistema decimal.
Byte
  • Secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido.
  • No tiene unidad.
  • Se usa como unidad básica de almacenamiento de información.
  • Originalmente fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits.
ASCII
  • Es un código de caracteres basado en el alfabeto latino tal como se usa en inglés moderno y en otras lenguas occidentales. 
  • Fue creado como una evolución de los conjuntos de códigos utilizados entonces en telegrafía.
  • Utiliza 7 bits para representar los caracteres.
  • Es un método para una correspondencia entre cadenas de bits y una serie de símbolos, permitiendo esta forma la comunicación entre dispositivos digitales así como su procesado y almacenamiento.

No hay comentarios:

Publicar un comentario