Sistema binario: es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, pues trabajan internamente con dos niveles de voltaje, por lo que su sistema de numeración natural es el sistema binario.
Bit: El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1). En el binario se usan sólo dos dígitos, el 0 y el 1.
Byte: Un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del códig de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente, se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits.
Kilobyte: Un kilobyte es una unidad de almacenamiento de información cuyo símbolo es el kB y equivale a 210 bytes (valor aplicando la definición de prefijo binario, aceptado por todo sistema operativo que se haya creado hasta la fecha) o a 103 bytes (valor aplicando la definición del Sistema Internacional de Unidades). Los Ordenadores de 8 bits tienen una capacidad máxima de 64 K, o 65536 bytes (o a 216 bytes). El IBM PC original soportaba un máximo de 256 Kilobytes y los compatible IBM PC, tenían una capacidad máxima de 640 KB en el sentido binario, o 655.360 caracteres de datos.
Megabyte: es una unidad de medida de cantidad de datos informáticos. Es un múltiplo del octeto, que equivale a 106 (1.000.000 octetos) ó 220 (1.048.576 octetos), según el contexto. La primera definición es más acorde al prefijo mega-, mientras que la segunda es una cantidad más práctica desde el punto de vista informático. Para ésta es más acorde emplear el mebibyte ya que los dos números están relativamente cercanos, y confundir uno con otro ha llevado ocasionalmente a problemas.
Gigabyte: Un gigabyte es una unidad de medida informática cuyo símbolo es el GB, y puede equivalerse a 230 bytes o a 109 bytes, según el uso. Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no ser que se utilice un sólo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre los usos binario y decimal. El uso de la base binaria no obstante tiene ventajas durante el diseño de hardware y software. La RAM se mide casi siempre en potencias de dos.
Tareas de investigación 2 y 3 revisadas. Faltó que incluyeras los datos de las fuentes que consultaste para obtener la información. Es muy importante que siempre lo incluyas.
ResponderEliminar