Tema Ii. Continuacion. Códigos de Representación de Datos en El Computador

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 4

TEMA II. CONTINUACION.

CÓDIGOS DE REPRESENTACIÓN DE
DATOS EN EL COMPUTADOR

I. REPRESENTACIÓN DE DATOS EN EL COMPUTADOR

OBJETIVO

Identificar los diferentes códigos que utiliza la computadora como herramienta


para la utilización de sus funciones.

1.1. Bit

Bit es la abreviación de Binary Digit (digito binario), la cual en términos técnicos


es la menor unidad de información de una computadora. Un bit tiene solamente
un valor (que puede ser 0 o 1).

Toda la información procesada por una computadora es medida y codificada en


bits. El tamaño de los archivos son medidos en bits, las tasas de transferencia
son medidas en bit, toda la información en el lenguaje del usuario es convertida
a bits para que la computadora la entienda.

1
1.2. Byte

Es un conjunto de 8 bits, formando según una secuencia que representa un


carácter. Se puede hacer una correspondencia biunívoca entre cada número
decimal (0 a 9), las letras mayúsculas y minúsculas (A hasta Z), Kilobyte o Kbyte
o Kb: Un Kbyte corresponde a 1024 bytes. P.ej.: un microcomputador antiguo
tipo PC-XT poseía 640 Kbytes de memoria, o sea, 655.360 bytes de memoria,
porque: 640 Kb x 1024 bytes = 655.360 bytes. Esto quiere decir que él podría
tener en su memoria hasta 655.360 caracteres.

1.3. Megabyte o Mbyte o Mb: Un Mbyte corresponde a 1024 Kbytes,


1.048.576 bytes.

1.4. Gigabyte o Gbyte o Gb: Un Gbyte corresponde la 1024 Mbytes.

1.5. Terabyte o Tbyte o Tb: Un Tbyte corresponde la 1024 Gbytes.

1.6. Dato

Dato es un sustantivo masculino que procede etimológicamente del vocablo


latino "datum" que se traduce como "dado" o "establecido".

Un dato es el elemento primario de la información conformado por símbolos


(letras, números, dibujos, señas, gestos) que reunidos pueden cobrar
significación. Solo o aislado el dato no posee relevancia, pero utilizado en las
premisas de un razonamiento puede llevarnos a una conclusión. Surgen de la
observación o la experiencia. Vemos la altura de un terreno y lo medimos, y así
obtenemos un dato. Pedimos la identificación de una persona, y así obtenemos
datos sobre su nombre y apellido y sobre la fecha de su nacimiento.

1.7. Información

Como información denominamos al conjunto de datos, ya procesados y


ordenados para su comprensión, que aportan nuevos conocimientos a un
individuo o sistema sobre un asunto, materia, fenómeno o ente determinado. La
palabra, como tal, proviene del latín informatío, informationis, que significa
‘acción y efecto de informar’.

2
1.8. Codificación de la información

La mayoría de los sistemas informáticos actuales son sistemas digitales (también


existen los ordenadores analógicos, pero su uso es muy raro). Estos
ordenadores digitales trabajan con información representada en binario, por lo
tanto, es necesario codificar cualquier información que quiera ser procesada
mediante un sistema informático.

En informática, por lo tanto, la codificación es también aquella operación que


tiene lugar para enviar datos de un lugar a otro, procesarlos y obtener resultados
a partir de ellos. Todas las operaciones informáticas están cifradas en código
binario, o bien, combinaciones más o menos complejas de unos y ceros que
ocurren constantemente.

II. SISTEMAS DE CODIFICACIÓN DE DATOS

La codificación de caracteres es el método que permite convertir un carácter de


un lenguaje natural (como el de un alfabeto o silabario) en un símbolo de
otro sistema de representación, como un número o una secuencia de pulsos
eléctricos en un sistema electrónico, aplicando normas o reglas de codificación.

2.1. EBCDIC

EBCDIC = Extended Binary Coded Decimal Interchange Code.

EBCDIC es un código binario que representa caracteres alfanuméricos,


controles y signos de puntuación.

Cada carácter está compuesto por 8 bits = 1 byte, por eso EBCDIC define un
total de 256 caracteres.

2.2. ASCII

El código ASCII (acrónimo inglés de American Standard Code for Information


Interchange — Código Estadounidense Estándar para el Intercambio de
Información), pronunciado generalmente [ASCII], es un código de caracteres
basado en el alfabeto latino tal como se usa en inglés moderno y en otras lenguas
occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares
(ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares
Nacionales, o ANSI) como una refundición o evolución de los conjuntos de
códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las
minúsculas, y se redefinieron algunos códigos de control para formar el código
conocido como US-ASCII.

El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente
empleaba un bit adicional (bit de paridad) que se usaba para detectar errores en
la transmisión. A menudo se llama incorrectamente ASCII a otros códigos de
caracteres de 8 bits, como el estándar ISO-8859-1 que es una extensión que
utiliza 8 bits para proporcionar caracteres adicionales usados en idiomas
distintos al inglés, como el español.

3
ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado
por última vez en 1986. En la actualidad define códigos para 33 caracteres no
imprimibles, de los cuales la mayoría son caracteres de control obsoletos que
tienen efecto sobre cómo se procesa el texto, más otros 95 caracteres
imprimibles que les siguen en la numeración (empezando por el carácter
espacio).

Casi todos los sistemas informáticos actuales utilizan el código ASCII o una
extensión compatible para representar textos y para el control de dispositivos
que manejan texto.

2.3. UNICODE

Unicode es un estándar industrial cuyo objetivo es proporcionar el medio por el


cual un texto en cualquier forma e idioma pueda ser codificado para el uso
informático.

El establecimiento de Unicode ha involucrado un ambicioso proyecto para


reemplazar los esquemas de codificación de caracteres existentes, muchos de
los cuales están muy limitados en tamaño y son incompatibles con entornos
multilingües.

Unicode se ha vuelto el más extenso y completo esquema de codificación de


caracteres, siendo el más dominante en la internacionalización y adaptación
local del software informático.

También podría gustarte