Conceptos Arquitectura de Computadoras
Conceptos Arquitectura de Computadoras
Conceptos Arquitectura de Computadoras
MICROCONTROLADORES,MICROPROCESADORES E INTERFAZ
Resumen “Conceptos básicos de estructura de computadoras”
El problema seguía ahí, y era que esas computadoras solo eran de uso científico y se encontraban
en instituciones de educación superior para fines de investigación. Por su gran tamaño y
necesidad eléctrica ,era imposible llegar a pensar en tener una de esas en tu casa.
Hasta que, en 1947, los Físicos Walter Brattain, William Shockley y John Bardeen, de los
laboratorios Bell lograron el descubrimiento del transistor, ese dispositivo que permitió ahorrar
espacios y mejorar la eficiencia y tiempo en la computadora y sobre todo aumentar la memoria de
estas.
La creación del transistor marco una nueva era que llamaremos “era del silicio” ,propicio que se
crearan lenguajes de programación mas completos debido a que ya se contaba con una mayor
capacidad en la memoria del dispositivo, y además surgió una empresa que años después tomaría
un peso importante en la historia y seria Intel Corporation que nace en 1968 en California E.U.
como fabricante de circuitos integrados.
En 1971,tres años después de su fundación Intel Co. creo un invento revolucionario para las
futuras generaciones y este fue el microprocesador ,fue el Intel 4004 y fue elaborado para una
calculadora tal fue el
éxito que tan solo un
a; o después en 1972
saco al mercado el
primer
microprocesador de
8BITS que fue el
Intel 8008 para su
uso en terminales
informáticos.
Según la ley de Moore, cada dos años se duplica el número de transistores en un microprocesador. Dicha
percepción acabó convirtiéndose en una ley no matemática o física, sino en esa singular predicción (e
incluso reto tecnológico a lograr) que se ha ido cumpliendo en las últimas décadas “Los procesos de
producción y las litografías utilizadas en los últimos años han demostrado plantear un reto importante en este
sentido, y eso ha hecho que sea poco probable que la ley de Moore vaya a durar otros 55 años.” , así lo expreso
en el sitio Web de tecnología más influyente en LATAM Xataka.com .(Pastor,2020)
ARQUITECTURAS DE COMPUTACION
Harvard VS Von Neumann
Empezaremos definiendo ¿A que nos referimos con arquitectura en términos de computación?
Arquitectura de computación: Hace referencia al diseño conceptual y estructural, así como a los
detalles necesarios para que sea funcional, es decir, cubre sistemas informáticos,
microprocesadores, circuitos y programas del sistema.
Bus de datos: Sistema digital que transfiere datos entre los componentes de una computadora
Resaltan en la arquitectura de computadoras dos modelos muy conocidas que es el Modelo Von
Neumann , que trata a la computadora como una caja negra y define como se realiza el
procesamiento y lo divide en cuatro subsistemas: memoria, unidad lógica aritmética ,unidad de
control y entrada/salida. Por el otro lado tenemos a la arquitectura Harvard cuyo diferencial es la
división de instrucciones de los datos transferidos con el CPU y lo hace con dos memorias
separadas.
Modelo Von Neumann
La arquitectura de John Von Neumann se caracteriza en que los procesadores utilizan el mismo
dispositivo de almacenamiento para los datos como para las instrucciones. Eso quiere decir que
utiliza un único bus de datos para poder mantener contacto con la CPU. Esto crea una eficiencia en
la utilización de la memoria, pero al mismo tiempo requiere una ambigüedad para poder
reconocer y distinguir los datos. Los ordenadores que utilizan este modelo se componen por una
unidad aritmética lógica (ALU). Consecuencia de ello tienen el inconveniente que solamente puede llevar
datos o instrucciones en un determinado momento.
Es por ello por lo que en las computadoras actuales las memorias almacenan en ellas tanto un
programa como sus datos correspondientes. Lo que implica que ambos, datos y programas, deban
tener el mismo formato porque se almacena en memoria. Los cuales se guardan como una
secuencia de unos y ceros.
Una de las memorias contiene solamente las instrucciones del programa (Memoria de Programa),
y la otra sólo almacena datos (Memoria de Datos). Ambos buses son completamente distintos lo
que permite que la CPU pueda acceder de forma singular y simultánea a la memoria de datos y a
su vez a una lista de instrucciones. Como los buses son independientes éstos pueden tener
distintos contenidos en la misma dirección y también distinta longitud. (Compilando
Conocimiento,2012).
Aprovechar esa ventaja hace que, al ser los bus de datos independientes, la CPU puede acceder a
los datos para completar la ejecución de una instrucción, y al mismo tiempo leer la siguiente
instrucción a ejecutar.
Comparación
Unidad de Control (UC): La unidad de control se encarga de leer y ejecutar la información que se
encuentra en memoria y de secuenciar el acceso a los datos y operaciones a realizar por la unidad
de proceso. La UC genera las señales de control que establecen el flujo de datos en todo el
computador e interno en la CPU. Una instrucción no es más que una combinación de unos y ceros.
Unidad Aritmética Lógica o ALU (Arithmetic Logic Unit): Es la parte de la CPU encargada de
realizar las transformaciones de los datos. Gobernada por la UC, la ALU consta de una serie de
módulos que realizan operaciones aritméticas y lógicas.
Registros Internos: Almacenar los resultados y llevarlos a la ejecución de las instrucciones en la
memoria principal se tornaría lento y saturaríamos la conexión con la memoria, así que
tendríamos repercusiones con el rendimiento. Para solucionar el problema el CPU cuenta con
registros internos:
> Contador de programa.- se encarga de almacenar la dirección de la siguiente instrucción a
ejecutar.
> Registro de Instrucción.- se almacena la instrucción capturado en memoria y la que se está
ejecutando.
> Registro de Estado.- compuesto por una serie de bits que informan el resultado obtenido en la
última operación de la ALU.
CONCLUSION
Los conceptos de computadora han ido cambiando a lo largo del tiempo ,pero sin duda la
revolución que esta vigente hasta nuestros tiempos y sostiene a toda la tecnología actual es la
invención del transistor y la llamada “era del Silicio” .
Es fundamental conocer las arquitecturas debido a que cada una tiene un propósito diferente
acorde a sus ventajas ,Neumann nos ofrece ejecuciones secuenciales de las ordenes y Harvard nos
ofrece almacenar datos en chaces separados y minimizar el tiempo de ejecución.
FUENTES
Cheang, J. C. (2005). LEY DE MOORE, NANOTECNOLOGÍA y NANOCIENCIAS. UNAM, 6(7), 12-20.
http://www.revista.unam.mx/vol.6/num7/art65/jul_art65.pdf
Vázquez, J. B. (2012). Arquitectura de computadoras I (1st ed.) [Libro electrónico]. Red Tercer
Milenio S.C.
http://www.aliat.org.mx/BibliotecasDigitales/sistemas/Arquitectura_computadoras_I.pdf
Pastor, J. (2020, 21 septiembre). Antes teníamos la ley de Moore, ahora tenemos la «ley de Huang»
que perfila el futuro de NVIDIA y ARM. Xataka. https://www.xataka.com/robotica-e-ia/antes-
teniamos-ley-moore-ahora-tenemos-ley-huang-que-perfila-futuro-nvidia-arm