Conceptos Arquitectura de Computadoras

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 8

INSTITUTO POLITÉCNICO NACIONAL

Unidad Profesional Interdisciplinaria de


Ingeniería Campus Hidalgo
Ciudad del Conocimiento y la Cultura, San Agustín Tlaxiaca, Hidalgo, 42110, México.

MICROCONTROLADORES,MICROPROCESADORES E INTERFAZ
Resumen “Conceptos básicos de estructura de computadoras”

Esta foto de Autor desconocido está bajo licencia CC BY-SA

Maestro: Dr. Eduardo Ramos Díaz


Alumno: Clavel Contreras José Stalin
Grupo: 2MM4
Fecha de entrega: 12-Sep-2020
INTRODUCCION
A lo largo del tiempo se han buscado implementar dispositivos que permitan simplificar tareas,
desde una maquina mecánica para realizar operaciones aritméticas básicas (ábaco) hasta las
computadoras electrónicas de ultima generación que permiten resolver problemas complejos.
Su uso y estructura ha ido variando constantemente acorde a nuestro alcance tecnológico. Un
antes y un después ,fue lo que marco el famoso invento del célebre matemático Charles Babbage
(1791-1871) con su máquina analítica que funcionaba a vapor y era capaz de almacenar 1000
números y operaba en base 10.
Cuando inicio la era de la electricidad los cambios que trajo surgió consigo fue lo que llamaremos
computadoras de primera generación, el problema seguía siendo que eran de gran tamaño , su
capacidad era muy limitada y sobre todo los problemas de calentamiento eran el pesar de los
creadores.
No fue hasta que surgió el dispositivo que sirvió de peldaño para poder dar el salto a nuestro
concepto actual de “computadora” fue el transistor, ese pequeño componente electrónico que
según su configuración nos permitió usarlo a nuestro favor para poder desarrollar maquinas que
pudieran resolver problemas en un corto tiempo.
Con el surgimiento de las computadoras que se componían de transistores, su peso fue
disminuyendo, surgieron alternativas a la capacidad de enfriamiento , y sobre todo su volumen era
cada vez menor.
Pero ahora surgiría una nueva problemática que era el tamaño y el peso, así empezó una nueva
carrera por buscar la manera de juntar una gran cantidad de transistores para aumentar la
capacidad de los microprocesadores ,pero ante ello surgió un problema que seria detallado por el
Dr. G.E. Moore que se refería a la densidad de transistores posibles en un área determinada ,donde
postulo en 1975 la ley que lleva su nombre Ley de Moore.
Así el desarrollo computacional ha ido creciendo y con vistas muy optimas a futuro vemos posible
dejar a un costado la computación binaria e iniciar la famosa computación cuántica.
DESARROLLO
EVOLUCION DE LA TECNOLOGIA
Los avances en el área de la computación han ido
creciendo continuamente a ritmos acelerados
desde lo que para propósitos específicos
consideraremos a la primera computadora
eléctrica digital que fue obra del Dr. J.V. Atanasoff
y Dr. C.E. Berry , la Atanasoff Berry Computer fue
así la primera computadora electrónica y digital
automática que se usó con números y letras. Fue
construido por 1942 en la Iowa State University.
Esta foto de Autor desconocido está bajo licencia CC BY-SA

El problema seguía ahí, y era que esas computadoras solo eran de uso científico y se encontraban
en instituciones de educación superior para fines de investigación. Por su gran tamaño y
necesidad eléctrica ,era imposible llegar a pensar en tener una de esas en tu casa.
Hasta que, en 1947, los Físicos Walter Brattain, William Shockley y John Bardeen, de los
laboratorios Bell lograron el descubrimiento del transistor, ese dispositivo que permitió ahorrar
espacios y mejorar la eficiencia y tiempo en la computadora y sobre todo aumentar la memoria de
estas.
La creación del transistor marco una nueva era que llamaremos “era del silicio” ,propicio que se
crearan lenguajes de programación mas completos debido a que ya se contaba con una mayor
capacidad en la memoria del dispositivo, y además surgió una empresa que años después tomaría
un peso importante en la historia y seria Intel Corporation que nace en 1968 en California E.U.
como fabricante de circuitos integrados.
En 1971,tres años después de su fundación Intel Co. creo un invento revolucionario para las
futuras generaciones y este fue el microprocesador ,fue el Intel 4004 y fue elaborado para una
calculadora tal fue el
éxito que tan solo un
a; o después en 1972
saco al mercado el
primer
microprocesador de
8BITS que fue el
Intel 8008 para su
uso en terminales
informáticos.

Autor Desconocido bajo licencia CC BY-SA


LEY DE MOORE
El cofundador de la compañía mas grande de microprocesadores Intel, afirmo en 1965, que el número de
transistores por centímetro cuadrado en un circuito integrado se duplicaba cada año y que la tendencia
continuaría durante las siguientes dos décadas. (Revesita UNAM,2005)
Esa afirmación fue corregida años mas tarde para postular que lo hoy conocemos como Ley de Moore y dice
“la densidad de transistores se duplicaría aproximadamente cada 18 meses.” ,esta progresión exponencial de
crecimiento en cantidad de transistores posibles por cm^2 ,es decir densidad de transistores, hace posible
duplicar la capacidad de los microprocesadores cada año y medio, es lo que se considera actualmente como
la Ley de Moore. En abril de 2005 se cumplieron 40 años de la ley de Moore y la industria de la
microelectrónica estima que seguirá siendo válida al menos otros 20 años.(Revista UNAM,2005)

Según la ley de Moore, cada dos años se duplica el número de transistores en un microprocesador. Dicha
percepción acabó convirtiéndose en una ley no matemática o física, sino en esa singular predicción (e
incluso reto tecnológico a lograr) que se ha ido cumpliendo en las últimas décadas “Los procesos de
producción y las litografías utilizadas en los últimos años han demostrado plantear un reto importante en este
sentido, y eso ha hecho que sea poco probable que la ley de Moore vaya a durar otros 55 años.” , así lo expreso
en el sitio Web de tecnología más influyente en LATAM Xataka.com .(Pastor,2020)
ARQUITECTURAS DE COMPUTACION
Harvard VS Von Neumann
Empezaremos definiendo ¿A que nos referimos con arquitectura en términos de computación?
Arquitectura de computación: Hace referencia al diseño conceptual y estructural, así como a los
detalles necesarios para que sea funcional, es decir, cubre sistemas informáticos,
microprocesadores, circuitos y programas del sistema.
Bus de datos: Sistema digital que transfiere datos entre los componentes de una computadora
Resaltan en la arquitectura de computadoras dos modelos muy conocidas que es el Modelo Von
Neumann , que trata a la computadora como una caja negra y define como se realiza el
procesamiento y lo divide en cuatro subsistemas: memoria, unidad lógica aritmética ,unidad de
control y entrada/salida. Por el otro lado tenemos a la arquitectura Harvard cuyo diferencial es la
división de instrucciones de los datos transferidos con el CPU y lo hace con dos memorias
separadas.
Modelo Von Neumann
La arquitectura de John Von Neumann se caracteriza en que los procesadores utilizan el mismo
dispositivo de almacenamiento para los datos como para las instrucciones. Eso quiere decir que
utiliza un único bus de datos para poder mantener contacto con la CPU. Esto crea una eficiencia en
la utilización de la memoria, pero al mismo tiempo requiere una ambigüedad para poder
reconocer y distinguir los datos. Los ordenadores que utilizan este modelo se componen por una
unidad aritmética lógica (ALU). Consecuencia de ello tienen el inconveniente que solamente puede llevar
datos o instrucciones en un determinado momento.
Es por ello por lo que en las computadoras actuales las memorias almacenan en ellas tanto un
programa como sus datos correspondientes. Lo que implica que ambos, datos y programas, deban
tener el mismo formato porque se almacena en memoria. Los cuales se guardan como una
secuencia de unos y ceros.

Arquitectura Von Neumann ,Compilando Conocimiento, Licencia CC BY-SA


Modelo Harvard
Este modelo, que podemos encontrar en los microcontroladores PIC, tiene la unidad central de
proceso (CPU) conectada a dos memorias (una con las instrucciones y otra con los datos) por
medio de dos buses diferentes. Esta arquitectura perite llevar simultáneamente datos e
instrucciones por lo que se tiene una mayor rapidez.

Arquitectura Harvard , Compilando Conocimiento , Licencia CC BY-SA

Una de las memorias contiene solamente las instrucciones del programa (Memoria de Programa),
y la otra sólo almacena datos (Memoria de Datos). Ambos buses son completamente distintos lo
que permite que la CPU pueda acceder de forma singular y simultánea a la memoria de datos y a
su vez a una lista de instrucciones. Como los buses son independientes éstos pueden tener
distintos contenidos en la misma dirección y también distinta longitud. (Compilando
Conocimiento,2012).
Aprovechar esa ventaja hace que, al ser los bus de datos independientes, la CPU puede acceder a
los datos para completar la ejecución de una instrucción, y al mismo tiempo leer la siguiente
instrucción a ejecutar.
Comparación

Cuadro comparativo (CIECFE,2008)


CPU, sus componentes principales y características
Lo podremos definir como el
dispositivo que controla el
funcionamiento de la computadora y
lleva a cabo sus funciones de
procesamiento de datos. (Stallings,
2018, pág. 32)
Es decir, el procesador ,prácticamente el
cerebro de la computadora debido a que
controla el funcionamiento de los
elementos de esta. Desde que el sistema
es encendido, este no deja de procesar
información hasta que se corta dicha
alimentación. La CPU es la parte más
importante del procesador, debido a que
es utilizado para realizar todas las
operaciones y cálculos del computador. ICPU , Stallings , Computer Organization And Architecture . ,Licensee CC BY-SA

Unidad de Control (UC): La unidad de control se encarga de leer y ejecutar la información que se
encuentra en memoria y de secuenciar el acceso a los datos y operaciones a realizar por la unidad
de proceso. La UC genera las señales de control que establecen el flujo de datos en todo el
computador e interno en la CPU. Una instrucción no es más que una combinación de unos y ceros.
Unidad Aritmética Lógica o ALU (Arithmetic Logic Unit): Es la parte de la CPU encargada de
realizar las transformaciones de los datos. Gobernada por la UC, la ALU consta de una serie de
módulos que realizan operaciones aritméticas y lógicas.
Registros Internos: Almacenar los resultados y llevarlos a la ejecución de las instrucciones en la
memoria principal se tornaría lento y saturaríamos la conexión con la memoria, así que
tendríamos repercusiones con el rendimiento. Para solucionar el problema el CPU cuenta con
registros internos:
> Contador de programa.- se encarga de almacenar la dirección de la siguiente instrucción a
ejecutar.
> Registro de Instrucción.- se almacena la instrucción capturado en memoria y la que se está
ejecutando.
> Registro de Estado.- compuesto por una serie de bits que informan el resultado obtenido en la
última operación de la ALU.
CONCLUSION
Los conceptos de computadora han ido cambiando a lo largo del tiempo ,pero sin duda la
revolución que esta vigente hasta nuestros tiempos y sostiene a toda la tecnología actual es la
invención del transistor y la llamada “era del Silicio” .
Es fundamental conocer las arquitecturas debido a que cada una tiene un propósito diferente
acorde a sus ventajas ,Neumann nos ofrece ejecuciones secuenciales de las ordenes y Harvard nos
ofrece almacenar datos en chaces separados y minimizar el tiempo de ejecución.

FUENTES
Cheang, J. C. (2005). LEY DE MOORE, NANOTECNOLOGÍA y NANOCIENCIAS. UNAM, 6(7), 12-20.
http://www.revista.unam.mx/vol.6/num7/art65/jul_art65.pdf

Hayes, J. P. (1988). Arquitectura y organización de computadoras (Serie McGraw-Hill en


organización y arquitectura de computadora) (2nd ed.). Mcgraw-Hill College.

Stallings, W. (2018). Computer Organization And Architecture, (8th ed.). Pearson.

Vázquez, J. B. (2012). Arquitectura de computadoras I (1st ed.) [Libro electrónico]. Red Tercer
Milenio S.C.
http://www.aliat.org.mx/BibliotecasDigitales/sistemas/Arquitectura_computadoras_I.pdf

Pastor, J. (2020, 21 septiembre). Antes teníamos la ley de Moore, ahora tenemos la «ley de Huang»
que perfila el futuro de NVIDIA y ARM. Xataka. https://www.xataka.com/robotica-e-ia/antes-
teniamos-ley-moore-ahora-tenemos-ley-huang-que-perfila-futuro-nvidia-arm

Unidad 1. Introducción a la Arquitectura de Computadoras - Arquitectura de Computadoras. (s. f.).


Universidad Veracruzana. Recuperado 12 de octubre de 2020, de
https://sites.google.com/site/computadorasarquitectura/home/unidad1

También podría gustarte