Componente Teórico Taller Unidad 1 Actividades

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 59

COMPONENTE TEÓRICO TALLER UNIDAD 1 ACTIVIDADES.

Consultar acerca de:


1. El MARK I tuvo mejoras en el MARK II, MARK III Y MARK IV. Averiguar en qué
consistieron esas mejoras.
2. Realice un cuadro de la evolución de los microprocesadores a partir del
microprocesador Z80.
3. 4. 5. 6. 7. 8. 9. 10. 11. Evolución de los computadores. Criterios para clasificar los
computadores y los tipos de computadores. Los cuatro (4) niveles de Visualización del
Hardware Arquitectura Vonn Neumann. Por qué es importante? Tecnologías de
impresión Ventajas del puerto USB y los dispositivos USB Otras arquitecturas de
computadores Sistemas Operativos Software de Aplicación
12. ¿En qué consiste el sistema binario? ¿Para qué lo utiliza la máquina? ¿Qué otros
sistemas numéricos maneja la máquina?
13. La Tecnología Inalámbrica.
14. Sobre los portátiles se ha hablado demasiado en esta época realice una evaluación
de estas máquinas en cuanto precios, características etc.
15. Realice un estudio sobre las tarjetas flash, sobre las memorias, tarjetas gráficas,
tarjetas de sonido, teatros caseros y monitores.
16. Los conceptos de software Monousuario al igual que de Software multiusuario.
17. Clases de software y Licencias más comunes.
18. Realice un cuadro de la evolución del Software iniciando si es posible con el
sistema operativo CPM o si no por lo menos a partir de Microsoft DOS hasta la
actualidad Windows Vista incluya en este estudio software para otras arquitecturas.
19. Las patentes de Software. 
20. Hoy en día existen multitud de alternativas en el campo del Software para casi el
100 % de las tareas necesarias. Incluya una tabla con soluciones en plataformas
propietarias y sus alternativas en entornos libres para los siguientes programas:
Herramienta Navegador, Suite ofimática, Procesador de textos, Hoja de cálculo,
Gráficos y dibujo, Creación presentaciones, Gestor de finanzas Personales, Gestión de
Proyectos, Base de Datos, Servidor web.
21. Existen leyes para la protección de Software? Que documentos se pueden consultar
sobre este aspecto? En que sitios en Internet puede consultar información sobre este
tópico?
22. Que es la Piratería de software y cuáles son sus aspectos jurídicos.
DESARROLLO TALLER UNIDAD 1 ACTIVIDADES. 1. El MARK I tuvo mejoras en el
MARK II, MARK III Y MARK IV. Averiguar en qué consistieron esas mejoras. MARK I. El
Harvard Mark I o Mark I fue el primer ordenador electromecánico construido en la
Universidad Harvard por Howard H. Aiken en 1944, con la subvención de IBM. Tenía
760.000 ruedas y 800 kilómetros de cable y se basaba en la máquina analítica de
Charles Babbage. El computador Mark I empleaba señales electromagnéticas para
mover las partes mecánicas. Esta máquina era lenta (tomaba de 3 a 5 segundos por
cálculo) e inflexible (la secuencia de cálculos no se podía cambiar); pero ejecutaba
operaciones matemáticas básicas y cálculos complejos de ecuaciones sobre el
movimiento parabólico de proyectiles. Funcionaba con relés, se programaba con
interruptores y leía los datos de cintas de papel perforado. Características: -- Medía
unos 15,5 metros de largo, unos 2,40 metros de alto y unos 60 centímetros de ancho,
pesaba aproximadamente unas cinco toneladas. Pero lo 
más impresionante fueron unas cubiertas de cristal que dejaban que se admirara toda
la maquinaria de su interior. -- La Mark I recibía sus secuencias de instrucciones
(programas) y sus datos a través de lectoras de cinta perforada de papel y los números
se transferían de un registro a otro por medio de señales eléctricas. -- Era una máquina
automática eléctrica. Era capaz de realizar 5 operaciones aritméticas (suma, resta,
multiplicación, división y referencia a resultados anteriores). -- El interior estaba
compuesto por 750.000 piezas de diferentes variedades (ruedas rotatorias para los
registros, relevadores…). -- Estaba compuesta de más de 1.400 interruptores rotatorios
de diez posiciones en el frente de la máquina para visualizar los valores de los registros
constantes que se le introducían. Pero además de los registros constantes la máquina
contenía 72 registros mecánicos. Cada unos de los registros mecánicos era capaz de
almacenar 23 dígitos, los dígitos que se usaban para el signo era un 0 para signo
positivo y un 9 para el signo negativo. -- La posición de la coma decimal estaba fija
durante la solución de un problema, pero podía ajustarse previamente de manera que
estuviera entre dos dígitos cualquiera. La máquina contaba también con mecanismos
que permitían efectuar cálculos de doble precisión (46 decimales), mediante la unión de
dos registros, en una forma análoga a la Máquina Analítica de Babbage.
Funcionamiento La Mark I se programaba recibiendo sus secuencias de instrucciones a
través de una cinta de papel, en la cual iban perforadas las instrucciones y números
que se transferían de un registro a otro por medio de señales eléctricas. Cuando la
máquina estaba en funcionamiento el ruido que producía era similar al que haría una
habitación llena de personas mecanografiando de forma sincronizada. El tiempo mínimo
de transferencia de un número de un registro a otro y en realizar cada una de sus
operaciones básicas (resta, suma, multiplicación y división) era de 0,3 segundos.
Aunque la división y la multiplicación eran más lentas. La capacidad de modificación de
la secuencia de instrucciones en base a los resultados producidos durante el proceso
de cálculo era pequeño. La máquina podía escoger de varios algoritmos para la
ejecución de cierto cálculo. Sin embargo, para cambiar de una secuencia de
instrucciones a otra era costoso, ya que la máquina se tenía que detener y que los
operarios cambiaran la cinta de control. Por tanto, se considera que la Mark I no tiene
realmente saltos incondicionales. Aunque, posteriormente se le agregó lo que fue
llamado 
Mecanismo Subsidiario de Secuencia (era capaz de definir hasta 10 subrutinas, cada
una de las cuales podía tener un máximo de 22 instrucciones), que estaba compuesto
de tres tablones de conexiones que se acompañaban de tres lectoras de cinta de papel.
Y se pudo afirmar que la Mark I, podía transferir el control entre cualquiera de las
lectoras, dependiendo del contenido de los registros. MARK II: era un ordenador, pero
no tal y, como lo entendemos hoy en día, sino como los grandes ordenadores de
entonces (la década de los 50). Medía unos 5 metros de largo por 2 de alto. Estaba
valorado en 500.000 dólares, para la época una cifra tremendamente elevada (aún lo es
hoy). El Mark II (ahora conocido también como sintetizador Olson-Belar en honor de sus
diseñadores), en 1959 fue donado a la Columbia Princeton Electronic Music Center de
Nueva York, donde todavía (2005) está en funcionamiento. HARVARD MARK III: fue un
equipo electromecánico construido en la Universidad de Harvard bajo la dirección de
Howard Aiken y se terminó en 1947. Fue financiado por la Marina de los Estados
Unidos. 

El Mark II fue construido con relés electromagnéticos de alta velocidad en lugar de los
contadores electromecánicos utilizados en el Mark I, por lo que es mucho más rápido
que su predecesor. Su tiempo de adición fue de 125.000 microsegundos y el tiempo de
multiplicación fue 750.000 microsegundos (esto fue un factor de 2,6 y un factor de ocho
más rápido, respectivamente, en comparación con el Mark I). 

Fue el segundo equipo (después de los Laboratorios Bell de Enlace calculadora) para
tener un hardware de punto flotante. Una característica única del Mark II es que se
había incorporado en el hardware para varias funciones tales como la raíz de
reciprocidad, cuadrado, logaritmo, exponencial, y algunas de las funciones
trigonométricas. Estos tomaron entre cinco y doce segundos en ejecutarse. El Mark II
no era una computadora con programa almacenado - se lee una instrucción de un
programa a la vez de una cinta y lo ejecutó (como el Mark I). 

Esta separación de datos y las instrucciones que se conoce como la arquitectura de


Harvard. El Mark II tenía un peculiar método de programación que se diseñó para
garantizar que el contenido de un registro estaban disponibles cuando sea necesario.
La cinta que contiene el programa puede codificar sólo ocho instrucciones, así que lo
que un código de instrucción particular significado depende de cuando fue ejecutado.
Cada segundo se divide en varios períodos, y una instrucción de código puede
significar diferentes cosas en diferentes períodos. Un Además se pudo iniciar en
cualquiera de los ocho períodos en el segundo, una multiplicación se podría iniciar en
cualquiera de los cuatro períodos de la segunda, 
y una transferencia de datos se pudo iniciar en cualquiera de los doce períodos
parciales de la segunda. Aunque este sistema funcionó, se hizo la programación
complicada, y redujo la eficiencia de la máquina un poco. El Mark II corrió algunos
programas de prueba realistas en julio de 1947. Fue entregado a los EE.UU. Marina
Proving Ground en Dahlgren, Virginia en 1947 o 1948. 

HARVARD MARK IV: El Harvard Mark IV fue una electrónica de programa almacenado
computadora construida por la Universidad de Harvard bajo la supervisión de Howard
Aiken para la Fuerza Aérea de Estados Unidos . El equipo terminó siendo construida en
1952. Se quedó en Harvard, donde la Fuerza Aérea se utiliza ampliamente. El Mark IV
era electrónico. El Mark IV utiliza tambor magnético y tenía 200 registros de ferrita
memoria de núcleo magnético (una de las primeras computadoras para hacerlo). Se
separa el almacenamiento de datos y las instrucciones en lo que se conoce como la
arquitectura de la Universidad de Harvard. 2. Realice un cuadro de la evolución de los
microprocesadores a partir del microprocesador Z80. La evolución del microprocesador
El microprocesador es un producto de la computadora y la tecnología semiconductora.
Su desarrollo se eslabona desde la mitad de los años 50; estas tecnologías se
fusionaron a principios de los años 70, produciendo el llamado microprocesador. La
computadora digital hace cálculos bajo el control de un programa. La manera general
en que los cálculos se han hecho es llamada la arquitectura de la computadora digital.
Así mismo la historia de circuitos de estado sólido nos ayuda también, porque el
microprocesador es un circuito con transistores o microcircuito LSI (Alta escala de
integración) Las dos tecnologías iniciaron su desarrollo desde la segunda guerra
mundial; en este tiempo los científicos desarrollaron computadoras especialmente para
empleo militar. Después de la guerra, a mediados del año de 1940 la computadora
digital fue desarrollada para propósitos científicos y civiles. La tecnología de circuitos
electrónicos avanzó y los científicos hicieron grandes progresos en el diseño de
dispositivos físicos de Estado Sólido. En 1948 en los laboratorios Bell crearon el
Transistor. En los años 50, aparecen las primeras computadoras digitales de propósito
general. Éstas usaban tubos al vacío o bulbos como componentes electrónicos activos.
Tarjetas o módulos de tubos al vacío fueron usados para construir 
circuitos lógicos básicos tales como compuertas lógicas y flip-flops (Celda donde se
almacena un bit). Ensamblando compuertas y flip-flops en módulos, los científicos
construyeron la computadora (la lógica de control, circuitos de memoria, etc.). Los tubos
de vacío también formaron parte de la construcción de máquinas para la comunicación
con las computadoras. Para el estudio de los circuitos digitales, en la construcción de
un circuito sumador simple se requiere de algunas compuertas lógicas. La construcción
de una computadora digital requiere de muchos circuitos o dispositivos electrónicos. El
principal paso tomado en la computadora fue hacer que el dato fuera almacenado en
memoria como una forma de palabra digital. La idea de almacenar programas fue muy
importante. La tecnología de los circuitos de estado sólido evolucionó en la década de
los años 50. El empleo del silicio, de bajo costo y con métodos de producción masiva,
hicieron al transistor ser el más usado para el diseño de circuitos. Por lo tanto el diseño
de la computadora digital fue un gran avance del cambio para reemplazar al tubo al
vacío por el transistor a finales de los años 50. A principios de los años 60, el arte de la
construcción de computadoras de estado sólido se incrementó y surgieron las
tecnologías en circuitos digitales como: RTL (Lógica Transistor Resistor), DTL (Lógica
Transistor Diodo), TTL (Lógica Transistor Transistor), ECL (Lógica Complementada
Emisor). A mediados de los años 60 se producen las familias de lógica digital,
dispositivos en escala SSI y MSI que corresponden a baja y mediana escala de
integración de componentes en los circuitos de fabricación. A finales de los años 60's y
principios de los años 70 surgieron los sistemas a alta escala de integración o LSI. La
tecnología LSI fue haciendo posible más y más circuitos digitales en un circuito
integrado. Sin embargo, pocos circuitos LSI fueron producidos, los dispositivos de
memoria fueron un buen ejemplo. Las primeras calculadoras electrónicas requerían de
75 a 100 circuitos integrados. Después se dio un paso importante en la reducción de la
arquitectura de la computadora a un circuito integrado simple, resultando un circuito que
fue llamado el microprocesador, unión de las palabras "Micro" del griego μικρο-,
"pequeño" y procesador. Sin embargo, es totalmente válido usar el término genérico
procesador, dado que con el paso de los años, la escala de integración se ha visto
reducida de micrométrica a nanométrica 
 

El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló


originalmente para una calculadora, y resultaba revolucionario para su época. Contenía
2.300 transistores en un microprocesador de 4 bits que sólo podía realizar 60.000
operaciones por segundo. 

 
 

El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1972 para su


empleo en terminales informáticos. El Intel 8008 contenía 3300 transistores. El primer
microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el
Intel 8080 de 8 bits, que contenía 4500 transistores y podía ejecutar 200.000
instrucciones por segundo. Los microprocesadores modernos tienen una capacidad y
velocidad mucho mayores, acercándose a 800 millones de transistores, como es en el
caso de las serie Core i7 

  

  

 

Breve Historia de los Microprocesadores 

~~~1971: MICROPROCESADOR 4004 El 4004 fue el primer microprocesador de Intel.


Este descubrimiento impulsó la calculadora de Busicom y pavimentó la manera para
integrar inteligencia en objetos inanimados así como la computadora personal. El
pionero de actuales microprocesadores 4004 de Intel. los el 

~~~1972: MICROPROCESADOR i8008 Codificado inicialmente como 1201, fue pedido


a Intel por Computer Terminal Corporation para usarlo en su terminal programable
Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía
con las expectativas de Computer Terminal Corporation, finalmente no fue usado en el
Datapoint 2200. Posteriormente Computer Terminal Corporation e Intel acordaron que
el i8008 pudiera ser vendido a otros clientes. 

~~~1974: MICROPROCESADOR 8080 


Los 8080 se convirtieron en los cerebros de la primera computadora personal la Altair
8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial
"Starship" del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la
base para las máquinas que corrían el sistema operativo CP/M. Los fanáticos de las
computadoras podían comprar un equipo Altair por un precio (en aquel momento) de
$395. En un periodo de pocos meses, vendió decenas de miles de estas computadoras
personales. ~~ZILOG Z80 (Z80) ~~ 

Es un microprocesador de 8 bits cuya arquitectura se encuentra a medio camino entre


la organización de acumulador y de registros de propósito general. Si consideramos al
Z80 como procesador de arquitectura de registros generales, se sitúa dentro del tipo de
registro-memoria. 

Fue lanzado al mercado en julio de 1976 por la compañía Zilog, y se popularizó en los
años 80 a través de ordenadores como el Sinclair ZX Spectrum, Amstrad CPC o los
ordenadores de sistema MSX. Es uno de los procesadores de más éxito del mercado,
del cual se han producido infinidad de versiones clónicas, y sigue siendo usado de
forma extensiva en la actualidad en multitud de sistemas embebidos. ~~~1978:
MICROPROCESADOR 8086-8088 Una venta realizada por Intel a la nueva división de
computadoras personales de IBM, hizo que los cerebros de IBM dieran un gran golpe
comercial con el nuevo producto para el 8088, el IBM PC. El éxito del 8088 propulsó a
Intel en la lista de las 500 mejores compañías de la prestigiosa revista Fortune, y la
revista nombró la compañía como uno de Los triunfos comerciales de los sesenta. 
~~~1982: MICROPROCESADOR 286 El 286, también conocido como el 80286, era el
primer procesador de Intel que podría ejecutar todo el software escrito para su
predecesor. Esta compatibilidad del software sigue siendo un sello de la familia de Intel
de microprocesadores. Luego de 6 años de su introducción, había un Imagen de un
Intel 80286, estimado de 15 millones de 286 basados en mejor conocido como
computadoras personales instalados alrededor 286. del mundo. ~~~1985: EL
MICROPROCESADOR INTEL 386 El procesador Intel 386 ofreció 275 000 transistores,
más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de
32 bits, poseía capacidad multitarea, que significa que podría ejecutar múltiples
programas al mismo tiempo y una unidad de traslación de páginas, lo que hizo mucho
más sencillo implementar sistemas operativos que emplearan memoria virtual.
~~~1989: EL DX CPU MICROPROCESADOR INTEL 486 La generación 486 realmente
significó que el usuario contaba con una computadora con muchas opciones
avanzadas, entre ellas,un conjunto de instrucciones optimizado, una unidad de coma
flotante y un caché unificado integrados en el propio circuito integrado del
microprocesador y una unidad de interfaz de bus mejorada. Estas mejoras hacen que
los i486 sean el doble de rápidos que un i386 e i387 a la misma frecuencia de reloj. El
procesador Intel 486 fue el primero en ofrecer un coprocesador matemático integrado,
el cual acelera las tareas del micro, porque ofrece la ventaja de que las operaciones
matemáticas complejas son realizadas (por el coprocesador) de manera independiente
al funcionamiento del procesador central (CPU). ~~~1991: AMD AMx86 Procesadores
lanzados por AMD 100% compatible con los códigos de Intel de ese momento, ya que
eran clones, pero llegaron a superar incluso la frecuencia de reloj de los procesadores
de Intel a precios significativamente menores. Aquí se incluyen las series: 
Amx86 series (1991–95) Am386 (1991) Am486 (1993) Am5x86 (a 486-class µP) (1995)
~~~1993: PROCESADOR DE PENTIUM El procesador de Pentium poseía una
arquitectura capaz de ejecutar dos operaciones a la vez gracias a sus dos pipeline de
datos de 32bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a
486SX(u). Además, poseía un bus de datos de 64 Imagen de un Intel 80486, bits,
permitiendo un acceso a memoria 64 bits conocido también como (aunque el
procesador seguía manteniendo 486SX de 33Mhz. compatibilidad de 32 bits para las
operaciones internas y los registros también eran de 32 bits). Las versiones que
incluían instrucciones MMX no únicamente brindaban al usuario un mejor manejo de
aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD, sino que se
ofrecían en velocidades de hasta 233 MHz, incluyendo una versión de 200 MHz y la
más básica proporcionaba unos 166 MHz de reloj. El nombre Pentium, se mencionó en
las historietas y en charlas de la televisión a diario, en realidad se volvió una palabra
muy popular poco después de su introducción. ~~~1995: PROCESADOR PENTIUM
PROFESIONAL Lanzado al mercado para el otoño de 1995 el procesador Pentium Pro
se diseña con una arquitectura de 32 bits, su uso en servidores, los programas y
aplicaciones para estaciones de trabajo (redes) impulsan rápidamente su integración en
las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium
Pro a menudo iba más despacio que un Pentium cuando ejecutaba código o sistemas
operativos de 16 bits. Cada procesador Pentium Pro estaba compuesto por unos 5,5
millones de transistores. 

La parte de posterior de un Pentium Pro. Este chip en particular es uno de 200MHz, con
256KB de cache L2. 
~~~1996: AMD K5 Habiendo abandonado los clones se fabricada AMD de tecnologías
análogas a Intel. AMD sacó al mercado su primer procesador propio, el K5, rival del
Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del
Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con
una Unidad x86decodificadora que transforma todos los comandos x86 de la aplicación
en comandos RISC. Este principio se usa hasta hoy en todos los CPUs x86. En todos
los aspectos era superior el K5 al Pentium, sin embargo AMD tenía poca experiencia en
el desarrollo de microprocesadores y los diferentes hitos de producción marcados se
fueron superando sin éxito y fué retrasado 1 año de su salida, a razón de éste retraso,
sus frecuencias de trabajo eran inferiores a la competencia y por tanto, los fabricantes
de PC dieron por hecho que era peor. ~~~1997: PROCESADOR PENTIUM II El
procesador de 7,5 millones de transistores Pentium II, se busca entre los cambios
fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de
código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché
de segundo nivel del Un procesador Pentium núcleo del procesador, colocándola en
una tarjeta de II, se puede observar su circuito impreso junto a éste. Gracias al nuevo
estilo de zocket diferente. diseño de este procesador, los usuarios de PC pueden
capturar, pueden revisar y pueden compartir fotografías digitales con amigos y familia
vía Internet; revisar y agregar texto, música y otros; con una línea telefónica, el enviar
video a través de las líneas normales del teléfono mediante el Internet se convierte en
algo cotidiano. 
~~~1996: AMD K6 Y AMD K6-2 Con el K6, AMD no sólo consiguió hacerle seriamente
la competencia a Intel en el terreno de los Pentium MMX, sino que además amargó lo
que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un
procesador que casi se pone a la altura del mismísimo Pentium II por un precio muy
inferior a sus análogos. En cálculos en coma flotante, el K6 también quedó por debajo
del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una gama
que va desde los 166 hasta los mas de 500 Mhz y con el juego de instrucciones MMX,
que ya se han convertido en estándar. Más adelante lanzó una mejora de los K6, los
K6-2 a 250 nanómetros, para seguir compitiendo con lso Pentium II, siéndo éste último
superior en tareas de coma flotante, pero inferior en tareas de uso general. Se
introducen un juego de instrucciones SIMD denominado 3DNow! ~~~1998: EL
PROCESADOR PENTIUM II XEON Los procesadores Pentium II Xeon se diseñan para
cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores
más potentes y estaciones de trabajo (workstations). Consistente con la estrategia de
Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los
mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas
diseñadas para las estaciones de trabajo (workstations) y servidores que utilizan
aplicaciones comerciales exigentes como servicios de Internet, almacenaje de datos
corporativo, creaciones digitales y otros. Pueden configurarse sistemas basados en el
procesador para integrar de cuatro o ocho procesadores y más allá de este número.
~~~1999: EL PROCESADOR CELERON Continuando la estrategia de Intel, en el
desarrollo de procesadores para los segmentos del mercado específicos, el procesador
Intel Celeron es el nombre que lleva la línea de procesadores de bajo coste de Intel. El
objetivo era poder, mediante ésta segunda marca, penetrar en los mercados impedidos
a los Pentium, de mayor rendimiento y precio. Se diseña Imagen de un procesador 
"Coppermine para el añadir valor al segmento del mercado de los Celeron PC.
Proporcionó a los consumidores una gran 128" 600 MHz. actuación a un bajo coste, y
entregó un desempeño destacado para usos como juegos y el software educativo. 

~~~1999: AMD THUNDERBIRD) 

ATHLON 

K7 

(CLASSIC 

Procesador compatible con la arquitectura x86. Internamente el Athlon es un rediseño


de su antecesor, al que se le mejoró substancialmente el sistema de coma flotante
(ahora son 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le
aumentó la memoria caché de primer nivel (L1) a 128 KB (64 KB para datos y 64 KB
para instrucciones). Además incluye 512 KB de caché de segundo nivel (L2). El
resultado fue el procesador x86 más potente del momento El procesador Athlon con
núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su
predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de
fabricación usado para todos estos microprocesadores es de 180 nanómetros El Athlon
Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de
microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al
Pentium III y a los primeros Pentium IV de Intel a la misma velocidad de reloj) y bajo
precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la
informática. ~~~1999: PROCESADOR PENTIUM III El procesador Pentium III ofrece 70
nuevas instrucciones (Internet Streaming, las extensiones de SIMD las cuales refuerzan
dramáticamente el desempeño con imágenes avanzadas, 3D, añadiendo una mejor
calidad de audio, video y desempeño en aplicaciones de reconocimiento de Imagen de
un procesador voz. Fue diseñado para reforzar el área del Pentium III de Intel.
desempeño en el Internet, le permite a los usuarios 
hacer cosas, tales como, navegar a través de páginas pesadas (llenas de gráficas)
como las de los museos online, tiendas virtuales y transmitir archivos video de alta
calidad. El procesador incorpora 9,5 millones de transistores, y se introdujo usando en
él la tecnología 250 nanómetros. 

~~~1999: EL PROCESADOR PENTIUM III XEON El procesador Pentium III Xeon


amplia las fortalezas de Intel en cuanto a las estaciones de trabajo (workstation) y
segmentos de mercado de servidor y añade una actuación mejorada en las
aplicaciones del comercio electrónico y la informática comercial avanzada. Los
procesadores incorporan tecnología que refuerzan los multimedios y las aplicaciones de
video. La tecnología del procesador III Xeon acelera la transmisión de información a
través del bus del sistema al procesador, mejorando la actuación significativamente. Se
diseña pensando principalmente en los sistemas con configuraciones de
multiprocesador. ~~~2000: PENTIUM 4 El Pentium 4 es un microprocesador de séptima
generación basado en la arquitectura x86 y fabricado por Intel. Es el primer
microprocesador con un diseño completamente nuevo desde el Pentium Pro. Se
estreno la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la
anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor
cantidad de ciclos por segundo y una mejora en las instrucciones SSE. ~~~2001:
ATHLON XP Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el
Athlon Thunderbird no estaba a su nivel. Además no era práctico para el overclocking,
entonces para seguir estando a la cabeza en cuanto a rendimiento de los procesadores
x86, AMD tuvo que diseñar un nuevo núcleo, por eso sacó el Athlon XP.
Compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto al
Thunderbird podemos mencionar la prerrecuperación 
de datos por hardware, conocida en inglés como prefetch, y el aumento de las entradas
TLB, de 24 a 32. 

~~~2004: PENTIUM 4 (PRESCOTT) A principios de febrero de 2004, Intel introdujo una


nueva versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su
manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su
diferencia con los anteriores es que éstos poseen 1 MB o 2 MB de caché L2 y 16 KB de
caché L1 (el doble que los Northwood), Prevención de Ejecución, SpeedStep, C1E
State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones
AMD64, de 64 bits creadas por AMD, pero denominadas EM64T por Intel, sin embargo
por graves problemas de temperatura y consumo, resultaron un fracaso frente a los
Athlon 64. ~~~2004: ATHLON 64 El AMD Athlon 64 es un microprocesador x86 de
octava generación que implementa el conjunto de instrucciones AMD64, que fueron
introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de
memoria en el propio circuito integrado del microprocesador y otras mejoras de
arquitectura que le dan un mejor rendimiento que los anteriores Athlon y Athlon XP
funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits.El
Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador
llamada Cool'n'Quiet,. Cuando el usuario está ejecutando aplicaciones que requieren
poco uso del procesador, la velocidad del mismo y su tensión se reducen. 
~~~2006: INTEL CORE Y CORE 2 DUO Intel lanzó ésta gama de procesadores de
doble núcleo y CPUs 2x2 MCM (Módulo Multi-Chip) de cuatro núcleos con el conjunto
de instrucciones x8664, basado en el la nueva arquitectura Core de Intel. La
microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del
procesador de ambos ciclos de velocidad y energía comparados con anteriores
NetBurst de los CPUs Pentium 4/D2 La microarquitectura Core provee etapas de
decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el
consumo de energía de CPUs Core 2, mientras se incrementa la capacidad de
procesamiento. Los CPUs de Intel han variado muy bruscamente en consumo de
energía de acuerdo a velocidad de procesador, arquitectura y procesos de
semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de
procesadores fueron fabricados de 65 a 45 nanómetros. ~~~2007: AMD PHENOM
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera
generación de procesadores de tres y cuatro núcleos basados en la microarquitectura
K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros
lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante,
Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de
45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso
inteligente de energía y recursos del sistema, listos para la virtualización, generando un
óptimo rendimiento por vatio. Todas las CPUs Phenom poseen características como
controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de
coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos
de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan
un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de
16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología
HyperTransport, de manera que las escalas de rendimiento mejoren con 
el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los
datos (y así no depender tanto de la propia latencia de la RAM), además de
compatibilidad de infraestructura de los socket AM2, AM2+ y AM3 para permitir un
camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el
rendimiento de la serie Core 2 Duo. 

~~~2008: INTEL CORE NEHALEM Intel Core i7 es una familia de procesadores de


cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros
procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la
familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (socket
1366), y sustituido a su vez en i7, i5 e i3 (socket 1156) por el DMI eliminado el
northBrige e implementando puertos PCI Express directamente. Memoria de tres
canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias
DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis
ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de
tres, no dos. El Hyperthreading fue reimplementado creando nucleos lógicos. Está
fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su
versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los
consumos se dispararon. 
~~~2008: AMD PHENOM II Y ATHLON II Phenom II es el nombre dado por AMD a una
familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la
cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso
de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho,
ésta se incrementó de una manera generosa, pasando de los 2 MB del Phenom original
a 6 MB. ~~~2010: INTEL CORE SANDY BRIDGE Los próximos procesadores de Intel
de la familia core ~~~2011: AMD BULLDOZER Los próximos procesadores de AMD de
la familia Fusion 

3. 

Evolución de los computadores. 

Historia de la Computación Antes del primer computador Desde el principio del tiempo
los hombres siempre han inventado cosas para que la vida fuera más cómoda. Hace
50.000 años, el hombre primitivo aprendió a hacer fuego para obtener calor. Hace 5.000
años, alguien inventó la rueda para poder mover objetos con más facilidad. Hace unos
4.000 años, los chinos inventaron un objeto para solucionar mejor los problemas de
matemáticas: el ábaco. El ábaco no podía realizar la mayor parte de las tareas que
realiza un computador, pero sí hacía algo importante que hacen los computadores: con
él se resolvían los problemas de matemáticas más fácilmente. Ya en el siglo XVII, en
1641, un francés llamado Blaise Pascal hizo un aporte importante para la historia del
computador, inventó una máquina de sumar, a la que dio el nombre de Pascalina.
Podía sumar y restar largas columnas de números sin cometer ningún error.(cfr.
Marquès, P. et al. "Cómo introducir y utilizar el ordenador en la clase". p. 16.) Unos
años más tarde, un alemán llamado Gottfried Leibnitz mejoró la máquina de Pascal:
inventó una calculadora. Aparte de sumar y restar, también podía 
multiplicar, dividir, y hallar la raíz cuadrada de un número. Se accionaba manualmente.
(cfr. Tison, C. et al. "Guía para niños sobre ordenadores". p. 3.) Casi doscientos años
más tarde apareció otro invento importante. Era un telar automático, inventado en 1801
por Joseph-Marie Jacquard. El telar utilizaba información codificada para fabricar la tela.
Esta nueva máquina entrelazaba los hilos mientras se pedaleaba. Jacquard hizo unos
agujeros en una tarjetas y las juntó para hacer una secuencia. El telar tomaba
información de los cartones y la usaba para fabricar los tejidos. (cfr. Idem. pp. 3 - 4) En
1833, Charles Babbage y Lady Augusta Ada Byron, la Condesa de Lovelace,
empezaron a trabajar juntos en un invento al que llamaron calculadora analítica.
Querían que funcionase por sí sola, sin que nadie la accionara. Buscaron la manera de
dar información a la máquina, que hiciera algo con ésta y que devolviera otra
información. En 1839, Babbage se dedicó por entero a trabajar en pequeñas
computadoras. Lovelace ya había completado sus teorías sobre cómo dar instrucciones
al computador. Ninguno de los dos llegó a construir esta máquina. Hacían falta miles de
pequeñas piezas construidas a la perfección, y en el siglo XIX no había herramientas
que fabricasen piezas tan pequeñas y perfectas. La calculadora no se finalizó nunca. 

El Primer Computador Cada diez años, el gobierno de Estados Unidos hace un censo.
En 1880, el gobierno empezó uno, pero había tanta gente en Estados Unidos, que
tardaron 8 años en contarlos a todos y en poner información sobre dónde vivían y a qué
se dedicaban. Ocho años era demasiado tiempo, así que el gobierno celebró un
concurso para encontrar una manera mejor de contar gente. Herman Hollerith inventó
una máquina denominada máquina tabuladora. Esta máquina ganó el concurso, y el
gobierno la usó en el censo de 1890. La máquina de Herman usaba tarjetas perforadas,
y cada agujero significaba algo. Un agujero significaba que la persona estaba casada,
otro, que no lo estaba. Un agujero significaba que era de sexo masculino, otro, de sexo
femenino. La electricidad pasaba a través de los agujeros y encendía los motores, que
a su vez activaban los contadores. En 1890, sólo hicieron falta seis semanas para
realizar el primer recuento sencillo. El recuento completo se realizó en sólo dos años y
medio. 
La nueva máquina tabuladora de Herman se hizo famosa. Se vendieron copias a otros
países para que realizasen sus censos. Pero Herman no se paró en este invento.
Comenzó una empresa llamada International Business Machines. Hoy en día es una de
las empresas informáticas más grande del mundo: IBM. (cfr. Idem. pp. 9 - 10.) A
principios del siglo XX, muchas personas de todo el mundo inventaron computadores
que funcionaban de maneras similares a la máquina tabuladora. Hacían experimentos
para que funcionaran más rápido, y realizaran más tareas aparte de contar. 

La Primera Generación de Computadores Alan Turing, en 1937, desarrolló el primer


auténtico proyecto de un computador. En 1944, en la Universidad de Harvard, crearon
el primer calculador electromecánico, el Mark1. Era lento y poco fiable. En 1945, John
von Neumann concibió la idea de un computador que se manejaba mediante
instrucciones almacenadas en una memoria. Este concepto moderno de computador se
plasmó, en 1946, en un prototipo llamado ENIAC, en los Estados Unidos, a partir de
una iniciativa de las fuerzas armadas de ese país. Medía 30 metros de longitud, una
altura de 3 y una profundidad de 1. Utilizaba 18.000 válvulas, conectados a 70.000
resistencias, 10.000 condensadores y 6.000 interruptores. (cfr. Pentiraro, E. Op. cit., p.
2.) En 1951, la compañía Sperry Univac, comenzó la producción en serie del primer
computador electrónico, el UNIVAC I. Sperry introdujo dentro del UNIVAC la
información sobre las elecciones presidenciales estadounidenses de 1952. Antes de
que se anunciasen los resultados, UNIVAC ya había predicho que Dwight D.
Eisenhower ganaría las elecciones. A partir de ese momento todos los computadores
funcionarán según los principios de Von Neumann. 

La Segunda Generación de Computadores En 1948, un grupo de personas que


trabajaban en el laboratorio Bell dieron el primer paso hacia un computador pequeño y
fácil de usar, al crear el transistor. Un transistor controla la cantidad de energía eléctrica
que entra y sale por un cable. Sólo en 1958 se comenzaron a producir en serie los
primeros computadores que utilizaban este pequeño bloque de silicio. Este mineral es
un material 
semiconductor que contiene impurezas que alteran su conductividad eléctrica. Así, el
computador se vuelve más económico, más rápido y más compacto. 

La Tercera Generación de Computadores Entre finales de los años sesenta y principios


de los setenta se prepara otro importante cambio: el circuito integrado. Sobre una pieza
de silicio monocristalino de reducido tamaño se encajan piezas semiconductoras. (cfr.
Ídem, p. 6.) Se reducen los tamaños, aumentando la velocidad de proceso ya que se
requiere una menor cantidad de tiempo para abrir y cerrar los circuitos. La Cuarta
Generación de Computadores El circuito integrado se utilizó en los computadores hasta
mediados de los setenta. En 1971, una empresa norteamericana llamada Intel
desarrolló un proyecto de circuito integrado distinto, cuya característica fundamental era
la posibilidad de programarlo como un auténtico computador. De esta forma nace el
microprocesador. A partir de 1975 se produce una verdadera revolución con este
dispositivo de un par de centímetros de longitud. Las diferentes empresas construyen
computadores basándose en el chip de Intel. Cada vez más instituciones adquieren
computadores para optimizar sus procesos. El chip de silicio es más pequeño que una
moneda, pero contiene toda la información que el computador necesita para funcionar.
Esto hace que los computadores sean mucho más rápidos y que gasten menos
energía. 

Pero la historia de los computadores aún no ha terminado. Constantemente se están


introduciendo nuevos avances técnicos. Lo que conocemos hoy como computadores,
es posible que en el futuro no sea tal y estemos en presencia de tecnologías
inimaginables en este momento. Lo mismo que le sucedió a Babbage en el siglo
pasado. 4. Criterios para clasificar los computadores y los tipos de computadores. 

Tipos de computadores Teniendo en cuenta su construcción o su composición y


arquitectura interna, los computadores se pueden clasificar en analógicos y digitales. 
Computadores analógicos: Son aquellos computadores construidos con base en
circuitos físicos de tipo continuo y analógico. Sus programas se basan en alambrados
físicos o elementos eléctricos y tubos al vacío. Este tipo de computadores hizo parte de
las primeras generaciones y en la actualidad ya no se usan. Computadores digitales:
Son computadores construidos con base en circuitos lógicos e integrados y sus
respuestas son de tipo digital. Su programación se efectúa por medio de lenguajes de
programación y algoritmos. CLASIFICACIÓN DE LOS COMPUTADORES DE
ACUERDO AL TAMAÑO Dependiendo de la capacidad de procesamiento de la
información y de almacenamiento, estas máquinas se pueden clasificar en:
Supercomputadores: Son computadoras especiales de alta capacidad, utilizadas por
grandes instituciones y corporaciones, como por ejemplo la NASA, principalmente para
propósitos de investigaciones, exploración de petróleo, etc. Main - Frames: Son
máquinas de alta capacidad, diseñadas para procesar enormes volúmenes de
información. Pueden soportar gran cantidad de terminales. Minicomputadores:
Máquinas diseñadas para procesar medianos volúmenes de información. En la
actualidad se utilizan como servidores en configuración de redes locales. Normalmente
pueden usar varios procesadores en paralelo y grandes capacidades de memoria y
disco. Computadores Personales (PC): Son equipos compuestos básicamente de un
microprocesador, que se encarga de manejar todas las funciones de procesamiento.
Debido a su versatilidad, es la herramienta computacional más utilizada en la
actualidad. Estación de Trabajo (Workstations): Son poderosas microcomputadoras,
usadas fundamentalmente por ingenieros y científicos para trabajos especializados de
altos requerimientos en procesamiento, como por ejemplo el diseño gráfico.
Computadoras Portátiles: Son elementos de computo muy versátiles, debido a su
facilidad de manejo y de transporte y a su alta integración, lo cual les permite competir
con los PC. Asistente Personal Digital (PDA), Palm Top y Pocket PC: Son
computadoras de mano, muy pequeñas, dirigidas a usuarios móviles. Tienen buenas
capacidades de comunicación, por ejemplo para conectarse a Internet, y aplicaciones
como agenda, directorio de direcciones y teléfonos y calculadora. 
5. 

Los cuatro (4) niveles de Visualización del Hardware 

PDF PARA REVISAR 


6. Arquitectura Vonn Neumann. 

Por qué es importante? 

La arquitectura de von Neumann es una familia de arquitecturas de computadoras que


utilizan el mismo dispositivo de almacenamiento tanto para las instrucciones como para
los datos (a diferencia de la arquitectura Harvard). La mayoría de computadoras
modernas están basadas en esta arquitectura, aunque pueden incluir otros dispositivos
adicionales, (por ejemplo, para gestionar las interrupciones de dispositivos externos
como ratón, teclado, etc). Origen El nacimiento u origen de la arquitectura Von
Neumann surge a raíz de una colaboración en el proyecto ENIAC del matemático de
origen húngaro, John Von Neumann. Este trabajaba en 1945 en el laboratorio atómico
de Los Alamos cuando se encontró con uno de los constructores de la ENIAC.
Compañero de Albert Einstein, Goedel y Turing en Princeton, Von Neumann se interesó
por el problema de la necesidad de "recablear" la máquina para cada nueva tarea. En
1949 había encontrado y desarrollado la solución a este problema, consistente en poner
la información sobre las operaciones a realizar en la misma memoria utilizada para los
datos, escribiéndola de la misma forma, es decir en código binario. Su "EDVAC" fue el
modelo de las computadoras de este tipo construidas a continuación. Se habla desde
entonces de la "arquitectura de Von Neumann", aunque también diseñó otras formas de
construcción. El primer computador comercial construido en esta forma fue el UNIVAC
1, fabricado en 1951 por la Sperry-Rand Corporation y comprado por la Oficina del
Censo de Estados Unidos. Organización Los ordenadores con esta arquitectura
constan de cinco partes: La unidad aritmético-lógica o ALU, la unidad de control, la
memoria, un dispositivo de entrada/salida y el bus de datos que proporciona un medio
de transporte de los datos entre las distintas partes. Un ordenador con esta arquitectura
realiza o emula los siguientes pasos secuencialmente: 
1. Enciende el ordenador y obtiene la siguiente instrucción desde la memoria en la
dirección indicada por el contador de programa y la guarda en el registro de instrucción.
2. Aumenta el contador de programa en la longitud de la instrucción para apuntar a la
siguiente. 3. Decodifica la instrucción mediante la unidad de control. Ésta se encarga de
coordinar el resto de componentes del ordenador para realizar una función
determinada. 4. Se ejecuta la instrucción. Ésta puede cambiar el valor del contador del
programa, permitiendo así operaciones repetitivas. El contador puede cambiar también
cuando se cumpla una cierta condición aritmética, haciendo que el ordenador pueda
'tomar decisiones', que pueden alcanzar cualquier grado de complejidad, mediante la
aritmética y lógica anteriores. 5. Vuelve al paso 1. Origen de término Arquitectura Von
Neumann El término arquitectura de von Neumann se acuñó a partir del memorando
First Draft of a Report on the EDVAC (1945) escrito por el conocido matemático John
von Neumann en el que se proponía el concepto de programa almacenado. Dicho
documento fue redactado en vistas a la construcción del sucesor de la computadora
ENIAC y su contenido fue desarrollado por John Presper Eckert, John William Mauchly,
Arthur Burks y otros durante varios meses antes de que von Neumann redactara el
borrador del informe. Es por ello que otros tecnólogos como David A. Patterson y John
L. Hennessy promueven la sustitución de este término por el de arquitectura Eckert-
Mauchly.1 Desarrollo del concepto de programa almacenado El matemático Alan
Turing, quien había sido alertado de un problema de lógica matemática por las
lecciones de Max Newman en la Universidad de Cambridge, escribió un artículo en
1936 titulado “On Computable Numbers, with an Application to the Entscheidungs
problem”, que fue publicado en los “Proceedings of the London Mathematical Society”.
En él describía una máquina hipotética que llamó “máquina computadora universal”, y
que ahora es conocida como la “Máquina de Turing”. La máquina hipotética tenia un
almacenamiento infinito (memoria en la terminología actual) que contenía tanto las
instrucciones como los datos. El ingeniero alemán Konrad Zuse escribió de forma
independiente sobre este concepto en 1936. Von Neumann conoció a Turing cuando
ejercía de profesor sustituto en Cambridge en 1935 y también durante el año que Turing
pasó en la Universidad de Princeton en 1936-37. Cuando supo del artículo de 1936 de
Turing no está claro. 
Independientemente, J. Presper Eckert y John Mauchly, quienes estaban desarrollando
el ENIAC en la Escuela Moore de Ingeniería Eléctrica en la Universidad de
Pennsylvania, escribieron sobre el concepto de “programa almacenado” en diciembre
de 1943. Mientras diseñaba una nueva máquina, EDVAC, Eckert escribió en enero de
1944 que se almacenarían datos y programas en un nuevo dispositivo de memoria
direccionable, una línea de retardo de mercurio. Esta fue la primera vez que se propuso
la construcción de un programa almacenado práctico. Por esas fechas, no tenían
conocimiento del trabajo de Turing. Von Neumann estaba involucrado en el Proyecto
Manhattan en el Laboratorio Nacional Los Alamos, el cual requería ingentes cantidades
de cálculos. Esto le condujo al proyecto ENIAC, en Verano de 1944. Allí se incorporó a
los debates sobre el diseño de un ordenador con programas almacenados, el EDVAC.
Como parte del grupo, se ofreció voluntario a escribir una descripción de él. El término
“von Neumann architecture” surgió del primer artículo de von Neumann: “First Draft of a
Report on the EDVAC”, fechado el 30 de junio de 1945, el cual incluía ideas de Eckert y
Mauchly. Estaba inconcluso cuando su compañero Herman Goldstine lo hizo circular
con solo el nombre de von Neumann en él, para consternación de Eckert y Mauchly. El
artículo fue leído por docenas de compañero de trabajo de von Neumann en América y
Europa, e influenció la siguiente hornada de diseños de computadoras. Posteriormente,
Turing desarrolló un informe técnico detallado, “Proposed Electronic Calculator”,
describiendo el Motor de Computación Automático (Automatic Computing Engine,
ACE). Presentó éste al Laboratorio Nacional de Física Británico el 19 de febrero de
1946. A pesar de que Turing sabía por su experiencia de guerra en el Parque Bletchley
que su propuesta era factible, el secretismo mantenido durante muchas décadas acerca
de los ordenadores Colossus le impidió manifestarlo. Varias implementaciones exitosas
del diseño ACE fueron producidas. Los trabajos de ambos, von Neumann y Turing,
describían ordenadores de programas almacenados, pero al ser anterior el artículo de
von Neumann, consiguió mayor circulación y repercusión, así que la arquitectura de
computadoras que esbozó adquirió el nombre de “arquitectura von Neumann”. En 1945,
el profesor Neumann que estaba trabajando en la escuela Moore de ingeniería de
Filadelfia, donde el ENIAC había sido construido, emitió en nombre de un grupo de sus
compañeros de trabajo un informe sobre el diseño lógico de los ordenadores digitales.
El informe contenía una propuesta muy detallada para el diseño de la máquina que
desde entonces se conoce como el EDVAC (electronic discrete variable automatic
computer). Esta máquina ha sido recientemente completada en América, pero el
informe de Von Neumman inspiró la construcción de la EDSAC (electronic delay-
storage automatic calculator) en Cambridge. 
En 1947, Burks, Goldstine y Von Neumann, publicaron un informe en el que describen
el diseño de otro tipo de máquina (una máqina paralela en este momento) que debería
ser muy rápida, capaz de hacer 20.000 operaciones por segundo. Señalaron que el
problema persistente en la construcción de tal máquina estaba en el desarrollo de una
memoria adecuada, todos los contenidos de los cuales fueron instantáneamente
accesibles, y al principio se sugirió el uso de un tubo especial -llamado Selectron- que
había sido inventado por los laboratorios de Princeton de la RCA. Estos tubos son caros
y difíciles para fabricar, así Von Neumman decidió construir una máquina basada en la
memoria de Williams. Esa máquina que se completó en junio de 1952 en Princeton se
ha conocido como MANIAC I. El diseño de esta máquina que ha sido inspirado de una
docena o más de máquinas que están actualmente en construcción en América.
Calculo automático en el laboratorio nacional de física. Uno de los equipos digitales
más modernos que incorpora novedades y mejoras en la técnica de la computación
electrónica ha sido demostrado en el laboratorio nacional de física, Teddington, donde
ha sido diseñado y construido por un pequeño equipo de matemáticos e ingenieros
electrónicos investigadores sobre el personal del laboratorio, asistido por ingenieros de
producción de la compañía eléctrica inglesa. El equipo construido hasta ahora en el
laboratorio es solo el modelo piloto de muchas instalaciones muy grandes que se va a
conocer como el motor de cálculo automático, pero aunque es relativamente pequeño
en volumen y contiene solo 800 válvulas termoiónicas, es una máquina de cálculo muy
rápido y versátil. Los conceptos básicos y principios abstractos de la computación por
una máquina fueron formuladas por el Dr A. M. Turing, pero el trabajo en dichas
máquinas en el Reino Unido se retrasó por la guerra. In 1945, se ha hecho una
examinación al problema en el laboratorio nacional de física por el profesor J. R.
Womersley. Se le adjuntó el Dr. Turing un pequeño equipo de especialistas, y en 1947
la planificación preliminaria era lo suficientemente avanzada para justificar el
establecimiento del grupo especial ya mencionado. En abril de 1948, estos últimos se
convirtieron en la sesión de la electrónica del laboratorio bajo el cargo del Sr. F. M.
Colebrook. Descripción del concepto de programa almacenado Los primeros
computadores constaban de programas almacenados. Algunos muy simples siguen
utilizando este diseño, por ejemplo, una calculadora es un computador que tiene un
programa almacenado. Puede hacer operaciones matemáticas simples, pero no puede
ser usada como procesador de textos o videoconsola. Cambiar el programa que
contenían los dispositivos que usaban esta tecnología requería reescribir, reestructurar
y/o rediseñar el dispositivo. Los primeros computadores no estaban lo suficiente
programados cuando fueron diseñados. La tarea de reprogramar, cuando era posible,
era un proceso laborioso, empezando con notas en papel y siguiendo con detallados
diseños de ingeniería. Y tras esto 
llegaba el a veces complicado proceso de reescritura y reestructuramiento físico del
computador. El concepto de programa almacenado cambió por completo, se pensó en
un computador que en su diseño contenía un conjunto de instrucciones que podían ser
almacenadas en memoria, o sea, un programa que detallaba la computación del mismo.
El diseño de un programa almacenado también daba la posibilidad a los programas de
ser modificados ellos mismos durante su ejecución. Uno de los primeros motivos para
su creación fue la necesidad de un programa que incrementara o modificara las
direcciones de memoria de algunas instrucciones, las cuales tenían que ser hechas
manualmente en los primeros diseños. Esto se volvió menos importante cuando el
índice de registros y el direccionamiento indirecto se convirtieron en algo habitual en la
arquitectura de computadores. El código automodificable fue en gran parte ganando
posiciones. A gran escala, la habilidad de tratar instrucciones como datos es lo que
hacen los ensambladores, compiladores y otras herramientas de programación
automáticas. Se pueden "escribir programas para escribir programas". Existen
inconvenientes en el diseño de Von Neumann. Las modificaciones en los programas
podía ser algo perjudicial, por accidente o por diseño. En algunos simples diseños de
computador con programas almacenados, un mal funcionamiento del programa puede
dañar el computador. Otros programas, o el sistema operativo, posiblemente puedan
llevar a un daño total en el ordenador. La protección de la memoria y otras formas de
control de acceso pueden ayudar a proteger en contra de modificaciones accidentales
y/o maliciosas de programas. Embotellamiento de Von Neumann (Von Neumann
bottleneck) La separación entre la CPU y la memoria lleva al embotellamiento de Von
Neumann, al rendimiento de procesamiento limitado (tarifa de transferencia de datos)
entre la CPU y a la memoria comparada a la cantidad de memoria. En la mayoría de las
computadoras modernas, el rendimiento de procesamiento es mucho más pequeño que
la tarifa en la cual la CPU puede trabajar. Esto limita seriamente la velocidad del
proceso eficaz cuando la CPU se requiere para realizar el proceso mínimo en grandes
cantidades de datos. La CPU es forzada continuamente para esperar los datos
necesarios que se transferirán desde o hacia memoria. Desde la CPU el tamaño de la
velocidad y de la memoria ha aumentado mucho más rápidamente que el rendimiento
de procesamiento entre ellos, el embotellamiento se ha convertido en más de un
problema. El término “embotellamiento de Von Neumann” fue acuñado por Juan Backus
en su conferencia de la concesión de 1977 ACM Turing. Según Backus: Seguramente
debe haber una manera menos primitiva de realizar cambios grandes en el almacén
que empujando los grandes números de palabras hacia adelante y hacia 
atrás a través del embotellamiento de Von Neumann. El problema de funcionamiento es
reducido por un cache entre la CPU y el de memoria principal, y por el desarrollo de los
algoritmos del calculador de la rama. Está menos claro que el embotellamiento
intelectual que Backus ha criticado ha cambiado mucho desde 1977. La solución
propuesta de Backus no ha tenido una influencia importante. La programación funcional
moderna y la programación orientada a objetos se engranan mucho menos hacia
“empujar los grandes números de palabras hacia adelante y hacia atrás” que los
anteriores lenguajes como era el FORTRAN. Primeros ordenadores basados en
arquitecturas von Neumann La primera saga se basaba en un diseño que fue utilizado
por muchas universidades y empresas para construir sus equipos. Entre estos, sólo
ILLIAC y ORDVAC tenían un conjunto de instrucciones compatible. 
                          

ORDVAC (U-Illinois) en Aberdeen Proving Ground, Maryland (completado en noviembre


de 1951) IAS machine en Princeton University (Jan 1952) MANIAC I en Laboratorio
Científico Los Alamos(Mar 1952) ILLIAC en la Universidad de Illinois, (Sept 1952)
AVIDAC en Laboratorios Argonne National (1953) ORACLE en Laboratorio Nacional de
Oak Ridge (Jun 1953) JOHNNIAC en RAND Corporation (Jan 1954) BESK en
Estocolmo (1953) BESM-1 en Moscú (1952) DASK en Dinamarca (1955) PERM en
Munich (1956?) SILLIAC en Sydney (1956) WEIZAC en Rehovoth (1955) Tecnologías
de impresión 

7. 

El de la reproducción de imágenes es un mundo que no deja de evolucionar. Hoy día es


posible obtener copias de gran calidad mediante una variedad de tecnologías en las
que renace lo mejor de los sistemas clásicos, desde la 
tipografía tradicional hasta las técnicas digitales, pasando por la impresión fotográfica y
los recursos de las artes gráficas. Las cosas han cambiado mucho desde los primeros
métodos de reproducción de imágenes en la antigua China y el empuje de Gutenberg
con su sistema de tipos móviles. Las técnicas de impresión tradicionales pueden
resumirse en cinco sistemas: tipografía, huecograbado, serigrafía, flexografía y
litografía. En ellas ya hay una buena variedad de tecnologías: desde la formación de un
molde en relieve positivo (tipografía) o negativo (huecograbado), pasando por el
enmascaramiento (serigrafía) o el ataque con ácidos (huecograbado), hasta el uso de
procesos fotoquímicos (flexografía) y la repulsión de fluidos (litografía). Lo que tienen en
común todos estos sistemas es la aplicación de la tinta sobre el papel u otros soportes
por procedimientos mecánicos, y en general por presión. Por su parte, las técnicas
fotográficas abrieron una nueva vía: la de las reacciones químicas y la sensibilidad a la
luz. Su propiedad más interesante es que la imagen ya no se compone manualmente,
sino controlando la luz que llega al soporte fotosensible. Con la llegada de la electrónica
y la tecnología digital, ambos mundos se ven hoy sacudidos por rápidas
transformaciones y abocados -además- al mestizaje. Impresión digital doméstica En
una primera fase, la electrónica de consumo impulsó la impresión doméstica. Las
primeras impresoras matriciales y de agujas anunciaron la inminente extinción de las
máquinas de escribir, pero sus sistemas de percusión mecánica pronto fueron barridos
por otros mucho más flexibles para servir a la imagen digital. Fueron éstos el chorro de
tinta, la cera térmica, la sublimación y la impresión láser o xerografía, que introduce en
la impresión doméstica los métodos ya desarrollados en las fotocopiadoras. Bien puede
decirse que estas tecnologías han reinado en el período clásico de la imagen digital. La
impresión por chorro de tinta ha sido -y aún es- la más popular. También ha
evolucionado ya de manera importante, dando lugar a diferentes sistemas. En los años
60, la inyección de tinta líquida era continua. Se trataba de descomponer el chorro en
gotas, algunas de las cuales eran desviadas por atracción electrostática y así no
llegaban al papel, sino a un circuito de realimentación. 
Con los sistemas de goteo discreto o bajo demanda se consiguió que el inyector
expulsase solamente las gotas útiles. Los dos métodos principales son el piezoeléctrico
y el térmico. En el primero, aplicando impulsos eléctricos a un elemento cerámico, se
logra que éste transmita al canal de tinta en la boquilla una onda de presión por
deformación. Esta tecnología apareció a finales de los 70 y es propia de la marca
Epson. En los 80, Canon aporta la tecnología Bubble Jet (inyección por burbuja), primer
sistema térmico para inyección de tinta, similar a otros posteriores de HP. Consiste en
calentar una placa metálica en contacto con la tinta, que produce en ésta la formación
de una burbuja que impulsa parte del fluido al exterior. A priori, el sistema piezoeléctrico
tiene dos importantes ventajas: regulando la duración y amplitud de la onda de presión
se consiguen gotas de tamaño variable, y no hay que someter a la tinta a altas
temperaturas. Por su parte, el sistema térmico es mucho menos costoso, con lo que
frecuentemente las boquillas inyectoras se renuevan con el cartucho, eludiendo el
problema de los atascos. Las impresoras de cera térmica utilizan cuatro películas
-amarilla, magenta, cian y negra- impregnadas de cera pigmentada. Se superponen una
tras otra al papel, pasando ambos bajo unos calentadores que derriten la cera y hacen
que manche el papel. Esto produce puntos opacos que se combinan según las técnicas
de tramado, igual que la tinta líquida. La sublimación de tinta es un proceso similar,
pero a temperaturas más elevadas. El colorante se vaporiza y se condensa sobre el
papel, sin pasar por estado líquido. La cantidad de colorante se regula con la
temperatura de los calefactores, por lo que se consiguen distintas densidades y una
impresión prácticamente continua. Las impresoras de sublimación consiguen realmente
millones de tonos diferentes en cada punto del papel, por lo que no recurren al tramado.
Por esta razón, es adecuado que la resolución de imagen coincida con la resolución de
la impresora, que a su vez depende del espaciado entre las agujas calefactoras. Estas
impresoras no suelen utilizar colorante negro, ya que la capacidad de tintado de los
pigmentos sólidos proporciona densidades razonablemente oscuras. Sí que es usual
una cuarta pasada del papel en la que se aplica un barniz de acabado, con lo que el
resultado está sin duda a la altura de un revelado químico corriente. La electrografía o
xerografía -popularmente impresión láser- utiliza una fila de emisores LED o un rayo
láser para sensibilizar electrostáticamente determinados puntos de un tambor. Estos
puntos atraen partículas de pigmento sólido (tóner) y las transfieren al papel por presión
y calor. 
Los resultados son consistentes y con un alto rango de densidades, por lo que es éste
un sistema adecuado para textos e imágenes con formas geométricas o siluetas bien
definidas, y también para tiradas numerosas, dada su rapidez. En cambio, su punto
débil son las transparencias y los degradados sutiles. Impresión profesional La llegada
de los minilabs, reveladoras, procesadoras o printers digitales ha evitado el
desmoronamiento del negocio del revelado y el positivado fotográficos. El público en
general sigue prefiriendo una buena copia argéntica a una impresión, aunque ello no ha
impedido que las cámaras digitales hayan convertido a las de película en una especie
en extinción. La tabla de salvación para muchos negocios de fotografía ha sido ofrecer
copias químicas a partir de imágenes digitales, al principio desde disquetes o CD, y
ahora ya desde cualquier tipo de tarjeta de memoria flash. Revelado químico de
fotografías digitales Es uno de los sistemas más extendidos en la actualidad, con dos
variantes básicas. La primera es la exposición por láser, utilizada en reveladoras como
Durst Lambda, Durst Theta o Laser Lab. El papel argéntico, ya cortado o en rollo, se
desplaza verticalmente y es impresionado horizontalmente por un haz láser, pasando
después a un compartimento donde se efectúa el revelado químico. La segunda
variante es la exposición por diodos LED, bien por contacto o a través de un cono
reductor de fibras ópticas que aumenta la resolución. Se utiliza en algún modelo Durst
Theta, en Durst Epsilon y en Lumajet. Sistema químico-digital-químico Muchos minilabs
integran la digitalización de negativos mediante un escáner incorporado. El objetivo:
utilizar las ventajas de la salida química a partir de datos digitales. Con este sistema
podemos manipular fotografías tomadas en película con toda la flexibilidad y la
reducción de costes y tiempo de proceso que proporciona el sistema híbrido. De todos
modos, los minilabs suelen aceptar también la entrada directa de imágenes digitales
mediante lectores y ranuras para tarjetas. En este caso, los métodos de exposición son
más variados, aunque también podemos diferenciar dos técnicas básicas. La primera
de ellas es la exposición por proyección RGB. Suele hacerse mediante tubo CRT, en
tres exposiciones sucesivas correspondientes a los canales de la imagen, interponiendo
en cada una de ellas un filtro coloreado. Es la técnica utilizada por las Fujifilm Frontier,
Agfa d-lab o Noritsu QSS. 
La otra técnica es la de exposición matricial: los sistemas más primarios creaban un
negativo virtual LCD entre la fuente de luz y el papel, a imitación de una ampliadora de
positivado tradicional. Hoy, sin embargo, es más común proyectar la imagen tres veces.
Se hace matricialmente, no por barrido como con el tubo CRT, y con los mismos filtros
RGB. También se utiliza la proyección sintética o simultánea, mediante matrices de
LED. La proyección matricial tiene un tamaño en píxeles más limitado que otros
sistemas. Se usa en los minilabs Kis DKS y Agfa d-lab1. Incluso algunos QSS realizan
exposiciones matriciales mediante microespejos. Impresión digital de fotografía química
Los sistemas de impresión digital evolucionan, por su parte, a un ritmo suficiente como
para proporcionar copias en tinta de calidad y durabilidad comparable a las argénticas.
Así pues, las impresoras de gran formato -Copal, Agfa, Fujifilm- son una opción igual de
viable, tanto para imágenes digitales como para fotografías tomadas en película.
También es ésta una opción cada vez más extendida en los minilabs de autoservicio
que encontramos en tiendas y centros comerciales. Muchas máquinas Kis o Kodak son
realmente impresoras de sublimación. Preparar las imágenes para revelar o imprimir
Para un fotógrafo exigente con la calidad de las copias, entenderse con un laboratorio
es toda una aventura. Parece difícil encontrar un establecimiento fotográfico donde
quien opera con la máquina demuestre la solvencia e interés que sí era frecuente entre
los técnicos de un buen estudio fotográfico o taller de artes gráficas. Hoy, la oferta está
copada por cadenas de tiendas en las que la productividad es el criterio.
Acostumbrados a automatizar todo lo posible el servicio, se ha descuidado demasiado
factores importantes como la gestión del color. Incluso los fabricantes han lanzado al
mercado máquinas muy productivas, pero que no interpretan bien, que ignoran o
incluso que rechazan las imágenes con perfil de color incrustado. Este problema es
usual en minilabs químico-digital-químico. Las máquinas vienen más o menos
calibradas para interpretar el perfil de su propio escáner integrado, pero procesan igual
las fotos que introducimos directamente de una tarjeta flash, que evidentemente pueden
tener un perfil de color muy diferente. 
A medida que el usuario exige y se crea entre ellos una competencia, los servicios
fotográficos comienzan a tomarse en serio la gestión de color, dándonos información e
instrucciones de cómo entregar las imágenes, e incluso proporcionando el perfil de
salida de sus máquinas. Disponer del perfil de la procesadora sirve para que nuestro
ordenador pueda predecir la salida impresa -aproximadamente, ya que lo hace por
pantallautilizando funciones de previsualización, como Ver colores de prueba en
Photoshop. Se dice que lo ideal es enviar los archivos convertidos al perfil de salida. Yo
no lo creo. Lo que vemos en nuestro monitor no es la copia, y por otra parte el ritmo de
producción obliga a perfilar las máquinas con frecuencia, desactualizando rápidamente
los perfiles. Parece más lógico enviar las imágenes convertidas a un espacio o perfil
estándar como sRGB o AdobeRGB. De esta manera, podemos enviar el mismo archivo
a cualquier tienda y en cualquier momento. Con un estándar bueno para editar, como
AdobeRGB, nosotros mismos nos encargamos de calibrar nuestro sistema y de
entendernos con los perfiles de entrada. Es un espacio de trabajo que no desaprovecha
prácticamente nada la gama de salida de la mayoría de las impresoras. Al laboratorio le
corresponde entenderse con su perfil de salida para que el resultado obedezca a la
codificación estándar que le proporcionamos. Su perfil para nosotros es orientativo y
sirve solamente para previsualizar el aspecto de la copia. En el caso de que el
establecimiento no haga -o no sepa hacer- una correcta gestión del color, lo que nos
queda es convertir finalmente la imagen a sRGB para aproximarnos a una gama de
salida probable, y enviarla sin incrustar el perfil. Pero esto, naturalmente, tiene que ir
desapareciendo. Resolución y tamaño Por último, cabe comentar que en el terreno
dimensional también nos podemos llevar alguna sorpresa, dado que la mayoría de las
procesadoras trabajan a una o dos resoluciones fijas y sobre unos pocos tamaños de
copia. Son resoluciones usuales 200, 280, 300, 320, 340 ó 400 puntos por pulgada. Es
interesante conocer también, con exactitud, el tamaño de la copia que encargamos.
Con estos datos, lo ideal para cualquier sistema de salida basado en la exposición
sobre papel argéntico o impresión de sublimación -es decir, técnicas sin tramadoes que
preparemos las imágenes a la resolución -los puntos por pulgada- de 
salida, y a un tamaño superficial de entre 2 y 3 milímetros mayor que el de la copia en
cada dimensión. De esta manera, evitamos que el corte del papel produzca líneas
blancas en los bordes. Por supuesto, habremos ajustado nuestra fotografía al formato o
relación ancho-alto de la copia. Con estas precauciones, aún no tendremos garantizado
al cien por cien el resultado deseado, pero sí bastantes probabilidades de acierto. Para
un mayor control, lo mejor es comparar copias reales de la misma muestra. Esta
muestra puede consistir en tres o cuatro archivos de referencia, que usaremos siempre
para hacer el primer encargo a un nuevo laboratorio o con una nueva procesadora.
Incluso probar un nuevo tipo de papel o acabado que nos ofrezcan. 8. Ventajas del
puerto USB y los dispositivos USB 

El puerto que trae todos los ordenadores modernos es un gran avance en el desarrollo
de periféricos por una serie de características que, aunque sobreexplotadas por la
publicidad, no está de más recordar: -- Todos los periféricos que enchufes al USB
gastan una única IRQ. -- Amplio catálogo de modernos periféricos: ratones, teclados,
escáneres, cámaras fotográficas, capturadoras TV, monitores, discos duros, otro PC,
etc -- Se puede enchufar en caliente, es decir con el periférico y el ordenador
encendido, ¡OJO! nunca hagáis eso con cosas que no sean USB y si es un disco duro
USB desmontarlo antes de desconectar... si desmontar TAMBIÉN EN WINDOWS. -- El
periférico puede alimentarse de este puerto, por lo que si no gasta mucho, no necesita
fuente de alimentación (cuidado, los watios no son infinitos). -- Se necesitan menos
componentes, por lo que los periféricos deben ser más baratos. -- Facilita la
compatibilidad entre Mac y PC. -- Podemos enchufar un gran número de periféricos a
un sólo PC (en teoría 127 por puerto) que por otros medios sería imposible por las
limitaciones de IRQs. 9. Otras arquitecturas de computadores 

CONSULTAR TABLA EN EL ORIGINAL IMPRESO O EN FORMATO PDF. 


10. 

Sistemas Operativos 

Sistema operativo Artículo Tabla de contenidos Descripción del sistema operativo Para
que un ordenador pueda hacer funcionar un programa informático (a veces conocido
como aplicación o software), debe contar con la capacidad necesaria para realizar
cierta cantidad de operaciones preparatorias que puedan garantizar el intercambio entre
el procesador, la memoria y los recursos físicos (periféricos). El sistema operativo (a
veces también citado mediante su forma abreviada OS en inglés) se encarga de crear
el vínculo entre los recursos materiales, el usuario y las aplicaciones (procesador de
texto, videojuegos, etcétera). Cuando un programa desea acceder a un recurso
material, no necesita enviar información específica a los dispositivos periféricos;
simplemente envía la información al sistema operativo, el cual la transmite a los
periféricos correspondientes a través de su driver (controlador). Si no existe ningún
driver, cada programa debe reconocer y tener presente la comunicación con cada tipo
de periférico. De esta forma, el sistema operativo permite la "disociación" de programas
y hardware, principalmente para simplificar la gestión de recursos y proporcionar una
interfaz de usuario (MMI por sus siglas en inglés) sencilla con el fin de reducir la
complejidad del equipo. Funciones del sistema operativo El sistema operativo cumple
varias funciones: 
 

Administración del procesador: el sistema operativo administra la distribución del


procesador entre los distintos programas por medio de un algoritmo de programación.
El tipo de programador depende completamente del sistema operativo, según el
objetivo deseado. Gestión de la memoria de acceso aleatorio: el sistema operativo se
encarga de gestionar el espacio de memoria asignado para cada aplicación y para cada
usuario, si resulta pertinente. Cuando la memoria física es insuficiente, el sistema
operativo puede crear una zona de memoria en el disco duro, denominada "memoria
virtual". La memoria virtual permite ejecutar aplicaciones que requieren una memoria
superior a la memoria RAM disponible en el sistema. Sin embargo, esta memoria es
mucho más lenta. Gestión de entradas/salidas: el sistema operativo permite unificar y
controlar el acceso de los programas a los recursos materiales a través de 

  

  
los drivers (también conocidos como administradores periféricos o de entrada/salida). 
  

Gestión de ejecución de aplicaciones: el sistema operativo se encarga de que las


aplicaciones se ejecuten sin problemas asignándoles los recursos que éstas necesitan
para funcionar. Esto significa que si una aplicación no responde correctamente puede
"sucumbir". Administración de autorizaciones: el sistema operativo se encarga de la
seguridad en relación con la ejecución de programas garantizando que los recursos
sean utilizados sólo por programas y usuarios que posean las autorizaciones
correspondientes. Gestión de archivos: el sistema operativo gestiona la lectura y
escritura en el sistema de archivos, y las autorizaciones de acceso a archivos de
aplicaciones y usuarios. Gestión de la información: el sistema operativo proporciona
cierta cantidad de indicadores que pueden utilizarse para diagnosticar el funcionamiento
correcto del equipo. 

  

  

  

 

Componentes del sistema operativo El sistema operativo está compuesto por un


conjunto de paquetes de software que pueden utilizarse para gestionar las
interacciones con el hardware. Estos elementos se incluyen por lo general en este
conjunto de software: 
 

El núcleo, que representa las funciones básicas del sistema operativo, como por
ejemplo, la gestión de la memoria, de los procesos, de los archivos, de las
entradas/salidas principales y de las funciones de comunicación. El intérprete de
comandos, que posibilita la comunicación con el sistema operativo a través de un
lenguaje de control, permitiendo al usuario controlar los periféricos sin conocer las
características del hardware utilizado, la gestión de las direcciones físicas, etcétera. El
sistema de archivos, que permite que los archivos se registren en una estructura
arbórea. 

  

   

Sistemas de multiprocesos Un sistema operativo se denominade multiprocesos cuando


muchas "tareas" (también conocidas como procesos) se pueden ejecutar al mismo
tiempo. Las aplicaciones consisten en una secuencia de instrucciones llamadas
"procesos". Estos procesos permanecen activos, en espera, suspendidos, o se 
eliminan en forma alternativa, según la prioridad que se les haya concedido, o se
pueden ejecutar en forma simultánea. Un sistema se considera preventivo cuando
cuenta con un programador (también llamado planificador) el cual, según los criterios de
prioridad, asigna el tiempo de los equipos entre varios procesos que lo solicitan. Se
denomina sistema de tiempo compartido a un sistema cuando el programador asigna
una cantidad determinada de tiempo a cada proceso. Éste es el caso de los sistemas
de usuarios múltiples que permiten a varios usuarios utilizar aplicaciones diferentes o
similares en el mismo equipo al mismo tiempo. De este modo, el sistema se denomina
"sistema transaccional". Para realizar esto, el sistema asigna un período de tiempo a
cada usuario. Sistemas de multiprocesadores La técnica de multiprocesamiento
consiste en hacer funcionar varios procesadores en forma paralela para obtener un
poder de cálculo mayor que el obtenido al usar un procesador de alta tecnología o al
aumentar la disponibilidad del sistema (en el caso de fallas del procesador). Las siglas
SMP (multiprocesamiento simétrico o multiprocesador simétrico) hacen referencia a la
arquitectura en la que todos los procesadores acceden a la misma memoria compartida.
Un sistema de multiprocesadores debe tener capacidad para gestionar la repartición de
memoria entre varios procesadores, pero también debe distribuir la carga de trabajo.
Sistemas fijos Los sistemas fijos son sistemas operativos diseñados para funcionar en
equipos pequeños, como los PDA (asistentes personales digitales) o los dispositivos
electrónicos autónomos (sondas espaciales, robots, vehículos con ordenador de a
bordo, etcétera) con autonomía reducida. En consecuencia, una característica esencial
de los sistemas fijos es su avanzada administración de energía y su capacidad de
funcionar con recursos limitados. Los principales sistemas fijos de "uso general" para
PDA son los siguientes: 
  

PalmOS Windows CE / Windows Mobile / Window Smartphone 

Sistemas de tiempo real 


Los sistemas de tiempo real se utilizan principalmente en la industria y son sistemas
diseñados para funcionar en entornos con limitaciones de tiempo. Un sistema de tiempo
real debe tener capacidad para operar en forma fiable según limitaciones de tiempo
específicas; en otras palabras, debe tener capacidad para procesar adecuadamente la
información recibida a intervalos definidos claramente (regulares o de otro tipo). Estos
son algunos ejemplos de sistemas operativos de tiempo real: 
    

OS-9; RTLinux (RealTime Linux); QNX; VxWorks. 

Tipos de sistemas operativos Existen varios tipos de sistemas operativos, definidos


según su capacidad para administrar simultáneamente información de 16 bits, 32 bits,
64 bits o más. Sistema DOS Windows3.1 Programación 16 bits 16/32 bits Usuario único
X X X X X X X X Usuario múltiple Tarea única X Multitarea no preventivo cooperativo
preventivo preventivo preventivo preventivo preventivo 

Windows95/98/Me 32 bits WindowsNT/2000 32 bits WindowsXP 32/64 bits Unix / Linux


32/64 bits MAC/OS X 32 bits VMS 32 bits 

11. 

Software de Aplicación 

Software de aplicación Son todos aquellos programas que sirven para facilitar al usuario
final la realización de algún tipo de trabajo o función. Software de aplicación
Aplicaciones de productividad empresarial 
Software utilizado para fines empresariales de mejora de productividad. (Incluye
aplicaciones ofimáticas como procesadores de texto, hojas de cálculo, bases de datos
simples; aplicaciones gráficas; software de gestión de proyectos; software de formación,
…) 

-- Aplicaciones de ofimática -- Editores de texto -- Hojas de cálculo -- Bases de datos


simples -- Aplicaciones de gráficos -- Software de gestión de proyectos -- Etc.
Aplicaciones domésticas Software utilizado por el usuario sin un fin profesional para el
entretenimiento, formación o documentación. -- Juegos -- Software de referencias y
bibliografía -- Educación Aplicaciones profesionales generales Software que ha sido
diseñado para gestionar y ejecutar una función o proceso empresarial específico que no
pertenece a una industria particular. (Software de contabilidad, de gestión de recursos
humanos, gestión de relaciones con el cliente, software de sistemas de información
geográfica, diseño de páginas web,…) -- Software de contabilidad profesional -- Gestión
de Recursos Humanos -- Gestión de relaciones con el cliente -- Sistemas de
información geográfica (GIS) 
-- Software para el diseño de páginas y sitios web -- Etc. Aplicaciones verticales
Software para la realización de un amplio rango de funciones funciones enmarcadas
dentro de una industria específica como la fabricación, el retail, el sanitario, ingenierías,
restauración, etc,… Software de utilidades Pequeños programas informáticos que
realizan una tarea muy específica. Difieren de otro tipo de aplicaciones en su tamaño,
costes y complejidad. Entre ellos estarían: compiladores, antivirus, motores de
búsqueda, fuentes, visores y software de reconocimiento de voz. -- Programas de
compresión -- Antivirus -- Motores de búsqueda -- Fuentes -- Visores de documentos --
Software de reconocimiento de voz 

12. 

¿En qué consiste el sistema binario? 

¿Para qué lo utiliza la máquina? ¿Qué otros sistemas numéricos maneja la máquina? El
sistema binario , en matemáticas e informática, es un sistema de numeración en el que
los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que
se utiliza en las computadoras, pues trabajan internamente con dos niveles de voltaje,
por lo que su sistema de numeración natural es el sistema binario (encendido 1,
apagado 0). Estos sistemas son utilizados mayormente en el mundo de la electronica
digital , microprocesadores etc. Te voy a mencionar un ejemplo. En electronica digital
utilizamos mucho el sistema binario ya que se compone de 0 y 1. Nosotros le 
damos el significado de cero cuando el circuito esta apagado y el 1 cuando e circuito
esta encendio . Asi podemos lograr montar circuitos y mandar senales en forma
binaria(nose si me entienda) . Par los microprocesadores, se utiliza mucho el sistema
hexadecimal para poderlos programar. Espero que te haya ayudado en algo aunque se
que no pude explicar muy bn lo que queria. [][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][]
[][][][][][][][][][][][][][][][][][][][] En nivel de electrónica, los bits 0 y 1 son representados a
través de valores de tensión. Por ejemplo: el bit 0 puede ser representado por valores
entre 0 y 0,3 volts. Y el bit 1 puede ser representado por valores entre 2 y 5 volts. Esos
números son sólo ejemplos, no estamos afirmando que son exactamente esos valores.
De esta forma, cualquier valor puede ser usado para representar los bits, dependiendo
de la aplicación y de la tecnología empleada. Con el avance de la tecnología de las
computadoras, se empezó a usar tensiones cada vez mas bajas, esto quiere decir que
los dispositivos electrónicos empezaron a trabajar con tensiones menores. En las
computadoras son usados valores muy bajos, tales como esos que acabamos de
mencionar. Ya el CD o el DVD (dispositivos ópticos) almacenan la información en forma
de pequeños puntos denominados Pits y un espacio entre ellos denominado Lands, que
son interpretados en el proceso de lectura como "0" y "1" (bits). Era Digital En nuestro
entorno cotidiano es común oír frases del tipo "era digital" o "sistemas digitales" o
también "TV digital". Pero, que es algo digital? Digital es todo aquello que puede ser
transmitido y/o almacenado por medio de bits. Un dispositivo digital es aquel que utiliza
los bits para manipular cualquier tipo de información (datos). Por Martín Pores para
Informática-Hoy [][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][][] 

SISTEMAS NUMÉRICOS 
Digito: Es un signo que representa una cantidad contable. Dependiendo del sistema de
numeración, serán los diferentes signos que se tenga para representar cualquier
cantidad. Numero: Es la representación de una cantidad contable por medio de uno o
más dígitos. Sistema de Numeración: Es un conjunto de dígitos que sirven para
representar una cantidad contable. El nombre del sistema de numeración que se trate
serán los diferentes dígitos posibles para tal representación. Así también los sistemas
de numeración se les llama base, de tal manera que el sistema de numeración binario,
también se le llama base 2. Los sistemas de numeración más utilizados en electrónica
son: 
        

Binario o Base 2 (0, 1) Octal o Base 8 (0, 1, 2, 3, 4, 5, 6, 7) Hexadecimal o Base 16 (0,


1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F) Decimal o Base 10 (0, 1, 2, 3, 4, 5, 6, 7, 8, 9) La
Tecnología Inalámbrica. 

13. 

REDES INALAMBRICAS. 1.1 ¿Qué es la tecnología inalámbrica? 

El término "inalámbrico" hace referencia a la tecnología sin cables que permite conectar
varias máquinas entre sí. Las conexiones inalámbricas que se establecen entre los
empleados remotos y una red confieren a las empresas flexibilidad y prestaciones muy
avanzadas. Se mide en Mbps. Un Mbps es un millón de bits por segundo, o la octava
parte de un MegaByte por segundo - MBps. (Recordemos que un byte son 8 bits.)
Existen principalmente dos tecnologías inalámbricas certificadas. Una es la tecnología
802.11b y la otra 802.11g (ésta última tecnología es más reciente -ha sido aprobada a
finales de 2003- y más rápida). 
1.2 En que se basa la tecnología inalámbrica 

Actualmente el término se refiere a comunicación sin cables, usando frecuencias de


radio u ondas infrarrojas. Entre los usos mas comunes se incluyen a IrDA y las redes
inalámbricas de computadoras. Ondas de radio de bajo poder, como los que se emplea
para transmitir información entre dispositivos, normalmente no tienen regulación, en
cambio transmisiones de alto poder requieren normalmente un permiso del estado para
poder trasmitir en una frecuencia especifica. Las plataformas inalámbricas en las
historia han transmitido voz y han crecido y hoy por hoy son una gran industria, llevando
miles de transmisiones alrededor del mundo. 

1.3 Diferencias entre tecnología móvil e inalámbrica 

La tecnología móvil hace referencia a la posibilidad de trasladar el trabajo de un sitio a


otro, es decir, de llevar a cabo unas tareas determinadas fuera del campo de trabajo; en
cambio, la tecnología inalámbrica hace referencia a la posibilidad de conectar varios
dispositivos entre sí o a una red sin necesidad de cables, se puede emplear estas
conexiones inalámbricas para transferir la información entre un sistema de empresa,
donde un grupo de persones necesitan estar comunicados entre si.[1] Capítulo II 

2. Clasificación de redes 

Redes globales: Pretenden dar cobertura a toda la tierra 

– UTP (Universal Personal Telecommunications) – PCS (Personal Communications


System) – 3G 
• Redes extensas – Wireless ATM, UMTS 

• Redes de área local – Wireless Ethernet, HIPERLAN 

• Redes de área personal – Bluetooth, 802.15 

2.1 CLASES DE REDES INALAMBRICAS 

2.1.1 ¿Que es Bluetooth? Bluetooth es una frecuencia de radio de disponibilidad


universal que conecta entre sí los dispositivos habilitados para Bluetooth situados a una
distancia de hasta 10 metros. Permite conectar un ordenador portátil o un dispositivo de
bolsillo con otros ordenadores portátiles, teléfonos móviles, cámaras, impresoras,
teclados, altavoces e incluso un ratón de ordenador. 

2.1.2 ¿Qué ventajas aporta? Permite conectar de forma rápida y sencilla los
dispositivos habilitados para Bluetooth entre sí y de este modo crear una red de área
personal (PAN) en la que es posible combinar todas las herramientas de trabajo
principales con todas las prestaciones de la oficina. El uso de una red de igual a igual
Bluetooth permite intercambiar archivos en reuniones improvisadas con suma facilidad
y ahorrar tiempo imprimiendo documentos sin necesidad de conectarse a una red fija o
inalámbrica. Con Bluetooth, se puede hacer actividades de inmediato como 
imprimir un informe desde el escritorio mediante cualquier impresora habilitada para
Bluetooth dentro del radio, sin cables, sin problemas y sin moverse siquiera. 

2.2.1 ¿Qué es Wi-Fi? 

Wi-Fi o red de área local inalámbrica (WLAN) es una red de TI de tamaño medio que
utiliza la frecuencia de radio 802.11a, 802.11b o 802.11g en lugar de cables y permite
realizar diversas conexiones inalámbricas a Internet. Si sabe dónde se encuentra una
red Wi-Fi o WLAN, puede navegar por Internet, utilizar el correo electrónico y acceder a
la red privada de una empresa. Esta es una buena opción para un empleado móvil que
pasa fuera de su compañía. 

2.2.2 ¿Qué ventajas aporta? Donde haya una red Wi-Fi, existe un portal de información
y comunicación. La incorporación de una red WLAN a la oficina proporciona una mayor
libertad y favorece la versatilidad del entorno de trabajo tradicional. Ahora bien, estas
posibilidades no se limitan a la oficina, y cada vez aparecen más redes WLAN en
lugares como cybers, restaurantes, hoteles y aeropuertos, lo que permite a los usuarios
acceder a la información que necesitan. Acceda a la red de la empresa y obtenga las
respuestas que necesite, en el momento preciso. Wi-Fi pone a su disposición un acceso
a Internet sin igual. 

2.3 ¿Qué es la tecnología Wi-Max? “Específicamente, la tecnología 802.16, a menudo


denominada WiMAX, complementa la WLAN conectando hotspots con tecnología
802.11 a Internet y ofrece una alternativa inalámbrica para la conectividad de banda
ancha de última generación a empresas y hogares.” Esta es una red muy costosa que
aplica Microsoft verdaderamente podremos tener una banda ancha y no solo un ancho
de banda, donde la velocidad de transmisión será mayor. 
2.3.1 ¿Cuál es la diferencia entre una red Wi-Fi y Wi-Max? Una red Wi-Fi, red ad hoc
puede ser establecida por cualquiera para conectar la casa con la oficina, mientras que
Wimax está diseñado para cubrir una ciudad entera a través de estaciones base
dispersas alrededor del área metropolitana. 

2.4 ¿Qué es la tecnología GPRS? GPRS es la sigla de General Packet Radio Services
(servicios generales de paquetes por radio). A menudo se describe como "2,5 G", es
decir, una tecnología entre la segunda (2G) y la tercera (3G) generación de tecnología
móvil digital. Se transmite a través de redes de telefonía móvil y envía datos a una
velocidad de hasta 114 Kbps. El usuario puede utilizar el teléfono móvil y el ordenador
de bolsillo para navegar por Internet, enviar y recibir correo, y descargar datos y
soportes. Permite realizar videoconferencias con sus colegas y utilizar mensajes
instantáneos para charlar con sus familiares y amigos, esté donde esté. Además, puede
emplearse como conexión para el ordenador portátil u otros dispositivos móviles. 

2.5 ¿Qué es la tecnología 3G? Al igual que GPRS, la tecnología 3G (tecnología


inalámbrica de tercera generación) es un servicio de comunicaciones inalámbricas que
le permite estar conectado permanentemente a Internet a través del teléfono móvil, el
ordenador de bolsillo, el Tablet PC o el ordenador portátil. La tecnología 3G promete
una mejor calidad y fiabilidad, una mayor velocidad de transmisión de datos y un ancho
de banda superior (que incluye la posibilidad de ejecutar aplicaciones multimedia). Con
velocidades de datos de hasta 384 Kbps, es casi siete veces más rápida que una
conexión telefónica estándar. 

2.5.2 ¿Qué ventajas aporta? Se dice que los usuarios de GPRS y 3G están "siempre
conectados", dado que con estos métodos de conexión tienen acceso permanente a
Internet. Mediante los mensajes de texto cortos, los empleados de campo pueden
comunicar su progreso y solicitar asistencia. Los ejecutivos que se encuentran de viaje
pueden acceder al correo electrónico de la empresa, de igual modo que puede hacerlo
un empleado de ventas, que también puede consultar el inventario. Puede 
automatizar su casa o su oficina con dispositivos GPRS y 3G supervisar sus
inversiones. 2.6 ¿Qué es IrDA? Esta tecnología, basada en rayos luminosos que se
mueven en el espectro infrarrojo. Los estándares IrDA soportan una amplia gama de
dispositivos eléctricos, informáticos y de comunicaciones, permite la comunicación
bidireccional entre dos extremos a velocidades que oscilan entre los 9.600 bps y los 4
Mbps. Esta tecnología se encuentra en muchos ordenadores portátiles, y en un
creciente número de teléfonos celulares, sobre todo en los de fabricantes líderes como
Nokia y Ericsson. 

2.7 ¿Qué es IDERLAND? Este estándar hiperland tubo su origen en el proyecto WAND
(demostrador de red ATM inalámbrica) que fue parte del programa de servicios y de
tecnologías de comunicaciones avanzadas (ACTS), fue diseñado teniendo en cuenta
los requerimientos de una red multimedia inalámbrica, la cual debe cumplir con los
requisitos de calidad y servicio.[4] 

Capitulo III 

III. Comunicaciones móviles 

3.1 ¿Qué son comunicaciones móviles? 


Según la UIT, se habla de comunicaciones móviles cuando existe al menos un terminal
cuya ubicación se desplaza, requiriéndose servicio durante ese desplazamiento. 

3.2 Una posible clasificación, puede ser la siguiente: 

– Sistemas vía satélite (INMARSAT, IRIDIUM) 

– Redes de área extensa de transmisión de datos (WATM) 

– Redes móviles privadas (Wireless Ethernet) 

– Redes de telefonía celular públicos (GSM, GPRS, UMTS) 

– Redes de telefonía sin hilos (DECT) 

– Redes domésticas (Home RF) 

– Redes de área personal (Bluetooth) 

3.3 Elementos de un sistema móvil. 

• Estación base (BS): Son estaciones fijas que pueden ser controladas por una unidad
de control. 
• Estación de control (CS): Son estaciones también fijas que controlan automáticamente
las emisiones o el Funcionamiento de otra estación fija. 

• Estación repetidora (RS): Son estaciones que retransmiten señales recibidas y


permiten la cobertura en una zona no accesible por la estación base. 

• Estación móvil (MS): Es una estación dotada de movilidad. 

Capitulo IV 

4. Redes celulares 

4.1 ¿Qué son redes celulares? La licencia de explotación del espectro radioeléctrico es
uno de los principales costes que debe soportar un operador de telefonía móvil. En
estos casos, la reducción del número de frecuencias en el diseño de una red puede
suponer un ahorro considerable. 

Igualmente, una vez contratada la licencia y determinado el número máximo de


frecuencias disponibles, la capacidad de tráfico de la red puede ser incrementada
mediante un mejor aprovechamiento del espectro, en el sentido de reutilizar frecuencias
en distintas celdas de la red y poder transmitir simultáneamente desde distintos puntos
con una misma portadora. Analizar las técnicas de modulación y los protocolos de
acceso al medio (MAC) utilizados en redes celulares inalámbricas de 3ra Generación,
así como en redes 
multimedia de banda ancha, (W-LAN's) y las llamadas redes de área personal (PAN's). 

4.2 Clasificación de redes celulares 

• Niveles celulares: 

- Pico celdas: • De 20 a 400 m • Usualmente, internas a edificios 

-Micro celdas 

-De 400m a 2 Km. • Usualmente, zonas urbanas 

- Macro celdas • De 2 a 20 Km. 

- Comunidad global • Todo el mundo[6] 


4.3 Tecnología GSM y GPRS 

GSM significa: Global System for Mobile Communications, se puede decir que es la
tecnología inalámbrica de más rápido crecimiento. Es el Sistema de Comunicaciones
móviles más universal, que garantiza, mediante itinerancia, una cobertura mundial y
que permite realizar llamadas de voz, datos o enviar mensajes de texto GSM es el
primer paso en la transformación de network “TDMA” a la “Nueva Generación” o 3G
Network y nos abre el camino para el desarrollo de funcionalidades avanzadas tales
como GPRS. GSM se construye en la plataforma existente de TDMA. Avances en
tecnología permiten un uso más efectivo y eficiente en GSM. 71% del total del mercado
de telefonía celular es GSM, el cual es el sistema utilizado. En más de 174 países del
mundo. Lo más innovador que ofrece este sistema es el “SmartChip”, una pequeña
tarjeta que se inserta en el teléfono GSM de Cingular Wireless y que almacena la
información personal o de negocios de cada cliente. Al ser totalmente portátil le permite
al usuario mover la información de un teléfono a otro con tal sólo colocar el “SmartChip”
en otro teléfono GSM de Cingular Wireless. 

4.4 Tecnología CDMA CDMA2000 es la solución de 3era Generación basada en IS-95.


A diferencia de otros estándares de 3G, CDMA2000 es una evolución de un estándar
inalámbrico existente. CDMA2000 provee servicios de tercera generación como está
definido por la ITU (International Telecommunications Union) en la IMT-2000. Las redes
3G proporcionarán servicios inalámbricos con mejor desempeño, gran rentabilidad y
más contenido. La meta es acceder a cualquier servicio, en cualquier lugar, a cualquier
hora desde una terminal. 

4.5 Presente y Futuro (Wireless) 

• 1G: Red celular analógica 


– Conmutación de circuitos 

• 2G: Red celular digital (GSM) – Conmutación de circuitos 

• 2,5 G: Red celular digital (GPRS) – Conmutación de paquetes 

• 3G: Red celular digital UMTS – Conmutación de paquetes 

• 4G: Red celular digital multimedia: – Todo IP (VoIP ) 

Capitulo V 5. Canales móviles 

5.1 ¿Qué son canales móviles? 

5.2 Fundamento Teórico 


La potencia recibida en comunicaciones móviles se puede caracterizar según 3
velocidades de variación temporal: . A largo plazo: Caracterizado por una ley de
propagación, frecuencia, distancia y es dependiente del entorno. . A medio plazo:
Variaciones en torno al valor anterior debido a grandes obstáculos reflectores lejanos al
móvil. Sigue una distribución Log-Normal. . A corto plazo: Variaciones adicionales muy
rápidas debido al movimiento y a las componentes multitrayecto generadas en el
entorno cercano al móvil, siguen una distribución Rayleight. Para obtener un modelo de
canal es necesario su grado de dispersividad, es decir cuál es el máximo retardo con
que llegan los ecos de la señal. Dependiendo del entorno de propagación las
variaciones y el retardo máximo así como el comportamiento Dopper presentan
características específicas. Una vez que se tiene caracterizado un entorno, se obtiene
un modelo de canal 

¿Qué son las soluciones de tecnología inalámbrica? 

Las soluciones de tecnología inalámbrica, o Wireless, son el siguiente paso en el


desarrollo de e-business, y le permiten realizar operaciones e-business desde cualquier
lugar y en cualquier momento. Más que una mera ampliación del comercio móvil (m-
business), la tecnología inalámbrica abre nuevas oportunidades. Oportunidades que
harán evolucionar los modelos y las aplicaciones empresariales. ¿Cuáles es el alcance
típico de esta tecnología? El alcance típico de ambas tecnologías varía entre 20 y 200
metros dependiendo de si hay o no obstáculos, paredes, etc. por en medio. Este es un
alcance típico, que se puede aumentar con tarjetas y router o puntos de acceso de más
potencia, o bien incorporando antenas más o menos direccionales. También existen
puntos de acceso que pueden funcionar como repetidores de la señal del punto de
acceso principal y extienden su alcance. 
Las ventajas: nuevos modelos para nuevas oportunidades empresariales. Las
empresas están aprovechando el crecimiento exponencial que suponen las
funcionalidades móviles de Internet y reestructurando sus modelos empresariales para
atraer y retener clientes nuevos o clientes más valiosos, reducir costes y mejorar la
eficacia. 

La tecnología inalámbrica le permitirá: -Aumentar la flexibilidad del espacio de su


oficina, ya que elimina cables, enchufes, etc. -Mejorar la gestión de sus productos con
el uso de etiquetas con radiofrecuencia (RF) que le permitirán localizar cualquier
producto por oscuro que sea el almacén. -Mejorar la eficacia y la movilidad, mientras
sigue trabajando en cualquier lugar. -Ofrecer un mejor servicio a los clientes que
posean dispositivos inalámbricos: teléfonos móviles y PDA´s. -Proporcionar a los socios
y empleados acceso a información precisa en tiempo real desde cualquier lugar.[7] 14.
Sobre los portátiles se ha hablado demasiado en esta época realice una evaluación de
estas máquinas en cuanto precios, características etc. 

CONSULTAR 
15. Realice un estudio sobre las tarjetas flash, sobre las memorias, tarjetas gráficas,
tarjetas de sonido, teatros caseros y monitores. Tarjetas flash, Memorias Tarjetas
gráficas Tarjetas de sonido Teatros caseros Monitores 
CONSULTAR 
16. Los conceptos de software Monousuario al igual que de Software multiusuario.
SOFTWARE MONOUSUARIO. Un sistema operativo monousuario (de mono: 'uno'; y
usuario) es un sistema operativo que sólo puede ser ocupado por un único usuario en
un determinado tiempo. Ejemplo de sistemas monousuario son las versiones
domésticas de Windows. Un Monousuario es un sistema para uso exclusivo de una sola
persona... que podrían ser la mayoría de los ordenadores actuales, ya que con el hecho
de que le pongas una clave a tu sesión será completamente privado el equipo. Por otro
lado los sistemas multiusuario son sesiones mas como Windows Comercialmente, ya
que estos sistemas ofrecen funciones de multisesiones, personalización de cada
sesión, privilegios y limitaciones dependiendo del usuario, aquí VARIOS usuarios de
una RED o DOMINIO pueden entrar en cualquier computadora con solo teclear su
usuario y contraseña, claro que cada usuario tiene sus limitaciones y privilegios
dependiendo de su rango de administración de la red. La ventaja de un Monousuario es
la gran seguridad de datos y la protección de los mismos como datos
CONFIDENCIALES y datos IMPORTANTES que no deben ser manipulados por
terceros, otra es el poder trabajar en cualquier pc con solo contar con una cuenta de
usuario en la red, aparte de recibir privilegios y limitar a usuarios que no deben tener
acceso a datos mas importantes, pero este sistemas es menos seguro. SOFTWARE
MULTIUSUARIO. Multiusuario: de multi: varios; y usuarios, "apto para ser utilizado por
muchos usuarios". 

Es todo lo contrario a monousuario; y en esta categoría se encuentran todos los


sistemas que cumplen simultáneamente las necesidades de dos o más usuarios, que
comparten mismos recursos. Este tipo de sistemas se emplean especialmente en
redes. En otras palabras consiste en el fraccionamiento del tiempo (timesharing). El
tiempo compartido en ordenadores o computadoras consiste en el uso de un sistema
por más de una persona al mismo tiempo. El tiempo compartido ejecuta programas
separados de forma concurrente, intercambiando porciones de tiempo asignadas a
cada programa (usuario). En este aspecto, es similar a la capacidad de multitareas que
es común en la mayoría de las microcomputadoras. Sin embargo el tiempo compartido
se asocia generalmente 
con el acceso de varios usuarios a computadoras más grandes y a organizaciones de
servicios, mientras que la multitarea relacionada con las microcomputadoras implica la
realización de múltiples tareas por un solo usuario 

Dicho sobre un sistema operativo, significa que éste puede utilizarse por varios usuarios
al mismo tiempo, permitiendo la ejecución concurrente de programas de usuario. Esto
facilita la reducción de tiempo ocioso en el procesador, e indirectamente implica
reducción de los costos de energía y equipamiento para resolver las necesidades de
cómputo de los usuarios. Ejemplos de sistemas operativos con característica de
multiusuario son VMS y Unix en sus múltiples derivaciones (e.g. IRIX, Solaris, etc.) y los
sistemas "clones de Unix" como Linux y FreeBSD. En la familia de los sistemas
operativos Microsoft Windows, las versiones domésticas y para clientes de Windows
2000, Windows XP y Windows Vista proveen soporte para ambientes personalizados
por usuario, pero no admiten múltiples usuarios usando el escritorio del sistema
concurrentemente (y son por lo tanto, sistemas operativos monousuario); las versiones
de servidor de Windows 2000 y Windows 2003 (así como la futura versión de Vista
"Longhorn") proveen servicio de escritorio remoto a múltiples usuarios de forma
concurrente a través de Terminal Services. Un sistema operativo multiusuario, a
diferencia de uno monousuario, debe resolver una serie de complejos problemas de
administración de recursos, memoria, acceso al sistema de archivos, etc. 17. Clases de
software y Licencias más comunes. 

CONSULTAR 
18. Realice un cuadro de la evolución del Software iniciando si es posible con el
sistema operativo CPM o si no por lo menos a partir de Microsoft DOS hasta la
actualidad Windows Vista incluya en este estudio software para otras arquitecturas. 

CONSULTAR 
19. Las patentes de Software. 

CONSULTAR 
20. Hoy en día existen multitud de alternativas en el campo del Software para casi el
100 % de las tareas necesarias. Incluya una tabla con soluciones en plataformas
propietarias y sus alternativas en entornos libres para los siguientes programas:
Herramienta Navegador, Suite ofimática, Procesador de textos, Hoja de cálculo,
Gráficos y dibujo, Creación presentaciones, Gestor de finanzas Personales, Gestión de
Proyectos, Base de Datos, Servidor web. 

CONSULTAR 
21. Existen leyes para la protección de Software? Que documentos se pueden consultar
sobre este aspecto? En que sitios en Internet puede consultar información sobre este
tópico? 

CONSULTAR 
22. Que es la Piratería de software y cuáles son sus aspectos jurídicos. 

CONSULTAR 
BIBLIOGRAFIA http://es.wikipedia.org/ www.tecniequipos.com www.mailxmail.com
www.monografias.com 

También podría gustarte