Sistema Operativo

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 8

Estudio caso de windows

¿Cuáles son los principios de diseño de Windows?


 Compatibilidad
 Transportabilidad
 Escalabilidad
 Seguridad
 Fiabilidad y robustez
 Procesamiento distribuido
 Eficiencia
¿Cuáles consideras, serían los tres más importantes?
Las 3 más importantes serian:
Seguridad: Uno de los requisitos fundamentales de diseño de Windows fue proporcionar
un nivel de seguridad C2 de acuerdo a la clasificación del DOD. Para ello se diseñó una
arquitectura de seguridad, basada en un monitor de seguridad, que proporciona servicios
de seguridad a todos los componentes del sistema operativo y a las aplicaciones externas
al mismo.
Eficiencia: Los diseñadores de Windows se plantearon diseñar un sistema muy eficiente,
tanto en monoprocesadores como en multiprocesadores. Para ello construyeron un
modelo de proceso basado en procesos ligeros y un sistema de entrada/salida muy
compacta en el que todos sus componentes se usan como manejadores de dispositivos.
Compatibilidad: Tanto con los sistemas anteriores (interfaz gráfico y sistemas de
archivos FAT de Windows 3.x) como con otros sistemas operativos (OS/2, POSIX, etc.) y
con distintos entornos de red. La compatibilidad se logra mediante el uso de subsistemas
que emulan los servicios de los distintos sistemas operativos. Los emuladores son
similares a las máquinas virtuales de MVS.
¿Cómo se estructura y almacena la información del modelo de objetos del núcleo?
Se estructura en:
Objetos de planificación: Permiten controlar la ejecución y sincronización de
operaciones del sistema mediante una señal de estado. Los eventos, mutantes, mutex,
semáforos, threads y temporizadores pertenecen a este tipo de objetos. Los mutantes son
el equivalente a los mutex, pero nivel de usuario y concepto de propiedad. Los mutex sólo
están disponibles en el modo núcleo.

Objetos de control: Permiten controlar las operaciones del núcleo, pero no la


planificación. Dentro de este tipo de objeto se agrupan las interrupciones, las llamadas
asíncronas a procedimiento, los procesos y los perfiles de ejecución. Todos ellos permiten
controlar la ejecución de las operaciones del núcleo llamando a un procedimiento durante
la ejecución de un thread, conectando interrupciones a un servicio a través de la tabla de
interrupciones (IDT, Interrupt Dispatch Table), o iniciando un proceso y capturando la
información de su tiempo de ejecución en distintos bloques de código.
Almacena la información en :
Tabla de interrupciones: (IDT, Interrupt Dispatch Table). Asocia las interrupciones con
las rutinas que las gestionan.
Tabla de descriptores: De proceso (PRCB, Process Control Blocks). Incluye
apuntadores a los manejadores de objetos tipo proceso. Hay una tabla por cada
procesador del sistema. Asociada a ellas hay una tabla de control de regiones de
memoria, cuyas entradas apuntan a las regiones de memoria donde están las otras tablas
con información relativa al proceso.
Cola de temporizadores: Lista global de temporizadores activos de todo el sistema. Se
mantiene en el núcleo.
¿Cómo se gestiona el manejo de la memoria virtual?
Se gestiona en:
Lista de páginas libres: Almacena las páginas libres, es decir que han sido asignadas
alguna vez y liberadas posteriormente. Existen en el archivo de intercambio.
Lista de páginas a cero: Páginas sin iniciar. Cuando una página se referencia por
primera vez se asigna desde esta lista.
Lista de páginas modificadas: Páginas reemplazadas en memoria y cuyos contenidos
han sido modificados (escritos).
Lista de páginas en espera: Lista que aglutina páginas modificadas que todavía no se
liberan para evitar liberarlas y sobrescribirlas de forma prematura.
Podemos decir que el Virtual Memory Manager permite administrar la memoria virtual del
sistema. La memoria virtual es un esquema que le permite usar recursos de disco en
lugar de la memoria física del sistema moviendo páginas al disco cuando ya no están en
uso y recuperándose según sea necesario. El administrador de memoria virtual será el
encargado de traducir las diferentes direcciones de la memoria del proceso en direcciones
reales de la memoria del sistema.

¿Cuáles son los diferentes tipos de sistemas de archivo que se manejan?


Sistema de archivos FAT32
FAT Es uno de los sistemas de archivos desarrollado para MS DOS. Es el sucesor de
FAT16, que a su vez es el sucesor de FAT12. El tamaño máximo admitido por este
sistema es de 4 GB -1 bytes y se utiliza para intercambiar datos entre diferentes sistemas
operativos en la misma computadora. Además, también se utiliza en tarjetas de memoria
y dispositivos similares.
Sistema de archivos ExFAT
Se trata de una actualización de FAT32 introducida por Microsoft en Windows Vista en un
intento por acabar con los dolores de cabeza provocados por el límite de 4GB de su
hermano
Sistema de archivos FAT
El sistema de archivos FAT se caracteriza por una tabla de asignación de archivos (FAT),
que en realidad es una tabla ubicada en la parte superior del volumen. Para proteger el
volumen, se guardan dos copias del FAT en caso de que una se dañe. Además, las tablas
FAT y el directorio raíz deben almacenarse en una ubicación permanente para que los
archivos de inicio del sistema se puedan encontrar correctamente.
Sistema de archivos APFS
Es un nuevo sistema de archivos para dispositivos macOS, iOS y Apple. Si está
trabajando en una computadora con Windows y desea leer y guardar archivos en su disco
duro, SSD o unidad flash en formato APFS, necesita APFS para Windows de Paragon
Software. 9
Sistema de archivos HFS+
Ha sido uno de los sistemas de almacenamiento de alusión de Apple el que lo diseñó para
él. Ocurre que aun cuando los sistemas GNU / Linux tienen la posibilidad de laborar con él
sin inconvenientes, bajo Windows únicamente se puede leer el contenido de los discos
formateados con él, empero no redactar en ellos.
Sistemas de archivos EXT
Fue el primer sistema de archivos creado específicamente para el sistema operativo
Linux. Fue diseñado por Rémy Card para superar las limitaciones del sistema de archivos
MINIX. Fue reemplazado por ext2 y xiafs, incluida una competencia, finalmente fue
ganado por ext2, debido a su viabilidad a largo plazo.
Sistemas de archivos NTFS
Hablamos de un sistema de archivos bastante extendido debido a la fama de Microsoft y
que sirve para ordenar datos en discos duros y otros toleres de almacenamiento.

Servicios en Cloud Computing.


¿Con qué etapas y/o conceptos, se puede definir una estrategia para planificar la
evaluación de la conveniencia de migrar a la nube?
Para tener claro en concepto que es una migración en la nube, se puede determinar lo
siguiente: es el proceso de traslado de los activos digitales, que oscilan desde datos y
aplicaciones a un ambiente de nube pública y privada.
Se debe consideran los siguientes parámetros para determinar unas estrategias que son:
los datos que se desea subir, el costo de la inversión, la seguridad que nos brinda el
proveedor y por supuesto el desafío que conlleva hacer la migración a la hora de
comenzar a planificar un plan.
¿Cuáles serían los temas de análisis para determinar la conveniencia de migración
y qué ponderación darías a cada uno de ellos?
Rehost
Es el modelo de migración a la nube más sencillo, pero también el que tiene más
probabilidades de causar problemas, incrementar los costes y alienar los stakeholders
clave. El rehosting (o también llamado “lift and shift”), consiste simplemente en replicar un
sistema existente en una infraestructura cloud.
Este enfoque tiene la ventaja de ser rápido y fácil, pero también que las ineficiencias y
fallos se migrarán igualmente a la nube. Muchas de las experiencias negativas en
proyectos de migración a la nube reportadas proceden de empresas que eligieron este
modelo de migración sin evaluar plenamente el impacto que supondría.
Considero que para el rehost la ponderación adecuada es un 6/10 debido que todo lo que
tiene de bueno lo equilibra con lo malo que tiene
Re-platform
Es un modelo que implica cierto grado de análisis de negocio para identificar aquellos
procesos y servicios que puedan ser eliminados de vuestras operaciones. Si no se
dispone de un equipo con experiencia en este tipo de proyecto, es recomendable acudir a
partners expertos que, además, nos ayudarán a aprovechar al máximo las ventajas de las
tecnologías que no se dominan.
Cambiar a servicios gestionados facilita una migración a la nube relativamente rápida sin
necesidad de rediseñar la arquitectura de la aplicación/workload. Por eso, a esta “R” a
veces se le llama “Lift and Tweak”.
El Re-platform debido a las grandes cosas que muestra le doy un 8/10 dado que si no
contamos con un equipo experto debemos acudir a medios externos que nos ayuden con
aquello.
Re-purchase
Como sugiere el nombre, se trata simplemente de recomprar la versión SaaS de una
aplicación que ya usáis. ¿Microsoft Exchange? Cambiad a Office 365 y obtendréis la
funcionalidad Exchange incluida. ¿Microsoft Dynamics ERP? Cambiad a Dynamics 365.

Inicialmente, es probable que la dirección financiera no esté muy dispuesta a comprar


algo que ya tenéis, pero hay buenas razones para convencerla de que es lo mejor. En
primer lugar, el SaaS normalmente se licencia por usuario al mes, por lo que pasáis del
modelo de gasto CapEx al modelo OpEx y nunca pagaréis por lo que no uséis. En
segundo lugar, las aplicaciones on-site son una fuente de gasto en recursos internos, pero
si pasáis al SaaS la responsabilidad del hosting y mantenimiento de la aplicación recae
sobre el proveedor. En otras palabras, podéis generar un ahorro considerable
prescindiendo de los gastos en gestión de infraestructura.
El Re-purchase al ser algo continuo y que no varia mucho, simplemente permite pagar por
lo que le estas dando uso le doy un 10/10
Refactor
El enfoque más avanzado, pero más costoso, a la hora de migrar es el refactoring, que
implica rearquitecturizar aplicaciones y procesos para aprovechar las tecnologías cloud.
En lugar de crear un servidor virtual para hospedar la aplicación, la contenerizas y/o la
conectas a servicios cloud nativos.
Sí, tenéis que volver a desarrollar la aplicación (a veces desde cero), pero este enfoque
os asegura minimizar el uso de recursos cloud, aportando un mayor control sobre la
facturación. También os permite escalar mejor los servicios de aplicación y soporte, así
como los data sets, sin gastos procedentes de gestionar una granja de servidores
virtualizados.
El Refactor cuenta con grandes capacidades y disminuye el uso de recursos, sin
embargo, es altamente costoso, pero considero que es merecedor de un 10/10
Retain
En algunos casos, no hay razón convincente alguna para migrar un sistema a la nube.
Esto puede pasar por las condiciones de licenciamiento existentes (como claves de
licencia de hardware) o la incompatibilidad general con las plataformas cloud.
En estos casos, se conserva la aplicación tal como está. No significa que vuestra
estrategia de migración sea un fracaso, sino entender que no todo encaja en la nube.
Siempre hay alguna mejora o ahorro que hacer en otros planos.
El Retain nos replantea el considerar migrar a la nube, debido que no todos nos veremos
obligados a hacerlo y es merecedor de un 10/10
¿Cuáles son los riesgos de migrar los servicios a la nube?
Fuga de Datos o Data Breach: es cuando la falta de encriptación o alojamiento correcto
de tu información es filtrada por accidente o como resultado de un ataque deliberado
contra tu empresa.
Pérdida de información: esto sucede cuando migramos nuestros datos de una
plataforma física a una basada en la nube con ayuda de un proveedor no calificado.
Falsificación de cuentas: este fenómeno se presenta cuando tu información en la nube
es accesible para cualquier persona en tu empresa y no está lo suficientemente protegida
como para evitar que alguien con credenciales de acceso haga mal uso de tu red para
atacar a otras personas o cometer actos fraudulentos.
Ataque de Denegación de Servicio: es lo peor que puede sucederte cuando eres el
objetivo de un hacker. Consiste en derrumbar tu red y paralizar tus operaciones tras
recibir un ataque que simula no solo miles, sino millones de solicitudes de acceso a tu
plataforma digital para saturarla y tirarla.
Este tipo de ataques, además de afectar a tus usuarios, te hace perder dinero con cada
minuto que pasa sin que tu sistema se restablezca adecuadamente.
Interfaces inseguras: para entrar a la nube hay que hacerlo a través de una interfaz y su
seguridad depende mucho del blindaje de esta puerta de entrada.
Siguiendo este ejemplo, si nuestro proveedor no se toma el tiempo de proteger la interfaz
a la que tú y tus empleados entran a la base de datos de la compañía, es posible que su
seguridad acabe siendo vulnerada a la más mínima provocación.
Mal uso de tecnologías Cloud: como toda plataforma y herramienta, esta puede ser
usada de manera maliciosa o fraudulenta. La única forma de contrarrestar esta amenaza
es contratando a un experto en seguridad que ayude a concientizar a tus empleados y
limite el acceso a solo los más capacitados.
Desconocimiento de aspectos legales: existen temas contractuales muy minuciosos
que deben tomarse en cuenta al migrar a la nube y desconocerlos te pondrá en completa
desventaja con cualquier proveedor.
¿A qué se refiere la pérdida de visibilidad?
Una vez que migre a la nube, y durante el proceso de migración, no tendrá una visibilidad
clara del nivel de red. La única manera de obtener información sobre la red de la nube y
algunas partes del sistema operativo será a través de proveedores de servicios basados
en la nube.
Los proveedores de nube tampoco proporcionan datos sobre la experiencia de los
usuarios ni la capacidad de mirar conversaciones. Que no se puede medir con precisión la
calidad de la experiencia del cliente mediante los datos que brindan los proveedores de
nube.
¿Qué impacto se tiene al no poder medir el rendimiento? ¿hay alternativas?
Los problemas de rendimiento son un aspecto importante a considerar en redes nuevas
en la nube. Cuando migre a la nube, y durante el proceso de migración, no tendrá datos
de rendimiento de red claros dentro de su entorno. Durante el proceso de migración, el
monitoreo proactivo de los entornos, tanto de sus instalaciones como de la nube, será de
utilidad.
¿Qué tipo de proveedores de servicios en la nube existen?
 Amazon
 Microsoft
 Google Cloud
 IBM
 SAP
 OpenStack
¿Qué diferencias encuentras entre proveedores?
Microsoft: Ofrece una manera de proteger la información importante con una copia de
seguridad automática dentro de un servicio de almacenamiento. Las copias de seguridad
quedan cifradas antes de la transmisión y se almacenan cifras en Windows Azure.
Amazon: Ofrece el servicio Amazon CloudWatch para monitorizar las aplicaciones que
están siendo ejecutadas en la plataforma. Este servicio permite realizar el seguimiento de
distintas métricas, visualizar archivos de registro, configurar alarmas y reaccionar
automáticamente a cambios en los recursos del cliente dentro de la plataforma.
IBM: Ofrece la plataforma IBM SmartCloud. Esta plataforma ha sido diseñada para
garantizar un alto rendimiento y una alta disponibilidad. Existe la posibilidad de definir
acuerdos de nivel de servicio (SLA) personalizados, para sincronizar en la mayor medida
posible las necesidades de negocio y los requisitos de uso.
SAP: proporciona productos y servicios de software para solucionar problemas en las
empresas que surgen del entorno competitivo mundial, los desarrollos de estrategias de
satisfacción al cliente, las necesidades de innovación tecnológica, procesos de calidad y
mejoras continuas
Google Cloud: Esta plataforma también ofrece herramientas para facilitar el desarrollo en
IDEs como Android Studio, IntelliJ, Visual Studio o Eclipse. La App Engine SDK permite
probar aplicaciones de forma local en un entorno simulado y luego implementar una
aplicación con las herramientas de línea de comandos simples o el lanzador en el
escritorio.
OpenStack: Proporciona herramientas que pueden ser usadas para configurar y ejecutar
los servicios cloud computing. También, OpenStack tiene sus servicios disponibles
mediante una API compatible con los servicios cloud de Amazon.

¿Serán mayores los riesgos que los beneficios al migrar a la nube?


Hay que conocer los riesgos y los beneficios que aportan migrar a la nube para poder
evaluarlos. Los beneficios son que aportan ganancias en productividad, seguridad y
reducción de costos. Los riesgos serian un retraso en la comunicación entre el dispositivo
de acceso y los servidores externos.
¿Cuál sería la complejidad de salir de la nube?
La llegada de la computación en la nube es una de las innovaciones tecnológicas más
beneficiosas para las empresas de los últimos tiempos. Sin embargo, eso no significa que
no haya algunos problemas de sistemas en la nube a los que deba hacerse frente.
Adaptarse a las nuevas tecnologías proporciona ventajas enormes, pero existen riesgos
asociados a estas nuevas herramientas que conviene tener en cuenta para evitar futuros
problemas de sistemas. Por ello, encontramos cuatro puntos, que son los más comunes
con la complejidad más común al querer salir de la nube son:
 Problemas de sistemas en la nube relacionados con la seguridad.
 Posible tiempo de inactividad.
 Problemas de compatibilidad de la nube.
 Problemas de atención al cliente.

También podría gustarte