Descargue como DOCX, PDF, TXT o lea en línea desde Scribd
Descargar como docx, pdf o txt
Está en la página 1de 8
Estudio caso de windows
¿Cuáles son los principios de diseño de Windows?
Compatibilidad Transportabilidad Escalabilidad Seguridad Fiabilidad y robustez Procesamiento distribuido Eficiencia ¿Cuáles consideras, serían los tres más importantes? Las 3 más importantes serian: Seguridad: Uno de los requisitos fundamentales de diseño de Windows fue proporcionar un nivel de seguridad C2 de acuerdo a la clasificación del DOD. Para ello se diseñó una arquitectura de seguridad, basada en un monitor de seguridad, que proporciona servicios de seguridad a todos los componentes del sistema operativo y a las aplicaciones externas al mismo. Eficiencia: Los diseñadores de Windows se plantearon diseñar un sistema muy eficiente, tanto en monoprocesadores como en multiprocesadores. Para ello construyeron un modelo de proceso basado en procesos ligeros y un sistema de entrada/salida muy compacta en el que todos sus componentes se usan como manejadores de dispositivos. Compatibilidad: Tanto con los sistemas anteriores (interfaz gráfico y sistemas de archivos FAT de Windows 3.x) como con otros sistemas operativos (OS/2, POSIX, etc.) y con distintos entornos de red. La compatibilidad se logra mediante el uso de subsistemas que emulan los servicios de los distintos sistemas operativos. Los emuladores son similares a las máquinas virtuales de MVS. ¿Cómo se estructura y almacena la información del modelo de objetos del núcleo? Se estructura en: Objetos de planificación: Permiten controlar la ejecución y sincronización de operaciones del sistema mediante una señal de estado. Los eventos, mutantes, mutex, semáforos, threads y temporizadores pertenecen a este tipo de objetos. Los mutantes son el equivalente a los mutex, pero nivel de usuario y concepto de propiedad. Los mutex sólo están disponibles en el modo núcleo.
Objetos de control: Permiten controlar las operaciones del núcleo, pero no la
planificación. Dentro de este tipo de objeto se agrupan las interrupciones, las llamadas asíncronas a procedimiento, los procesos y los perfiles de ejecución. Todos ellos permiten controlar la ejecución de las operaciones del núcleo llamando a un procedimiento durante la ejecución de un thread, conectando interrupciones a un servicio a través de la tabla de interrupciones (IDT, Interrupt Dispatch Table), o iniciando un proceso y capturando la información de su tiempo de ejecución en distintos bloques de código. Almacena la información en : Tabla de interrupciones: (IDT, Interrupt Dispatch Table). Asocia las interrupciones con las rutinas que las gestionan. Tabla de descriptores: De proceso (PRCB, Process Control Blocks). Incluye apuntadores a los manejadores de objetos tipo proceso. Hay una tabla por cada procesador del sistema. Asociada a ellas hay una tabla de control de regiones de memoria, cuyas entradas apuntan a las regiones de memoria donde están las otras tablas con información relativa al proceso. Cola de temporizadores: Lista global de temporizadores activos de todo el sistema. Se mantiene en el núcleo. ¿Cómo se gestiona el manejo de la memoria virtual? Se gestiona en: Lista de páginas libres: Almacena las páginas libres, es decir que han sido asignadas alguna vez y liberadas posteriormente. Existen en el archivo de intercambio. Lista de páginas a cero: Páginas sin iniciar. Cuando una página se referencia por primera vez se asigna desde esta lista. Lista de páginas modificadas: Páginas reemplazadas en memoria y cuyos contenidos han sido modificados (escritos). Lista de páginas en espera: Lista que aglutina páginas modificadas que todavía no se liberan para evitar liberarlas y sobrescribirlas de forma prematura. Podemos decir que el Virtual Memory Manager permite administrar la memoria virtual del sistema. La memoria virtual es un esquema que le permite usar recursos de disco en lugar de la memoria física del sistema moviendo páginas al disco cuando ya no están en uso y recuperándose según sea necesario. El administrador de memoria virtual será el encargado de traducir las diferentes direcciones de la memoria del proceso en direcciones reales de la memoria del sistema.
¿Cuáles son los diferentes tipos de sistemas de archivo que se manejan?
Sistema de archivos FAT32 FAT Es uno de los sistemas de archivos desarrollado para MS DOS. Es el sucesor de FAT16, que a su vez es el sucesor de FAT12. El tamaño máximo admitido por este sistema es de 4 GB -1 bytes y se utiliza para intercambiar datos entre diferentes sistemas operativos en la misma computadora. Además, también se utiliza en tarjetas de memoria y dispositivos similares. Sistema de archivos ExFAT Se trata de una actualización de FAT32 introducida por Microsoft en Windows Vista en un intento por acabar con los dolores de cabeza provocados por el límite de 4GB de su hermano Sistema de archivos FAT El sistema de archivos FAT se caracteriza por una tabla de asignación de archivos (FAT), que en realidad es una tabla ubicada en la parte superior del volumen. Para proteger el volumen, se guardan dos copias del FAT en caso de que una se dañe. Además, las tablas FAT y el directorio raíz deben almacenarse en una ubicación permanente para que los archivos de inicio del sistema se puedan encontrar correctamente. Sistema de archivos APFS Es un nuevo sistema de archivos para dispositivos macOS, iOS y Apple. Si está trabajando en una computadora con Windows y desea leer y guardar archivos en su disco duro, SSD o unidad flash en formato APFS, necesita APFS para Windows de Paragon Software. 9 Sistema de archivos HFS+ Ha sido uno de los sistemas de almacenamiento de alusión de Apple el que lo diseñó para él. Ocurre que aun cuando los sistemas GNU / Linux tienen la posibilidad de laborar con él sin inconvenientes, bajo Windows únicamente se puede leer el contenido de los discos formateados con él, empero no redactar en ellos. Sistemas de archivos EXT Fue el primer sistema de archivos creado específicamente para el sistema operativo Linux. Fue diseñado por Rémy Card para superar las limitaciones del sistema de archivos MINIX. Fue reemplazado por ext2 y xiafs, incluida una competencia, finalmente fue ganado por ext2, debido a su viabilidad a largo plazo. Sistemas de archivos NTFS Hablamos de un sistema de archivos bastante extendido debido a la fama de Microsoft y que sirve para ordenar datos en discos duros y otros toleres de almacenamiento.
Servicios en Cloud Computing.
¿Con qué etapas y/o conceptos, se puede definir una estrategia para planificar la evaluación de la conveniencia de migrar a la nube? Para tener claro en concepto que es una migración en la nube, se puede determinar lo siguiente: es el proceso de traslado de los activos digitales, que oscilan desde datos y aplicaciones a un ambiente de nube pública y privada. Se debe consideran los siguientes parámetros para determinar unas estrategias que son: los datos que se desea subir, el costo de la inversión, la seguridad que nos brinda el proveedor y por supuesto el desafío que conlleva hacer la migración a la hora de comenzar a planificar un plan. ¿Cuáles serían los temas de análisis para determinar la conveniencia de migración y qué ponderación darías a cada uno de ellos? Rehost Es el modelo de migración a la nube más sencillo, pero también el que tiene más probabilidades de causar problemas, incrementar los costes y alienar los stakeholders clave. El rehosting (o también llamado “lift and shift”), consiste simplemente en replicar un sistema existente en una infraestructura cloud. Este enfoque tiene la ventaja de ser rápido y fácil, pero también que las ineficiencias y fallos se migrarán igualmente a la nube. Muchas de las experiencias negativas en proyectos de migración a la nube reportadas proceden de empresas que eligieron este modelo de migración sin evaluar plenamente el impacto que supondría. Considero que para el rehost la ponderación adecuada es un 6/10 debido que todo lo que tiene de bueno lo equilibra con lo malo que tiene Re-platform Es un modelo que implica cierto grado de análisis de negocio para identificar aquellos procesos y servicios que puedan ser eliminados de vuestras operaciones. Si no se dispone de un equipo con experiencia en este tipo de proyecto, es recomendable acudir a partners expertos que, además, nos ayudarán a aprovechar al máximo las ventajas de las tecnologías que no se dominan. Cambiar a servicios gestionados facilita una migración a la nube relativamente rápida sin necesidad de rediseñar la arquitectura de la aplicación/workload. Por eso, a esta “R” a veces se le llama “Lift and Tweak”. El Re-platform debido a las grandes cosas que muestra le doy un 8/10 dado que si no contamos con un equipo experto debemos acudir a medios externos que nos ayuden con aquello. Re-purchase Como sugiere el nombre, se trata simplemente de recomprar la versión SaaS de una aplicación que ya usáis. ¿Microsoft Exchange? Cambiad a Office 365 y obtendréis la funcionalidad Exchange incluida. ¿Microsoft Dynamics ERP? Cambiad a Dynamics 365.
Inicialmente, es probable que la dirección financiera no esté muy dispuesta a comprar
algo que ya tenéis, pero hay buenas razones para convencerla de que es lo mejor. En primer lugar, el SaaS normalmente se licencia por usuario al mes, por lo que pasáis del modelo de gasto CapEx al modelo OpEx y nunca pagaréis por lo que no uséis. En segundo lugar, las aplicaciones on-site son una fuente de gasto en recursos internos, pero si pasáis al SaaS la responsabilidad del hosting y mantenimiento de la aplicación recae sobre el proveedor. En otras palabras, podéis generar un ahorro considerable prescindiendo de los gastos en gestión de infraestructura. El Re-purchase al ser algo continuo y que no varia mucho, simplemente permite pagar por lo que le estas dando uso le doy un 10/10 Refactor El enfoque más avanzado, pero más costoso, a la hora de migrar es el refactoring, que implica rearquitecturizar aplicaciones y procesos para aprovechar las tecnologías cloud. En lugar de crear un servidor virtual para hospedar la aplicación, la contenerizas y/o la conectas a servicios cloud nativos. Sí, tenéis que volver a desarrollar la aplicación (a veces desde cero), pero este enfoque os asegura minimizar el uso de recursos cloud, aportando un mayor control sobre la facturación. También os permite escalar mejor los servicios de aplicación y soporte, así como los data sets, sin gastos procedentes de gestionar una granja de servidores virtualizados. El Refactor cuenta con grandes capacidades y disminuye el uso de recursos, sin embargo, es altamente costoso, pero considero que es merecedor de un 10/10 Retain En algunos casos, no hay razón convincente alguna para migrar un sistema a la nube. Esto puede pasar por las condiciones de licenciamiento existentes (como claves de licencia de hardware) o la incompatibilidad general con las plataformas cloud. En estos casos, se conserva la aplicación tal como está. No significa que vuestra estrategia de migración sea un fracaso, sino entender que no todo encaja en la nube. Siempre hay alguna mejora o ahorro que hacer en otros planos. El Retain nos replantea el considerar migrar a la nube, debido que no todos nos veremos obligados a hacerlo y es merecedor de un 10/10 ¿Cuáles son los riesgos de migrar los servicios a la nube? Fuga de Datos o Data Breach: es cuando la falta de encriptación o alojamiento correcto de tu información es filtrada por accidente o como resultado de un ataque deliberado contra tu empresa. Pérdida de información: esto sucede cuando migramos nuestros datos de una plataforma física a una basada en la nube con ayuda de un proveedor no calificado. Falsificación de cuentas: este fenómeno se presenta cuando tu información en la nube es accesible para cualquier persona en tu empresa y no está lo suficientemente protegida como para evitar que alguien con credenciales de acceso haga mal uso de tu red para atacar a otras personas o cometer actos fraudulentos. Ataque de Denegación de Servicio: es lo peor que puede sucederte cuando eres el objetivo de un hacker. Consiste en derrumbar tu red y paralizar tus operaciones tras recibir un ataque que simula no solo miles, sino millones de solicitudes de acceso a tu plataforma digital para saturarla y tirarla. Este tipo de ataques, además de afectar a tus usuarios, te hace perder dinero con cada minuto que pasa sin que tu sistema se restablezca adecuadamente. Interfaces inseguras: para entrar a la nube hay que hacerlo a través de una interfaz y su seguridad depende mucho del blindaje de esta puerta de entrada. Siguiendo este ejemplo, si nuestro proveedor no se toma el tiempo de proteger la interfaz a la que tú y tus empleados entran a la base de datos de la compañía, es posible que su seguridad acabe siendo vulnerada a la más mínima provocación. Mal uso de tecnologías Cloud: como toda plataforma y herramienta, esta puede ser usada de manera maliciosa o fraudulenta. La única forma de contrarrestar esta amenaza es contratando a un experto en seguridad que ayude a concientizar a tus empleados y limite el acceso a solo los más capacitados. Desconocimiento de aspectos legales: existen temas contractuales muy minuciosos que deben tomarse en cuenta al migrar a la nube y desconocerlos te pondrá en completa desventaja con cualquier proveedor. ¿A qué se refiere la pérdida de visibilidad? Una vez que migre a la nube, y durante el proceso de migración, no tendrá una visibilidad clara del nivel de red. La única manera de obtener información sobre la red de la nube y algunas partes del sistema operativo será a través de proveedores de servicios basados en la nube. Los proveedores de nube tampoco proporcionan datos sobre la experiencia de los usuarios ni la capacidad de mirar conversaciones. Que no se puede medir con precisión la calidad de la experiencia del cliente mediante los datos que brindan los proveedores de nube. ¿Qué impacto se tiene al no poder medir el rendimiento? ¿hay alternativas? Los problemas de rendimiento son un aspecto importante a considerar en redes nuevas en la nube. Cuando migre a la nube, y durante el proceso de migración, no tendrá datos de rendimiento de red claros dentro de su entorno. Durante el proceso de migración, el monitoreo proactivo de los entornos, tanto de sus instalaciones como de la nube, será de utilidad. ¿Qué tipo de proveedores de servicios en la nube existen? Amazon Microsoft Google Cloud IBM SAP OpenStack ¿Qué diferencias encuentras entre proveedores? Microsoft: Ofrece una manera de proteger la información importante con una copia de seguridad automática dentro de un servicio de almacenamiento. Las copias de seguridad quedan cifradas antes de la transmisión y se almacenan cifras en Windows Azure. Amazon: Ofrece el servicio Amazon CloudWatch para monitorizar las aplicaciones que están siendo ejecutadas en la plataforma. Este servicio permite realizar el seguimiento de distintas métricas, visualizar archivos de registro, configurar alarmas y reaccionar automáticamente a cambios en los recursos del cliente dentro de la plataforma. IBM: Ofrece la plataforma IBM SmartCloud. Esta plataforma ha sido diseñada para garantizar un alto rendimiento y una alta disponibilidad. Existe la posibilidad de definir acuerdos de nivel de servicio (SLA) personalizados, para sincronizar en la mayor medida posible las necesidades de negocio y los requisitos de uso. SAP: proporciona productos y servicios de software para solucionar problemas en las empresas que surgen del entorno competitivo mundial, los desarrollos de estrategias de satisfacción al cliente, las necesidades de innovación tecnológica, procesos de calidad y mejoras continuas Google Cloud: Esta plataforma también ofrece herramientas para facilitar el desarrollo en IDEs como Android Studio, IntelliJ, Visual Studio o Eclipse. La App Engine SDK permite probar aplicaciones de forma local en un entorno simulado y luego implementar una aplicación con las herramientas de línea de comandos simples o el lanzador en el escritorio. OpenStack: Proporciona herramientas que pueden ser usadas para configurar y ejecutar los servicios cloud computing. También, OpenStack tiene sus servicios disponibles mediante una API compatible con los servicios cloud de Amazon.
¿Serán mayores los riesgos que los beneficios al migrar a la nube?
Hay que conocer los riesgos y los beneficios que aportan migrar a la nube para poder evaluarlos. Los beneficios son que aportan ganancias en productividad, seguridad y reducción de costos. Los riesgos serian un retraso en la comunicación entre el dispositivo de acceso y los servidores externos. ¿Cuál sería la complejidad de salir de la nube? La llegada de la computación en la nube es una de las innovaciones tecnológicas más beneficiosas para las empresas de los últimos tiempos. Sin embargo, eso no significa que no haya algunos problemas de sistemas en la nube a los que deba hacerse frente. Adaptarse a las nuevas tecnologías proporciona ventajas enormes, pero existen riesgos asociados a estas nuevas herramientas que conviene tener en cuenta para evitar futuros problemas de sistemas. Por ello, encontramos cuatro puntos, que son los más comunes con la complejidad más común al querer salir de la nube son: Problemas de sistemas en la nube relacionados con la seguridad. Posible tiempo de inactividad. Problemas de compatibilidad de la nube. Problemas de atención al cliente.