Lobaton LG
Lobaton LG
PRESENTADA POR
LIMA – PERÚ
2014
Reconocimiento - No comercial - Sin obra derivada
CC BY-NC-ND
El autor sólo permite que se pueda descargar esta obra y compartirla con otras personas, siempre que se
reconozca su autoría, pero no se puede cambiar de ninguna manera ni se puede utilizar comercialmente.
http://creativecommons.org/licenses/by-nc-nd/4.0/
ESCUELA PROFESIONAL DE INGENIERÍA DE COMPUTACIÓN Y
SISTEMAS
TESIS
PRESENTADO POR
LIMA – PERÚ
2014
i
ii
A mi madre, porque a ella le debo
todo lo que soy.
A mi padre, que desde el cielo guía
con orgullo cada uno de mis logros
A mi hermana, que siempre me
apoyó y guió con su experiencia y
buenos consejos.
A Melina, quien siempre me
acompañó, apoyó y tuvo inmensa
paciencia en este largo camino.
A todos los mencionados les dedico
mi empeño y mis ganas de seguir
adelante, por eso este documento
está dedicado a ellos.
iii
En primer lugar agradezco a Dios por
darme la sabiduría suficiente como
para concluir esta tesis.
A mis padres, quienes siempre han
sido mi soporte, los que me apoyan e
impulsan a ser mejor persona y
profesional.
A mis hermanas, a quienes quiero
mucho, ellas me enseñaron que con
la perseverancia se llega a cumplir
las metas
A mi enamorada, quien todo este
tiempo me apoyó e inspiró con
paciencia para seguir adelante a
pesar de las dificultades
A mis primos, tíos y amigos, quienes
tienen confianza en mí y me
recuerdan siempre lo importante que
es el deseo de superación
iv
AGRADECIMIENTOS
A nuestras familias
A los amigos del Ministerio de
Transportes y Comunicaciones que
nos apoyaron con sus conocimientos
e información.
A nuestros amigos del entorno
profesional que nos brindaron
información de gran ayuda en este
proyecto.
A la Universidad de San Martín de
Porres que nos brindó la oportunidad
de participar en el taller de tesis.
A los señores del jurado y a nuestros
asesores, los Ingenieros Norma León
Lescano y Jesús León Lamas,
quienes con su conocimiento,
experiencia y consejos nos
orientaron de la mejor manera para
poder concluir nuestra tesis.
A todos ellos, les agradecemos
mucho por su intervención en el
desarrollo de este documento.
v
ÍNDICE
RESUMEN ................................................................................................. xi
ABSTRACT ........................................................................................... xiiiiii
INTRODUCCIÓN ..................................................................................... xiv
vi
CAPÍTULO III: DESARROLLO DEL PROYECTO
3.1. Análisis de la Situación Inicial ......................................................... 49
3.2. Requerimiento de la Nueva Infraestructura Virtual .......................... 55
3.3. Implementación de la Nueva Infraestructura Virtual ........................ 56
3.4. Pruebas y Capacitación del Personal. ............................................. 72
3.5. Migración de los Servidores Físicos a Virtuales .............................. 75
CONCLUSIONES .................................................................................... 96
RECOMENDACIONES ............................................................................ 98
FUENTES DE INFORMACIÓN................................................................ 99
ANEXOS ................................................................................................ 108
vii
TABLA DE FIGURAS
viii
Figura 17: Tabla comparativa Hyper-V Server vs vSphere4.1 .................................... 30
Figura 18: Proceso de Consolidación de Servidores Fuente: Propia - MTC ............... 31
Figura 19: Plan de Migración y Piloto ......................................................................... 33
Figura 20: Secuencia de Pasos de la Metodología ..................................................... 45
Figura 21: Actividades dentro de la Metodología ........................................................ 48
Figura 22: Inventario de Servidores ............................................................................ 49
Figura 23: Inventario de Equipos de Red.................................................................... 50
Figura 24: Diagrama de Red ....................................................................................... 50
Figura 25: Inventario de Aplicaciones ......................................................................... 51
Figura 26: Documento de Requerimiento de la nueva Infraestructura Virtual............. 56
Figura 27: Nueva Infraestructura Virtual seleccionada ............................................... 57
Figura 28: Requisitos Eléctricos y Físicos para la instalación del Hardware .............. 58
Figura 29: Requisitos de Red...................................................................................... 59
Figura 30: Cronograma de Trabajo ............................................................................. 60
Figura 31: Diseño de la Solución ................................................................................ 63
Figura 32: Arquitectura del Hardware externa ............................................................ 64
Figura 33: Arquitectura del Hardware interna ............................................................. 65
Figura 34: Instalación de Servidores Blade DELL....................................................... 66
Figura 35: Instalación de Storage EQUALLOGIC DELL ............................................. 67
Figura 36: LUN creadas y asignadas a la solución Hardware .................................... 68
Figura 37: Instalación de VMware ESX ...................................................................... 69
Figura 38: Instalación de VMware vSphere Client ...................................................... 70
Figura 39: Clústers de host VMware y las máquinas virtuales .................................... 71
Figura 40: Creación de Máquina Virtual...................................................................... 72
Figura 41: Windows Server y Red Hat Linux en la nueva infraestructura ................... 73
Figura 42: Capacitación Linux..................................................................................... 74
Figura 43: Certificado VMware Profesional Avanzado ................................................ 74
Figura 44: Sello de Certificación de DELL .................................................................. 75
Figura 45: Migración de Servidores Físicos a Virtuales .............................................. 75
Figura 46: Software VMware Converter ...................................................................... 76
Figura 47: Pantalla de Acceso de VMware Converter ................................................ 77
ix
Figura 48: Proceso de Conversión del VMware Converter ......................................... 78
Figura 49: vSphere Client ........................................................................................... 79
Figura 50: Listado de pruebas .................................................................................... 80
Figura 51: Alta Disponibilidad de Servicios Informáticos ............................................ 82
Figura 52: VMotion...................................................................................................... 82
Figura 53: Resultado de Reducción de Costos de Energía ........................................ 83
Figura 54 : Resultado de Virtualización en Espacio Físico ......................................... 85
Figura 55: Performance de todas las Máquinas Virtuales y sus características ......... 86
Figura 56: Diagrama de conexiones e Interrelación de Máquinas Virtuales ............... 87
Figura 57: Ahorro costo Horas/Hombre Fuente: Propia - MTC ................................... 88
Figura 58: Disponibilidad de Recursos de Hardware .................................................. 89
Figura 59: Consumo por Host ESX ............................................................................. 90
Figura 60: Diagrama de desempeño de CPU ............................................................. 90
Figura 61: Diagrama de desempeño de Memoria ....................................................... 91
Figura 62: Diagrama de desempeño de Disco Duro ................................................... 91
Figura 63: Creación de nuevos Servidores Virtuales .................................................. 92
Figura 64: Modificación de Servidores Virtuales existentes ........................................ 93
x
RESUMEN
xi
Como resultado, se consiguió implementar una plataforma de
virtualización que sea capaz de soportar todos los servicios informáticos que
se brindan, reduciendo esfuerzos en la gestión como en el área económica, e
incrementando la fuerza de la solución para soportar proyectos nuevos a
futuro.
xii
ABSTRACT
xiii
INTRODUCCIÓN
xiv
servidores físicos en los centros de cómputo, se logran reducciones muy
importantes en otros costos asociados al número de servidores.
xv
beneficios, tanto de manera general como dentro de un organismo específico
como el MTC.
xvi
CAPÍTULO I: MARCO TEÓRICO
1.1. Problema
1.2. Objetivos
Objetivo General
1
de solución que es la implementación de virtualización de servidores en el
centro de cómputo del MTC.
Objetivos Específicos:
1.3. Justificación
2
de los fabricantes y piezas de reemplazo que generaban alto riesgo la
disponibilidad de los servicios que brinda la oficina de tecnología.
1.4. Alcance
1.5. Premisas
3
se elige la virtualización, se estaría perdiendo recursos económicos y/o la
implementación podría ser menos efectiva.
1.6. Antecedentes
4
una de las otras, y cada una utilizando los recursos provistos por el
“mainframe”. 1
5
“La virtualización es la estrategia transversal para toda
organización cuyo impacto en la infraestructura, procesos,
operaciones y personas es favorable para el cumplimiento
de los cambiantes y ambiciosos objetivos del negocio, lo
que la convierte en la tendencia de mayor vigencia y
relevancia en la actualidad”
Es por esto que vuelve a resurgir la idea de dividir el hardware, de manera tal
que funcione como múltiples servidores independientes pero compartiendo
los recursos de un mismo servidor físico. Y es de aquí que nace lo que hoy
todos conocemos como “Virtualización”. 2
Caso N°01
6
La virtualización supera expectativas de Laboratorios RIMSA
7
Figura 2: Caso de éxito 1
Fuente: (Julio Cesar Cuevas, 2012)
Caso N°02
8
sustancialmente la asistencia de sus centros de datos, uso de servidores,
ahorros en tiempos de respuestas, consumo de energía eléctrica e
inversiones en equipos tecnológicos.
Jhoanna Terán, Gerente de TI del Departamento de Tecnología de Hierro
Barquisimeto resalta "la tecnología de VMware permitió optimizar los
recursos de los servidores empresariales al facilitar la administración de
varios servidores virtuales dentro del mismo equipo".
Caso N°03
9
las aguas residuales de, aproximadamente, un millón de habitantes de
Bizkaia. 6
6 (redestelecom.es, 2012)
7 (OMEGA, 2012)
10
Machine Monitor) que crea una capa de la abstracción entre el hardware de
la maquina física (host) y el sistema operativo de la máquina virtual (virtual
machine, guest)., siendo un medio para crear una versión virtual de un
dispositivo o recurso, como un servidor, un dispositivo de almacenamiento,
una red o incluso un sistema operativo, donde se divide el recurso en uno o
más entornos de ejecución, esta capa de software (VMM) maneja, gestiona y
arbitra los cuatro recursos principales de una computadora (CPU, Memoria,
Red, Almacenamiento) y así podrá repartir dinámicamente dichos recursos
entre todas las máquinas virtuales definidas en el computador central. De
modo que nos permite tener varios ordenadores virtuales ejecutándose sobre
el mismo ordenador físico. 8
11
Figura 5: Técnica de Virtualización
Fuente: (otiasis, 2008)
12
El Hipervisor crea particiones, segmentos aislados o entornos virtuales en un
único servidor HOST físico, también crea una instancia de sistema operativo
para cada partición. También se le conoce a la capa base como “kernel” el
cual se carga directamente en el servidor. Para distribuir el hardware del
servidor HOST y sus recursos a las máquinas virtuales el Hipervisor utiliza un
código prediseñado para tales fines. La siguiente capa superior muestra cada
chip, placa, etc. que debe dividirse para asignarse a las máquinas virtuales.
La capa siguiente es cada uno de los sistemas operativos que utilizarán las
máquinas virtuales. 10
13
sólo programa, esto permite la coexistencia de diversos sistemas operativos
sobre una sola plataforma de hardware única. En lugar de almacenar
diferentes archivos en cada sistema operativo, todos los S.O. dentro de un
Hipervisor acceden a los mismos archivos que están localizados en el
sistema operativo primario y que son utilizados para ejecutar programas
específicos, que sólo son compatibles con algunos sistemas operativos.
Ejemplo del uso de recursos en los diferentes ambientes, se sabe que sólo el
15% del CPU es utilizado en cada PC por lo que existe capacidad instalada
inutilizada que puede aprovecharse.
a) Consolidación
14
inconvenientes no se debe instalar más de una aplicación o servicio en el
mismo servidor, ya que cada servidor se encuentra dedicado a una carga de
trabajo en específico.
Figura 8: Consolidación
Fuente: (Gómez López, 2011)
b) Compatibilidad
11 (ramonmorillo, 2011)
12 (P.Ruiz, 2013)
15
Figura 9: Compatibilidad
Fuente: (maxsantito, 2013)
c) Aislamiento
d) Encapsulamiento
16
cualquier medio de almacenamiento de datos estándar, desde una memoria
USB de bolsillo hasta las redes de almacenamiento SAN o NAS.
1.7.4 Beneficios
17
• Supervivencia de aplicaciones legacy, toda empresa cuenta con aplicaciones
legacy que han sido heredadas con el tiempo, se podrán resolver problemas
de soporte y mantenimiento que actualmente los proveedores ya no
garantizan ni contemplan.
• Tareas de copias de respaldo más simples, los backups son mucho más
simples ya basta con copiar el directorio que contiene los archivos
de configuración y el servidor virtual y con eso ya tenemos el backup de
nuestro servidor virtual, este mismo puede ser montado en otro equipo para
virtualizar.
18
sistema en general, si esto llegara a suceder, se puede retornar a un estado
anterior del sistema, mediante la toma de una instantánea o snapshot. 14
19
• Crecimiento descontrolado, la facilidad de creación de máquinas virtuales
puede generar el crecimiento descontrolado de las mismas, pudiendo perder
el control de lo que se tiene.
20
adicional pueden hacer que las arquitecturas cliente/servidor distribuidas
sean más caras que las arquitecturas de mainframe centralizadas.
21
Figura 11: Migración P2V (Physical to Virtual)
Fuente: (siliconweek, 2009)
22
Figura 12: Soluciones de Hardware
Fuente: (El Diario PRIMERA EDICION, 2014)
23
Figura 13: Soluciones de Virtualización a través del cuadrante de Gartner
Fuente: (technet, 2013)
a) VMware
24
más de uno), BIOS, tarjeta gráfica, memoria RAM, tarjeta de red, sistema de
sonido, conexión USB, disco duro (pueden ser más de uno), etc. 18
Funcionamiento.
25
cada uno de ellos tenga acceso a los recursos que necesita cuando los
necesita.
26
Características de VMware
27
Tolerancia a fallos (Fault Tolerance): Un innovador servicio de
aplicaciones, proporciona disponibilidad sin tiempo de inactividad ni
pérdida de datos a todas las aplicaciones frente a fallos de hardware sin el
coste y la complejidad de soluciones clústerizadas de hardware o
software.
b) Hyper-V.
28
remotamente por Windows Server 2008 o 2012 así como también Windows 7
y 8, pero estos dos últimos necesitan tener instalado un paquete de
actualizaciones que permite la administración remota de Hyper-V. También
puede ser administrado por MMC y Powershell. 19
Características:
Tabla comparativa:
29
Figura 17: Tabla comparativa Hyper-V Server vs vSphere4.1
Fuente: (aidan finn, 2013)
30
casi inmediato los recursos que los clientes y usuarios necesiten para sus
proyectos.
• Valorar la infraestructura
31
Se creará un equipo de personas idóneo para el levantamiento de
información y los futuros procesos de virtualización, también llevarán a cabo
las pruebas antes y después de ejecutado el proceso. Se debe planificar la
compra de los recursos informáticos y considerar los tiempos de entrega por
parte del proveedor.
32
Figura 19: Plan de Migración y Piloto
Fuente: Propia - MTC
1.8.1 Glosario
33
extiende más allá del año imponible. Los CAPEX son utilizados por una
compañía para adquirir o mejorar los activos fijos tales como
equipamientos, propiedades o edificios industriales.
34
desarrollo de aplicaciones (frameworks) de código abierto. Está disponible
gratuitamente bajo condiciones de servicio específicas.
35
Sunnyvale, California. Es actualmente junto con Enterasys, la competencia
más directa de Cisco, sobre todo en Europa.
36
operativo, los programas y la mayoría del software. Es allí donde se
cargan todas las instrucciones que ejecutan el procesador y otras
unidades de cómputo. Se denominan “de acceso aleatorio” porque se
puede leer o escribir en una posición de memoria con un tiempo de espera
igual para cualquier posición, no siendo necesario seguir un orden para
acceder a la información de la manera más rápida posible.
37
Opex: Un OPEX, del inglés "Operating expense", es un costo permanente
para el funcionamiento de un producto, negocio o sistema. Puede
traducirse como gasto de funcionamiento, gastos operativos, o gastos
operacionales.
Su contraparte, el gasto de capital (Capex), es el costo de desarrollo o el
suministro de componentes no consumibles para el producto o sistema.
Por ejemplo, la compra de una fotocopiadora implica gastos de capital, y el
documento anual, tóner, potencia y costo de mantenimiento representa los
gastos operativos
38
operativo, lenguaje de programación o interfaz de usuario compatibles.
39
Servidor Blade: Un servidor blade es un tipo de computadora para
los centros de proceso de datos específicamente diseñada para
aprovechar el espacio, reducir el consumo y simplificar su explotación.
40
red), dado que funcionan como un filtro en la red, mejoran el rendimiento y
la seguridad de las redes de área local.
41
Windows llegó a dominar el mercado mundial de computadoras
personales, con más del 90% de la cuota de mercado, superando a Mac
OS, que había sido introducido en 1984.
42
CAPÍTULO II: METODOLOGÍA
La Virtualización en el MTC
2.1. Material
43
Los materiales que se han utilizado para realizar a cabo este proyecto, son
los siguientes:
Inventario de servidores
Inventario de equipos de red
Diagrama de red.
Inventario de aplicaciones, indicando criticidad de recursos.
Informe de Monitoreo de Servidores.
Documento de Recopilación de información
Materiales de Oficina:
Google Drive
One Drive
2.2. Métodos
45
Con esta información clara se podrá realizar el cálculo de recursos de
Hardware para la nueva infraestructura de virtualización.
46
Posteriormente en coordinación con el proveedor ganador del concurso
público y el equipo técnico del MTC se procede a implementar la solución de
virtualización.
Cabe indicar que esta nueva infraestructura no impacta en los servicios del
centro de cómputo ya que se trata de una nueva implementación que
albergará a futuro los servidores actuales.
47
Figura 21: Actividades dentro de la Metodología
Fuente: Propia - MTC
48
CAPÍTULO III: DESARROLLO DEL PROYECTO
49
Figura 23: Inventario de Equipos de Red
Fuente: Propia - MTC
- Diagrama de red.
50
- Inventario de aplicaciones, indicando criticidad de recursos( Ver Anexo
9.3)
51
Fotos de la situación inicial:
Servidores
físicos
distribuidos
alrededor dela
sala de
cómputo, estos
se encuentran
dispersos y
desordenados.
52
Alto consumo
de aire
acondicionado.
Infraestructura
heterogénea,
requiere mayor
esfuerzo de
administración
de diversas
plataformas.
53
Cables
desordenados.
Alto consumo
de energía
eléctrica.
Cables
desordenados,
los servidores
utilizan un solo
ramal de
electrificación.
54
Servidores
antiguos con
aplicaciones
Legacy que ya
no cuentan con
soporte por
parte del
proveedor.
Los sistemas
Legacy
requieren
mayor
especialización
y mano de obra
que no se
encuentra
fácilmente en el
mercado.
55
Figura 26: Documento de Requerimiento de la nueva Infraestructura Virtual
Fuente: Propia - MTC
56
Figura 27: Nueva Infraestructura Virtual seleccionada
Fuente: (centerdigitaled, 2009)
Eléctricos y Físicos:
57
Figura 28: Requisitos Eléctricos y Físicos para la instalación del Hardware
Fuente: Propia - MTC
58
Requisitos de red:
59
3.3.2 Cronograma de trabajo
60
3.3.3 Diseño de la Solución
Son los clásicos servidores con una nueva arquitectura también conocida
como cuchillas listas para insertar en el chasis y así evitar las complejas
conexiones de red y SAN.
Estos serán quienes nos dan la memoria RAM y el procesamiento CPU, para
la infraestructura virtual
61
Switch SAN DELL Force 10 S41810
Integración de la infraestructura:
62
Figura 31: Diseño de la Solución
Fuente: (DELL corp., 2014)
63
El siguiente gráfico muestra la arquitectura real de todo el Hardware
adquirido por el MTC
64
Figura 33: Arquitectura del Hardware interna
Fuente: Propia - MTC
65
3.3.4 Instalación de los servidores Blade DELL
66
3.3.5 Instalación del storage EQUALLOGIC DELL
67
En la siguiente pantalla se ve a detalle todas las LUN creadas y asignadas a
nuestra solución VMware.
68
3.3.6 Instalación del VMware
69
La siguiente pantalla muestra la instalación del VMware vSphere Client que
será instalada en una máquina virtual de la nueva solución, este software es
el encargado de administrar todos los host ESX, desde que acá podremos
administrar crear eliminar modificar las servidores virtuales.
También podremos crear las configuraciones de alta disponibilidad y
migración de las máquinas virtuales, DataStores, etc.
70
Esta pantalla muestra ya los clúster de hosts VMware y las máquinas
virtuales del MTC
71
3.4. Pruebas y Capacitación del Personal.
72
A continuación podemos ver ya dos sistemas operativos montados en la
nueva infraestructura, Windows Server y Red Hat Linux:
73
Figura 42: Capacitación Linux
Fuente: Propia - MTC
El equipo técnico del centro de cómputo del MTC será capacitado en cuanto
a SERVIDORES, STORAGE y VMware.
74
Figura 44: Sello de Certificación de DELL
Fuente: (DELL corp., 2011)
75
Este es el software VMware Converter que nos apoyará para la conversión
de servidores físicos a virtuales.
76
Figura 47: Pantalla de Acceso de VMware Converter
Fuente: Propia - MTC
77
Figura 48: Proceso de Conversión del VMware Converter
Fuente: Propia - MTC
78
También cabe indicar que a partir de implementada la solución los nuevos
servidores solicitados para diferentes proyectos del MTC serán entregados
en cuestión de minutos gracias a la flexibilidad de la virtualización.
79
CAPÍTULO IV: PRUEBAS Y RESULTADOS
4.1. Pruebas
Administración Centralizada
80
4.2. Resultados de la Pruebas
VMware HA: Permite que múltiples hosts ESX puedan ser configurados como
un clúster para proveer de alta disponibilidad y una rápida recuperación ante
fallos, para todas las máquinas virtuales en dichos hosts, es así que se
protege la disponibilidad de las siguientes formas:
24 (Cerda, 2011)
81
Figura 51: Alta Disponibilidad de Servicios Informáticos
Fuente: Propia - MTC
82
4.2.2 Reducción de costos de energía
INICIALMENTE:
0.3 kW.h x 24 horas x 365 días x 80 servidores x 0.18 soles = S/. 37,843 x año
80 servidores
APLICANDO LA PROPUESTA:
16
Servidores
Físicos
0.4 kW.h x 24 horas x 365 días x 16 servidores x 0.18 soles = S/. 10,092 x año
Ahorro Total en consumo de energía al año: S/. 37,843 – S/. 10,092 = S/. 27751
anual
83
4.2.3 Ahorro de espacio físico
Inicialmente:
Como se indicó en el capítulo III, 4.1 (Situación Inicial), se tenía una situación
inicial y se mostraban las imágenes del centro de cómputo del Ministerio de
Transportes en un estado donde el espacio físico del Data Center no se
aprovechaba adecuadamente.
Luego de la Virtualización:
Situación final.
16 servidores
físicos
distribuidos
alrededor dela
sala de cómputo,
estos se
encuentran
ordenados y
dentro de un
ambiente
propicio para su
correcta
administración.
Lo que
demuestra el
correcto
aprovechamiento
del espacio físico. Fuente: Propia - MTC
84
Servidores
virtualizados
distribuidos en
un Blade
85
La imagen muestra todas las máquinas virtuales y sus características y
performance:
86
La imagen muestra las máquinas virtuales y diagrama de conexiones e
interrelación:
87
INICIALMENTE:
80 servidores
APLICANDO LA PROPUESTA:
16
Servidores
Físicos
Ahorro Total en costo Horas/Hombre al año: S/. 22,496 – S/. 7,498 = S/. 14,998
anual
88
4.2.5 Escalabilidad y nuevas implementaciones
Escalabilidad:
89
Consumo por Host ESX
90
Figura 61: Diagrama de desempeño de Memoria
Fuente: Propia - MTC
91
Nuevas Implementaciones
92
De igual manera los servidores virtuales existentes pueden ser modificados
rápidamente, siendo el único requisito reiniciarlos.
93
CAPÍTULO V: DISCUSIÓN Y APLICACIONES
94
entiéndase como una inversión inicial fuerte pero con gran proyección y
ahorro a largo plazo.
Ahorro de espacio físico Véase: Capítulo IV – 5.2.3 , Ahorro de Espacio Físico - Página
81
Administración
Véase: Capítulo IV – 5.2.4 , Administración Centralizada -
Centralizada
Página 82
Escalabilidad y nuevas
Véase: Capítulo IV – 5.2.5, Escalabilidad y nuevas
implementaciones
implementaciones – Página 84
95
CONCLUSIONES
96
• El despliegue de nuevos servidores será inmediato debido al uso de
plantillas además las copias de seguridad de los servidores virtuales serán
más rápidos y sencillos, esto nos ayudara no solo a ser más efectivos y
competitivos sino a ser más eficientes en la organización.
97
RECOMENDACIONES
98
FUENTES DE INFORMACIÓN
http://www.aidanfinn.com/?p=15022
PUCE-SI. Obtenido de
http://dspace.pucesi.edu.ec/bitstream/11010/177/1/T72587.pdf
http://patriciocerda.com/2011/09/vsphere-5-como-funciona-ha-y.html
99
CONSULTA IT PRO. (05 de 10 de 2009). CONSULTA IT PRO. Obtenido de
http://www.consultaunitpro.com/tag/virtualizacion#sthash.sMSIbJCC.d
pbs
http://www.dell.com/downloads/global/products/pedge/es/m1000e_spe
c_sheet_es_xl.pdf
http://www.dell.com/es/empresas/p/equallogic-ps4110e/pd
http://gestion.pe/tecnologia/camino-pymes-hacia-virtualizacion-y-uso-
cloud-computing-2097831
http://www.consultaunitpro.com/introduccion-al-tema-de-la-
virtualizacion#sthash.FXnqqOe4.dpbs
http://www.consultaunitpro.com/tag/virtualizacion#sthash.x3j4f24x.PbC
JCClr.dpbs
EDICION. Obtenido de
http://www.primeraedicionweb.com.ar/nota/suplemento/1401/virtualiza
cion-%C2%A1dos-en-uno-y-mas!.html
100
http://www.estrategiasdeinversion.com/comunicados/20120119/red-
hat-enterprise-virtualization-3-proporciona-alternativa
http://www.adminso.es/index.php/PFC_Virtualizaci%C3%B3n_de_serv
idores_de_telefon%C3%ADa_Ip_en_GNULinux
http://www.josemariagonzalez.es/2010/05/10/beneficios-vmware-
storage-vmotion.html
Obtenido de
http://www.grupointelector.com/index.php?option=com_content&view=
article&id=91&Itemid=82
http://www.hostingred.com/servicios-cloud/cloud-hosting/
http://www.informatica-hoy.com.ar/aprender-informatica/Que-es-
Hardware-y-Software.php
http://www.informatica-hoy.com.ar/aprender-informatica/Que-es-
Hardware-y-Software.php
Obtenido de
http://www.sos.net.ve/index.php?option=com_content&view=article&id
101
=32:-vmware-y-sos-presentan-caso-de-exito-de-sap-en-hierro-
barquisimeto&catid=6:virtualizacion&Itemid=4
http://www.vmware.com/files/pdf/customers/VMware-
Laboratorios_RIMSA-12Q2-SP-Case-
Study.pdf?src=WWW_customers_VMware-Laboratorios_RIMSA-
12Q2-SP-Case-Study.pdf
http://maxsantito.blogspot.com/2013/04/tipos-de-servidores.html
us/server-cloud/products/windows-server-2012-
r2/default.aspx#fbid=AW1mAZ5HzCf
http://www.nettix.com.pe/Blog/Soporte/beneficios-de-la-virtualizacion
http://www.nordicsolutions.net/servicios/virtualizacion/
peripherals.com/casos_de_exito/view/consorcio-de-aguas-de-bilbao-
bizkaia
http://www.osiatis.es/ingenieria_produccion/virtualizacion.php
http://somebooks.es/?p=3366
102
Pérez, J. M. (febrero de 2012). revista2. Obtenido de
http://revista2.linti.unlp.edu.ar/tesinas/tesis117.pdf
de http://www.linux-es.org/sobre_linux
http://ramonmorillo.wordpress.com/2011/11/23/escenarios-de-
virtualizacion-en-windows-server-2008/
http://csrg-it.blogspot.com/2011/05/hyper-v-server-2008-r2.html
http://www.redestelecom.es/gestion/casos-
exito/1061122001403/vmware-virtualiza-infraestructura.1.html
http://www.siliconweek.es/knowledge-center/knowledge-center-
almacenamiento/como-implementar-virtualizacion-y-mantener-un-
centro-de-datos-heterogeneo-323
http://www.sos.net.ve/soscol/index.php?option=com_content&view=arti
cle&id=34:-vmware-y-sos-presentan-caso-de-exito-de-sap-en-hierro-
barquisimeto&catid=6:virtualizacion&Itemid=4
http://blogs.technet.com/b/in_the_cloud/archive/2013/07/02/new-
magic-quadrant-from-gartner-for-x86-server-virtualization-
infrastructure.aspx
103
Unisys Corporation. (4 de mayo de 2005). DEC Asociación española de
http://www.consultoras.org/frontend/aec/UNISYS--Disenada-Para-
Posicionar-La-Infraestructura-De-TI-Como-Base-Dinamica-De-La-
Organizacion--Com-impn2712
de http://www.serviciohelpdesk.com/_crm/Temp/vmware-esx-esp.pdf
http://www.vmware.com/pe/products/datacenter-virtualization.html
Obtenido de http://es.wikipedia.org/wiki/X86
http://es.wikipedia.org/wiki/Migraci%C3%B3n_de_datos
http://es.wikipedia.org/wiki/Multitarea
de http://es.wikipedia.org/wiki/Copia_instant%C3%A1nea_de_volumen
http://es.wikipedia.org/wiki/Virtualizaci%C3%B3n
http://es.wikipedia.org/wiki/Virtualizaci%C3%B3n
de http://es.wikipedia.org/wiki/Alta_disponibilidad
104
wikipedia. (02 de noviembre de 2013). wikipedia la enciclopedia libre.
Obtenido de http://es.wikipedia.org/wiki/Juniper_Networks
de http://en.wikipedia.org/wiki/Physical-to-Virtual
de http://es.wikipedia.org/wiki/Sistema_heredado
http://es.wikipedia.org/wiki/Copia_de_seguridad
http://es.wikipedia.org/wiki/Escalabilidad
http://es.wikipedia.org/wiki/Cortafuegos_(inform%C3%A1tica)
http://es.wikipedia.org/wiki/Google_Chrome
http://es.wikipedia.org/wiki/Hipervisor
de http://es.wikipedia.org/wiki/Host
http://es.wikipedia.org/wiki/Small_Computer_System_Interface
http://es.wikipedia.org/wiki/Juniper_Networks
http://es.wikipedia.org/wiki/Computadora_central
105
wikipedia. (09 de junio de 2014). wikipedia la enciclopedia libre. Obtenido de
http://es.wikipedia.org/wiki/Memoria_de_acceso_aleatorio
http://es.wikipedia.org/wiki/Mozilla_Firefox
http://es.wikipedia.org/wiki/Partici%C3%B3n_de_disco
de http://es.wikipedia.org/wiki/Plataforma_(inform%C3%A1tica)
de
http://es.wikipedia.org/wiki/Red_de_%C3%A1rea_de_almacenamiento
http://es.wikipedia.org/wiki/Small_Computer_System_Interface
http://es.wikipedia.org/wiki/Servidor_blade
http://es.wikipedia.org/wiki/Conmutador_(dispositivo_de_red)
http://es.wikipedia.org/wiki/Sistema_de_alimentaci%C3%B3n_ininterru
mpida
http://es.wikipedia.org/wiki/VMware
de http://es.wikipedia.org/wiki/Microsoft_Windows
106
wikipedia. (28 de mayo de 2014). wikipedia la enciclopedia libre. Obtenido de
http://es.wikipedia.org/wiki/Router
http://millicomune.files.wordpress.com/2013/03/i1.pdf
107
ANEXOS
108
EQUIPOS INFORMATICOS DEL CENTRO DE COMPUTO
Memoria
Nombre Equipo Tipo Marca Modelo Sistema Operativo Disco (GB) Procesador Dirección IP Ubicación Servicio
(MB)
X Series 235 Windows Server 2003 R2 (05) discos de 36,4 GB en RAID5 + (02) Intel Xeon Servidor de archivos.
MTCLPCC-AP Servidor IBM 3776 25.0.1.189 Sala Servidores
(8671-6AX) Enterprise Edition SP2 expansor de 400 GB E5405 de 2.6 GHz Servidor del Sistema SAGU, SIGA MEF
Netfinity 5000 (01) Intel Pentium Servidor del sistema presupuestal S10 de la
PRUEBANT Servidor IBM Windows NT Server 4.0 (02) discos de 8 GB en RAID 0 130 172.20.1.45 Sala Servidores
(8659-41Y) III de 500 MHz DGCyF.
(02) Dual Core
System x3650 Windows Server 2003 R2
MTCLPCC-AP04 Servidor IBM (02) discos de 73,4 GB en RAID 1 Intel (R) Xeon(R) 2048 172.20.1.215 Sala Servidores Servidor de aplicación.
(7979-B1U) Enterprise Edition SP2
de 3.0 GHz
Servidor de base de datos de aplicaciones de la
(02) Quad Core DGTT
System x3650 Windows Server 2003 R2 (02) discos de 300 GB en RAID 1 +
MTC30 Servidor IBM Intel Xeon E5405 4096 172.20.1.103 Sala Servidores
(7979-B1U) Enterprise Edition SP2 (04) discos de 300 GB
de 2.0 GHz concesiones, licencias, aplicación brevete,
licencias, proyecto SAD.
(02) Quad Core Servidor de Base de datos DGTT (SNS-SNC),
System x3650 Windows Server 2003 R2 (05) discos de 300 GB en RAID 5 +
MTCLPCC-DB03 Servidor IBM Intel Xeon E5405 4096 25.0.1.37 Sala Servidores Base de datos del SIGA, Base de datos
(7979-B1U) Enterprise Edition SP2 (01) disco hot spare de 300GB
de 2.0 GHz GESTOR
(02) Dual Core
System x3650 Windows Server 2003 R2
MTCLPCC-FE01 Servidor IBM (02) discos de 73,4 GB en RAID 1 Intel (R) Xeon(R) 2048 172.20.1.114 Sala Servidores Servidor de aplicaciones web.
(7979-B1U) Enterprise Edition SP2
de 3.0 GHz
(02) Quad Core
System x3650 Windows Server 2003 (05) discos de 146 GB en RAID5 + Servidor IBM Lotus Domino del sistema de trámite
MTCLPCC-LN01 Servidor IBM Intel Xeon E5405 8192 192.168.220.9 Sala Servidores
(7979-B1U) Enterprise x64Edition SP2 (01) disco hot spare de 146 GB documentario (SID)
de 2.0 GHz
(02) Quad Core
System x3650 Windows Server 2003 R2
MTCLPCC-ML05 Servidor IBM (02) discos de 146 GB en RAID 1 Intel Xeon E5405 4096 25.0.1.10 Sala Servidores Servidor de Correo Electrónico - Exchange 2003
(7979-B1U) Enterprise Edition SP2
de 2.0 GHz
(02) Quad Core
System x3650 Windows Server 2003 R2
MTCLPCC-ML06 Servidor IBM (03) discos de 146 GB en RAID 5 Intel Xeon E5405 4096 25.0.1.12 Sala Servidores Servidor de Correo Electrónico - Exchange 2003
(7979-B1U) Enterprise Edition SP2
de 2.0 GHz
(02) Quad Core
System x3650 Windows Server 2003 R2
MTCLPCC-ML07 Servidor IBM (03) discos de 146 GB en RAID 5 Intel Xeon E5405 4096 25.0.1.13 Sala Servidores Servidor de Correo Electrónico - Exchange 2003
(7979-B1U) Enterprise Edition SP2
de 2.0 GHz
109
MTCEXCHCLUS (02) discos de 73 GB + (10) discos 25.0.1.15
Storage IBM DS3400 - - - Sala Servidores Storage de correo
TER1 de 146 GB 25.0.1.11
Oficina de
Windows Server 2003 R2 (01) Intel Pentium
MTCLPCC-WM Servidor Dell Power Edge 850 (01) disco de 74,50 GB 2048 25.0.1.239 Operaciones y Base Consola Virtual del Blade
Enterprise Edition SP2 IV - 2.80 GHz
de Datos
Oficina de
(01) Intel Pentium
MTCLPCC-WM02 Servidor Dell Power Edge 850 Linux Fedora 4.0 (01) disco de 74,50 GB 2048 172.20.3.150 Operaciones y Base virtual machine
IV - 2.80 GHz
de Datos
Oficina de
Windows Server 2003 R2 (01) Intel Pentium
MTCLPCC-DC06 Servidor Dell Power Edge 850 (01) disco de 74,50 GB 2048 172.20.1.1 Operaciones y Base Controlador de dominio
Enterprise Edition SP2 IV - 2.80 GHz
de Datos
110
Windows Server 2003 R2 (02) Intel Xeon Servidor de base de datos de aplicaciones del
BDDGCT Servidor HP Proliant ML350 (01) disco de 72,8 GB 1024 172.20.8.20 Sala Servidores
Standard Edition SP2 (TM) de 3.40 GHz sistema de consulta RENIEC y Breve-t
Windows Server 2003 (02) Intel Xeon ™ Servidor de aplicaciones Oracle 10g – Sistema
SAVMC Servidor HP Proliant ML450 (04) discos de 36,4 GB 5120 172.20.9.47 Sala Servidores
Enterprise Edition SP2 de 3.06 GHz IAS
Itanium de 1.6
VMCDB Servidor HP Integrity RX 4640 HP UX 11i (02) discos de 73 GB 8192 172.25.9.20 Sala Servidores Servidor de base de datos Oracle
GHz
Oficina de
Advanc Windows Server 2003 (02) Intel Pentium
MTCLPCC-AP01 PC Vission 5X55 74 GB 998 192.168.251.11 Operaciones y Base Equipo de Ambiente desarrollo Oracle
e Enterprise Edition (R) D - 3.40 GHz
de Datos
Oficina de
Advanc Windows Server 2003 (02) Intel Pentium Equipo de Ambiente desarrollo (Aplicaciones de
MTCLPCC-AP02 PC Vission 5X55 74 GB 496 192.168.251.13 Operaciones y Base
e Enterprise Edition SP2 (R) D - 3.40 GHz Desarrollo)
de Datos
Oficina de
Advanc Windows Server 2003 (02) Intel Core - Equipo de desarrollo del Sistema de Tramite
MTCLPCC-AP03 PC Vission 5X55 148 GB 492 172.17.60.83 Operaciones y Base
e Enterprise Edition SP2 1.8 GHz Documentario
de Datos
111
Oficina de
MTCLPCC- Advanc Windows Server 2003 R2 (02) Intel Pentium
PC Vission 5X55 223,5 GB 1024 172.17.60.135 Operaciones y Base Pc de backup
BKP01 e Enterprise Edition SP2 D de 3.4 Ghz
de Datos
Advanc Windows Server 2003 (02) Intel Pentium Aplicación MQSeries de consulta en línea con la
MTCMQ PC Vission 5X55 74 GB 998 192.168.220.71 Sala Servidores
e Enterprise Edition SP2 (R) D - 3.40 GHz RENIEC
Advanc Windows Server 2003 (02) Intel Pentium Aplicación MQSeries de interconexión con el
MTCMQ2 PC Vission 5X55 74 GB 1006 172.20.1.78 Sala Servidores
e Enterprise Edition (R) D - 3.40 GHz Banco de la Nación
Oficina de
Windows 2000 (01) Intel Pentium
AMANTARI PC Compaq D530 CMT 111,78 GB 1016 172.17.60.252 Operaciones y Base Pc de backup
Professional IV - 2.80 GHz
de Datos
Oficina de
Windows Server 2003 (01) Intel Pentium
MTCLPCC-AV01 PC Compaq D530 CMT 37,26 GB 3808 172.20.202.150 Operaciones y Base Equipo de Consola de Antivirus para Servidores
Enterprise Edition SP2 IV - 2.8 GHz
de Datos
Oficina de
Windows Server 2003 (01) Intel Pentium
MTCLPCC-LIC01 PC Compaq D530 CMT 186 GB 1144 172.20.1.53 Operaciones y Base Servidor del licenciamiento de software autocad
Enterprise Edition SP2 IV de 2.80 Ghz
de Datos
112
Windows Server 2003 (01) Intel Pentium
VMCDESA PC Compaq D530 CMT 90 GB 504 192.168.251.12 Sala Servidores Servidor de desarrollo Oracle 10g
Enterprise Edition SP2 IV - 2.8 GHz
Windows Server 2003 (01) Intel Pentium Equipo de aplicaciones ArcGIS ArcIMS (software
MTCGEO PC Acer VT5200D 37 GB 1024 172.20.1.105 Sala Servidores
Enterprise Edition SP1 IV de 1.70 GHz web cartográfico)
Windows 2000 Advanced (01) Intel Pentium Servidor de Base de Datos SQL 2000 de la DGTT
SQLBDDGCT PC Acer VT5200D 74 GB 1024 172.20.5.26 Sala Servidores
Server SP4 IV de 1.70 Ghz y Sistema FiscaTran
113
Inventario de Equipos de Red
ITEM Tipo Función equipo Marca Edificio Piso Gabinete Modelo S/N Estado
114
21 Switch Switch de Distribución Juniper PRINCIPAL 1 EX2200-48T-4G CU0211153900 Instalado
115
46 Switch Switch de Acceso Juniper PRINCIPAL 1 EX2200-48T-4G CU0211253923 Instalado
WS-C2960S-48FPS-
47 Switch Switch de Acceso Cisco PRINCIPAL 1 FOC1725X420 Instalado
L
48 Switch Switch de Distribución Juniper PRINCIPAL 1 EX2200-48T-4G CU0211246058 Instalado
116
71 Switch Switch de Distribución Juniper PRINCIPAL 1 EX2200-48T-4G CU0211253912 Instalado
117
WS-C2960S-48FPS-
96 Switch Switch de Acceso Cisco CIRCULAR 1 FOC1725X425 Instalado
L
97 Switch Switch de Acceso Juniper CIRCULAR 1 EX2200-48T-4G CU0211253899 Instalado
106 Switch Switch de Servidores Cisco INFORMATICA pvn WS-C2960-24TT-L FOC1234U2FD Instalado
107 Switch Switch de Servidores Juniper INFORMATICA pvn EX2200-48T-4G CU0211187226 Instalado
108 Switch Switch de Acceso Internet Juniper INFORMATICA EX2200-48T-4G CU0211253968 Instalado
Switch de Equipos Seg.
109 Switch Juniper INFORMATICA EX2200-48T-4G CU0211246087 Instalado
Perimétrica
Switch de Equipos Seg. 1
110 Switch Juniper INFORMATICA EX2200-48T-4G CU0211246123 Instalado
Perimétrica
111 Switch Switch de Telefonía Juniper INFORMATICA Telefonía EX2200-48T-4G CU0211153894 Instalado
112 Switch Switch de Telefonía Juniper INFORMATICA Telefonía EX2200-48T-4G CU0211187206 Instalado
113 Firewall Firewall Acceso VPN - PVN Cisco INFORMATICA 1 ASA5510 JMX0951K074 Instalado
114 Firewall Firewall Acceso VPN - PVN Cisco INFORMATICA 1 ASA5510 JMX0951K08H Instalado
118
120 Switch Switch de Acceso Juniper INFORMATICA 3 EX2200-48T-4G CU0211240623 Instalado
132 UAC Unifed Access Control Juniper INFORMATICA 1 2 IC4500 236122010000075 no instalado
ATENCION
133 Switch Switch de Acceso Juniper 1 EX2200-48T-4G CU0211137653 Instalado
CIUDADANO(Oficinas)
ATENCION
134 Switch Switch de Acceso Juniper 1 1 EX2200-48T-4G CU0211153700 Instalado
CIUDADANO(Oficinas)
ATENCION
135 Switch Switch de Acceso Juniper 1 EX2200-48T-4G CU0211246053 Instalado
CIUDADANO(Plataforma)
136 Switch Switch de Acceso Juniper EM. FITEL 1 1 EX2200-48T-4G CU0211246138 Instalado
137 Switch Switch de Acceso Juniper EM. FITEL 1 1 EX2200-48T-4G CU0211187193 Instalado
138 Switch Switch de Acceso Juniper EM. ALMACEN PROVIAS 1 EX2200-48T-4G CU0211137583 Instalado
139 Switch Switch de Acceso Juniper EM. POOL DE CHOFERES 1 EX2200-48T-4G CU0211253918 Instalado
140 Switch Switch de Acceso Juniper EM. OFICINA SILSA 1 EX2200-48T-4G CU0210405023 Instalado
EM. CENTRO MEDICO 1
141 Switch Switch de Acceso Juniper 1 EX2200-48T-4G CU0211253864 Instalado
(TOPICO)
142 Switch Switch de Acceso Cisco EM. PVN ZONAL LIMA 1 WS-C3560-24PS-S CAT0948R0DV Instalado
INFORMATICA (Centro
143 Switch Switch de Acceso Cisco 1 WS-C3560-24PS-S CAT1107ZK1B Instalado
de Computo)
119
144 Switch Switch de Acceso Juniper EM. COMEDOR GENERAL 1 EX2200-48T-4G CU0211246110 Instalado
145 Switch Switch de Acceso Cisco EM. DGTT 1 WS-C2960-24TT-L FOC1235V1VJ Instalado
ALMACEN
146 Fuente Energía Fuente Energía Cisco INFORMATICA 1 PWR-RPS2300 FDO120356ML no instalado
C.C
ALMACEN
147 Fuente Energía Fuente Energía Cisco INFORMATICA 1 PWR-RPS2300 FDO120356MG no instalado
C.C
ALMACEN
148 Fuente Energía Fuente Energía Cisco INFORMATICA 1 CEK-PWR-750WAC DTN1204E0T7 no instalado
C.C
ALMACEN
149 Fuente Energía Fuente Energía Cisco INFORMATICA 1 CEK-PWR-750WAC DTN1204E0U5 no instalado
C.C
C.
150 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1146Z7GC Instalado
TEMPORAL
C.
151 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1230X78T Instalado
TEMPORAL
C.
152 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1043Z33Z Instalado
TEMPORAL
C.
153 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1146Z7UB Instalado
TEMPORAL
C.
154 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1149X3AL Instalado
TEMPORAL
C.
155 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1235V1UZ Instalado
TEMPORAL
C.
156 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1149X2HE Instalado
TEMPORAL
C.
157 Switch Switch de Acceso Cisco INFORMATICA WS-C2960-24TT-L FOC1235V1UY Instalado
TEMPORAL
C.
158 Switch Switch de Acceso Cisco INFORMATICA WS-C2960-24TT-L FOC1235V201 Instalado
TEMPORAL
C.
159 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1235V1ZR Instalado
TEMPORAL
C.
160 Switch Switch de Acceso Cisco PRINCIPAL WS-C3560-24PS-S CAT1039RLVU Instalado
TEMPORAL
C.
161 Switch Switch de Acceso Cisco EM. ARCHIVO CENTRAL WS-C2960-24TT-L FOC1230X6G7 Instalado
TEMPORAL
C.
162 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1146Z7FH Instalado
TEMPORAL
C.
163 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1235V1ZZ Instalado
TEMPORAL
C.
164 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1235V1VZ Instalado
TEMPORAL
C.
165 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1230X795 Instalado
TEMPORAL
120
C.
166 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1234V51Y Instalado
TEMPORAL
C.
167 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1146Z7HL Instalado
TEMPORAL
C.
168 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1230X6VK Instalado
TEMPORAL
C.
169 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1234V4VD Instalado
TEMPORAL
C.
170 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1234V52W Instalado
TEMPORAL
C.
171 Switch Switch de Acceso Cisco INFORMATICA WS-C2960-24TT-L FOC1230X6TG Instalado
TEMPORAL
C.
172 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1235V1VS Instalado
TEMPORAL
C.
173 Switch Switch de Acceso Cisco PRINCIPAL WS-C2960-24TT-L FOC1234V520 Instalado
TEMPORAL
CHACRA RIOS
174 Router Router Perimétrico cisco 1841 FTX1151200X Instalado
(A.ORREGO)
CHACRA RIOS
175 Switch Switch de Acceso Juniper EX2200-48T-4G CU0211253842 Instalado
(A.ORREGO)
CHACRA RIOS
176 Switch Switch de Acceso Juniper EX2200-48T-4G CU0211246082 Instalado
(A.ORREGO)
CHACRA RIOS
177 Switch Switch de Acceso Juniper EX2200-48T-4G CU0210127420 Instalado
(A.ORREGO)
CHACRA RIOS
178 Switch Switch de Acceso Juniper EX2200-48T-4G CU0211253926 Instalado
(A.ORREGO)
CHACRA RIOS
179 Switch Switch de Acceso Cisco WS-C2960-24TT-L FOC1052Z6HE Instalado
(A.ORREGO)
CHACRA RIOS
180 Switch Switch de Acceso Cisco WS-C2960-24TT-L FOC1235V1ZT Instalado
(C.ESPARCIMIENTO)
CHACRA RIOS (FITEL /
181 Switch Switch de Acceso Cisco WS-C2960-24TT-L FOC1235V1U0 Instalado
TELECOMUNICACIONES)
CHACRA RIOS
182 Switch Switch de Acceso Juniper EX2200-48T-4G CU0211253917 Instalado
(A.ORREGO)
CHACRA RIOS
183 Switch Switch de Acceso Cisco WS-C2960-24TT-L FOC1235V1ZS Instalado
(C.ESPARCIMIENTO)
CHACRA RIOS WS-C2960S-48FPS-
184 Switch Switch de Acceso Cisco FOC1725X43Q Instalado
(A.ORREGO) L
185 Switch Switch de Acceso Cisco ZONAL CONCHAN WS-C2960-24TT-L FOC1235V1V4 Instalado
186 Switch Switch de Acceso Cisco ZONAL STCNSV WS-C2960-48TT-L FOC1427V51T Instalado
187 Switch Switch de Acceso Juniper ZONAL STCTLC EX2200-48T-4G CU0211246036 Instalado
121
188 Switch Switch de Acceso Juniper ZONAL STCTLC EX2200-48T-4G CU0211253931 Instalado
C.
189 Switch Switch de Acceso Cisco ZONAL STCTLC WS-C2960-24TT-L FOC1234V4YT Instalado
TEMPORAL
190 Switch Switch de Acceso Cisco ZONAL PICHIS WS-C2960-48TT-L FOC1406Y5AG Instalado
191 Switch Switch de Acceso Juniper ZONAL PICHIS EX2200-48T-4G CU0211246080 Instalado
122
Inventario de Aplicaciones
CRITERIOS Y CATEGORIAS
Servidor
Area que Servidor CRITERIOS-
Sistema y/o Responsable Lenguaje de de Dirección a la que Director/Direct CRITERIOS- CRITERIOS-
administra el de Base Lider Usuario CRITICIDAD CRITICIDAD CLASIFICACIO RIESGOS
Aplicación Módulo Desarrollo programación Aplicaci Pertenece or General CATEGORIA DISPONIBILIDAD
Sistema de Datos N DE ACTIVOS
ones
CONFIDENCIA
SISTEMA LIDAD-
Todas las Chinchay JESUS HERNAN
INTEGRADO DE PRESUPUES Power Builder MTCLPC MTCLPC FERNANDO Relativamente Relativamente INTEGRIDAD-
Direcciones Bohorquez FINANZAS BURGA PREMIUM PREMIUM SIN RIESGOS
GESTION TO 10.2 C-AP07 C-DB01 MATEO YATACO Crítica Crítica DISPONIBILID
Generales del MTC Humberto RAMIREZ
ADMINISTRATIVA AD Y
PRIVACIDAD
123
CONFIDENCIA
SISTEMA LIDAD-
Todas las Chinchay
INTEGRADO DE Power Builder MTCLPC MTCLPC Relativamente Relativamente INTEGRIDAD-
LOGISTICA Direcciones Bohorquez PREMIUM PREMIUM
GESTION 10.2 C-AP07 C-DB01 Crítica Crítica DISPONIBILID
Generales del MTC Humberto
ADMINISTRATIVA AD Y
PRIVACIDAD
CONFIDENCIA
SISTEMA LIDAD-
Chinchay JESUS HERNAN
INTEGRADO DE CONTABILI Power Builder MTCLPC MTCLPC FERNANDO Relativamente Relativamente INTEGRIDAD-
Oficina de Finanzas Bohorquez FINANZAS BURGA PREMIUM PREMIUM BAJO
GESTION DAD 10.2 C-AP07 C-DB01 MATEO YATACO Crítica Crítica DISPONIBILID
Humberto RAMIREZ
ADMINISTRATIVA AD Y
PRIVACIDAD
CONFIDENCIA
SISTEMA LIDAD-
Chinchay JESUS HERNAN
INTEGRADO DE Power Builder MTCLPC MTCLPC FERNANDO INTEGRIDAD-
TESORERIA Oficina de Finanzas Bohorquez FINANZAS BURGA PREMIUM Muy Critica PREMIUM Muy Critica MEDIO
GESTION 10.2 C-AP07 C-DB01 MATEO YATACO DISPONIBILID
Humberto RAMIREZ
ADMINISTRATIVA AD Y
PRIVACIDAD
CONFIDENCIA
SISTEMA LIDAD-
Todas las Chinchay SERGIO JEAN JESUS HERNAN
INTEGRADO DE PATRIMONI Power Builder MTCLPC MTCLPC INTEGRIDAD-
Direcciones Bohorquez FRANKO PATRIMONIO BURGA PREMIUM Muy Critica PREMIUM Muy Critica BAJO
GESTION O 10.2 C-AP07 C-DB01 DISPONIBILID
Generales del MTC Humberto ROMERO LOYOLA RAMIREZ
ADMINISTRATIVA AD Y
PRIVACIDAD
124
CONFIDENCIA
SISTEMA LIDAD-
Todas las Chinchay VILMA JESUS HERNAN
INTEGRADO DE Power Builder MTCLPC MTCLPC INTEGRIDAD-
PERSONAL Direcciones Bohorquez PRIETO/ALEJAND PERSONAL BURGA PREMIUM Muy Critica PREMIUM Muy Critica SIN RIESGOS
GESTION 10.2 C-AP07 C-DB01 DISPONIBILID
Generales del MTC Humberto RO GONZALES RAMIREZ
ADMINISTRATIVA AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Sistema de Control registro, abarca a todo el VILMA JESUS HERNAN
Cortijo Arbulu Visual Studio MTCLPC MTCLPC INTEGRIDAD-
y Asistencia de control y Personal que PRIETO/ALEJAND PERSONAL BURGA NORMAL Muy Critica NORMAL Muy Critica BAJO
Rafael .NET 2005 C# C-WB01 C-DB01 DISPONIBILID
Personal - SICAP reportes laboral en el MTC RO GONZALES RAMIREZ
AD Y
PRIVACIDAD
SUTRAN, Entidades
Complemenctarias
GESTION Y
(Centros Medicos y
EMISION
Centro Examenes), CONFIDENCIA
DE
Gobiernos LIDAD-
Sistema Nacional LICENCIAS Huamani
Regionales Visual Studio MTCLPC MTCLPC INTEGRIDAD-
de Conductores - DE Echevarria PREMIUM Muy Critica PREMIUM Muy Critica
Dirección General 2005 C-WB05 C-DB03 DISPONIBILID
SNC CONDUCIR Carlos
de Transporte AD Y
TRANSPOR
Terrestre (MTC), PRIVACIDAD
TE
PNP,
TERRESTRE
Municipalidades
Provinciales
CONFIDENCIA
Público en General LIDAD-
Sistema Nacional Huamani
TRAMITES y Dirección General Visual Studio MTCLPC MTCLPC INTEGRIDAD-
de Conductores - Echevarria PREMIUM Muy Critica PREMIUM Muy Critica
EN LINEA de Transporte 2005 C-WB05 C-DB03 DISPONIBILID
SNC Carlos
Terrestre (MTC) AD Y
PRIVACIDAD
125
SUTRAN, Entidades
GESTION Complemenctarias
PROCESO (Centros Medicos y
SANCIONA Centro Examenes), CONFIDENCIA
DOR- Gobiernos LIDAD-
Huamani
Sistema Nacional SUPERINTE Regionales Visual Studio MTCLPC MTCLPC INTEGRIDAD-
Echevarria PREMIUM Muy Critica PREMIUM Muy Critica
de Sanciones - SNS NDENCIA Dirección General 2005 C-WB05 C-DB03 DISPONIBILID
Carlos
DE de Transporte AD Y
TRANSPOR Terrestre (MTC), PRIVACIDAD
TE PNP,
TERRESTRE Municipalidades
Provinciales
CONFIDENCIA
SISTEMA
Módulo de OTI y Dirección LIDAD-
INTEGRADO DE Huamani
administrac General de Visual Studio MTCLPC MTCLPC INTEGRIDAD-
REGISTRO DE Echevarria NORMAL Muy Critica NORMAL Muy Critica
ión y Transporte 2005 C-WB05 C-DB03 DISPONIBILID
TRANSPORTE Carlos
seguridad Terrestre (MTC) AD Y
TERRESTRE
PRIVACIDAD
CONFIDENCIA
Registro Nacional
LIDAD-
de autorizaciones Registro y Dirección General Huamani
Visual Studio MTCLPC MTCLPC INTEGRIDAD-
para las entidades autorizacio de Transporte Echevarria NORMAL Importante NORMAL Importante
2005 C-WB05 C-DB03 DISPONIBILID
complementarias - nes Terrestre (MTC) Carlos
AD Y
RAEC
PRIVACIDAD
126
consulta
CONFIDENCIA
por
LIDAD-
Sistema de licencias acumulació Huamani
Visual Studio MTCLPC MTCLPC Relativamente Relativamente INTEGRIDAD-
de conducir por n de Público en general Echevarria NORMAL NORMAL
2005 C-WB05 C-DB03 Crítica Crítica DISPONIBILID
puntos - SLCP puntos por Carlos
AD Y
infraccione
PRIVACIDAD
s
CONFIDENCIA
Matricula en línea
LIDAD-
de cursos y registro Huamani
Visual Studio MTCLPC INTEGRIDAD-
jornadas para cursos y Público en general Echevarria VMCDB NORMAL Muy Critica NORMAL Muy Critica
2005 C-WB05 DISPONIBILID
reducir puntos - jornadas Carlos
AD Y
MCJRP
PRIVACIDAD
CONFIDENCIA
LIDAD-
Sistema de Huamani
registro de Visual Studio MTCLPC MTCLPC Relativamente Relativamente INTEGRIDAD-
Papeletas para Publico en general Echevarria NORMAL NORMAL
papeletas 2005 C-WB05 C-DB03 Crítica Crítica DISPONIBILID
peatones -SPP Carlos
AD Y
PRIVACIDAD
CONFIDENCIA
Matricula en cursos LIDAD-
Huamani
de seguridad vial registro de Visual Studio MTCLPC Relativamente Relativamente INTEGRIDAD-
Publico en general Echevarria VMCDB NORMAL NORMAL
para peatones - matricula 2005 C-WB05 Crítica Crítica DISPONIBILID
Carlos
MCSVP AD Y
PRIVACIDAD
127
SUTRAN,
Transportistas CONFIDENCIA
Registro Nacional Pasajeros, LIDAD-
Huamani
de Nomina de consulta Transportistas Visual Studio MTCLPC INTEGRIDAD-
Echevarria VMCDB PREMIUM Muy Critica PREMIUM Muy Critica
Conductores - nomina Mercancías y 2005 C-FE01 DISPONIBILID
Carlos
RNNC Dirección General AD Y
de Transporte PRIVACIDAD
Terrestre (MTC)
SUTRAN, Centros de
CONFIDENCIA
capacitacion,
consulta LIDAD-
Registro Nacional Escuelas de Huamani
conductore Viasual Estudio MTCLPC INTEGRIDAD-
de Capacitación de conductores y Echevarria VMCDB PREMIUM Muy Critica PREMIUM Muy Critica
s 2005 C-FE01 DISPONIBILID
Conductores- RNCC Dirección General Carlos
capacitados AD Y
de Transporte
PRIVACIDAD
Terrestre (MTC)
CONFIDENCIA
LIDAD-
gestion y Huamani
Sistema Inteligente Inspectores de Visual Studio MTCLPC MTCLPC INTEGRIDAD-
seguimient Echevarria SILVER Muy Critica SILVER Muy Critica
de Monitoreo- SIM DGTT 2005 C-FE01 C-DB03 DISPONIBILID
o Carlos
AD Y
PRIVACIDAD
CONFIDENCIA
SUTRAN, Centros de
LIDAD-
Registro de Inspección, Huamani
registro Viasual Estudio MTCLPC MTCLPC Relativamente Relativamente INTEGRIDAD-
Inspecciones Inspectores de Echevarria NORMAL NORMAL
CITV 2005 C-WB05 C-DB03 Crítica Crítica DISPONIBILID
Tecnicas -CITV DGTT y Usuarios Carlos
AD Y
Lima y Regiones
PRIVACIDAD
128
Municipalidades
Provinciales,
CONFIDENCIA
Dirección General
LIDAD-
de Transporte Huamani
Registro Vehícular - registro Viasual Estudio WEBSER MTCLPC INTEGRIDAD-
Terrestre (MTC), Echevarria NORMAL Muy Critica NORMAL Muy Critica
SUNARP vehicular 2005 VER C-DB03 DISPONIBILID
Usuarios Lima y Carlos
AD Y
Regiones,
PRIVACIDAD
Inspectores de
DGTT
CONFIDENCIA
Dirección General LIDAD-
Proceso de emision consultas Huamani
de Transporte Viasual Estudio WEBSER MTCLPC Relativamente Relativamente INTEGRIDAD-
de la placa única placas Echevarria SILVER SILVER
Terrestre (MTC), 2005 VER C-DB03 Crítica Crítica DISPONIBILID
PLACA-UNICA emitidas Carlos
AAP, SUNARP AD Y
PRIVACIDAD
CONFIDENCIA
Sistema de SUTRAN, Usuarios LIDAD-
Huamani
informacion consultas DGTT, Usuarios Viasual Estudio Relativamente Relativamente INTEGRIDAD-
Echevarria NORMAL NORMAL
Gerencial indicadores Regiones, Alta 2005 Crítica Crítica DISPONIBILID
Carlos
trasnporte terrestre Dirección AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Huamani
Sistema de Cuentas gestion de SUTRAN y Finanzas Viasual Estudio INTEGRIDAD-
Echevarria SILVER Muy Critica SILVER Muy Critica
por Cobrar cuentas (MTC) 2005 DISPONIBILID
Carlos
AD Y
PRIVACIDAD
129
CONFIDENCIA
LIDAD-
Sistema de cobro gestion Huamani
Concesionarias de Viasual Estudio WEBSER INTEGRIDAD-
de detracciones - detraccione Echevarria MTC30 NORMAL NORMAL
transporte 2005 VER DISPONIBILID
SCD s Carlos
AD Y
PRIVACIDAD
Transportistas
CONFIDENCIA
Pasajeros,
LIDAD-
Dirección General Huamani
Hoja de Ruta (en registro y Visual Studio ******* INTEGRIDAD-
de Transporte Echevarria
proyecto) -HRUTA control 2005 * DISPONIBILID
Terrestre (MTC), Carlos
AD Y
Inspectores de
PRIVACIDAD
DGTT
Transportistas
CONFIDENCIA
Pasajeros,
LIDAD-
Manifiesto de Dirección General Huamani
registro y Visual Studio ******* ******* INTEGRIDAD-
pasajeros (en de Transporte Echevarria
control 2005 * * DISPONIBILID
proyecto)- MP Terrestre (MTC), Carlos
AD Y
Inspectores de
PRIVACIDAD
DGTT
Transportistas
CONFIDENCIA
Pasajeros,
Registro de Nomina LIDAD-
Dirección General Huamani
de Conductores y registro y Visual Studio ******* ******* INTEGRIDAD-
de Transporte Echevarria PREMIUM PREMIUM
Tripulantes control 2005 * * DISPONIBILID
Terrestre (MTC), Carlos
Terrestres -MP AD Y
Inspectores de
PRIVACIDAD
DGTT
130
Transportistas
CONFIDENCIA
Pasajeros,
Registro de LIDAD-
Dirección General Huamani
Contratos con registro y Visual Studio ******* ******* INTEGRIDAD-
de Transporte Echevarria NORMAL NORMAL
Terminales control 2005 * * DISPONIBILID
Terrestre (MTC), Carlos
Terrestres -RCTT AD Y
Inspectores de
PRIVACIDAD
DGTT
Registro Nacional
Dirección General CONFIDENCIA
de Transporte
de Transporte LIDAD-
Terrestre de Huamani
registro y Terrestre (MTC), Visual Studio ******* ******* INTEGRIDAD-
Mercancías y Echevarria PREMIUM PREMIUM
control Gobiernos 2005 * * DISPONIBILID
Materiales y Carlos
Regionales y Público AD Y
Residuos Peligrosos
en general PRIVACIDAD
-RENAC V1
CONFIDENCIA
Registro Nacional
LIDAD-
de Transporte Huamani
registro y Visual Studio ******* ******* INTEGRIDAD-
Terrestre de Echevarria PREMIUM PREMIUM
control 2005 * * DISPONIBILID
Personas -RENAC Carlos
AD Y
V2
PRIVACIDAD
SUTRAN, Dirección
CONFIDENCIA
Trámites en línea General de
LIDAD-
de DSTT Transporte Huamani
registro y Visual Studio ******* ******* INTEGRIDAD-
autorizaciones y Terrestre (MTC), Echevarria
control 2005 * * DISPONIBILID
habilitaciones - Público en general Y Carlos
AD Y
TRALIN Usuarios miembros
PRIVACIDAD
CNSV
131
SUTRAN, Dirección
CONFIDENCIA
General de
2da Versión SIIGAT, LIDAD-
Transporte Huamani
informacion con Visual Studio ******* ******* INTEGRIDAD-
consultas Terrestre (MTC), Echevarria
gráficos estadísticos 2005 * * DISPONIBILID
Público en general Y Carlos
-SIIGAT AD Y
Usuarios miembros
PRIVACIDAD
CNSV
SUTRAN, Dirección
3ra Versión SIIGAT, CONFIDENCIA
General de
información con LIDAD-
Transporte Huamani
graficos estadísticos Visual Studio ******* ******* INTEGRIDAD-
consultas Terrestre (MTC), Echevarria
e informacion 2005 * * DISPONIBILID
Público en general Y Carlos
georeferenciada AD Y
Usuarios miembros
SIIGAT PRIVACIDAD
CNSV
CONFIDENCIA
LIDAD-
Georeferenciación Huamani
Visual Studio ******* ******* INTEGRIDAD-
de las rutas de consultas Echevarria
2005 * * DISPONIBILID
transporte Carlos
AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Automatizacion de Huamani
Visual Studio ******* ******* INTEGRIDAD-
los exámenes de examenes Conductores Echevarria
2005 * * DISPONIBILID
tránsito Carlos
AD Y
PRIVACIDAD
132
Registro CONFIDENCIA
Internacional de LIDAD-
Huamani
Transporte registro y Visual Studio ******* ******* INTEGRIDAD-
Echevarria
Terrestre de control 2005 * * DISPONIBILID
Carlos
Mercancias y AD Y
Personas PRIVACIDAD
CONFIDENCIA
Registro Nacional LIDAD-
Dirección General Huamani
de Conductores registro y INTEGRIDAD-
de Transporte Echevarria Visual Basic 6.0 MTC30 NORMAL NORMAL
CONTROLCONDUCT control DISPONIBILID
Terrestre (MTC) Carlos
OR AD Y
PRIVACIDAD
CONFIDENCIA
SUTRAN, Dirección
Registro Nacional LIDAD-
General de Huamani
de Transporte registro y INTEGRIDAD-
Transporte Echevarria Visual Basic 6.0 MTC30
Terrestre de control DISPONIBILID
Terrestre (MTC), Carlos
Pasajeros- RNTTP AD Y
Público en general
PRIVACIDAD
CONFIDENCIA
LIDAD-
Emision de Tarjeta Inspectores de Huamani
Viasual Estudio MTCLPC INTEGRIDAD-
Unica de consulta DGTT Y Usuarios Echevarria VMCDB NORMAL Muy Critica NORMAL Muy Critica
2005 C-FE01 DISPONIBILID
Circulación TUC DGTT Carlos
AD Y
PRIVACIDAD
133
SUTRAN, Dirección
CONFIDENCIA
Registro Nacional General de
LIDAD-
de Transporte Transporte Huamani
registro y WEBSER INTEGRIDAD-
Terrestre de Terrestre (MTC), Echevarria ASP DBWEB PREMIUM PREMIUM
control VER DISPONIBILID
Mercancías - Público en general y Carlos
AD Y
RNTTM Direcciones
PRIVACIDAD
Regionales
CONFIDENCIA
Dirección General LIDAD-
tramite Huamani
Sistema Integrado de Transporte INTEGRIDAD-
documento Echevarria Visual Basic 6.0 MTC30 NORMAL NORMAL
de Información SII Terrestre (MTC), DISPONIBILID
s Carlos
SUTRAN AD Y
PRIVACIDAD
CONFIDENCIA
Aplicativo LIDAD-
Estadística de DGAC - Regulación y Jauregui ASTERIS ASTERIS JAVIER HURTADO Relativamente Relativamente INTEGRIDAD-
registro Visual Basic 6.0 DGAC NORMAL NORMAL BAJO
Tráfico Aéreo Promoción Jauregui Alex CO CO GUTIERREZ Crítica Crítica DISPONIBILID
(Software Antiguo) AD Y
PRIVACIDAD
CONFIDENCIA
Sistema Estadística
LIDAD-
de Tráfico Aéreo -
DGAC - Regulación y Jauregui Visual Studio WEBSER MTCLPC JAVIER HURTADO Relativamente Relativamente INTEGRIDAD-
Servicio registro DGAC NORMAL NORMAL BAJO
Promoción Jauregui Alex .Net 2005 VER C-DB04 GUTIERREZ Crítica Crítica DISPONIBILID
Internacional Mixto
AD Y
(Software Nuevo)
PRIVACIDAD
134
CONFIDENCIA
Aplicativo LIDAD-
Estadistica de DGAC - Regulación y Jauregui ASTERIS ASTERIS JAVIER HURTADO Relativamente Relativamente INTEGRIDAD-
registro Visual Basic 6.0 DGAC NORMAL NORMAL BAJO
Tráfico Aéreo Promoción Jauregui Alex CO CO GUTIERREZ Crítica Crítica DISPONIBILID
Semanal Nacional AD Y
PRIVACIDAD
CONFIDENCIA
Aplicativo LIDAD-
Estadística de DGAC - Regulación y Jauregui ASTERIS ASTERIS JAVIER HURTADO Relativamente Relativamente INTEGRIDAD-
registro Visual Basic 6.0 DGAC NORMAL NORMAL BAJO
Tráfico Aéreo Diario Promoción Jauregui Alex CO CO GUTIERREZ Crítica Crítica DISPONIBILID
Nacional AD Y
PRIVACIDAD
CONFIDENCIA
Aplicativo LIDAD-
Estadística de DGAC - Regulación y Jauregui ASTERIS ASTERIS JAVIER HURTADO Relativamente Relativamente INTEGRIDAD-
registro Visual Basic 6.0 DGAC NORMAL NORMAL BAJO
Tráfico Aéreo Diario Promoción Jauregui Alex CO CO GUTIERREZ Crítica Crítica DISPONIBILID
Internacional Mixto AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Sistema Materiales DGAC - Seguridad Jauregui ASTERIS ASTERIS INTEGRIDAD-
registro Visual Basic 6.0 SILVER Muy Critica SILVER Muy Critica
Aeronáuticos Aeronáutica Jauregui Alex CO CO DISPONIBILID
AD Y
PRIVACIDAD
135
CONFIDENCIA
LIDAD-
Aplicativo DGAC -
Jauregui ASTERIS ASTERIS INTEGRIDAD-
Exámenes registro Certificaciones y Visual Basic 6.0 JORGE LOPEZ DGAC SILVER Muy Critica SILVER Muy Critica BAJO
Jauregui Alex CO CO DISPONIBILID
Aeronáuticos Autorizaciones
AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
registro /
Jauregui ASTERIS ASTERIS Relativamente Relativamente INTEGRIDAD-
Interfaz Aeronaves actualizació DGAC Visual Basic 6.0 NORMAL NORMAL
Jauregui Alex CO CO Crítica Crítica DISPONIBILID
n
AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
registro /
Interfaz Compañías Jauregui ASTERIS ASTERIS Relativamente Relativamente INTEGRIDAD-
actualizació DGAC Visual Basic 6.0 NORMAL NORMAL
Aéreas Jauregui Alex CO CO Crítica Crítica DISPONIBILID
n
AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Módulo Balotarios DGAC -
registro / Jauregui Visual Studio ASTERIS ASTERIS INTEGRIDAD-
de Exámenes DGAC Certificaciones y SILVER Muy Critica SILVER Muy Critica
reportes Jauregui Alex .Net 2005 CO CO DISPONIBILID
via web Autorizaciones
AD Y
PRIVACIDAD
136
CONFIDENCIA
Adminsitra LIDAD-
Sistema Portal de la cion Jauregui INTEGRIDAD-
DGAC PL/SQL WEB PEGASO ARGOS SILVER Muy Critica SILVER Muy Critica
DGAC: Procesos Jauregui Alex DISPONIBILID
DGAC AD Y
PRIVACIDAD
CONFIDENCIA
Adminsitra LIDAD-
Sistemas DGAC - cion Jauregui ASP. Net 2003 y WEBSER Relativamente Relativamente INTEGRIDAD-
DGAC DBWEB SILVER SILVER
Portal MTC Procesos Jauregui Alex ASP VER Crítica Crítica DISPONIBILID
MTC AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Intranet- Jauregui ASP. Net 2003 y WEBSER Relativamente Relativamente INTEGRIDAD-
INTRANET - DGAC DGAC DBWEB SILVER SILVER
DGAC Jauregui Alex ASP VER Crítica Crítica DISPONIBILID
AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Extranet- Jauregui ASP. Net 2003, WEBSER Relativamente Relativamente INTEGRIDAD-
EXTRANET - DGAC DGAC DBWEB SILVER SILVER
DGAC Jauregui Alex 2005 y ASP VER Crítica Crítica DISPONIBILID
AD Y
PRIVACIDAD
137
Sistema de CONFIDENCIA
Notificación LIDAD-
Voluntario de Jauregui MTCLPC MTCLPC Relativamente Relativamente INTEGRIDAD-
Registro DGAC C# .Net 2010 NORMAL NORMAL
Incidentes y Jauregui Alex C-AP16 C-DB06 Crítica Crítica DISPONIBILID
Ocurrencias - AD Y
SINIOR PRIVACIDAD
CONFIDENCIA
Intercambio de
LIDAD-
Información
Jauregui ******* ******* Relativamente Relativamente INTEGRIDAD-
CORPAC DGAC/DSA Reportes DGAC C# .Net 2010
Jauregui Alex * * Crítica Crítica DISPONIBILID
Seguridad
AD Y
Operacional
PRIVACIDAD
CONFIDENCIA
LIDAD-
Centros Médicos
Registro/Re Jauregui ******* ******* INTEGRIDAD-
Autorizados - DGAC C# .Net 2010 SILVER Muy Critica SILVER Muy Critica
portes Jauregui Alex * * DISPONIBILID
(software nuevo)
AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Sistema Integrado Registros/r JOSE LUIS
Jauregui MTCLPC MTCLPC Relativamente Relativamente INTEGRIDAD-
de Información de eportes DGTA Visual Basic 6.0 RODRIGO LUJAN DGTA QWISTGAARD SILVER SILVER BAJO
Jauregui Alex C-AP16 C-DB06 Crítica Crítica DISPONIBILID
la DGTA (antiguo) /Alertas SUAREZ
AD Y
PRIVACIDAD
138
CONFIDENCIA
LIDAD-
Módulo de
Jauregui Visual basic WEBSER MTCLPC Relativamente Relativamente INTEGRIDAD-
Empresas Acuáticas Reportes DGTA NORMAL NORMAL
Jauregui Alex 2005 .Net VER C-DB06 Crítica Crítica DISPONIBILID
- Web DGTA
AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Nuevo Sistema Registros/r JOSE LUIS
Jauregui ******* ******* INTEGRIDAD-
Integrado de eportes DGTA Java JSF RODRIGO LUJAN DGTA QWISTGAARD SILVER Muy Critica SILVER Muy Critica BAJO
Jauregui Alex * * DISPONIBILID
Información - DGTA /Alertas SUAREZ
AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Registros/R Jauregui ASTERIS MTCLPC INTEGRIDAD-
Control de Legajos --- Visual Basic 6.0 NORMAL Muy Critica NORMAL Muy Critica
eportes Jauregui Alex CO C-DB04 DISPONIBILID
AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Módulo de
Jauregui ASTERIS MTCLPC INTEGRIDAD-
Administración Registro OTI Visual Basic 6.0 NORMAL Importante NORMAL Importante
Jauregui Alex CO C-WB05 DISPONIBILID
Web de Usuarios
AD Y
PRIVACIDAD
139
CONFIDENCIA
LIDAD-
Registros/r
Mesa de Ayuda - Jauregui ASTERIS MTCLPC INTEGRIDAD-
eportes OTI Visual Basic 6.0 NORMAL Importante NORMAL Importante
HelpDesk Jauregui Alex CO C-DB06 DISPONIBILID
/Alertas
AD Y
PRIVACIDAD
CONFIDENCIA
JOSE LUIS LIDAD-
Sistema de Registro Jauregui ASTERIS MTCLPC CARMEN YVETTE PELAYO Relativamente Relativamente INTEGRIDAD-
Registro MTC Visual Basic 6.0 OGAC NORMAL NORMAL BAJO
de Visitas - MTC Jauregui Alex CO C- DB 07 AGREDA VALDEZ HERBOZO Crítica Crítica DISPONIBILID
PEREZ-COSTA AD Y
PRIVACIDAD
CONFIDENCIA
Oficina de Atención JOSE LUIS LIDAD-
Agenda Pública al Ciudadano y Macedo Salas Visual Studio MTCLPC CARMEN YVETTE PELAYO INTEGRIDAD-
consulta DBWEB OGAC NORMAL Importante NORMAL Importante BAJO
Ministerial Gestión Yvette 2005 C# C-WB01 AGREDA VALDEZ HERBOZO DISPONIBILID
Documental PEREZ-COSTA AD Y
PRIVACIDAD
CONFIDENCIA
Oficina de Atención JOSE LUIS LIDAD-
Solicitud de Acceso
registro y al Ciudadano y Macedo Salas Visual Studio MTCLPC CARMEN YVETTE PELAYO INTEGRIDAD-
a la Información DBWEB OGAC NORMAL Importante NORMAL Importante BAJO
consulta Gestión Yvette 2005 C# C-WB01 AGREDA VALDEZ HERBOZO DISPONIBILID
Pública (SAIP)
Documental PEREZ-COSTA AD Y
PRIVACIDAD
140
Imagen
Institucional,
Oficina General de
CONFIDENCIA
Asesoría Jurídica,
Módulo de JOSE LUIS LIDAD-
Oficina de Atención
Información registro y Macedo Salas Visual Studio MTCLPC DGTDW CARMEN YVETTE PELAYO Relativamente Relativamente INTEGRIDAD-
al Ciudadano y OGAC NORMAL NORMAL MEDIO
Dinámica del Portal consulta Yvette 2005 C# C-WB01 H AGREDA VALDEZ HERBOZO Crítica Crítica DISPONIBILID
Gestión
(IDM) PEREZ-COSTA AD Y
Documental,
PRIVACIDAD
Oficina de
Tecnologia de
Informacion
CONFIDENCIA
Abastecimiento,
JOSE LUIS LIDAD-
Oficina de Atención
Proveedores en Macedo Salas Visual Studio MTCLPC SIGADB0 CARMEN YVETTE PELAYO INTEGRIDAD-
consulta al Ciudadano y OGAC NORMAL Importante NORMAL Importante BAJO
Línea Yvette 2005 C# C-WB01 1 AGREDA VALDEZ HERBOZO DISPONIBILID
Gestión
PEREZ-COSTA AD Y
Documental
PRIVACIDAD
CONFIDENCIA
Sistema de LIDAD-
Convocatoria CAS registro y Oficina de Personal, Macedo Salas Visual Studio MTCLPC INTEGRIDAD-
VMCDB NORMAL Muy Critica NORMAL Muy Critica
MTC, Provias consulta SUTRAN Yvette 2005 C# C-WB01 DISPONIBILID
Nacional, SUTRAN AD Y
PRIVACIDAD
CONFIDENCIA
Oficina de Atención JOSE LUIS LIDAD-
Módulo de
al Ciudadano y Macedo Salas Visual Studio WEBSER CARMEN YVETTE PELAYO INTEGRIDAD-
Contador de Visitas consulta VMCDB OGAC NORMAL Importante NORMAL Importante BAJO
Gestión Yvette 2005 C# VER AGREDA VALDEZ HERBOZO DISPONIBILID
del MTC
Documental PEREZ-COSTA AD Y
PRIVACIDAD
141
CONFIDENCIA
Oficina de Atención JOSE LUIS LIDAD-
Denuncias registro y al Ciudadano y Macedo Salas Visual Studio WEBSER CARMEN YVETTE PELAYO INTEGRIDAD-
VMCDB OGAC NORMAL Importante NORMAL Importante MEDIO
anticorrupción consulta Gestión Yvette 2005 C# VER AGREDA VALDEZ HERBOZO DISPONIBILID
Documental PEREZ-COSTA AD Y
PRIVACIDAD
CONFIDENCIA
Registro de Listado
LIDAD-
de Ventas Dirección General RAUL RICARDO
registro y Macedo Salas Visual Studio MTCLPC JUAN CARLOS CONSECIONES EN INTEGRIDAD-
Mensuales de Casas de Concesiones en VMCDB PEREZ REYES- NORMAL Importante NORMAL Importante BAJO
control Yvette 2005 C# C-WB01 MEJIA CORNEJO COMUNICACIONES DISPONIBILID
Comercializadoras Comunicaciones ESPEJO
AD Y
(RLV)
PRIVACIDAD
CONFIDENCIA
Registro de Equipos LIDAD-
registro, Ciudadanía en
y Aparatos Macedo Salas Visual Studio MTCLPC INTEGRIDAD-
consulta y General, VMCDB NORMAL Muy Critica NORMAL Muy Critica
Homologados de Yvette 2005 C# C-WB01 DISPONIBILID
control homologación
EEUU y Canadá AD Y
PRIVACIDAD
CONFIDENCIA
Sistema de Control LIDAD-
Oficina de
de Visitas registro y Macedo Salas Visual Studio MTCLPC SIGADB0 INTEGRIDAD-
Tecnología de NORMAL Importante NORMAL Importante
(actualmente solo control Yvette 2005 C# C-AP04 1 DISPONIBILID
Información
personal OTI) AD Y
PRIVACIDAD
142
CONFIDENCIA
LIDAD-
Fiscalización
Áreas afectas al Macedo Salas Visual Studio ******* ******* INTEGRIDAD-
Posterior Aleatoria consulta NORMAL Muy Critica NORMAL Muy Critica
TUPA Yvette 2005 C# * * DISPONIBILID
(FPA)
AD Y
PRIVACIDAD
CONFIDENCIA
Red Especial de Dirección General LIDAD-
Comunicaciones en registro y de Control y Macedo Salas Visual Studio MTCLPC DGTDW Relativamente Relativamente INTEGRIDAD-
SILVER SILVER
Situación de consulta Supervision de Yvette 2005 C# C-WB01 H Crítica Crítica DISPONIBILID
Emergencia (RECSE) Comunicaciones AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Sistema de
registro y Secretaria Técnica Macedo Salas Visual Studio ******* ******* INTEGRIDAD-
Encuesta y NORMAL Importante NORMAL Importante
consulta FITEL Yvette 2010 C# * * DISPONIBILID
Exámenes de FITEL
AD Y
PRIVACIDAD
consulta CONFIDENCIA
directorio-- LIDAD-
Intranet sistemas en Macedo Salas Visual Studio MTCLPC INTEGRIDAD-
Usuarios MTC VMCDB NORMAL Importante NORMAL Importante
Corporativa v2.0 linea-- Yvette 2005 C# C-WB01 DISPONIBILID
publicacion AD Y
es-- PRIVACIDAD
143
Módulo de CONFIDENCIA
Permisos para LIDAD-
Dirección General
Instalaciones de registro y Macedo Salas Visual Studio ******* ******* INTEGRIDAD-
de Concesiones en NORMAL Importante NORMAL Importante
Estaciones consulta Yvette 2010 C# * * DISPONIBILID
Comunicaciones
Radioeléctricas AD Y
(IER) PRIVACIDAD
CONFIDENCIA
Módulo de LIDAD-
Información sobre registro y Macedo Salas Visual Studio MTCLPC INTEGRIDAD-
Oficina de Personal DBWEB NORMAL Importante NORMAL Importante
Capacitación de consulta Yvette 2005 C# C-WB01 DISPONIBILID
Personal AD Y
PRIVACIDAD
CONFIDENCIA
Dir. Gral. de
LIDAD-
Regulación y PATRICIA RAUL RICARDO
Intranet de Fibra registro y Macedo Salas Visual Studio WEBSER INTEGRIDAD-
Asuntos VMCDB CRITINA DGRAIC PEREZ REYES- NORMAL Importante NORMAL Importante SIN RIESGOS
Óptica consulta Yvette 2005 C# VER DISPONIBILID
Internacionales CARREÑO FERRE ESPEJO
AD Y
de Comunicaciones
PRIVACIDAD
CONFIDENCIA
Dir. Gral. de
LIDAD-
Regulación y PATRICIA RAUL RICARDO
registro y Macedo Salas Visual Studio ******* ******* INTEGRIDAD-
Foro Fibra Óptica Asuntos CRITINA DGRAIC PEREZ REYES- NORMAL Importante NORMAL Importante SIN RIESGOS
consulta Yvette 2005 C# * * DISPONIBILID
Internacionales CARREÑO FERRE ESPEJO
AD Y
de Comunicaciones
PRIVACIDAD
144
JUAN CARLOS CONFIDENCIA
Migración ASP a
MEJIA CONSECIONES/CONT LIDAD-
ASPX: Módulo de Dirección General RAUL RICARDO
Macedo Salas Visual Studio MTCLPC DGTDW CORNEJO/CARLO ROL Y SUPERVISION Relativamente Relativamente INTEGRIDAD-
Registro Nacional consultas de Concesiones en PEREZ REYES- NORMAL NORMAL MEDIO
Yvette 2005 C# C-WB01 H S VALDEZ EN Crítica Crítica DISPONIBILID
de Frecuencias Comunicaciones ESPEJO
VELASQUEZ- COMUNICACIONES AD Y
(RNF)
LOPEZ PRIVACIDAD
CONFIDENCIA
MTCLPC LIDAD-
Contrataciones y
consultas y Ciudadanía en Macedo Salas Visual Studio MTCLPC C-AP INTEGRIDAD-
Adquisiones del NORMAL Importante NORMAL Importante
reportes General Yvette 2005 C# C-WB01 (SIGAME DISPONIBILID
MTC
F) AD Y
PRIVACIDAD
CONFIDENCIA
JOSE LUIS LIDAD-
Hoja de Vida de
Ciudadanía en Macedo Salas Visual Studio WEBSER CARMEN YVETTE PELAYO Relativamente Relativamente INTEGRIDAD-
Funcionarios consultas DBWEB OGAC NORMAL NORMAL SIN RIESGOS
General Yvette 2005 C# VER AGREDA VALDEZ HERBOZO Crítica Crítica DISPONIBILID
(Directorio Portal)
PEREZ-COSTA AD Y
PRIVACIDAD
CONFIDENCIA
JOSE LUIS LIDAD-
Libro de VMCDBC
Ciudadanía en Macedo Salas Visual Studio MTCLPC CARMEN YVETTE PELAYO Relativamente Relativamente INTEGRIDAD-
Reclamaciones y registro (ADMPR OGAC NORMAL NORMAL BAJO
general Yvette 2005 C# C-WB01 AGREDA VALDEZ HERBOZO Crítica Crítica DISPONIBILID
Sugerencias OD)
PEREZ-COSTA AD Y
PRIVACIDAD
145
CONFIDENCIA
MTCNO
SISTEMA MTCNOT JOSE LUIS LIDAD-
TES
INTEGRADO DE Vilela Giron ES CARMEN YVETTE PELAYO INTEGRIDAD-
SID MTC Lotus notes 6.5 (MTCLP OGAC PREMIUM Muy Critica PREMIUM Muy Critica BAJO
GESTION Pamela (MTCLPC AGREDA VALDEZ HERBOZO DISPONIBILID
CC-
DOCUMENTAL C-LN01) PEREZ-COSTA AD Y
LN01)
PRIVACIDAD
CONFIDENCIA
MTCNO
SISTEMA MTCNOT LIDAD-
TES
INTEGRADO DE INTERFAZ Vilela Giron Java Eclipse ES INTEGRIDAD-
Telecomunicaciones (MTCLP PREMIUM Muy Critica PREMIUM Muy Critica BAJO
GESTION SID-VUCE Pamela Galileo 3.5 (MTCLPC DISPONIBILID
CC-
DOCUMENTAL C-LN01) AD Y
LN01)
PRIVACIDAD
CONFIDENCIA
MTCNO
SISTEMA MTCNOT LIDAD-
TES
INTEGRADO DE CONSULTA Vilela Giron ES Relativamente Relativamente INTEGRIDAD-
Telecomunicaciones Lotus notes (MTCLP PREMIUM PREMIUM BAJO
GESTION S VUCE Pamela (MTCLPC Crítica Crítica DISPONIBILID
CC-
DOCUMENTAL C-LN01) AD Y
LN01)
PRIVACIDAD
REGISTROS
Y CONFIDENCIA
MTCNO
SISTEMA CONSULTA MTCNOT JOSE LUIS LIDAD-
TES
INTEGRADO DE S Vilela Giron ES CARMEN YVETTE PELAYO INTEGRIDAD-
MTC Lotus notes (MTCLP OGAC PREMIUM Muy Critica PREMIUM Muy Critica BAJO
GESTION DOCUMEN Pamela (MTCLPC AGREDA VALDEZ HERBOZO DISPONIBILID
CC-
DOCUMENTAL TOS C-LN01) PEREZ-COSTA AD Y
LN01)
CONGRESIS PRIVACIDAD
TAS
146
CONFIDENCIA
SISTEMA LIDAD-
INTEGRADO DE INTERFAZ Vilela Giron Java Eclipse PER_ELL PER_ELL INTEGRIDAD-
Telecomunicaciones PREMIUM Muy Critica PREMIUM Muy Critica BAJO
GESTION SID-ELLIPSE Pamela Galileo 3.5 2 2 DISPONIBILID
DOCUMENTAL AD Y
PRIVACIDAD
CONFIDENCIA
MTCNO
SISTEMA MTCNOT LIDAD-
TES
INTEGRADO DE SID Vilela Giron ES INTEGRIDAD-
SUTRAN Lotus notes (MTCLP PREMIUM Muy Critica PREMIUM Muy Critica BAJO
GESTION SUTRAN Pamela (MTCLPC DISPONIBILID
CC-
DOCUMENTAL C-LN01) AD Y
LN01)
PRIVACIDAD
CONFIDENCIA
GESTION Y
SISTEMA MTCNOT JOSE LUIS LIDAD-
CONSTROL
INTEGRADO DE Vilela Giron Java Eclipse ASTERIS ES CARMEN YVETTE PELAYO INTEGRIDAD-
DE MTC OGAC NORMAL Importante NORMAL Importante BAJO
GESTION Pamela Galileo 3.5 CO (MTCLPC AGREDA VALDEZ HERBOZO DISPONIBILID
MENSAJERI
DOCUMENTAL C-LN01) PEREZ-COSTA AD Y
A
PRIVACIDAD
REGISTROS CONFIDENCIA
MTCNO
SISTEMA Y MTCNOT JOSE LUIS LIDAD-
TES
INTEGRADO DE CONSULTA Vilela Giron ES CARMEN YVETTE PELAYO INTEGRIDAD-
MTC Lotus notes (MTCLP OGAC NORMAL Muy Critica NORMAL Muy Critica BAJO
GESTION S Pamela (MTCLPC AGREDA VALDEZ HERBOZO DISPONIBILID
CC-
DOCUMENTAL RESOLUCIO C-LN01) PEREZ-COSTA AD Y
LN01)
NES PRIVACIDAD
147
CONFIDENCIA
SISTEMA JOSE LUIS LIDAD-
INTEGRADO DE REPORTES OCI-Organo de Vilela Giron Java Eclipse ******* ******* CARMEN YVETTE PELAYO Relativamente Relativamente INTEGRIDAD-
OGAC NORMAL NORMAL BAJO
GESTION OCI Control Interno Pamela Galileo 3.5 * * AGREDA VALDEZ HERBOZO Crítica Crítica DISPONIBILID
DOCUMENTAL PEREZ-COSTA AD Y
PRIVACIDAD
REGISTROS CONFIDENCIA
MTCNO
SISTEMA DOCUMEN MTCNOT LIDAD-
OGA-Oficina TES
INTEGRADO DE TOS Vilela Giron ES INTEGRIDAD-
General de Lotus notes (MTCLP NORMAL Importante NORMAL Importante BAJO
GESTION ORDENES Pamela (MTCLPC DISPONIBILID
Administracion CC-
DOCUMENTAL SERVICIO C-LN01) AD Y
LN01)
FINANZAS PRIVACIDAD
CONFIDENCIA
MTCNO
SISTEMA MTCNOT JOSE LUIS LIDAD-
TES
INTEGRADO DE TRAMITE Vilela Giron ES CARMEN YVETTE PELAYO INTEGRIDAD-
MTC Lotus notes (MTCLP OGAC PREMIUM Muy Critica PREMIUM Muy Critica BAJO
GESTION WEB Pamela (MTCLPC AGREDA VALDEZ HERBOZO DISPONIBILID
CC-
DOCUMENTAL C-LN01) PEREZ-COSTA AD Y
LN01)
PRIVACIDAD
CONFIDENCIA
MTCNO
SISTEMA MTCNOT JOSE LUIS LIDAD-
TES
INTEGRADO DE REPORTES Vilela Giron ES CARMEN YVETTE PELAYO INTEGRIDAD-
Lotus notes (MTCLP OGAC NORMAL Importante NORMAL Importante BAJO
GESTION OCI Pamela (MTCLPC AGREDA VALDEZ HERBOZO DISPONIBILID
CC-
DOCUMENTAL C-LN01) PEREZ-COSTA AD Y
LN01)
PRIVACIDAD
148
CONFIDENCIA
Sistema de JOSE LUIS LIDAD-
Todas las Villacorta
Acotaciones y PELAYO INTEGRIDAD-
IGACC Direcciones Delgado Oracle Forms 10 SAVMC ARGOS PREMIUM Muy Critica PREMIUM Muy Critica BAJO
Cuentas por Cobrar HERBOZO DISPONIBILID
Generales del VMC. Miguel
- IGACC PEREZ-COSTA AD Y
PRIVACIDAD
CONFIDENCIA
JOSE LUIS LIDAD-
Todas las Villacorta
Sistema de PER_ELL JUAN CARLOS PELAYO INTEGRIDAD-
ELLIPSE Direcciones Delgado Oracle Forms 6 PER_ELL DGCC PREMIUM Muy Critica PREMIUM Muy Critica BAJO
Información Ellipse 2 MEJIA CORNEJO HERBOZO DISPONIBILID
Generales del VMC. Miguel
PEREZ-COSTA AD Y
PRIVACIDAD
CONFIDENCIA
JOSE LUIS LIDAD-
Todas las Villacorta
Ellipse Técnico ELLIPSE PER_ELL JUAN CARLOS PELAYO INTEGRIDAD-
Direcciones Delgado Oracle Forms 6 PER_ELL DGCC PREMIUM Muy Critica PREMIUM Muy Critica MEDIO
(Xceed) TECNICO 2 MEJIA CORNEJO HERBOZO DISPONIBILID
Generales del VMC Miguel
PEREZ-COSTA AD Y
PRIVACIDAD
CONFIDENCIA
JOSE LUIS LIDAD-
Dirección General Villacorta
Módulo de PER_ELL PER_ELL JUAN CARLOS PELAYO Relativamente Relativamente INTEGRIDAD-
MSP de Concesiones en Delgado Oracle Forms 6 DGCC NORMAL NORMAL BAJO
Servicios Públicos 2 2 MEJIA CORNEJO HERBOZO Crítica Crítica DISPONIBILID
Comunicaciones Miguel
PEREZ-COSTA AD Y
PRIVACIDAD
149
CONFIDENCIA
Dirección General JOSE LUIS LIDAD-
Módulo de Villacorta
de Autorizaciones PER_ELL PER_ELL PELAYO INTEGRIDAD-
Servicios de MSRD Delgado Oracle Forms 6 NORMAL Muy Critica NORMAL Muy Critica
de 2 2 HERBOZO DISPONIBILID
Radiodifusión Miguel
Telecomunicaciones PEREZ-COSTA AD Y
PRIVACIDAD
CONFIDENCIA
JOSE LUIS LIDAD-
Dirección General Villacorta
Módulo de PER_ELL PER_ELL PELAYO Relativamente Relativamente INTEGRIDAD-
MH de Concesiones en Delgado Oracle Forms 6 NORMAL NORMAL
Homologación 2 2 HERBOZO Crítica Crítica DISPONIBILID
Comunicaciones Miguel
PEREZ-COSTA AD Y
PRIVACIDAD
CONFIDENCIA
JOSE LUIS LIDAD-
Módulo de Dirección General Villacorta
Power Builder PER_ELL PER_ELL JUAN CARLOS CONSECIONES EN PELAYO INTEGRIDAD-
Registros para los MRSP de Concesiones en Delgado NORMAL Importante NORMAL Importante BAJO
10.2 2 2 MEJIA CORNEJO COMUNICACIONES HERBOZO DISPONIBILID
Servicios Públicos Comunicaciones Miguel
PEREZ-COSTA AD Y
PRIVACIDAD
CONFIDENCIA
JOSE LUIS LIDAD-
Dirección General Villacorta
Módulo de registro Power Builder PER_ELL PER_ELL PELAYO INTEGRIDAD-
MRC de Concesiones en Delgado NORMAL Importante NORMAL Importante
de comunicaciones 10.2 2 2 HERBOZO DISPONIBILID
Comunicaciones Miguel
PEREZ-COSTA AD Y
PRIVACIDAD
150
CONFIDENCIA
Dirección General JOSE LUIS LIDAD-
Villacorta
de Control y Power Builder PER_ELL PER_ELL PELAYO INTEGRIDAD-
Módulo de Control MC Delgado NORMAL Importante NORMAL Importante
Supervisión de 10.2 2 2 HERBOZO DISPONIBILID
Miguel
Comunicaciones PEREZ-COSTA AD Y
PRIVACIDAD
CONFIDENCIA
JOSE LUIS LIDAD-
Todas las Villacorta
Módulo de CONSULTA Power Builder PER_ELL PER_ELL JUAN CARLOS PELAYO INTEGRIDAD-
Direcciones Delgado DGCC NORMAL Importante NORMAL Importante BAJO
Consultas Ellipse S 10.2 2 2 MEJIA CORNEJO HERBOZO DISPONIBILID
Generales del VMC Miguel
PEREZ-COSTA AD Y
PRIVACIDAD
CONFIDENCIA
Dirección General LIDAD-
Villacorta
Módulo de de Autorizaciones Power Builder PER_ELL PER_ELL INTEGRIDAD-
IMPRESIÓN Delgado NORMAL Importante NORMAL Importante
Impresión de 10.2 2 2 DISPONIBILID
Miguel
Telecomunicaciones AD Y
PRIVACIDAD
CONFIDENCIA
JOSE LUIS LIDAD-
Dirección General Villacorta
Modulo de Casas JUAN CARLOS PELAYO INTEGRIDAD-
REGCAS de Concesiones en Delgado Oracle Forms SAVMC ARGOS DGCC NORMAL Importante NORMAL Importante SIN RIESGOS
Comercializadoras MEJIA CORNEJO HERBOZO DISPONIBILID
Comunicaciones Miguel
PEREZ-COSTA AD Y
PRIVACIDAD
151
CONFIDENCIA
LIDAD-
Villacorta
Modulo Subastas SubastasFit Java Eclipse INTEGRIDAD-
FITEL Delgado SAVMC ARGOS NORMAL Importante NORMAL Importante
Fitel el Galileo 3.5 DISPONIBILID
Miguel
AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Modulo de Villacorta
INTEGRIDAD-
Solicitudes de SOLCCPP FITEL Delgado Oracle Forms 6 SAVMC ARGOS NORMAL Importante NORMAL Importante
DISPONIBILID
Antenas Parabolicas Miguel
AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Sistema de Ministerio de Villacorta
Java Eclipse OASVM INTEGRIDAD-
Seguimiento de la SISGEC Transporte y Delgado ARGOS NORMAL Importante NORMAL Importante
Indigo 3.7 C DISPONIBILID
Gestion Coactiva Comunicaciones Miguel
AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Todas las Villacorta
Sistema Integrado Java Eclipse ******* ******* INTEGRIDAD-
PVMC Direcciones Delgado
VMC Galileo 3.5 * * DISPONIBILID
Generales del VMC. Miguel
AD Y
PRIVACIDAD
152
CONFIDENCIA
Sistema para
LIDAD-
Licencias de Dirección General Huamani
Visual Studio INTEGRIDAD-
Conductores SLCVF de Circulación y Echevarria NORMAL NORMAL
2005 DISPONIBILID
Vehículos Ferrocarriles Carlos
AD Y
Ferroviarios
PRIVACIDAD
CONFIDENCIA
LIDAD-
Dirección General Huamani WALTER
Inventario Vial de Visual Studio HERNAN GARRO INTEGRIDAD-
IVC de Circulación y Echevarria DGCF ZECENARRO NORMAL NORMAL SIN RIESGOS
Carreteras 2005 LOPEZ DISPONIBILID
Ferrocarriles Carlos MATEUS
AD Y
PRIVACIDAD
CONFIDENCIA
LIDAD-
Dirección General Huamani WALTER
Registro Nacional Visual Studio HERNAN GARRO INTEGRIDAD-
RENAC de Circulación y Echevarria DGCF ZECENARRO NORMAL NORMAL MEDIO
de Carreteras 2005 LOPEZ DISPONIBILID
Ferrocarriles Carlos MATEUS
AD Y
PRIVACIDAD
153
Requerimiento de la nueva Infraestructura Virtual
ESPECIFICACIONES TÉCNICAS
PARA LA ADQUISICIÓN DE SERVIDORES
Para este fin, se adquirirán servidores adicionales para soportar la carga adicional de servicios
virtualizados dentro del pool actual de infraestructura virtual, así como una mejora y
ampliación de capacidad de almacenamiento, incluyendo aumentar el rendimiento con
controladoras y puertos adicionales, asegurando la total integración nativa con la
infraestructura actual, tanto a nivel de pool de virtualización conformado por servidores DELL |
Poweredge r710, así como con el sistema de almacenamiento actual conformado por equipos
Dell | Equallogic PS6010.
154
4. ESPECIFICACIONES TÉCNICAS: Los bienes a adquirir deberán cumplir con las siguientes
especificaciones técnicas de acuerdo a los siguientes puntos:
DETALLE CANTIDAD
1 Servidores y Chasis
3 Gabinetes 6
4 Memorias RAM 66
1. SERVIDORES Y CHASIS
1.1 Servidores de media altura
155
2 Dual Port 10Gb:
Interfaces SAN (iSCSI)
TCP/IP Offload Engine
iSCSI Offload Engine
4 puertos 10/100/1000 Mbps Ethernet con
Interfaces de red soporte de:
157
altura o cualquier combinación entre
estos. del mismo modelo que los
ofertados (incluyendo sus accesorios)
158
switch debe ser internos en el
enclousure. 24 puertos activos y
licenciados.
Capacidad de acceder y administrar
Software de Administración y simultáneamente funcionalidades de
monitoreo del Enclosure vKVM y/o vMedia a todos los blades del
chasis por uno o más usuarios.
Estos equipos deberán ser tomados en cuenta, según corresponda, en la solución propuesta, ya
que la solución deberá integrarse a la tecnología actual del Ministerio de Transportes y
Comunicaciones.
Requerimiento:
159
Actualmente el Sistema de almacenamiento del MTC cuenta con 04 Storage EqualLogic para los
cuales solicitamos: Ampliación y mejora del sistema de almacenamiento SAN actual, agregando e
integrando:
Consola Serial
160
Modelo Optimizado para rack
Temperatura de funcionamiento 5 to 35 °C / 41 to 95 °F
161
2.2 Switches de ampliación a la SAN actual (iguales o superiores a los actualmente utilizados por el MTC
certificados por el proveedor para EqualLogic)
162
Soporte Red TCP IPV4, IPV6
3. GABINETES
Altura: 42.1”
4. MEMORIAS RAM
163
SITUACIÓN ACTUAL: El MTC dispone de los siguientes equipos:
11 Servidores DELL 2 CPUs Quad core x 2.659 GHz Intel Xeon CPU
PowerEdge R710 E5640
Estos equipos deberán ser tomados en cuenta, según corresponda, en la solución propuesta, ya que la
solución deberá integrarse a la tecnología actual del Ministerio de Transportes y Comunicaciones.
Requerimiento:
Actualmente los servidores de virtualización del MTC se encuentra ya limitados en los recursos de memoria RAM para
los cuales solicitamos: Ampliación de la capacidad de memoria RAM, agregando e integrando:
164
servidor en cuestión.
4 Servidores DELL 2 CPUs Quad core x 2.659 GHz Intel Xeon CPU E5640 Estos
PowerEdge equipos
Una tarjeta de red ISCSI deberán
R710
ser tomados
Todos estos equipos conforman la actual arquitectura
en cuenta,
de virtualización.
según
corresponda, en la solución propuesta, ya que la solución deberá integrarse a la tecnología actual del
Ministerio de Transportes y Comunicaciones.
Requerimiento:
Upgrade de las tarjetas de red ISCSI
Actualmente los servidores de virtualización del MTC se encuentra con una única tarjeta de red iSCSI que
no garantizan la alta disponibilidad de los servicios que soportan estos equipos para los cuales solicitamos:
Ampliación de la conexión agregando e integrando:
165
servidor en cuestión.
6. PLAZO DE ENTREGA: cuarenta (40) días calendario, contabilizados a partir del día siguiente de
la firma del contrato.
166
La modalidad del servicio a prestar es de 24x7x4, 24 horas del día, de lunes a domingo incluyendo los
feriados, con un tiempo de respuesta de cuatro (4) horas, con los recursos locales que el proveedor
cuenta, durante un período de TRES (3) años.
• Carta de compromiso del postor especificando que cuentan con sistema de Mesa de Ayuda
para recibir solicitudes de atención (debe indicarse el procedimiento, los teléfonos, horario,
correo electrónico, contactos y números preferenciales con el fabricante), tiempos de
respuesta y tiempos de solución.
• Carta de garantía del postor especificando la cobertura del soporte técnico pro el tiempo que
dure la garantía.
• Carta de garantía del postor en la cual se certifique que los bienes a ofertar deberán de ser
nuevos (de primer uso) y deben de ser adquiridos por un canal regular con la garantía del
fabricante, lo que asegura que el producto llega en iguales condiciones desde que fue
manufacturado.
CONDICIONES GENERALES
167
Vigencia Tecnológica y Escalabilidad
En el caso de presentarse una “actualización tecnológica” en los bienes y/o elementos que
formen parte de la oferta del Proveedor, en cualquier momento anterior a la entrega definitiva
de la totalidad de los bienes, el Proveedor debe entregar tales equipos y/o elementos
actualizados, contando con autorización previa del MTC y sin que esto implique un cargo
adicional.
Se entenderá que ha ocurrido una actualización tecnológica cuando se presenta una nueva
versión del mismo producto en el mercado, que reemplaza a este en la línea de productos
ofrecida por el Proveedor a la generalidad de sus clientes, y que sustituye al modelo ofrecido al
MTC.
El Proveedor podrá, sin costos adicionales para el MTC, entregar equipos más avanzados o con
características superiores a las ofrecidas, siempre y cuando cuente con la aprobación previa del
MTC.
En ningún caso el Proveedor podrá presentar soluciones que estén destinadas a perder su
vigencia tecnológica (hayan anunciado su “end-of-life”) o dejen de ser fabricadas,
comercializadas y/o soportadas, durante los 3 años siguientes a la instalación, configuración e
implementación de los bienes adquiridos.
La garantía ofrecida por el postor debe cumplir con los siguientes requisitos mínimos:
Considerar el cambio, sin costo alguno para el MTC, del equipo completo o de las partes
(repuestos originales) que presenten defectos de fabricación durante el período de garantía
ofertado por el postor. El postor debe responsabilizarse a que dichos cambios permitirán el buen
funcionamiento del equipo en forma individual y como componente de la solución, cuya acta de
conformidad aprobó la correcta implementación de la solución, materia del presente proceso de
adjudicación.
Considerar el software incluido como parte de la solución, mediante la actualización de la
versión entregada y configurada, a través del suministro de nuevas versiones (releases) y
reparaciones (en general denominadas comercialmente como patches, temporary fixes, etc.),
que el proveedor libere y ponga a libre disponibilidad (sin costo) de los propietarios de las
licencias del software componente de la solución implementada.
Garantizar que todos los bienes ofertados son nuevos y sin uso, que están libres de defectos y
adulteraciones que puedan manifestarse durante su uso, ya sea por el resultado de alguna
acción u omisión o provengan del diseño, los materiales o la mano de obra.
Emitir la garantía de buen funcionamiento de la solución (hardware y software) por un período
de tres (03) años con el correspondiente respaldo del proveedor, contabilizado a partir de la
conformidad de instalación, configuración e implementación de los bienes adquiridos.
Proporcionar el mantenimiento de hardware y actualizaciones de software por un período de
tres (03) años.
168
La solución propuesta debe ser 100% compatible con el Sistema de Almacenamiento instalado
en el MTC.
El Servicio de Soporte Técnico y Mantenimiento ofrecido por el postor debe cumplir con los
siguientes requerimientos mínimos:
Estos son:
Disponibilidad de los especialistas de la empresa para brindar soporte técnico especializado a
través de la línea telefónica, correo electrónico, sistemas en línea o sitios cuando se requiera.
Entregar al MTC al momento de la instalación de los bienes una nómina del personal técnico
autorizado a interactuar con los bienes contratados. Dicha nómina debe ser actualizada cuando
se produzcan cambios.
Garantizar un tiempo de respuesta máximo de 4 horas para visitas de soporte técnico a l MTC.
Reposición temporal del equipo o componente con fallas por un equipo o componente igual o
superior en un plazo máximo de cuatro (4) horas, con la finalidad de mantener la operatividad
mientras se hace efectiva la garantía.
Garantizar en toda circunstancia la posibilidad de escalamiento del servicio con el postor para
una oportuna solución de los eventos presentados.
Revisión periódica de los equipos y/o programas implementados como parte de la solución
ofertada, al menos una (01) vez al año y según un calendario establecido en consenso entre el
postor adjudicado y el MTC, a fin de que dichas tareas no interfieran en el desarrollo de las
actividades de la institución.
169
Los servicios adicionales de Soporte Técnico y Mantenimiento son los servicios de mayor alcance
y/o especialización que el postor debe garantizar su disponibilidad y que pueden ser incluidos
como parte de la propuesta técnica. El MTC podrá contratarlos según los requiera.
El postor debe garantizar que el personal que implementara la solución esté debidamente
certificado por la marca del producto que ofrece.
170
El proveedor debe incluir todos los equipos, componentes, accesorios o materiales necesarios
que se requiera para el correcto montaje de la solución y puesta en funcionamiento. Esta
solución deberá estar montada en un Rack que será definido por el MTC.
El postor deberá entregar al MTC, en formato electrónico e impreso, el informe técnico
correspondiente, el mismo que deberá incluir toda la documentación generada, así como un
archivo con la relación descriptiva de los equipos y software entregados, incluyendo el número
de serie y código de producto de cada uno de ellos si fuera el caso, así como su valor
individualizado según factura.
Entregar, por cada equipo, toda bibliografía considerada necesaria para utilizar los elementos
(equipos y/o software ofrecidos), actualizada a la última versión y con la obligación permanente,
durante la vigencia de la garantía, de remitir toda modificación. La documentación deberá
contener al menos los manuales de instalación, operación y mantenimiento básico, siendo
proporcionada en formato impreso o en disco (DVD o CD-ROM).
El proveedor deberá acreditar experiencia en implementaciones similares.
La instalación e implementación de la solución será efectuada por el proveedor a todo costo.
171
• Servicio de Soporte Técnico y Mantenimiento Preventivo.
• El mantenimiento Preventivo deberá realizarse una (01) vez por año, por el tiempo que
dure la garantía.
• Debe realizarse en las instalaciones del MTC, en fecha y horario a coordinar con
personal de la OTI del MTC, el proveedor deberá adjuntar el informe del mantenimiento
preventivo a su informe periódico de servicio.
• El servicio de soporte técnico, incluye el mantenimiento correctivo por el tiempo que
dure la garantía, bajo la modalidad de 24x7x4, 24 horas del día, de lunes a domingo
incluyendo los feriados, con un tiempo de respuesta de cuatro (4) horas contados a
partir del momento del reporte de la incidencia.
• En caso de no resolverse el incidente suscitado en un plazo máximo de 12 horas a partir
de reportado, el postor brindara el componente o equipo de respaldo mientras dure el
proceso de reparación o cambio del componente o equipo averiado. El plazo máximo
de devolución del equipo debe ser de 30 días, luego del cual el proveedor deberá
brindar un equipo nuevo con características iguales o superiores como remplazo
definitivo del equipo averiado.
14. CONFORMIDAD
El software de virtualización debe ser de clase empresarial, con los mejores niveles de fiabilidad y
rendimiento, permitiendo virtualizar servidores, almacenamiento y redes.
El postor deberá ofertar la cantidad de licencias necesarias para los servidores blade ofertados para
la virtualización
Las licencias deben cumplir con las siguientes funcionalidades:
172
Característica
173
los recursos a las máquinas virtuales.
• Deberá incluir una herramienta de realice un backup de una
máquina virtual en cualquier momento, así como un respaldo
centralizado.
• Deberá tener la opción de Alta Disponibilidad para protección ante
caídas con otro servidor similar.
SERVICIOS ADICIONALES
• El licenciamiento deberá incluir el servicio de soporte técnico y mantenimiento anual (01) un año
del producto como de las herramientas de monitoreo y afines, proporcionado por la marca del
producto.
• Deberá contemplar la entrega de una versión actualizada del producto cuando se presente una
nueva versión con características técnicas superiores.
• Deberá incluir la instalación y configuración de la licencia de servidor de virtualización, así como
la configuración de inicio de los sistemas operativos de cada servidor virtual.
• Deberá incluir una capacitación de la instalación, configuración y administración del software de
virtualización con las siguientes características:
Capacitación: Presencial teórico/práctico para 6 personas sobre la plataforma implementada,
dictado en el local del MTC. Jr. Zorritos Nº 1203, Cercado de Lima, dictado por personal
certificado por la marca del producto que ofrece el proveedor.
Persona jurídica con experiencia en la venta de software de virtualización o a fines, lo que acreditará
mediante un certificado de la marca que se ofrezca. El proveedor deberá contar con profesionales
certificados en el software de virtualización quienes deben formar parte de su planilla.
174
Manual Dell Blade Enclosure PS Series SAN Best Practices
175
Acknowledgements
This best practice white paper was produced by the following members of the Dell Storage team:
Additional contributors:
Jeremy Hitt, Kirt Gillum, Lin Lancaster, Marc Snider, Mike Kosacek, Bob Spear, Steve Williamson, and Ujjwal
Rajbhandari
Feedback
We encourage readers of this publication to provide feedback on the quality and usefulness of this
information by sending an email to [email protected].
176
1 Introduction
Dell™ EqualLogic™ PS Series arrays provide a storage solution that delivers the benefits of consolidated
networked storage in a self-managing iSCSI storage area network (SAN) that is affordable and easy to use,
regardless of scale. By eliminating complex tasks and enabling fast and flexible storage provisioning, these
solutions dramatically reduce the costs of storage acquisition and ongoing operation.
A robust, standards-compliant iSCSI SAN infrastructure must be created to leverage the advanced features
provided by an EqualLogic array. When using blade servers in a Dell PowerEdge™ M1000e blade enclosure
(also known as a blade chassis) as hosts, there are a number of network design options for storage
administrators to consider when building the iSCSI SAN. For example, the PS Series array member network
ports can be connected to the switches within the M1000e blade chassis or the blade server network ports
can be connected to top of rack (ToR) switches residing outside of the blade chassis. After testing and
evaluating a variety of different SAN design options, this technical white paper quantifies the ease of
administration, the performance, the high availability, and the scalability of each design. From the results,
recommended SAN designs and practices are presented.
The SAN designs in this paper converge both SAN and LAN into a single network fabric using Data Center
Bridging (DCB). The final SAN design is the pre-integrated Active System 800, the first Active System
offering from the Dell Active Infrastructure family of converged infrastructure offerings. It consists of
PowerEdge M620 blade servers in a PowerEdge M1000e blade enclosure with PowerEdge M I/O
Aggregator modules uplinked to Force10 S4810P ToR switches and EqualLogic PS Series PS6110 array
members. Active System 800 is deployed and managed by the Active System Manager application.
For more information on the PowerEdge M1000e blade enclosure solution, EqualLogic SAN architecture,
Data Center Bridging and Dell Active Infrastructure see Section 2 titled, “Concept Overview”.
1.1 Audience
This technical white paper is intended for storage administrators, SAN/NAS system designers, storage
consultants, or anyone who is tasked with integrating a Dell M1000e blade chassis solution with EqualLogic
PS Series storage for use in a production storage area network. It is assumed that all readers have
experience in designing and/or administering a shared storage solution. Also, there are some assumptions
made in terms of familiarity with all current Ethernet standards as defined by the Institute of Electrical and
Electronic Engineers (IEEE) as well as TCP/IP and iSCSI standards as defined by the Internet Engineering
Task Force (IETF).
177
1.2 Terminology
This section defines terms that are commonly used in this paper and the context in which they are used.
Blade I/O module (IOM) switch – A switch that resides in an M1000e Fabric slot.
Blade IOM switch only – A category of SAN design in which the network ports of both the hosts and the
storage are connected to the M1000e blade IOM switches, which are isolated and dedicated to the SAN.
No external ToR switches are required. The switch interconnect can be a stack or a LAG and no uplink is
required. The Force10 MXL does not currently (as of February 2013) support VLT.
Blade IOM switch with ToR switch – A category of SAN design in which host network ports are internally
connected to the M1000e blade IOM switches and storage network ports are connected to ToR switches. A
switch interconnect stack, LAG or VLTi between each ToR switch is required. An uplink stack, LAG, or VLT
LAG from the blade IOM switch tier to the ToR switch tier is also required.
Converged network adapter (CNA) – Combines the function of a SAN host bus adapter (HBA) with a
general-purpose network adapter (NIC).
Data Center Bridging (DCB) – An enhancement of the IEEE 802.1 bridge specifications for supporting
multiple protocols and applications in the data center. It supports converged infrastructure
implementations to carry applications and protocols on a single physical infrastructure.
Data Center Bridging Exchange (DCBX) – Protocol standard for the discovery and propagation of DCB
configuration between DCB-enabled switches, storage array members, and CNA.
Host/storage port ratio – The ratio of the total number of host network interfaces connected to the SAN
divided by the total number of active PS Series array member network interfaces connected to the SAN. A
ratio of 1:1 is ideal for optimal SAN performance, but higher port ratios are acceptable in specific cases.
The host/storage port ratio can negatively affect performance in a SAN when oversubscription occurs, that is
when there are significantly more host ports or significantly more storage ports.
Link aggregation group (LAG) – Where multiple switch ports are configured to act as a single high-
bandwidth connection to another switch. Unlike a stack, each individual switch must still be administered
separately and function as such.
Multiple switch tier SAN design – A SAN design with both blade IOM switches and ToR switches. Host
and storage ports are connected to different sets of switches and an uplink stack, LAG, or VLT LAG is
required. Blade IOM switch with ToR switch designs are multiple switch tier SAN designs.
Single switch tier SAN design – A SAN design with only blade IOM switches or ToR switches but not both.
Host and storage ports are connected to the same type of switch and no uplink is required. Blade IOM switch
only and ToR switch only designs are single switch tier SAN designs.
Stack – An administrative grouping of switches that enables the management and functioning of multiple
switches as if they were one single switch. The switch stack connections also serve as high-bandwidth
interconnects.
178
Switch interconnect – An inter-switch link that connects either the two blade IOM switches or the two
ToR switches to each other. A switch interconnect unifies the SAN fabric and facilitates inter-array
member communication. It can be a stack, a LAG, or a VLTi.
Switch tier – A pair or more of like switches connected by a switch interconnect which together create a
redundant SAN Fabric. A switch tier might accommodate network connections from host ports, from storage
ports, or from both. If all switches in a switch tier are reset simultaneously, for example the switch tier is
stacked and the firmware is updated, then the SAN is temporarily offline.
ToR switch – A top of rack switch, external to the M1000e blade chassis.
ToR switch only – A category of SAN design in which the network ports of both the hosts and the storage
are connected to external ToR switches. For this architecture, 10 GbE (10 Gigabit Ethernet) pass-through
IOM are used in place of blade IOM switches in the M1000e blade chassis. The switch interconnect can be a
stack, a LAG, or a VLTi.
Uplink – A link that connects the blade IOM switch tier to the ToR switch tier. An uplink can be a stack, a
LAG, or a VLT LAG. Its bandwidth must accommodate the expected throughput between host ports and
storage ports on the SAN.
Virtual link trunking (VLT) – A Force10 feature which enables the LAG of an edge device to link to two
separate upstream switches (referred to as VLT peer switches) in a loop-free topology without the need for
a Spanning Tree protocol.
VLT domain – Refers to the VLT peer switches, the VLT interconnect, and any VLT LAG.
VLT LAG – A port channel which links VLT peer switches to edge devices.
VLTi – The VLT interconnect used to synchronize states between VLT peer switches.
179
2 Concept Overview
Figure 1 illustrates the layout of the three Fabric blade IOMs located in the back of the M1000e chassis.
180
2.1.2 Blade I/O modules
The following table lists the 10 GbE blade I/O module options (available at the time of this publication) and
the number of ports available for EqualLogic SAN solutions.
Force10 MXL Up to 24 Up to 6
* Only the Force10 MXL, the PowerEdge M I/O Aggregator and the 10 GbE Pass-through IOM were
tested for this white paper, not the PowerConnect M8428-k or the PowerConnect M8024-k.
It is a best practice to create a redundant SAN fabric using at least two switches, with PS Series array
members and storage hosts each having connections to more than one switch. To unify the SAN fabric,
the switches must be interconnected to create a single layer 2 SAN Fabric over which all PS Series array
member network ports and host ports can communicate with each other. This switch interconnection can
be a stack, a LAG, or a VLT interconnect (VLTi). SAN traffic will often have to cross the switch
interconnect since iSCSI connections are distributed across all available host network ports by the
EqualLogic Host Integration Toolkit. Assuming a worst case scenario of 100% of all SAN traffic crossing
the switch interconnect in both directions (half going one way and half going the other) the interconnect
bandwidth requirements are 50% of the aggregate bandwidth of all active PS Series array member ports.
For example, four array members with one active 10 GbE port each would require 20 Gbps of interconnect
bandwidth.
If there are blade IOM switches and ToR switches in the SAN, these two switch tiers will need to be
connected by an uplink, which can be a stack (if there is stack compatibility between the blade IOM and
ToR switch types), a LAG, or a VLT LAG (if there is a VLT interconnect between the ToR switches).
Uplink bandwidth should be at least equal to the aggregate bandwidth of all active PS Series array
member ports.
181
182
2.3 Data Center Bridging
DCB standards are enhancements to IEEE 802.1 bridge specifications to support multiple protocols and
applications in the data center. They support converged infrastructure implementations to carry
applications and protocols on a single physical infrastructure. For more information on using DCB with
EqualLogic SANs see Data Center Bridging: Standards, Behavioral Requirements, and Configuration
Guidelines with Dell EqualLogic iSCSI SANs at http://en.community.dell.com/dell-
groups/dtcmedia/m/mediagallery/20283700/download.aspx.
2.3.2 Minimum requirements for iSCSI in converged I/O environments with DCB
Table 2 The minimum requirements for iSCSI in converged I/O environments with DCB
DCB
Requirement Standards Version Purpose
Technology
ETS Required with iSCSI IEEE 802.1Qaz-2011 Minimum bandwidth allocation per
mapped to dedicated traffic class during contention and
traffic class or priority additional bandwidth allocation
group during non-contention
PFC Required with PFC IEEE 802.1Qbb-2011 Independent traffic priority pausing
turned on for iSCSI and enablement of lossless traffic
along with lossless classes
queue support
183
2.4 Dell Active Infrastructure
Dell’s Active Infrastructure is a family of converged infrastructure offerings that combine servers, storage,
networking, and infrastructure management into an integrated system that provides general purpose virtual
resource pools for applications and private clouds. These systems blend intuitive infrastructure
management, an open architecture, flexible delivery models, and a unified support model to allow IT to
rapidly respond to dynamic business needs, maximize efficiency, and strengthen IT service quality. Active
Infrastructure includes vStart, as well as Active System, a new converged infrastructure offering from Dell.
Designed from the ground up as a converged infrastructure system, Active System integrates new unified
infrastructure management, a new plug-and-play blade chassis I/O module – the PowerEdge M I/O
Aggregator, modular servers and storage, and a converged LAN/SAN fabric. Key to Active System is Active
System Manager, an intelligent and intuitive converged infrastructure manager that leverages templates to
automate infrastructure on-boarding and re-configuration. This automation greatly simplifies and speeds up
operations while also significantly reducing errors associated with manual configuration. The result is better
infrastructure quality with fewer costly configuration errors.
184
3 Summary of SAN designs and recommendations
This section provides the high level conclusions reached after the course of comprehensive lab testing
and analysis of various EqualLogic PS Series array SAN designs which incorporate M1000e blade server
hosts on a 10 GbE network. The following assumptions were made:
185
Switch tier Administration Performance High availability Scalability
topology
3.1 Administration
When reducing administrative overhead is the primary goal, a single switch tier design with a stacked
interconnect is the simplest option. Because the storage is directly attached to the blade IOM switches,
fewer cables are required than with the ToR switch only design, and the stacked interconnect allows the
switches to be administered as a single switch.
If the availability of the SAN is critical, a LAG or VLTi interconnect is recommended over stacking. If a
switch interconnect is stacked, then a switch stack reload (required for tasks such as switch firmware
updates) will temporarily make the SAN unavailable. In this case, SAN downtime for switch firmware
updates would have to be scheduled.
DCB configuration should be configured at a single source switch at the core, aggregation, or ToR switch
tier and allowed to flow down via DCBX to blade IOM switches, CNAs, and EqualLogic PS Series array
members.
If ToR switches from a different vendor are used, the simplest choice is to implement the ToR only design by
cabling M1000e pass-through IOM directly to the ToR switches. If multiple switch tiers are desired, plan for an
uplink LAG using the high bandwidth ports of the blade IOM switches.
Lastly, the pre-integrated Active System 800 converged infrastructure offering provides a compelling mix of
flexibility, manageability and simplicity. Taking advantage of the simplified behavior of the PowerEdge M I/O
Aggregator and the features of the Active System Manager application, Active System 800 provides a solid
foundation for a virtualized private cloud.
3.2 Performance
The throughput values were gathered during the performance testing of each SAN design with four hosts
and four arrays members using three common workloads. Among all SAN designs, there were no significant
performance differences measured for any of the three tested workloads.
186
3.3 High availability
ToR switch failures always collapse the fabric to a single switch as array member network ports failover to
the remaining ToR switch. Host connectivity can be preserved during a ToR switch failure with redundant
VLT LAG uplinks from the blade IOM switches. This is made possible by having a VLTi interconnect
between the ToR switches, rather than a standard LAG. Stacked interconnects should be avoided because
the SAN becomes unavailable during a switch stack reload.
Blade IOM switch failures always result in a loss of 50% of the host ports and in multiple-tier SAN designs a
50% loss in uplink bandwidth.
3.4 Scalability
All tested SAN designs can support up to 16 array members and provide adequate bandwidth within the
SAN. While the Blade IOM only SAN design has no ports remaining for additional connectivity or uplinks
when using 16 array members, the other three SAN designs have ample ports remaining for additional
edge device connectivity and high bandwidth uplinks to a core switch. Considering the fact that the
Force10 S4810 supports VLT and doesn’t require expansion modules, the simple ToR switch only SAN
design is an excellent option. It creates a robust aggregation layer that accepts highly available VLT LAG
from downstream edge devices and switches and also from the upstream Layer 3 core.
Note: The scalability data presented in this paper is based primarily on available port count. Actual
workload, host to array port ratios, and other factors may affect performance.
187
4 Tested SAN designs
This section describes each tested M1000e blade chassis SAN design in detail including diagrams and a
table for comparison of important values such as bandwidth, maximum number of supported array members,
and the host to storage port ratio. The information below assumes a single M1000e chassis and 16 half-
height blade servers with two network ports each.
There are three categories of SAN designs for M1000e blade chassis integration:
1. Blade IOM switch only – Network ports of both the hosts and storage are connected to the
M1000e blade IOM switches. No ToR switches are required. The switch interconnect can be a
stack or a LAG, and no uplink is required.
2. ToR switch only – Network ports of both the hosts and the storage are connected to external ToR
switches. 10 GbE pass-through IOM are used in place of blade IOM switches in the M1000e blade
chassis. The switch interconnect can be a stack, a LAG, or a VLTi.
3. Blade IOM switch with ToR switch – Host network ports are connected to the M1000e blade IOM
switches and the storage network ports are connected to ToR switches. The switch interconnect can
be a stack, a LAG, or a VLTi and should connect the ToR switch to better facilitate inter-array
member traffic. An uplink stack, LAG or VLT LAG from the blade IOM switch tier to the ToR switch
tier is also required.
The following diagram illustrates how four PS6110XV array members directly connect to the two MXL
switches in Fabric C of the M1000e blade chassis and how the two MXL switches are connected by a LAG
using two 40 GbE QSFP ports on each switch. This network design requires the use of two 40 GbE
expansion modules in each of the MXL switches. Note that the port on the passive storage controller is
connected to a different switch than the port on the active storage controller, ensuring that the port-based
failover of the PS6110 array member will connect to a different switch upon port, cable or switch failure. The
management network is shown for reference.
188
Figure 3 Force10 MXL with LAG interconnect
189
4.2 ToR switch only
These SAN designs include configurations where the storage ports and blade server host ports are directly
connected to ToR switches. A 10 GbE pass-through IOM rather than a blade switch is used to connect the
host ports to the ToR switches. For this SAN design, dual Force10 S4810P switches were used as the ToR
switch.
Because a stacked interconnect makes the SAN unavailable during stack reloads and because the S4810P
switches support VLT, a VLTi was used to connect the two ToR switches. When operating as VLT domain
peers, the ToR switches appear as a single virtual switch from the point of view of any connected switch or
server supporting Link Aggregation Control Protocol (LACP).
The following diagram illustrates how four PS6110XV array members directly connect to the two ToR
S4810P switches and how the two switches are connected by a VLTi using two 40 GbE QSFP ports on each
switch. It also shows the connection of four server blades each with two host ports to the S4810P switches
using the 10 GbE pass-through IOM in Fabric C of the M1000e chassis. Note that the port on the passive
storage controller is connected to a different switch than the port on the active storage controller. This
ensures that the port-based failover of the PS6110 array member will connect to a different switch upon port,
cable, or switch failure. The management network is shown for reference.
190
Figure 4 Force10 S4810P with VLTi
191
4.3 Blade IOM switch with ToR switch
These SAN designs include configurations in which the EqualLogic PS Series array member ports are
connected to a tier of ToR switches while the server blade host ports are connected to a separate tier of
blade IOM switches in the M1000e blade chassis.
With the multiple switch tier designs, it is a best practice to connect all array member ports to the ToR
switches and not the blade IOM switches in the M1000e chassis. This allows the M1000e chassis to scale
independently of the array members. The ToR switches rather than the blade IOM switches are
interconnected by a stack, a LAG, or a VLTi to better facilitate inter-array member communication. The
switch tiers themselves are connected by an uplink stack, LAG, or VLT LAG.
For the two SAN designs in this category, Force10 S4810P switches were used as the ToR switches while
two different blade IOM switches were tested – the Force10 MXL and the PowerEdge M I/O Aggregator.
Note that because the S4810P switch is not stack compatible with either the MXL or the M I/O Aggregator,
SAN designs with stacked uplinks were not possible.
Because a stacked interconnect makes the SAN unavailable during stack reloads and because the S4810P
switches support VLT, a VLTi was used to connect the two ToR switches. When operating as VLT domain
peers, the ToR switches appear as a single virtual switch from the point of view of any connected switch or
server supporting LACP.
4.3.1 Force10 S4810P with VLTi / MXL with VLT LAG uplinks
This SAN design uses two of the four integrated 40 GbE QSFP ports on each Force10 S4810P to create a
VLTi between each ToR switch. 40 GbE to four 10 GbE breakout cables were used to uplink the Force10
MXL switches to the ToR switches to save two integrated 40 GbE QSFP ports on each S4810P for VLT LAG
uplinks to core switches. Because the ToR switches are operating as VLT domain peers, each MXL LAG can
connect to both ToR switches in a redundant but loop-free topology.
This SAN design provides 160 Gbps of uplink bandwidth while providing 80 Gbps of interconnect
bandwidth, more than enough to accommodate the maximum theoretical traffic of sixteen 10 GbE PS
Series array members. Even with 16 array members, each of which requires two ports for the active and
passive controllers combined, switch port count is not an issue. The host/storage port ratio with the
maximum number of array members is 2:1.
The following diagram illustrates how four PS6110XV array members connect to the two ToR S4810P
switches, how the ToR switches are interconnected with a VLTi, and how each MXL is connected to both
ToR switches with a VLT LAG. Note that the port on the passive storage controller is connected to a different
switch than the port on the active storage controller, ensuring that the port-based failover of the PS6110
array member will connect to a different switch upon port, cable, or switch failure. The management network
is shown for reference.
192
Figure 5 Force10 S4810P with VLTi / MXL with VLT LAG uplinks
193
4.3.2 Active System 800 - Force10 S4810P with VLTi / PowerEdge M I/O
Aggregator with VLT LAG uplinks
This SAN design uses two of the four integrated 40 GbE QSFP ports on each Force10 S4810P to create a
VLTi between each ToR switch. Eight 10 GbE SFP+ ports will need to be set aside on each S4810P switch
to provide a 160 Gbps uplink from the two PowerEdge M I/O Aggregators (IOA). This is because the IOA
only supports using its integrated 40 GbE QSFP ports for interconnect stacking and because it only
supports 40 GbE to four 10 GbE breakout cables for use with the other expansion module 40 GbE QSFP
ports. Note that stacking the IOA is only supported when using Active System Manager for administrative
setup. Because the ToR switches are operating as VLT domain peers, each IOA LAG can connect to both
ToR switches in a redundant but loop-free topology. Two 40 GbE QSFP ports per S4810P switch are
available for uplinks to a core switch.
This SAN design provides 160 Gbps of uplink bandwidth while providing 80 Gbps of interconnect
bandwidth; more than enough to accommodate the maximum theoretical traffic of 16 10 GbE PS Series
array members. Even with 16 array members, each of which requires two ports for the active and passive
controllers combined, switch port count is not an issue. The host/storage port ratio with the maximum
number of array members is 2:1.
The following diagram illustrates how four PS6110XV array members connect to the two ToR S4810P
switches, how the ToR switches are interconnected with a VLTi, and how each IOA is connected to both
ToR switches with a VLT LAG. Note that the port on the passive storage controller is connected to a different
switch than the port on the active storage controller, ensuring that the port-based failover of the PS6110
array member will connect to a different switch upon port, cable, or switch failure. The management network
is shown for reference.
194
Figure 6 Active System 800 -- Force10 S4810P with VLTi / IOA with VLT LAG uplinks
195
4.4 Summary table of tested SAN designs
The following table assumes one fully populated M1000e blade chassis with 16 half-height blade servers
each using two network ports (32 host ports total) and the maximum number of PS Series array members
accommodated by the available ports of the array member switches -- either dual ToR S4810P switches or
dual MXL switches in a single M1000e blade chassis I/O Fabric.
In single switch tier designs, increasing the number of total host ports per chassis decreases the number of
ports available for array member port connection. Total host ports can be increased either by increasing the
number of host ports per server blade or increasing the number of blade servers per chassis.
196
5 Detailed SAN design analysis and recommendations
The following section examines each M1000e blade chassis and EqualLogic PS Series SAN design from the
perspectives of administration, performance, high availability, and scalability. In addition, SAN bandwidth,
host to storage port ratios, and SAN performance and high availability test results are provided as a basis for
SAN design recommendations.
5.1 Administration
In this section, SAN designs are evaluated by the ease of hardware acquisition and installation as well as
initial setup and ongoing administration. Administrative tasks such as physical installation, switch
configuration, and switch firmware updates play a role in determining the merits of a particular SAN design.
The following paragraphs provide a list of common administration considerations and how each is affected
by SAN design choice.
From an administrative perspective, a switch stack may be preferred because it allows the administration of
multiple switches as if they were one physical unit. On the Force10 switches, the initial stack is defined by
configuring the correct cabling and completing a few simple steps. Then, all other tasks such as enabling
flow control or updating firmware must be done only once for the entire stack.
One important thing to note is that the reloading of a switch stack will bring down all switch units in the
stack simultaneously. This means that the SAN becomes unavailable during a stack reload if the switch
interconnect is stacked. The resulting SAN downtime must be scheduled.
Another important note is that the S4810P is not stack compatible with either the MXL or the IOA, so for
these devices creating stacked uplinks is not possible.
A second high bandwidth option for switch uplinks and interconnects is a link aggregation group (LAG).
Multiple switch ports are configured to act as a single connection to increase throughput and provide
redundancy, but each individual switch must still be administered separately. Creating a LAG between two
Force10 switches using LACP is a very straightforward process and administrative complexity is not a
concern.
Lastly, there is a Force10 feature called virtual link trunking (VLT) which enables switch interconnects and
uplinks of a special type. For example, a VLT interconnect (VLTi) between two ToR S4810P switches
197
enables an uplink LAG from a blade IOM switch to link to both ToR switches (referred to as VLT peer
switches) in a loop-free topology. VLT reduces the role of Spanning Tree protocols by allowing LAG
terminations on two separate distribution or core switches, and by supporting a loop free topology. A
Spanning Tree protocol is still needed to prevent the initial loop that may occur prior to VLT being
established. After VLT is established, RSTP may be used to prevent loops from forming with new links that
are incorrectly connected and outside the VLT domain. When operating as VLT domain peers, the ToR
switches appear as a single virtual switch from the point of view of any connected switch or server
supporting LACP. This has many benefits including high availability, the use of all available uplink
bandwidth, and fast convergence if either the link or the device fails. For more information on VLT, see the
FTOS Configuration Guide for the S4810 System. VLT is not currently supported on the Force10 MXL or the
PowerEdge M I/O Aggregator.
• All ports are active and configured to transmit tagged and untagged VLAN traffic
• External and internal port roles are set to receive DCB configuration from upstream switches and to
propagate to connected blade servers
• All 40 GbE QSFP ports operate in 4x10GbE mode
• Stacking is disabled
• All uplink ports are configured in a single LAG (LAG 128)
• iSCSI optimization is enabled
• Jumbo frames are enabled
http://en.community.dell.com/techcenter/storage/w/wiki/4250.switch-configuration-guides-by-sis.aspx
198
• Management of the entire lifecycle of infrastructure, from discovery and on-boarding through
provisioning, on-going management and decommissioning
• Workload failover, enabling rapid and easy migration of workload to desired infrastructure resources
• Wizard-driven interface, with feature-guided, step-by-step workflows
• Graphical logical network topology view and extended views of NIC partitions
As an official Active System offering, the Active System 800 configuration provides an ideal foundation for
private cloud and comes complete with turnkey integration services and unified single-number support.
Active System integration services provide a complete end-to-end deployment including switch configuration,
DCB enablement, EqualLogic PS Series array member initialization, blade enclosure/server setup, and
hypervisor installation.
A blade IOM switch only SAN design requires the fewest cables, with only the array member ports and a
single interconnect stack or LAG at the M1000e chassis to cable. The blade IOM switch with ToR switch
SAN designs require the addition of two uplink stacks, LAGs, or VLT LAGs. The ToR switch only designs
(with pass-through IOM) need a stack, LAG, or VLTi interconnect as well as a cable for each of the host
ports; up to 32 cables for an M1000e chassis with 16 half-height blade servers with two host ports per
server.
5.1.7 Recommendations
In summary, when reducing administrative overhead is the primary goal, a single switch tier design with a
stacked interconnect is the simplest option. Because the storage is directly attached to the blade IOM
switches, fewer cables are required than with the ToR switch only design, and the stacked interconnect
allows the switches to be administered as a single switch.
If the availability of the SAN is critical, a LAG or VLTi interconnect is preferred over stacking. If a switch
interconnect is stacked, then a switch stack reload (required for tasks such as switch firmware updates) will
temporarily make the SAN unavailable. In this case, SAN downtime for firmware updates would have to be
scheduled.
199
DCB configuration should be configured at a single source switch at the core, aggregation, or ToR switch
tier and allowed to flow down via DCBX to blade IOM switches, CNAs, and EqualLogic PS Series array
members.
If ToR switches from a different vendor are used, the simplest choice is to implement the ToR only design by
cabling M1000e pass-through IOM directly to the ToR switches. If multiple switch tiers are desired, plan for an
uplink LAG using the high bandwidth ports of the blade IOM switches.
Lastly, the pre-integrated Active System 800 converged infrastructure offering provides a compelling mix of
flexibility, manageability and simplicity. Taking advantage of the simplified behavior of the PowerEdge M I/O
Aggregator and the features of the Active System Manager application, Active System 800 provides a solid
foundation for a virtualized private cloud.
5.2 Performance
The second criterion by which SAN designs will be evaluated is their performance relative to each other.
This section reports the performance results of each SAN design under three common I/O workloads.
Note: The results provided in this paper are intended for the purpose of comparing the specific
configurations used in our lab environment. The results do not portray the maximum capabilities of any
system, software, or storage.
Since this project consists of network designs which converge SAN and LAN traffic using DCB, each
vdbench test run was accompanied by a base level of LAN traffic generated by iperf, a tool used to
measure maximum TCP and UDP bandwidth performance. (http://sourceforge.net/projects/iperf/)
Each performance test was conducted with the hardware and software listed below.
Note: All EqualLogic SAN best practices, such as enabling flow control and Jumbo frames, were
implemented.
See Appendix A for more detail about the hardware and software infrastructure.
See Appendix 0 for a list of vdbench and iperf parameters
5.2.1.1 Hosts:
• Four PowerEdge M620 blade servers each with:
- Windows Server 2008 R2 SP1
- Dell EqualLogic Host Integration Toolkit v4.0.0
- Two Broadcom BCM57810 10Gb ports with iSCSI Offload Engine enabled and separate IP
address configured for SAN and LAN
200
5.2.1.2 Storage:
• Four EqualLogic PS6110XV array members each with:
- Firmware: 6.0.2
- One active 10 GbE ports on the SAN
• Four iSCSI volumes dedicated to each host
Note: There were a total of eight host ports and four storage ports for a 2:1 ratio.
5.2.1.3 I/O
The following three vdbench workloads were defined:
Each vdbench workload was run for thirty minutes and the I/O rate was not capped (the vdbench “iorate”
parameter was set to “max”). The throughput values used in the relative performance graphs are the sums
of the values reported by each of the four hosts.
Each host ran one instance of iperf server and one instance of iperf client. Hosts ran iperf traffic in pairs such
that one of the network ports on each host acted as an iperf server and the other network port acted as an
iperf client, thus ensuring that LAN traffic was evenly distributed across the host network ports.
5.2.1.4 DCB
The following table lists the DCB configuration in place during performance testing.
Traffic Class DCB Traffic Class 802.1p QoS ETS Bandwidth Settings PFC setting
iSCSI 1 4 60 Lossless
201
5.2.2 Bandwidth
The following table shows the uplink and interconnect bandwidth of each tested SAN design. Each of the
single switch tier designs provide adequate interconnect bandwidth for the maximum number of array
members that their ports can accommodate.
S4810P with VLTi / MXL with VLT LAG uplinks 160 Gbps 80 Gbps
5.2.3 Results
The following three figures show the relative aggregate vdbench throughput of all four hosts within each SAN
design at three different I/O workloads. Each throughput value is presented as a percentage of a baseline
value. In each chart, the MXL with LAG interconnect design was chosen as the baseline value. All of the
throughput values were achieved during a single thirty minute test run.
The following figure shows the aggregate vdbench throughput of all four hosts within each SAN design at an
8 KB random I/O, 67% read workload. The SAN designs yielded throughput results within 2% of the baseline
value.
Figure 7 Aggregate vdbench throughput as a percentage of the baseline value in each SAN design
during an 8 KB random I/O, 67% read workload
202
256 KB sequential I/O, read workload
The following figure shows the aggregate vdbench throughput of all four hosts within each SAN design at a
256 KB sequential I/O, read workload. The SAN designs yielded throughput results within 5% of the baseline
value.
Figure 8 Aggregate Vdbench throughput as a percentage of the baseline value in each SAN design
during a 256 KB sequential I/O, read workload
The following figure shows the aggregate vdbench throughput of all four hosts within each SAN design at a
256 KB sequential I/O, write workload. The SAN designs yielded throughput results within 8% of the
baseline value.
203
Figure 9 Aggregate Vdbench throughput as a percentage of the baseline value in each SAN design
during a 256 KB sequential I/O, write workload
5.2.4 Recommendations
The throughput values were gathered during the performance testing of each SAN design with four hosts
and four arrays members at three common workloads. Among all SAN designs, there were no significant
performance differences during any of the three tested workloads.
Note that storage port disconnection is not addressed in the tables because the PS6110XV controller port
failover ensures that no single switch failure will cause the disconnection of any array member ports. For
more information on EqualLogic PS Series failover features and behavior see the EqualLogic Configuration
Guide at: http://en.community.dell.com/dell-groups/dtcmedia/m/mediagallery/19852516/download.aspx
To test SAN design high availability, an ungraceful switch power down was executed while the SAN was
under load. The test environment was the same as the environment that was used during performance
testing, and the workload was 256 KB sequential I/O write using vdbench. LAN traffic was generated with
iperf.
In cases where host ports were disconnected, iSCSI connections were appropriately migrated to the
remaining host ports. In these cases, even with the loss of 50% of the host ports there was at least a 1:1
host/storage port ratio.
204
5.3.1 ToR switch failure
The following table shows how each SAN design is affected by the loss of a ToR switch. Note that this
failure is not applicable to the blade IOM switch only designs in which both host and storage ports are
connected to blade IOM switches.
In the ToR switch only SAN design, a ToR switch failure reduces the number of connected host ports by
50% since the host ports connect directly to the ToR switches using a pass-through module. In multiple-tier
SAN designs, all host port connections can be maintained during a ToR switch failure when the ToR switch
interconnect is a VLTi. This allows each blade switch uplink LAG to be distributed across both ToR switches,
maintaining each blade switch’s connectivity in the event of a ToR switch failure. However, the loss of 50%
of uplink bandwidth in the event of a ToR switch failure cannot be avoided in multiple switch tier SAN
designs. Interconnect bandwidth becomes irrelevant after a ToR switch failure in all applicable SAN designs
as all array member ports migrate to the remaining ToR switch to which all remaining host ports have either
a direct or an uplinked connection.
Table 8 A comparison of the way each SAN designs tolerates a ToR switch failure
Reduction in
Reduction in uplink Reduction in inter-
connected host
bandwidth connect bandwidth
ports
In all applicable SAN designs, a blade IOM switch failure reduces the number of connected host ports by
50% and in the multiple switch tier SAN design the uplink bandwidth is also reduced by 50%. Interconnect
bandwidth becomes irrelevant after a blade IOM switch failure in a single switch tier SAN design. This is
because all array member ports migrate to the remaining blade IOM switch to which the remaining host ports
a direct connection. However, the multiple switch tier SAN designs retain all interconnect bandwidth as the
interconnect is between the ToR switches and not subject to a blade IOM switch failure.
205
Table 9 A comparison of the way each SAN designs tolerates a blade IOM switch failure
Reduction in
Reduction in uplink Reduction in inter-
connected host
bandwidth connect bandwidth
ports
5.3.3 Recommendations
ToR switch failures always collapse the fabric to a single switch as array member network ports failover to
the remaining ToR switch. Host connectivity can be preserved during a ToR switch failure with redundant
VLT LAG uplinks from the blade IOM switches made possible by having a VLTi interconnect between the
ToR switches, rather than a standard LAG. Stacked interconnects should be avoided because the SAN
becomes unavailable during a switch stack reload.
Blade IOM switch failures always result in a loss of 50% of the host ports, and in multiple-tier SAN designs a
50% loss in uplink bandwidth.
206
5.4 Scalability
The final criterion by which SAN designs will be evaluated is scalability. Note that the scalability data
presented in this section is based primarily on available port count. Actual workload, host to array port
ratios, and other factors may affect performance.
The following tables show the number of host ports and array members, the host/storage port ratio, the
number of blade IOM switch expansion modules required and most importantly the total number of SAN
ports available for additional edge device connectivity or for a high bandwidth uplink from the converged
SAN/LAN to a core switch. The number of available SAN ports includes both ToR switches (or blade IOM
switches if no ToR switches are present) and assumes the following:
• Two Force10 MXL, two PowerEdge M I/O Aggregator or two pass-through I/O modules per blade
chassis, and if applicable, two Force10 S4810P ToR switches
• 16 blade servers with two network ports each
• 16 array members with one active and one passive network port
• 80 Gbps of interconnect bandwidth
• 160 Gbps of uplink bandwidth between host and storage tier if applicable
* Requires the use of 40 GbE QSFP to 10 GbE SFP+ breakout cables from the blade IOM switch to the PS
Series array members
207
** Requires the use of 40 GbE QSFP to 10 GbE SFP+ breakout cables from the blade IOM switch to the
ToR switch
A pair of Force10 MXL switches can accommodate up to 16 PS Series array members with no ToR switch
using two 40 GbE QSFP expansion modules per switch. However when using 16 array members there will
be no remaining 40 GbE QSFP ports for creating an uplink to a core switch, creating an isolated SAN.
Two ToR Force10 S4810P switches and two 10GbE pass-through modules in the blade chassis can
accommodate up to 16 array members with no expansion modules required. Furthermore, this SAN
design has an additional thirty-two 10 GbE ports and four 40 GbE ports available for edge device
connectivity and high bandwidth uplinks with no extra hardware needed.
Two ToR Force10 S4810P and two Force10 MXL switches can also accommodate up to 16 array members
with no expansion modules required. This SAN design has the highest number of available ports - an
additional sixty-four 10 GbE ports or, if 40 GbE QSFP to 10 GbE SFP+ breakout cables are used to uplink
the MXL to the S4810P, forty-eight 10 GbE ports and four 40 GbE ports.
Finally, two ToR Force10 S4810P and two PowerEdge M I/O Aggregator switches can accommodate up to
16 array members, however one 40 GbE QSFP expansion modules per switch and 40 GbE QSFP to 10 GbE
SFP+ breakout cables between the IOA and S4810P are required. With this SAN design, forty-eight 10 GbE
ports and four 40 GbE ports are available.
5.4.1 Recommendations
In summary, all SAN designs can support up to 16 array members and provide adequate bandwidth within
the SAN. While the Blade IOM only SAN design has no ports remaining for additional connectivity or uplinks
when using 16 array members, the other three SAN designs have ample ports remaining for additional edge
device connectivity and high bandwidth uplinks to a core switch. Considering the fact that the Force10 S4810
supports VLT and doesn’t require expansion modules, the simple ToR switch only SAN design is an
excellent option. It creates a robust aggregation layer that accepts highly available VLT LAG from
downstream edge devices and switches and also from the upstream Layer 3 core.
208
A Solution infrastructure detail
The following table is a detailed inventory of the hardware and software configuration in the test
environment.
Table 11 A detailed inventory of the hardware and software configuration in the test environment
10 GbE Blade (4) Dell PowerEdge M620 server: Storage hosts for configs:
Servers Windows Server 2008 R2 SP1 Force10 MXL with LAG
BIOS version: 1.4.9 interconnect
iDRAC firmware: 1.23.23 Force10 S4810P with VLTi
(2) Intel® Xeon® E5-2650 Force10 S4810P with VLTi / MXL
128GB RAM with VLT LAG uplinks
Dual Broadcom 57810S-k 10 GbE CNA Force10 S4810P with VLTi /
Driver v7.4.23.0 PowerEdge M I/O Aggregator with
Firmware v7.4.8 VLT LAG uplinks
Dell EqualLogic Host Integration
Toolkit v4.0.0
10 GbE Blade I/O (2) Dell Force10 MXL IO modules for configs:
modules FTOS v8.3.16.2 Force10 MXL with LAG
(2) 40 GbE QSFP expansion module interconnect
(2) Dell PowerEdge M I/O Aggregator Force10 S4810P with VLTi
FTOS v8.3.17.0 Force10 S4810P with VLTi / MXL
(1) 40 GbE QSFP expansion module with VLT LAG uplinks
(2) Dell 10 Gb Ethernet Pass-through module Force10 S4810P with VLTi /
PowerEdge M I/O Aggregator with
VLT LAG uplinks
10 GbE Storage (4) Dell EqualLogic PS6110XV: Storage arrays for configs:
(24) 146GB 15K SAS disks – vHN63 Force10 MXL with LAG
(2) 10 GbE controllers interconnect
Firmware: v6.0.2 Force10 S4810P with VLTi
Force10 S4810P with VLTi / MXL
with VLT LAG uplinks
Force10 S4810P with VLTi /
PowerEdge M I/O Aggregator with
VLT LAG uplinks
209
B I/O parameters
• Vdbench SAN workloads were executed using the following parameters in the parameter file.
- Common parameters:
hd=default
hd=one,system=localhost
sd=sd5,host=*,lun=\\.\PhysicalDrive5,size=256000m,threads=5
sd=sd6,host=*,lun=\\.\PhysicalDrive6,size=256000m,threads=5
sd=sd5,host=*,lun=\\.\PhysicalDrive5,size=1m,threads=5
sd=sd6,host=*,lun=\\.\PhysicalDrive6,size=1m,threads=5
- Runtime options:
rd=rd1,wd=wd1,iorate=max,elapsed=3600,interval=30
• Iperf LAN workloads were executed using the following parameters at the command line.
- Server:
iperf.exe –s
- Client:
iperf.exe –c <IP-address> -i 5 –t 86400 –P 5
210
Additional resources
Support.dell.com is focused on meeting your needs with proven services and support.
DellTechCenter.com is an IT Community where you can connect with Dell Customers and Dell employees for
the purpose of sharing knowledge, best practices, and information about Dell products and your installations.
• The latest EqualLogic firmware updates and documentation (site requires a login):
http://support.equallogic.com
• Data Center Bridging: Standards, Behavioral Requirements, and Configuration Guidelines with Dell
EqualLogic iSCSI SANs:
http://en.community.dell.com/dell-groups/dtcmedia/m/mediagallery/20283700/download.aspx
For EqualLogic best practices white papers, reference architectures, and sizing guidelines for enterprise
applications and SANs, refer to Storage Infrastructure and Solutions Team Publications at
http://dell.to/sM4hJT
211
This white paper is for informational purposes only. The content is provided as is, without express
or implied warranties of any kind.
212