Semana 6 - Colecta de Datos (I Parte) - 1

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 43

CALIDAD Y MEJORA CONTINUA

SEGUNDO PASO: COLECTA DE DATOS (PARTE I)


Calidad y Mejora Continua

SEMANA 6
SEGUNDO PASO: COLECTA DE DATOS (PARTE I)
ÍNDICE

 Presentación Inicial
 Reflexión
 Índice
 Introducción al Big Data
 Big Data
 Componentes del Big Data
 Impacto en la Analytics del Negocio
 Big Data del mañana
 Hoja de Verificación
 Diagrama de Flujo
 Diagrama de Estratificación
 ¿Qué aprendimos hoy?
 Referencias Bibliográficas
Objetivos de la sesión

 Comprender la importancia del Big Data.


 Reconocer las principales herramientas de calidad para colecta de datos.
Metodología DMAIC
INTRODUCCIÓN

 Las organizaciones buscan constantemente las mejora continua pero cada vez se
generan mayor cantidad de información que es necesaria ser analizada para comprender
los errores pasados y plantear estrategias futuras que nos ayuden a ser reconocida
como una empresa de clase mundial.

 En esta unidad comprenderemos los conceptos de gran cantidad de datos y su


contribución con la métrica sigma de las organizaciones.
¿Qué es Big Data?
• De una forma muy general podríamos definir el Big Data como “grandes
volúmenes de datos” o “datos masivos”, y todas las cosas que se pueden hacer
con estos datos pero a gran escala.
• Podríamos decir que el Big Data se reparte entre “los datos” y todos los
procesos que se agrupan alrededor de estos datos, desde la recogida de los
mismos, el almacenamiento y su posterior procesamiento o análisis, todo ello
con objetivo de extraer valor de los mismos.
¿Qué es Big Data?
• Para Big Data existen tres características que marcan la diferencia frente a
otros conceptos como el Datamining o el Business Intelligence, estas son:

– Volumen (cantidad),
– Velocidad (en la creación y utilización)
– Variedad (fuentes de datos heterogéneas)

• También llamadas “3V”. Estas tres características constituyen la verdadera


revolución del Big Data. Adicionalmente a las “3V”, IBM añade una cuarta y
quinta característica del Big Data de notoria importancia:

– Valor (eficiente y rentable)


– Veracidad (fiable con datos intrínsecamente precisos)
Componentes Big Data
• Volumen: Hoy en día las empresas y el sector público generan cantidades de
datos imposibles de imaginar hace unos años, se ha pasado en poco tiempo de
los Gigabytes a los Terabytes, a los Petabytes y recientemente a los Zettabytes
(1.099.511.627.776 Gigabytes) y quizás en un futuro no muy lejano a los
Yottabytes. Hacia el año 2020 se prevé alcanzar los 44 zettabytes de
información almacenada en todo el mundo . En 2008 solo Google procesaba 24
Petabytes de datos al día , la cantidad de datos almacenados crece de forma
exponencial cada año.
Volumen
Componentes Big Data
• Velocidad: La velocidad se ha impuesto en la
obtención de los datos, internet ha contribuido en
gran medida a ello, cada vez es más fácil obtener
datos o mediciones con una frecuencia mayor.
• De la misma manera la velocidad es sumamente
importante en la transmisión y en el procesamiento
y análisis de los datos, 5 minutos pueden llegar a
ser excesivos para detectar un posible fraude en
una transacción, otras veces el análisis de la
información exige hacerse en tiempo real, la no
disponibilidad de la información en el momento
oportuno no solo resta valor a la misma sino que
inutiliza su aplicación.
Componentes Big Data

• Variedad: Big Data se nutre de fuentes de datos muy heterogéneas, con Big
Data se introduce la capacidad de combinar datos de orígenes distintos y de
formatos no homogéneos ni predefinidos, esto aumenta exponencialmente las
posibilidades de análisis y da juego a la creatividad.
Componentes Big Data

• Valor: Quizás la característica más importante y el propósito final de los datos, es el


hecho de combinarlos, transformarlos y analizarlos lo que permite extraer el valor
latente que hay en ellos, las organizaciones buscan la forma de convertir los datos
en información de forma fiable, pero la explotación de los datos siempre debe ser
coherente, pensada y alineada con la estrategia de la empresa para que pueda ser
aprovechable, rentable y eficiente, en caso contrario se puede llegar a incurrir en
unos sobrecostos sin crear valor para la organización.
Componentes Big Data

• Veracidad: Referida al nivel de fiabilidad


asociada a los datos, obtener datos de calidad
es indispensable para la correcta obtención de
información, el concepto “Garbage in,
garbage out” muy utilizado en el campo de la
información significa que la entrada de datos
sin sentido provoca la salida de información
también sin sentido, este concepto junto con
otro más novedoso, “Garbage in, gospel out”
en donde se tiende a aceptar ciegamente los
datos o información de salida informatizada
aunque provenga de datos pobres.
Impacto en el negocio de
la Analytics
Se consideran 4 formas que Big data afecta el negocio:

1.Procesos de negocio para Lean Management

 Gestión esbelta se trata de mejorar la calidad y reducir costos.


 El análisis Big data ayuda a mejora la calidad en industrias donde las
inconsistencias son difíciles de reducir.
 Los conceptos justo a tiempo en la gestión de inventarios y la reducción de
desperdicios pueden contribuir en gran medida a mantener los principios de
mejora continua en los procesos de negocios.

2. Mejora de segmentación de objetivos

 La segmentación incluye la personalización de la experiencia del usuario con


ofertas orientadas a la audiencia correcta. Esto puede ser aprovechado por el
departamento de marketing para mejorar las ventas.
Impacto en el negocio de
la Analytics

 Se consideran 4 formas que Big data afecta el negocio:


 3. Catálogo de datos y gobierno.
 Las organizaciones tienen que lidiar con la creación, recuperación,
almacenamiento y análisis de datos, se deben considerar herramientas de
análisis de big data para mejorar los pronósticos.

 4. Procesos de retención de empleados más inteligentes a través del análisis


predictivo
 Se espera que la toma de decisiones para contratar personal sea reemplazado
por toma de decisiones basada en evidencia como Xerox.
Impacto en el negocio de
la Analytics

● Como resultado, se logró el aumento


de los ingresos y la reducción los
costos.

● Según las encuestas, aquellas


organizaciones capaces de
cuantificar sus ganancias generaron
un aumento promedio de 8% en
ingresos y reducción 10% en costos.
Big Data para el mañana
Big Data todavía está en un estado inicial de adopción, las
grandes empresas y las empresas de tipo tecnológico llevan
el liderazgo en la adopción del Big Data, pero aún queda
mucho recorrido para consolidar Big Data en las empresas.
Al día de hoy hay bastantes áreas relacionadas con el Big
Data en un estado exploratorio, por lo que aún podemos
esperar nuevas innovaciones tanto en el almacenamiento
como en tratamiento y explotación de los datos, de la
misma manera que un iceberg, del Big Data solo estamos
viendo la pequeña parte que sobresale por encima del
agua, la gran mayoría de datos que se poseen todavía están
sin explotar, a estos se les añadirán la geolocalización, los
sensores integrados, el internet de las cosas, la posibilidad
de integrar una SIM en todos los dispositivos, las ciudades
inteligentes…
Big Data para el mañana
Los datos masivos están, y van a seguir
transformando muchos aspectos de nuestra
sociedad, obligando a cambios de valores,
nuevas profesiones, nuevas formas de pensar,
nuevos empleos, nuevos negocios y nuevas
legislaciones. Los gobiernos tendrán que
abordar retos como gestionar y explotar sus
datos, regular la privacidad o el valor de los
datos, también habrá que pensar en los datos
como un activo intangible para las empresas
que pueda reflejarse en los balances de estas.
Con el enfoque de Big Data se pasa a un
enfoque de análisis exploratorio, los
departamentos de TI proveen tecnología y las
herramientas para que los usuarios con
conocimiento de negocio exploren de forma
creativa qué preguntas se pueden responder.
Calidad y Mejora Continua

Hoja de Verificación • Herramientas de calidad I

Hoja de Verificación
Calidad y Mejora Continua

Introducción • Herramientas de calidad I

Hoja de Verificación
Un aspecto fundamental en la mejora de procesos es contar con
información objetiva que facilite las acciones y decisiones
basadas en datos. En las empresas, en ocasiones no hay
información, no se sabe cómo ha evolucionado la calidad, la
productividad, la magnitud de los problemas principales, las
razones de las quejas de los clientes, etc. En otros casos, el
problema no es la escasez de datos, por el contrario, abundan
(reportes, informes, registros); el conflicto es que tales datos
están archivados, se registraron demasiado tarde, se recabaron
de manera inadecuada o, finalmente, no se analizaron ni se
utilizan de modo sistemático para tomar decisiones. Por lo
tanto, en ambos casos el problema es el mismo: no se tiene
información para dirigir de forma objetiva y adecuada los
esfuerzos y lasactividades en una organización.
Calidad y Mejora Continua

Hoja de Verificación • Herramientas de calidad I

Hoja de Verificación

Es un formato construido para colectar datos,


de forma que su registro sea sencillo,
sistemático y que sea fácil de analizarlos. Te
debe permitir visualmente un análisis de las
principales características de la información
buscada.
Calidad y Mejora Continua

Hoja de Verificación • Herramientas de calidad I

Hoja o lista de verificación

Se puede utilizar para:

 Describir el desempeño o los resultados de


un proceso.

 Clasificar las fallas, quejas o


defectos detectados, con el
propósito de identificar sus
magnitudes, razones, tipos de
fallas, áreas de donde proceden,
etc

 Analizar o verificar operaciones y


evaluar el efecto de planes de
mejora.
Calidad y Mejora Continua

Hoja de Verificación • Herramientas de calidad I

Hoja o lista de verificación

Las hojas de verificación son tipos especiales de formas para recopilar datos en las
cuales los resultados se pueden interpretar directamente sobre la forma, sin necesidad de
un procesamiento adicional.

– ¿Porqué se recaban datos?


– ¿Qué datos se deberán recabar?
– ¿En qué parte del proceso deberán
Aspectos recabarse los datos?
relacionados – ¿Cómo se realizarán las mediciones?
en la – ¿Cuándo, con qué frecuencia, y durante
recolección cuánto tiempo se deberá recabar los datos?
de datos: – ¿Quién recabará e informará de los datos?
– ¿Se requiere algún tipo de capacitación?
Calidad y Mejora Continua

Hoja de Verificación • Herramientas de calidad I

Procedimiento
Una tabla de chequeo o verificación se elabora (por lo menos) siguiendo
el siguiente procedimiento:

 Determinar el propósito de la toma de datos (si es para conocer el


estado actual, para fines analíticos o para supervisión).

 Identificar los ítems a chequear (los elementos de seguimiento).

 Fijar la periodicidad de los datos a recolectar.

 Diseñar el formato de la hoja de recogida de datos de acuerdo a la


cantidad de información a recoger.

 Anotar la cantidad de ocurrencias con marcas sencillas.


Calidad y Mejora Continua

Hoja de Verificación • Herramientas de calidad I

5.1 Ejemplo
Hoja de verificación de artículos
defectuosos

Fuente: K. Ishikawa, Guide to Quality Control


Calidad y Mejora Continua

Hoja de Verificación • Herramientas de calidad I

5.1 Ejemplo Hoja de verificación para distribución de procesos


Calidad y Mejora Continua

Diagrama de Flujo • Herramientas de calidad I

Diagrama de Flujo
Calidad y Mejora Continua

Diagrama de Flujo • Herramientas de calidad I

Diagrama de Flujo

Representación visual de las etapas de un proceso.

Ventajas de su uso:

 Proporciona comprensión del proceso.


 Ayuda a identificar cuellos de botellas.
 Facilita capacitación a terceros.
 Identifica fácilmente puntos de
modificación y mejora.
 Da a conocer responsables y
responsabilidades.
 Ayuda en la detección de áreas a
mejorar.
Calidad y Mejora Continua

Diagrama de Flujo • Herramientas de calidad I

Simbología

El Instituto Nacional de Normalización Estadounidense –ANSI por sus


siglas en inglés- es una organización privada sin fines lucrativos que
administra y coordina la normalización voluntaria y las actividades
relacionadas a la evaluación de conformidad en los Estados Unidos.

El ANSI ha desarrollado una simbología para que sea empleada en los


diagramas orientados al procesamiento electrónico de datos –EDP- con
el propósito de representar los flujos de información, de la cual se han
adoptado ampliamente algunos símbolos para la elaboración de los
diagramas de flujo dentro del trabajo de diagramación administrativa,
dicha simbología se muestra en el cuadro a continuación:
Calidad y Mejora Continua

Diagrama de Flujo • Herramientas de calidad I

Simbología (ANSI)
Calidad y Mejora Continua

Diagrama de Flujo • Herramientas de calidad I

Modelo 1
Calidad y Mejora Continua

Diagrama de Flujo • Herramientas de calidad I

Modelo 2
Calidad y Mejora Continua

Diagrama de Flujo • Herramientas de calidad I

Modelo 1
Calidad y Mejora Continua

Diagrama de
• Herramientas de calidad I
Estratificación
• Diagrama de Estratificación
Calidad y Mejora Continua

Diagrama de
• Herramientas de calidad I
Estratificación
• Diagrama de Estratificación

Método para buscar las causas clasificando los datos obtenidos y los objetos
que se desean estudiar en varias clases o estratos y comparando sus
diferencias.
Calidad y Mejora Continua

Diagrama de
• Herramientas de calidad I
Estratificación
• Diagrama de Estratificación

Estratificar es analizar problemas, fallas, quejas o datos, clasificándolos o


agrupándolos de acuerdo con los factores que, se cree, pueden influir en la
magnitud de los mismos, a fin de localizar buenas pistas para mejorar un
proceso. Por ejemplo los problemas pueden analizarse de acuerdo con tipo de
fallas, métodos de trabajo, maquinaria, turnos, obreros, materiales o cualquier
otro factor proporcione una pista acerca de donde centrar los esfuerzos de
mejora los cuales son las causas vitales.

 Personal
 Materiales
 Maquinaria y equipo
 Áreas de gestión
 Tiempo
 Entorno
 Localización geográfica
 otros
Calidad y Mejora Continua

Pasos Diagrama de
• Herramientas de calidad I
Estratificación
• Diagrama de Estratificación

1. A partir de un objetivo claro e importante, determinar con discusión y


análisis las características o factores a estratificar.

2. Mediante la recolección de datos, evaluar la situación actual de las


características seleccionadas. Expresar gráficamente la evaluación de las
características (diagrama de Pareto, histograma).

3. Determinar las posibles causas de la variación en los datos obtenidos con la


estratificación, esto puede llevar a estratificar una característica más
específica.

4. Ir más a fondo en alguna característica y estratificarla.

5. Seguir estratificando hasta donde sea posible y obtener conclusiones de


todo el proceso.
Calidad y Mejora Continua

Diagrama de
• Herramientas de calidad I
Estratificación
• Diagrama de Estratificación

En una empresa del ramo metal-mecánico se quiere evaluar cuáles son los
problemas más importantes por los que las piezas metálicas se rechazan
cuando se inspeccionan. Este rechazo se da en diversas fases del proceso y
en distintos departamentos. Se requiere elaborar un diagrama de
estratificación que ilustre este problema para su análisis.
Calidad y Mejora Continua

Diagrama de
• Herramientas de calidad I
Estratificación
• Diagrama de Estratificación
Calidad y Mejora Continua

Diagrama de
• Herramientas de calidad I
Estratificación
• Diagrama de Estratificación
¿Qué aprendimos hoy?
Bibliografía
• Anderson, David. Sweedy, Dennis (2011). Métodos cuantitativos para la
producción. México D.F.: Cengage Learning
• Camisón C. Cruz S. Gonzáles T. (2006). Gestión de la calidad: conceptos,
enfoques, modelos y sistemas. Madrid. Pearson Education
• Gutierrez Pulido, Humberto (2005). Calidad total y productividad. México
D.F.: McGraw-Hill
• Evans, James R., William M. Lindsay (2008). Administración y control de
la calidad, 7a. Edición
• Socconini, Luis (2008). Lean Manufacturing – Paso a Paso. Tlalnepantla.
Estado de Mexico.: Norma ediciones S.A
• Crosby, Philip B (2001) La calidad no cuesta: El arte de cerciorarse de la
calidad. México D.F
• “The QC Problem Solving Approach”, de Katsuya Hosotani
• http://www.todobi.com/2015/11/big-data-para-dummies.html

También podría gustarte