Chantal A Trabalhar

Fazer download em docx, pdf ou txt
Fazer download em docx, pdf ou txt
Você está na página 1de 24

O que é probabilidade?

Probabilidade é o grau de segurança que temos sobre a ocorrência de um evento.Os


conceitos deprobabilidade são importantes por si só, e têm importantes aplicações em
processos decisórios onde a incerteza está presente.
E, nesse post, falaremos sobre alguns conceitos de probabilidade importantes para serem
dominados por você, que trabalha em projetos de melhoria.

Há outra maneira de definirmos


probabilidade?
Um experimento aleatório é um processo que apresenta como resultado qualquer um de um
conjunto de possíveis valores, sem que a ocorrência de um particular evento possa ser
predita com certeza. A maneira mais comum de medir a incerteza de um evento que pode
resultar de um experimento aleatório é através da atribuição de um valor que reflete a
chance de ocorrência desse evento. Esse valor é chamado de probabilidade.

O que é probabilidade clássica?


Historicamente, probabilidade clássica é a forma mais antiga de medir incerteza. Essa
medida foi desenvolvida basicamente através dos jogos de azar. O conceito clássico de
probabilidade aplica-se somente quando todos os possíveis resultados são igualmente
prováveis.
Suponha que um experimento aleatório tem um total de n resultados possíveis Ri, i = 1, 2,
3, 4, …, n , e que cada um desses resultados é igualmente provável. Então, a chance de
ocorrência de cada um é 1/n.
Expressamos isso de uma maneira formal dizendo:

P(Ri) = 1/n, onde “P” simboliza Probabilidade.


Se um evento “E” é formado por m eventos elementares igualmente prováveis, então:
P (E) = m/n.
O exemplo mais clássico de aplicação da probabilidade clássica é o lançamento de um
dado honesto. O conjunto de resultados possíveis é {1, 2, 3, 4, 5, 6} e cada resultado ocorre
com probabilidade 1/6. Se o evento E é formado pelos resultados pares, então P (E) = P (2,
4, 6) = 3/6 = 1/2.
Note que estamos falando aqui de um dado hipotético, para o qual assumimos que as faces
são igualmente prováveis. Nada garante que um dado real tenha que ter faces igualmente
prováveis.

Se o experimento aleatório obedece à condição de eventos elementares igualmente


prováveis, então todas as probabilidades relacionadas com o experimento podem ser
calculadas a priori, sem necessidade de experimentação. Entretanto, na maioria das
situações, temos de estimar a probabilidade a partir da realização de experimentos. Para
tanto, usamos a abordagem frequentista para calcular probabilidades.

O que é probabilidade frequentista


Probabilidade frequentista: suponha que um experimento que tem como resultados
possíveis {R1, R2, R3, …, Rn} é realizado um número n de vezes, e que cada resultado Ri
ocorre ni vezes. Então a frequência relativa do evento Ri é ni/n. Se n é suficientemente
grande, ni/n converge para P (Ri), e usamos o valor ni/n como o valor aproximado de P
(Ri). A aplicação da abordagem frequentista pressupõe que nas n repetições do experimento
o sistema esteja estável, ou em equilíbrio. Em outras palavras, que o comportamento
dasprobabilidade não mudem
Como ni = n, temos que (ni/n) = pi = 1.

O que é probabilidade subjetiva?


Outra abordagem é tratar probabilidade como uma medida de crença sobre a ocorrência de
um evento. Por exemplo, observando as condições de tempo hoje, uma pessoa afirma,
baseada em sua experiência, que a chance de chover amanhã é 40%. Esse número é a
sua probabilidade pessoal, ou subjetiva sobre o evento “chover amanhã”. Um especialista
em mercado de ações afirma, baseado em sua experiência e nas informações que tem
disponível, que a chance que as ações de uma determinada empresa subam no pregão é de
70%.
Qualquer que seja a interpretação, ou abordagem, as leis básicas de probabilidade são as
mesmas. Em lugar de desenvolver essas leis com rigor formal, vamos listá-las aqui, apelar
para a intuição do leitor para sua devida compreensão, e ilustrá-las por meio de alguns
exemplos simples.
Probabilidade empírica: baseia-se em observações obtidas de experimentos
aleatórios. Os resultados são baseados em dados observados e não no
conhecimento prévio do processo. De acordo com a Lei dos grandes
números, a medida que um experimento é repetido mais e mais vezes, a
probabilidade empírica (frequência relativa) de um evento tende à sua
probabilidade real.

Quais são as leis da Probabilidade?


Denotaremos por uma letra maiúscula A, B, … um evento aleatório. Em geral, um evento
aleatório é um conjunto de objetos, e utilizaremos a linguagem da teoria dos conjuntos para
listar as leis da probabilidade. Por exemplo, se um experimento aleatório consiste em
lançar um dado e definimos o evento A como sendo formado pelos resultados pares,
então A = {2, 4, 6}. Se estivermos estudando o tempo de vida de leite longa vida, podemos
definir o evento A como sendo formado por todas as caixas que duram um tempo maior que
90 dias. Então, A ={t: t > 90}. Observe nesse exemplo que a observação é o tempo de vida
da caixa, portanto os eventos são formados por intervalos de tempo.
Denotaremos por S o conjunto de todos os resultados possíveis. No primeiro exemplo, S =
{1, 2, 3, 4, 5, 6}. No segundo exemplo, S = {t: t > 0}. Observe que no segundo exemplo
consideramos formado por todos os tempos maiores ou iguais a zero. Embora se saiba que
há um limite para o tempo de vida de uma caixa de leite longa vida, por razões que ficarão
claras mais à frente, é mais conveniente modelar o conjunto dos valores possíveis para o
tempo de vida como formado por todos os valores maiores ou iguais a zero.
Denotaremos por P (A) a probabilidade de ocorrência do evento A
1º Lei da Probabilidade.
Qualquer que seja o evento A, a sua probabilidade deve ficar entre 0 e 1.
Se S representa o conjunto de todos os resultados possíveis e ø o conjunto vazio, então,
P (S) = 1 e P (ø) = 0.

2º Lei da Probabilidade.
Se A1 e A2 são dois eventos que não têm nenhum elemento em comum dizemos que A1 e
A2 são disjuntos (A1 ∩ A2 = ø). Se dois eventos A1 e A2 são disjuntos, então

P (A1 ∪ A2) = P (A1) + P (A2)

Obs. O evento (A1 ∪ A2) é formado por todos os elementos de A1 e de A2.

Generalizando, se A1, A2, …, Ak são eventos mutuamente disjuntos, então,

P (A1 ∪ A2 ∪ … ∪ Ak) = P (A1) + P (A2) + … + P (Ak)


3º Lei da Probabilidade.
Representamos por Ac o evento formado por todos os resultados possíveis que não fazem
parte de A. Dizemos que Ac é o complementar do evento A. Temos,
Ac ∪ A = S e Ac ∩ A = ø.
Então temos:

P (Ac) = 1 – P (A)
4º Lei da Probabilidade.
Se A1 e A2 são dois eventos quaisquer, então,

P (A1 ∪ A2) = P (A1) + P (A2) – P (A1 ∩ A2)

O que é distribuição de Probabilidade?


Em muitas situações, os resultados possíveis de um experimento são números. Por exemplo,
o diâmetro de uma peça sendo fabricado, o valor do rendimento da poupança num
determinado dia, o volume negociado diariamente na bolsa de valores de São Paulo, o
tempo de vida de um equipamento, etc. Quando o resultado não é numérico, podemos fazer
uma associação dos resultados possíveis com um número. Por exemplo, podemos atribui o
número 1 ao sexo masculino e o número 2 ao sexo feminino. Portanto, é sempre possível
associar um número ao resultado de um experimento. Dessa forma, simbolizamos os
possíveis resultados de um experimento aleatório por uma letra ( em geral X, Y, Z), e
chamamos essa letra de variável aleatória. Então, variável aleatória nada mais é do que uma
função que tem como valores todos os resultados possíveis de um experimento aleatório.

Existem diversos tipos de distribuição de probabilidade, vamos conferir algumas delas e


suas respectivas finalidades:

 Distribuição Binomial: é aplicável nos casos onde os resultados que uma variável assume
podem ser agrupados em duas categorias. Estas por sua vez devem ser mutuamente
excludentes (sem dúvidas para classificação) e coletivamente exaustivas (não pode ser
classificada em uma terceira categoria);
 Distribuição de Poisson: pode ser aplicada nos casos onde existe a probabilidade de
ocorrência em um espaço, área ou intervalo contínuo;
 Distribuição Exponencial: descreve a possibilidade de uma variável aleatória discreta
expressar a probabilidade de uma série de eventos ocorrerem em um certo período de
tempo, sendo esses independentes do último evento ocorrido;
 Distribuição de Weibull: trata-se de uma distribuição extremamente flexível e pode
assumir formas variadas. É usada nas áreas de PCP para modelar tempos de processo,
setup e tempos de falha de diversos componentes mecânicos e elétricos;
 Distribuição Normal: muitos autores a classificam como a mais importante das
distribuições pois representa a distribuição de frequência de grande parte dos fenômenos
naturais e serve como aproximação da distribuição binomial para grandes valores de “n”.

 Definições
 Experimento ou Fenômeno Aleatório
 São aqueles que, mesmo repetidos várias vezes sob condições
semelhantes, apresentam resultados imprevisíveis.

 Espaço Amostral
 É o conjunto de possíveis resultados de um experimento ou fenômeno
aleatório, representado por S.

 Evento
 É qualquer subconjunto do espaço amostral S de um evento aleatório.

 Probabilidade: Dado um experimento aleatório, sendo S o seu espaço
amostral, admitindo que todos os elementos de S tenham a mesma
chance de acontecer, ou seja, que S é um conjunto equiprovável.

 Probabilidade de um evento A (A está contido em S):



 Sendo:
 n(A) – número de elementos de A;
 n(S) – número de elementos de S.

 Eventos Complementares
 Sabendo que um evento pode ocorrer ou não. Sendo p a probabilidade
de que ele ocorra (sucesso) e q a probabilidade de que ele não ocorra
(insucesso), para um mesmo evento existe sempre a relação:



 Eventos Independentes
 Dizemos que dois eventos são independentes quando a realização ou
não realização de um dos eventos não afeta a probabilidade da
realização do outro e vice-versa.

 Assim, sendo p1 a probabilidade de realização do primeiro evento e p2 a
probabilidade do segundo evento, a probabilidade de que tais eventos
se realizem simultaneamente é dada por:


 Também conhecida como regra do "e".

Quais os tipos de variáveis aleatórias?


É comum classificar as variáveis aleatórias de acordo com o número de resultados possíveis
que ela pode assumir. Se o número de valores possíveis é finito ou infinito enumerável
chamamos a variável aleatória de discreta. Se o conjunto de valores possíveis é infinito não
enumerável, então a variável aleatória é contínua.

 Exemplos de variáveis aleatórias discretas: o número de filhos de um casal, o número de


estrelas visíveis numa determinada noite, o rendimento de uma família expressa em
múltiplos inteiros de um salário mínimo, etc.
 Exemplos de variáveis aleatórias contínuas: o tempo de vida de um equipamento, a taxa
de juro diária, a altura de uma pessoa, etc.
Como já discutimos anteriormente, a rigor não existe variável aleatória continua, pois, todo
sistema de medida tem sensibilidade limitada e a escala resultante é discreta. Mas é
conveniente adotarmos como modelo que a sensibilidade do sistema de medidas é tão
grande como se queira de tal forma que podemos ter como resultado da medida qualquer
valor dentro de um intervalo.

Como compreendemos probabilidade?


Desse modo, passamos para vocês um pouco dos conceitos que abordamos em detalhes
na Certificação Black Belt. Lá, é possível passar cada um dos conceitos da Estatística que
nos ajuda a complementar o conhecimento necessário para o gerenciamento de atividades
produtivas. É isso, que nos faz dominar a voz pela qual o processo se comunica conosco.
Isso é a beleza do Lean Seis Sigma.

Como a Probabilidade se aplica em nossa vida?


Probabilidade: muitas vezes, quando vamos ao médico, somos surpreendidos
por probabilidade. Não raro foram às vezes em que fiquei angustiado quando me diziam
que 80% dos casos como o meu evoluem bem, mas que há chances de 5 a 10% de ocorrer
alguma complicação futura. Quando recebemos um prognóstico como este, ficamos com
medo. Como bom engenheiro, indagava ao médico se não havia mais algum exame a ser
feito, para garantir 100% de assertividade e a resposta, na maioria das vezes, era não. Diante
da negativa, íamos atrás de uma segunda opinião. Sim, deve haver outro médico que sabe
mais sobre o meu problema. Mas na maioria das vezes, se a opinião do segundo não era
igual, porém muito parecida.
Dias atrás, caminhando ao final do dia, conversava com meus amigos sobre este assunto.
Por que será que ficamos tão “encucados” quando deparamos com uma situação como esta?
Discorrendo sobre teorias que pudessem explicar o fato, surgiu como causa raiz a nossa
educação, tanto na escola como e em casa. Na escola, do primário até o colegial, fala-se
em probabilidade somente nas aulas de análise combinatória, todo o resto é determinismo
puro.

Probabilidade e o determinismo?
Qual a aceleração da gravidade?
9,81m/s², pouco importa, na visão do professor, se estamos sobre um campo de petróleo ou
um vulcão. Qual é a força necessária para acelerar a 5m/s² um veículo de massa 1250 kg?
Sacamos logo a velha fórmula do Newton que diz que F=m.a. Na aula de Biologia é a
mesma coisa. Decoramos a evolução da vida (poríferos, celenterados, platelmintes…) e
muitas coisas mais, mas sempre ancorados no puro determinismo.

Ao chegar à faculdade, pelo menos a de engenheira, continuamos na mesma toada. Calculo


1, 2, 3 e numérico. Física 1, 2, 3 e 4. Química geral, 1, 2. E, somente uma matéria de
Estatística. Isto mesmo, uma matéria de Estatística, dada geralmente por um professor
corajoso, pois este tem de explicar conceitos “nunca dantes abordados”. Além disto, o
professor tem de convencer aos alunos que a matéria é importante e deve ser estudada. Se
deixar para os alunos, a matéria será colocada em última instância, pois não é pré-requisito
para nenhuma outra.

Eu tive sorte. Tive um ótimo professor de Estatística na faculdade que conseguiu me


acordar. Mostrou-me a importância da probabilidade e dos modelos estocásticos na minha
vida, o que ajudou demais na pós-graduação. Não há experimentos bem realizados se não
houver a Estatística por trás. Por meio deste professor, conheci os livros do Taleb
(começando pelo Enganado pela Aleatoriedade até o Antifrágil), comecei a entender a
loucura da bolsa de valores, as chances, riscos, enfim, comecei a entender a Estatística.
Quando ingressei no green belt, consegui pavimentar todos estes conceitos e a entender
meus médicos. Medicina não é uma Ciência exata, como diria meu tio, mas as outras
também não são. E veremos muito mais no Black Belt.

Teoria dos conjuntos


A teoria dos conjuntos é o ramo da matemática que estuda
conjuntos, que são coleções de elementos. Vamos começar
estudando os símbolos matemáticos usados neste ramo.

Símbolos

: pertence : existe
: não pertence : não existe
: está contido : para todo (ou qualquer que seja)
: não está contido : conjunto vazio
: contém N: conjunto dos números naturais
: não contém Z : conjunto dos números inteiros
/ : tal que Q: conjunto dos números racionais
: implica que Q'= I: conjunto dos números irracionais
: se, e somente se R: conjunto dos números reais

Eventos Independentes

Cara, imagina que você tem uma moeda aí nas suas mãos. Vamos supor que você lance
essa moeda uma vez, e tenha como resultado coroa. Se você lançar essa moeda
novamente, após esse primeiro lançamento, essa coroa vai ter alguma influência sobre o
próximo resultado? Não!

Como o nome já diz, eventos independentes são aqueles que não dependem um do
outro, ou seja, o fato de um deles acontecer não altera a probabilidade do outro
ocorrer.
Humm.. mas como vamos saber se dois eventos são independentes ou não? É
exatamente isso que vamos descobrir agora. Vem comigo!

Se dois eventos são independentes, então:

PA∩B=PA⋅P(B)

Atenção!

Quando falamos de mais de dois eventos, três eventos (A, B e C) por exemplo, para eles
serem completamente independentes, precisamos que:

PA∩B=PA.PB

PA∩C=PA.PC

PB∩C=PB.PC

PA∩B∩C=PA.PB.PC

Se essas quatro equações não forem verdadeiras, não podemos falar que esses três
eventos são completamente independentes. Contudo, se as três primeiras forem
verdades, podemos falar que eles são mutualmente independentes.

Eventos Mutuamente Exclusivos

E tudo volta à Teoria dos Conjuntos...

Dizemos que dois eventos são mutuamente exclusivos quando eles são disjuntos, ou
seja, quando não possuem interseção.

Isso quer dizer que

A∩B=∅

Isso ocorre, por exemplo, se pensarmos nos seguintes eventos no lançamento de um


dado:

A:sair número par


B:sair número ímpar

Esses eventos são mutuamente exclusivos, já que não tem como um número ser par e
ímpar ao mesmo tempo!

Com isso podemos concluir outras coisas como:

PA∪B=PA+PB-PA∩B

Se os eventos A e B são mutuamente exclusivos, logo P A ∩ B = 0 , portanto:

PA∪B=PA+PB

Além disso, quando dois eventos não tiverem interseção a probabilidade condicional
também irá mudar. Vamos dar uma olhada na fórmula:

PAB=PA∩BPB

Como P A ∩ B = 0 teremos:

PAB=0PB=0

Ou seja, quando falamos de eventos mutualmente exclusivos podemos afirmar que a


probabilidade condicional deles, um em relação ao outro é ZERO.

Importante!

Não podemos confundir eventos MUTUAMENTE EXCLUSIVOS com eventos


INDEPENDENTES.

Eventos independentes são aqueles que:

PA∩B=PA.P(B)

Nada podemos afirmar sobre eles serem mutualmente exclusivos ou não. E vice versa!

Partiu exercício pra fixar melhor esses paranauês todos aí!


Eventos Mutuamente Exclusivos

Dizemos que dois ou mais eventos são mutuamente exclusivos quando a


realização de um exclui a realização do(s) outro(s).
Assim, no lançamento de uma moeda, o evento “tirar cara” e o evento “tirar
coroa” são mutuamente exclusivos, já que, ao se realizar um deles, o outro não
se realiza.

Se dois eventos são mutuamente exclusivos, a probabilidade de que um ou


outro se realize é igual à soma das probabilidades de cada um deles se realize:

Também conhecida como regra do "ou".

DISTRIBUIÇÃO BINOMIAL
Aplica-se a experimentos que satisfaçam as seguintes condições:

 O experimento deve ser repetido, nas mesmas condições, um número


finito de vezes, n;
 As provas repetidas devem ser independentes, o resultado de uma não
afeta o resultado da outra;
 Tem-se apenas dois resultados possíveis: sucesso ou insucesso;
 A probabilidade do sucesso em uma tentativa é p e a do insucesso é: q
=1-p
A probabilidade de se obter sucesso k vezes durante n tentativas é
determinado por:

Sendo:
n = número de tentativas
K = número de sucessos
p = probabilidade de sucesso
q = probabilidade de fracasso

DISTRIBUIÇÃO DE POISSON
Muitos estudos são baseados na contagem das vezes em que um evento
ocorre em uma determinada área de oportunidades.

Uma área de oportunidades é uma unidade contínua ou um intervalo de tempo,


volume ou área em que possa acontecer mais de uma ocorrência de um
evento.

Exemplos:
 Defeitos na pintura de uma geladeira nova;
 Número de falhas na rede em um determinado dia;
 Número de pulgas no pelo de um cachorro.

Pode-se utilizar a distribuição de Poisson para calcular probabilidades se:


 O interesse é de encontrar o número de vezes em que um evento
específico ocorre em uma determinada área de oportunidades.
 A probabilidade de que um evento específico ocorra em uma área de
oportunidades é a mesma para todas as áreas de oportunidades.
 O número de eventos que ocorrem em uma determinada área de
oportunidades é independente do número de eventos que ocorrem em
qualquer outra área de oportunidades.
 A probabilidade de que dois ou mais eventos venham a ocorrer em uma
determinada área de oportunidades se aproxima de zero à medida em que a
área de oportunidades de torna menor.

Onde:
P(x) = probabilidade de eventos
K = número esperado de eventos
e = constante matemática = 2,71828

X = número de eventos

DISTRIBUIÇÃO NORMAL
Segundo Fonseca (2011), a distribuição normal pode ser considerada como a
mais importante distribuição de probabilidade, pode ser aplicada em vários
fenômenos. Também é conhecida como distribuição de Gauss.

A Curva Normal é um modelo teórico ou ideal que resulta muito mais de uma
equação matemática do que um real delineamento de pesquisa com posterior
coleta de dados.

De acordo com Levine (2008), a distribuição normal é importantíssima para a


Estatística pelas seguintes razões:

 Muitas variáveis contínuas possuem distribuição que se aproximam da


normal;
 Pode ser utilizada para aproximações de várias distribuições
discretas;
 Proporciona a base para a inferência estatística, pois possui
relação direta com o Teorema Central do Limite.

Propriedades:

 A variável “x” pode assumir qualquer valor no conjunto dos


números reais.
 Seu gráfico possui formato de sino e a curva é totalmente
simétrica.
 A média, a moda e a mediana possuem o mesmo valor.
 Em seu gráfico, a curva normal aproxima-se do eixo das
abscissas infinitamente, mas sem alcançá-lo.
 Como a curva é simétrica, o valor de sua área é 1 e a
probabilidade de ocorrer um valor menor que a média é o mesmo
que ocorrer um valor maior que a média (0,5).
 A maioria dos valores agrupa-se em torno do centro (a média);
 Os valores vão se tornado cada vez menos prováveis, quanto
mais distantes eles se encontram da média.

Função de densidade da probabilidade normal

Onde:
µ = média
σ = desvio-padrão
π = constante aproximada por 3,1416
e = constante aproximada por 2,71828
x = qualquer valor da variável

Quando se tem uma variável com distribuição normal, é possível calcular a


probabilidade de essa variável assumir um valor em um intervalo.

A Distribuição Normal Padronizada


A distribuição normal padronizada possui média 0 (zero) e desvio padrão 1. As
probabilidades da curva normal padrão são obtidas em tabelas. A vantagem da
curva padronizada é que os a média e o desvio padrão, estão definidos para
qualquer escala de medida.

Para converter qualquer distribuição normal para a distribuição normal padrão


deve-se utilizar a seguinte fórmula:

Tabela da Distribuição Normal Padronizada

De acordo com Fonseca (2011), se podem encontrar vários tipos de tabelas


que fornecem as probabilidades sob a curva normal padrão, sendo a mais
utilizada a Tabela de faixa Central. Essa tabela fornece a área entre a média
(0) e qualquer valor à direita (positivos). Como a curva é simétrica, podem-se
obter também as probabilidades à esquerda da média (valores negativos).

A tabela fornece a área (probabilidade) no intervalo entre 0 e z1, ou seja:

1 DEFINIÇÕES ADICIONAIS: PROBABILIDADE Espaço amostral (Ω) é o conjunto de todos os


possíveis resultados de um experimento. Evento é qualquer subconjunto do espaço amostral.
Evento combinado: Possui duas ou mais características Dois eventos são mutuamente
excludentes se não tiverem elementos comuns, isto é, se não puderem ocorrer
simultaneamente. Eventos coletivamente exaustivos: A união dos eventos é o espaço amostral.
Dois ou mais eventos dizem-se independentes se o conhecimento prévio da ocorrência ou não
ocorrência de um dos eventos não auxiliar a predizer a ocorrência dos demais. Dois ou mais
eventos são dependentes se o conhecimento prévio da ocorrência ou não ocorrência de um
dos eventos auxiliar a predizer a ocorrência dos outros. ORGANIZAÇÃO DE DADOS: Variáveis
aleatórias: fenômenos ou características examinadas em cada elemento investigado.
População: É o conjunto de todos os elementos ou resultados sobre os quais estamos
interessados. Amostra: É qualquer subconjunto da população. Distribuição de freqüências: É
uma tabela resumida na qual os dados são organizados em grupos de classes ou categorias
convenientemente estabelecidos e numericamente ordenados, contendo as suas respectivas
contagens, as quais são denominadas freqüências absolutas ou freqüências. Gráficos: Gráfico
de Colunas ou Barras: Utiliza o plano cartesiano com os valores da variável no eixo das
abscissas e as freqüências ou percentagens no eixo das ordenadas. Em geral usar gráfico de
barras horizontais para categorias (variáveis qualitativas) e gráfico de colunas para variáveis
quantitativas. Diagrama de Pareto: É um tipo especial de gráfico de colunas no qual as
respostas categorizadas são representadas em ordem decrescente de classificação de suas
freqüências e combinada com um polígono acumulado na mesma escala. Gráfico de Disco ou
Pizza ou Diagrama Circular: Consiste em repartir o disco em setores circulares
correspondentes às percentagens de cada valor. Estatística - Definições Adicionais Profª
Raquel Cymrot 1

2 Gráfico de Linhas: São gráficos em duas dimensões, baseados na representação cartesiana


dos pontos no plano. Este gráfico é útil para representar séries cronológicas. Histograma: São
gráficos de barras verticais nos quais as barras retangulares são construídas nos limites de
cada classe. Os histogramas podem ser de freqüência, de freqüência relativa ou de
percentagem. Polígono de Freqüências (ou percentagens): Os pontos do polígono são obtidos
por perpendiculares traçadas a partir dos pontos médios das classes e de altura proporcional à
freqüência (percentagem) de cada uma das classes. O polígono de percentagem é muito
utilizado quando da comparação de dois ou mais conjuntos de dados. Lembrar que se utilizam
as classes fictícias antecedente e sucedente com freqüências zero. Gráfico de Box-Plot:
Define-se uma caixa com o nível superior dado pelo 3º quartil e o nível inferior pelo 1º quartil. A
mediana é representada por um traço no interior da caixa e segmentos de reta são colocados
da caixa até os valores máximo e mínimo que não sejam observações discrepantes (possíveis
outliers ). A representação gráfica através do Box-Plot informa, entre outras coisas, a
variabilidade e a simetria dos dados. Exatidão: É o grau de concordância entre o resultado da
medição e o valor verdadeiro convencional da grandeza medida. Precisão: É o grau de
concordância entre medições independentes de uma característica dentro de condições
específicas, medida através do desvio padrão. VARIÁVEIS ALEATÓRIAS DISCRETAS
Variável Aleatória Discreta: É uma função, definida sobre o espaço amostral Ω e que assume
valores num conjunto enumerável de pontos, com certa probabilidade. Função de
Probabilidade ou Distribuição de Probabilidade para uma variável aleatória discreta: É uma lista
mutuamente excludente de todos os possíveis valores assumidos por aquela variável aleatória,
de modo que uma determinada probabilidade de ocorrência esteja associada a cada um destes
valores. Função de Distribuição ou Função Acumulada de Probabilidade de uma variável
aleatória discreta é definida, para qualquer número real x pela expressão: F(x) = P( x). Dada a
variável aleatória, assumindo os valores 1,,..., n, chamamos de valor médio ou Esperança de
ao valor: µ = x P( ) n i= 1 i x i Variância (σ ) de uma variável aleatória discreta é a média
ponderada das diferenças ao quadrado entre cada resultado possível e a sua média aritmética,
sendo os pesos as probabilidades de cada um dos resultados. n σ = V ( ) = [ i E( i )] P( i ) =
E[ E( )] = E( ) [ E( )] Onde E ( ) i= 1 = P( ) Estatística - Definições Adicionais Profª Raquel
Cymrot

3 Desvio Padrão (σ) de uma variável aleatória é a raiz quadrada positiva de sua variância.
Propriedades da esperança: Se a é uma constante então E(a) = a E(a) = a E() Se a e b são
constantes então: E(a+b) = E(a) + E(b) = ae() + b Se h() é uma função de, então: E [ h( ) = h( )
P( ) Propriedades da variância: Se a é uma constante então V(a) = 0 V(a) = a V() Se a e b são
constantes então: V(a+b) = a V() Variáveis Aleatórias Bidimensionais: Muitas vezes, ao
descrever os resultados de um experimento aleatório, atribuímos a um mesmo ponto amostral
os valores de duas variáveis aleatórias. Queremos conhecer as probabilidades associadas a
cada par de variáveis aleatórias. Distribuição Conjunta de Probabilidades: É a função de
probabilidade que atribui probabilidades a cada par das variáveis aleatórias. P(x,y) = P( = x ; Y
= y) denota a probabilidade do evento { = x e Y = y} Note que a distribuição conjunta é uma
distribuição de probabilidades, pois: P( = x ; Y = y) 0 para qualquer x e qualquer y e P( = x, Y =
y) = 1 As variáveis aleatórias e Y são independentes se para todo para de valores (x i,y j ) de e
y tem-se: P( = x i, Y = y j ) = P( = x i )P(Y = y j ) Distribuições Marginais: São obtidas facilmente
da tabela de distribuição conjunta de probabilidades. Propriedades das variáveis aleatórias
bidimensionais: Se e Y são duas variáveis aleatórias então E(+Y) = E() + E(Y) Generalizando:
E( n ) = E( 1 ) + E( ) E( n ) Se e Y são duas variáveis aleatórias independentes então E(Y) =
E()E(Y) Generalizando: Se 1,,..., n são variáveis aleatórias independentes então: E( 1... n ) = E(
1 )E( )...E( n ) x y Estatística - Definições Adicionais Profª Raquel Cymrot 3

4 Se e Y são duas variáveis aleatórias independentes então V( + Y) = V() + V(Y)


Generalizando: Se 1,,..., n são variáveis aleatórias independentes então: V( n ) = V( 1 ) + V( )
V( n ) Se e Y são duas variáveis aleatórias independentes então V( Y) = V() + V(Y) Sejam e Y
são duas variáveis aleatórias. A covariância de e Y é definida por: COV(,Y) = E(Y) E()E(Y)
Quando COV(,Y) = 0 dizemos que e Y são não correlacionadas, isto é, não existe uma relação
linear entre e Y. Se e Y são duas variáveis aleatórias independentes então COV(,Y) = 0 (a
recíproca não é verdadeira). Se e Y são duas variáveis aleatórias quaisquer, então: V( +Y) =
V() + V(Y) + COV(,Y) V(a + by) = a V() + b V(Y) + abcov(,y) Coeficiente de Correlação: É uma
medida da relação linear entre e Y que não depende das unidades destas variáveis. O grau de
associação linear entre e Y varia à medida que ρ x,y varia entre 1 e1. Quanto mais próximo ρ
x,y estiver de zero, menor será o grau de associação linear entre e Y. Quando ρ x,y = 1 existe
uma relação linear perfeita entre e Y, isto é, Y = a + b. O coeficiente de correlação linear de,y é
definido por: E( Y) E( ) E( Y ) COV (, Y ) ρ, Y = = 1 ρ, Y 1 σ σ σ σ Y Y DISTRIBUIÇÕES
DISCRETAS Distribuição Binomial: Uma variável aleatória tem distribuição Binomial se: - Há n
observações. - Cada observação vem de uma população infinita com amostragem com ou sem
reposição ou de uma população finita com amostragem com reposição. - Cada observação tem
dois possíveis resultados (sucesso ou fracasso), onde sucesso é o resultado de interesse. - As
probabilidades p de sucesso e (1 p) de fracasso permanecem constantes em todas as
observações. - O resultado de uma observação é independente do resultado das outras
observações. é o número total de sucessos nas n observações e tem distribuição Binomial.
Notação: ~ B(n,p) Distribuição Hipergeométrica: A distribuição hipergeométrica também diz
respeito ao número total de sucessos numa amostra com n observações, porém, os elementos
da amostra são retirados sem reposição de uma população finita. A probabilidade p de sucesso
não é mais constante e é afetada pelos resultados das observações anteriores. Considere um
conjunto de N objetos, dos quais k são do tipo I e (N k) são Estatística - Definições Adicionais
Profª Raquel Cymrot 4

5 do tipo II. É feito um sorteio de n objetos ( n < N), ao acaso e sem reposição. Seja o número
total de objetos do tipo I selecionados. terá uma distribuição hipergeométrica. Distribuição de
Poisson: Existe um processo de Poisson se pudermos observar eventos discretos numa área
de oportunidade (continuum) de modo que ao encurtarmos tal área suficientemente: -A
probabilidade de se observar exatamente um sucesso no intervalo é estável. -A probabilidade
de se observar mais de um sucesso no intervalo é zero. -A ocorrência de um sucesso em
qualquer intervalo é estatisticamente independente da ocorrência em qualquer outro intervalo.
VARIÁVEIS ALEATÓRIAS CONTÍNUAS Variável Aleatória Contínua: É uma variável aleatória,
tal que R x, o contra domínio de, seja um intervalo ou uma coleção de intervalos. Função
Contínua de Probabilidade ou Função de Densidade de Probabilidade: f(x) é uma função
contínua de probabilidade ou função de densidade de probabilidade se satisfizer duas
condições: a)f(x) 0 para todo x (, ) b)a área definida por f(x) é igual a 1, isto é: f ( x) dx = 1
Função de Distribuição Acumulada da variável aleatória contínua : É definida como: F(x) = P( x)
= f ( x) dx x Esperança de uma variável aleatória contínua : É definida como E() = xf ( x) dx
DISTRIBUIÇÕES CONTÍNUAS Distribuição Uniforme: Uma variável aleatória tem distribuição
uniforme contínua no intervalo [a,b], a < b, se sua função de densidade de probabilidade for
dada por: 1 a x b b a f ( x) = 0 caso contrário Notação: ~U[a,b] Distribuição Exponencial: Uma
variável aleatória contínua, assumindo valores não negativos, segue o modelo exponencial com
parâmetro λ > 0 se é igual à distância entre contagens sucessivas de um Estatística -
Definições Adicionais Profª Raquel Cymrot 5

6 processo de Poisson, com média λ >0. A função densidade de probabilidade de é f(x) =λe λx
para x 0. Notação: ~EP(λ) Esta distribuição é muito utilizada na teoria de filas, para medir o
tempo decorrido entre duas chegadas. λ é o tempo médio de chegadas por unidade de tempo.
A característica de permitir a translação da origem no cálculo de probabilidades é conhecida
como falta de memória. A distribuição exponencial é a única distribuição contínua com essa
característica. Distribuição Normal: Dizemos que uma variável aleatória contínua tem
distribuição Normal com parâmetros µ e σ, se sua função densidade for dada por: 1 ( x µ ) σ f
( x) = e para < x < π σ Notação: ~ N(µ, σ ) µ é a média da distribuição e σ é o desvio padrão da
distribuição e é igual a distância do ponto de inflexão da curva até a média µ. Teorema do
Limite Central: Se tem qualquer distribuição com média µ e variância σ, então para n grande (n
30) tem-se: σ ~ N µ ; n Se ~ N(µ ; σ σ ), então para qualquer n tem-se: ~ N µ ; n Se 1 ~ N (µ 1 ;
σ 1 ) e ~ N (µ ; σ ) sendo 1 e variáveis aleatórias independentes e se Y = a + b b então: Y ~ N(a
+ b 1 µ 1 + b µ ; b 1 σ 1 + b σ ) Se 1,,..., n são variáveis aleatórias independentes com i ~ N(µ ;
σ ) e S = n, então: S ~ N (nµ ; nσ ) AMOSTRAGEM População é o conjunto de todos os
elementos sobre os quais se está a procura de informações. Amostra é qualquer subconjunto
da população. Amostragem Casual Simples: É um processo de seleção em que cada elemento
da população tem igual probabilidade de pertencer à amostra. Todos os elementos da
população devem ser listados e numerados a fim de se sortear os elementos que farão parte
da amostra. Amostragem Sistemática: Consiste em selecionar uma amostra a partir de uma
listagem de todos os elementos da população, obedecendo a intervalos regulares. Estatística -
Definições Adicionais Profª Raquel Cymrot 6

7 Amostragem Estratificada: Suponhamos que uma população esteja dividida em sub-


populações, denominadas estratos, e que de cada estrato retiramos uma amostra casual
simples proporcional ao seu tamanho. Denominamos de amostra estratificada a amostra obtida
através da reunião das amostras retiradas dos estratos. Amostragem por Conglomerados: Um
conglomerado é um conjunto de elementos amostrais que por razões de ordem prática ou
econômica, tem que ser considerado como uma única unidade. A amostragem por
conglomerados é a obtenção de uma amostra casual simples de conglomerados. ESTIMAÇÃO
DE PARÂMETROS Parâmetros: São as quantidades da população, em geral desconhecidas e
sobre as quais temos interesse. Notação: Em geral uso de letras gregas. Estimador: É a
combinação dos elementos da amostra, construída com a finalidade de representar ou estimar
um parâmetro de interesse na população. Notação: Em geral uso das letras gregas com acento
circunflexo. Estimador Não Viciado ou Não Tendencioso: É um estimador que não tende a
superestimar ou subestimar o valor do parâmetro, isto é, seu valor esperado coincide com o
parâmetro de interesse. Estimador Consistente: É um estimador que à medida que o tamanho
da amostra aumenta, seu valor esperado converge para o parâmetro de interesse e sua
variância converge para zero. Dados dois estimadores ˆ θ 1 e ˆ θ não viciados para um
parâmetro θ, dizemos que ˆ θ 1 é mais eficiente que ˆ θ se V( ˆ θ 1 ) < V( ˆ θ ). Estimativa por
Ponto: Consiste em uma única estatística amostral que é utilizada para calcular o valor real de
um parâmetro da população. Estimativa por Intervalo: Leva em conta a distribuição das
amostras da estimativa pontual. O intervalo construído terá uma determinada confiança ou
probabilidade de estar estimando corretamente o valor real do parâmetro da população. É
usual se referir a semi-amplitude do intervalo como erro envolvido na estimação. O número
tabelado é obtido utilizando-se a tabela da distribuição de probabilidades da estimativa pontual,
levando em conta a confiança desejada no intervalo e o tamanho da amostra quando
pertinente. A única forma de se diminuir o tamanho do intervalo de confiança sem alterar a
confiança utilizada é aumentando o tamanho da amostra. O dimensionamento da amostra deve
levar em conta o tamanho do erro do intervalo de confiança que se deseja obter. TESTES DE
HIPÓTESES Hipótese estatística: É a afirmação sobre um parâmetro ou forma de uma
distribuição de valores observados. Estatística - Definições Adicionais Profª Raquel Cymrot 7

8 Teste de uma hipótese estatística: É um procedimento que nos permite decidir com base em
informações experimentais pela rejeição ou não rejeição de uma hipótese estatística. Hipótese
nula (H 0 ): É a hipótese que é sempre testada e sempre contém um sinal de igualdade com
relação ao valor do parâmetro especificado. Quando não rejeitamos a hipótese nula, só
podemos concluir que não existem evidências suficientes para garantir a sua rejeição.
Denomina-se Região Crítica (R.C.) de um teste aos possíveis valores da estimativa que levam
a rejeição da hipótese a ser testada (H 0 ). Valor Crítico: É o valor da estatística a partir do qual
rejeitamos a hipótese a ser testada. Erro Tipo I: Ocorre se a hipótese nula H 0 for rejeitada
quando de fato é verdadeira e não deveria ser rejeitada. Nível de Significância α: É a
probabilidade de cometermos o erro tipo I. Erro Tipo II: Ocorre se a hipótese nula H 0 não for
rejeitada quando de fato é falsa e deveria ser rejeitada. β: É a probabilidade de cometermos o
erro tipo II. Poder do teste ou eficácia do teste: É igual a (1 β), isto é, é a probabilidade de se
rejeitar a hipótese nula quando ela é de fato falsa e deveria ser rejeitada. Vemos que
diminuindo α, aumenta-se β e vice-versa. É impossível zerar os dois tipos de erro. A única
forma de diminuirmos α e β ao mesmo tempo é aumentando o tamanho da amostra. Nível
Descritivo do teste p: É a probabilidade de se obter uma estatística de teste igual ou mais
extrema que o resultado, a partir dos dados da amostra, dado que a hipótese nula H 0, seja
realmente verdadeira. Estatística - Definições Adicionais Profª Raquel Cymrot 8

Espaço amostral
Espaço amostral é o conjunto que possui todos os pontos
amostrais de um evento aleatório. Sendo assim, o espaço
amostral referente ao experimento “lançar uma moeda” é formado
por cara e coroa.
O espaço amostral também é comumente chamado de universo.
Além disso, como se trata de um conjunto, qualquer notação de
conjuntos pode representá-lo.
Dessa maneira, o espaço amostral, seus subconjuntos e
as operações que o envolvem herdam as propriedades e operações
dos conjuntos numéricos. Dessa maneira, podemos dizer que os
possíveis resultados do lançamento de duas moedas são:
S = {(x,y) naturais | x < 7 e y < 7}

Nesse caso, S representa o conjunto de pares ordenados formados


pelos resultados dos dois dados. O número de elementos de um espaço
amostral é representado da seguinte maneira: Dado o espaço
amostral Ω, o número de elementos de Ω é n(Ω).
Evento
Um evento é qualquer subconjunto de um espaço amostral. Sendo
assim, os eventos são formados por pontos amostrais. Um exemplo
de evento é o seguinte: no lançamento de dois dados, somente
números ímpares devem aparecer.
O subconjunto que representa esse evento possui os seguintes pontos
amostrais:
(1, 1)

(3, 3)

(5, 5)

Eles são os possíveis resultados do lançamento de dois dados com


resultados ímpares simultaneamente.
Não pare agora... Tem mais depois da publicidade ;)
O número de elementos de um evento é representado da seguinte
maneira: Dado o evento A, o número de elementos de A é n(A).

Além disso, um evento é chamado de evento simples quando ele


possui apenas um elemento, isto é, quando o evento é igual a apenas
um ponto amostral. Em outras palavras, evento simples representa um
resultado único. Um evento certo é igual ao espaço amostral, por isso,
a probabilidade de que um evento certo ocorra é a maior de todas:
100% de chances. Por outro lado, quando o evento é igual ao conjunto
vazio, ou seja, não possui nenhum ponto amostral, ele é chamado
de evento impossível.

O que é um diagrama de Venn?


Um Diagrama de Venn usa círculos sobrepostos ou outras formas para ilustrar as
relações lógicas entre dois ou mais conjuntos de itens. Muitas vezes, eles servem para
organizar graficamente as coisas, destacando como os itens são semelhantes e
diferentes. Os Diagramas de Venn, também chamados de Diagramas de Conjuntos ou
Diagramas Lógicos, são amplamente usados em matemática, estatística, lógica, ensino,
idiomas, ciência da computação e negócios. O primeiro contato de muitas pessoas com
eles acontece na escola ao estudar matemática ou lógica, uma vez que os Diagramas de
Venn se tornaram parte da "nova grade de matemática" na década de 1960. Eles podem
ser simples diagramas envolvendo dois ou três conjuntos de alguns elementos, ou
podem ser bastante sofisticados, incluindo apresentações em 3D, à medida que avançam
para seis ou sete conjuntos e além. Eles são usados para refletir e descrever como os
itens se relacionam uns com os outros dentro de um "universo" ou segmento específico.
Os Diagramas de Venn permitem que os usuários visualizem dados de maneiras claras e
poderosas, e, consequentemente, são usados geralmente em apresentações e relatórios.
Eles estão intimamente relacionados aos Diagramas de Euler, que se distinguem por
omitir os conjuntos se não houver itens neles. Os Diagramas de Venn mostram as
relações mesmo que o conjunto esteja vazio.

Histórico
Os Diagramas de Venn são nomeados em homenagem ao lógico britânico John Venn.
Ele escreveu sobre os diagramas em um artigo de 1880 intitulado "Sobre a
Representação Diagramática e Mecânica de Proposições e Raciocínios" na
Philosophical Magazine e Journal of Science.
Mas as raízes deste tipo de diagrama remontam há muito mais tempo, pelo menos 600
anos. Em meados de 1200, o filósofo e lógico Ramon Llull (às vezes soletrado Lull) de
Maiorca usou um tipo semelhante de diagrama, escreveu a autora M.E. Baron em um
artigo de 1969 que traçava a sua história. Ela também creditou o matemático e filósofo
alemão Gottfried Wilhelm von Leibniz por desenhar diagramas semelhantes no final de
1600.

Em meados de 1700, o matemático suíço Leonard Euler (pronunciado Oy-ler) inventou


o que veio a ser conhecido como o Diagrama de Euler, o precursor mais direto do
Diagrama de Venn. Na verdade, John Venn se referia a seus próprios diagramas como
Círculos Eulerianos, e não como Diagramas de Venn. O termo Diagramas de Venn foi
publicado pela primeira vez pelo filósofo americano Clarence Irving (C.I.) Lewis em
seu livro de 1918, Uma Pesquisa da Lógica Simbólica.

Os Diagramas de Venn continuaram a evoluir ao longo dos últimos 60 anos com


avanços dos especialistas David W. Henderson, Peter Hamburger, Jerrold Griggs,
Charles E. "Chip" Killian e Carla D. Savage. Seu trabalho dizia respeito a Diagramas
de Venn simétricos e sua relação com números primos, ou números indivisíveis por
outros números, exceto 1 e o próprio número. Um desses diagramas simétricos,
baseado no número primo 7, é amplamente conhecido nos círculos matemáticos como
Victoria.

Outros nomes notáveis no desenvolvimento de Diagramas de Venn são A.W.F.


Edwards, Branko Grunbaum e Henry John Stephen Smith. Entre outras coisas, eles
mudaram as formas nos diagramas para permitir uma representação mais simples dos
Diagramas de Venn em cada vez mais conjuntos.

Um simples exemplo
Digamos que nosso universo é animais de estimação, e queremos comparar com qual
tipo de animal de estimação nossa família pode concordar.

O conjunto A contém minhas preferências: cão, pássaro, hamster.

O conjunto B contém preferências do membro B da família: cão, gato, peixe.


O conjunto C contém as preferências do membro C da família: cão, gato, tartaruga,
cobra.

A sobreposição, ou interseção, dos três conjuntos contém apenas cão. Parece que vamos
comprar um cão.

Naturalmente, os Diagramas de Venn podem se tornar muito mais envolventes do que


isso, pois são usados extensivamente em vários campos.

Propósito e benefícios
 Organizar visualmente as informações para ver a relação entre conjuntos de
itens, como pontos comuns e diferenças. Estudantes e profissionais podem usá-
los para pensar sobre a lógica por trás de um conceito e descrever as relações
para comunicação visual. Este objetivo pode variar de elementar a altamente
avançado.
 Comparar duas ou mais escolhas e ver claramente o que elas têm em comum e
o que elas têm de diferente. Isso pode ser feito para escolher um produto ou
serviço importante para comprar.
 Resolver problemas matemáticos complexos.Presumindo que você seja um
matemático, é claro.
 Comparar conjuntos de dados, encontrar correlações e prever probabilidades
de certas ocorrências.
 Entender a lógica por trás de declarações ou equações, como a lógica booleana
por trás de uma pesquisa de palavras envolvendo declarações "ou" e "e" e como
elas são agrupadas.

Diagramar é rápido e fácil com o Lucidchart. Faça uma avaliação gratuita hoje mesmo
para começar a criar e colaborar.

Usos em diferentes segmentos


 Matemática: os Diagramas de Venn são muito usados na escola para ensinar
conceitos matemáticos básicos, como conjuntos, uniões e interseções. Eles
também são usados em matemática avançada para resolver problemas
complexos e foram mencionados extensivamente em revistas acadêmicas. A
teoria de conjuntos representa um ramo inteiro da matemática.
 Estatísticas e probabilidade: especialistas em estatística usam o Diagramas de
Venn para prever a probabilidade de certas ocorrências. Isso está relacionado ao
campo da análise preditiva. Diferentes conjuntos de dados podem ser
comparados para encontrar graus de comunalidade e diferenças.
 Lógica: os Diagramas de Venn são usados para determinar a validade de
argumentos e conclusões específicos. No raciocínio dedutivo, se as premissas
forem verdadeiras e a forma do argumento estiver correta, então a conclusão
deve ser verdadeira. Por exemplo, se todos os cães são animais, e nosso mascote
Mojo é um cão, então Mojo tem que ser um animal. Se atribuirmos variáveis,
digamos que os cães são C, os animais são A e Mojo é B. Em forma de
argumento, dizemos: todos os C são A. B é C. Portanto, B é A. Um diagrama
relacionado em lógica é chamado de Tabela da Verdade, que coloca as variáveis
em colunas para determinar o que é logicamente válido. Outro diagrama
relacionado é chamado de Diagrama de Randolph, ou Diagrama R, em
homenagem ao matemático John F. Randolph. Ele usa linhas para definir
conjuntos.
 Linguístico: os Diagramas de Venn foram usados para estudar as semelhanças e
diferenças entre os idiomas.
 Ensino da compreensão de leitura: os professores podem usar Diagramas de
Venn para melhorar a compreensão de leitura de seus estudantes. Os estudantes
podem desenhar diagramas para comparar e contrastar ideias sobre as quais
estão lendo.
 Ciência da computação: os programadores podem usar Diagramas de Venn
para visualizar linguagens de computador e hierarquias.
 Negócios: os Diagramas de Venn podem ser usados para comparar e contrastar
produtos, serviços, processos ou praticamente qualquer coisa que pode ser
representada em conjuntos. Eles são uma ferramenta de comunicação eficaz para
ilustrar essa comparação.

Glossário do diagrama de Venn

Uma coleção de coisas. Dada a versatilidade dos


Diagramas de Venn, as coisas podem realmente ser
Conjunto
qualquer coisa. As coisas podem ser chamadas de
itens, objetos, membros ou termos similares.

União Todos os itens nos conjuntos.

Os itens que se sobrepõem nos conjuntos. Às vezes é


Interseção
chamada de subconjunto.

Diferença
simétrica de dois Tudo, exceto a interseção.
conjuntos

Complemento
Tudo que não está no conjunto.
absoluto

Complemento
Em um conjunto, mas não no outro.
relativo

Diagrama de Também chamado de Área Proporcional. Os círculos


Venn (ou outras formas) são dimensionados pela
dimensionado representação proporcional do todo.
Triângulo Forma composta pela interseção de três circulares ou
Reuleaux formas, como em um Diagrama de Venn.

Os conceitos ilustrados nos Diagramas de Venn são


expressos com notações matemáticas, como aquelas
Notações de que representam conjuntos e subconjuntos (entre
conjuntos parênteses), uniões (com um símbolo em forma de U)
e interseções (com um símbolo em forma de U
invertido).

Teoria dos O duradouro ramo da matemática que lida com


conjuntos conjuntos.

Mudando de assunto: os diagramas de Venn chegam à


telinha
Não são muitos os diagramas que atravessaram a barreira para a cultura popular, mas o
famoso Diagrama de Venn conseguiu.

 Drama: no programa de TV NUMB3RS da CBS, produzido de 2005 a 2010, o


gênio da matemática Charles Eppes usa um Diagrama de Venn para determinar
quais suspeitos correspondem a uma descrição e têm um histórico de violência.
 Comédia: no Late Night da NBC com Seth Meyers, o comediante tem uma
rotina recorrente chamada de "Diagramas de Venn", onde ele compara dois itens
aparentemente não relacionados para encontrar suas semelhanças engraçadas (é
o que ele espera.)

Passos para desenhar e usar um diagrama de Venn


básico
1. Determine seu objetivo. O que você está comparando, e por quê? Isso lhe ajudará a
definir os conjuntos.
2. Discuta e liste os itens em seus conjuntos, seja em papel ou com uma plataforma,
como o Lucidchart.
3. Agora, use o diagrama para comparar e contrastar os conjuntos. Você pode ver as
coisas de novas maneiras e ser capaz de fazer observações, escolhas, justificativas ou
decisões.

Recursos úteis

Com o nosso software intuitivo, o Lucidchart permite criar diagramas de Venn


profissionais. Como toda a edição é feita na nuvem, é fácil colaborar com colegas em
um diagrama de Venn. Você também pode importar imagens e compartilhar seu
diagrama digitalmente ou por impressão.

Quer criar seu próprio diagrama de Venn? Experimente o Lucidchart. É rápido, fácil e
completamente gratuito.

Você também pode gostar