sábado, 23 de abril de 2011
teorema central del limite(aplicada ala media muestral)
Si es la media de una muestra aleatoria de tamaño n que se toma de una
población con cualquier distribución (oblicua a la derecha, oblicua a la
izquierda, con forma de tina, etc...), cuya media es µ y varianza finita σ2
,
entonces la forma límite de la distribución de:
conforme n → ∞, es la distribución normal estándar N (0,1).
¿Cómo de grande debe ser la muestra para que la aproximación sea
buena, empleando este procedimiento?
Esta aproximación normal para generalmente será buena si n ≥ 30 sin
importar la forma de la población. Si la población es simétrica, es posible
obtener una buena aproximación con una n ≥ 10. Si se sabe que la
población es normal, la distribución muestral de seguirá exactamente una
distribución normal, sin importar el tamaño de la muestra
población con cualquier distribución (oblicua a la derecha, oblicua a la
izquierda, con forma de tina, etc...), cuya media es µ y varianza finita σ2
,
entonces la forma límite de la distribución de:
conforme n → ∞, es la distribución normal estándar N (0,1).
¿Cómo de grande debe ser la muestra para que la aproximación sea
buena, empleando este procedimiento?
Esta aproximación normal para generalmente será buena si n ≥ 30 sin
importar la forma de la población. Si la población es simétrica, es posible
obtener una buena aproximación con una n ≥ 10. Si se sabe que la
población es normal, la distribución muestral de seguirá exactamente una
distribución normal, sin importar el tamaño de la muestra
distribuciones del muestreo en diferencias de sumas
Supongamos que estamos interesados en estudiar dos poblaciones. Para
cada muestra de tamaño n
1
de la primera, calculamos un estadístico T1
; eso
da una distribución de muestreo para T1
, cuya media y desviación típica
denotaremos por E[T1
] y σT1
Del mismo modo, para una muestra de .
tamaño n
2
de la segunda, calculamos un estadístico T2
; eso da una
distribución de muestreo para T2
cuya media y desviación típica
denotaremos por E[T2
] y σT2
.
De todas las posibles combinaciones de estas muestras de las dos
poblaciones podemos obtener una distribución de las diferencias T1
- T2
, que
se llama Distribucion de muestreo de diferencias de los estadisticos. La media
(esperanza) y la desviación típica de esta distribución de muestreo,
denotadas respectivamente por E(T1
- T2
) y σ(T1 - T2),
vienen dadas por:
supuesto que las muestras escogidas no dependen en absoluto una de otra
(sean independientes).
cada muestra de tamaño n
1
de la primera, calculamos un estadístico T1
; eso
da una distribución de muestreo para T1
, cuya media y desviación típica
denotaremos por E[T1
] y σT1
Del mismo modo, para una muestra de .
tamaño n
2
de la segunda, calculamos un estadístico T2
; eso da una
distribución de muestreo para T2
cuya media y desviación típica
denotaremos por E[T2
] y σT2
.
De todas las posibles combinaciones de estas muestras de las dos
poblaciones podemos obtener una distribución de las diferencias T1
- T2
, que
se llama Distribucion de muestreo de diferencias de los estadisticos. La media
(esperanza) y la desviación típica de esta distribución de muestreo,
denotadas respectivamente por E(T1
- T2
) y σ(T1 - T2),
vienen dadas por:
supuesto que las muestras escogidas no dependen en absoluto una de otra
(sean independientes).
algunas formulas de probabilidad y estadistica
n = z² p q
b²
n= (z)² N (p) (q) ____
(e) ² N + [(z)² (p) (q)]
n = (z)² N (p) (q) ____
(e) ² (N-1) + [(z)² (p) (q)]
Media muestral= x1 + x2+ x3… +x n
n
R = XM – X m +UM
IC = R_
N c
I C= R______
1+ 3.322 (Log N)
R = X M – X m + 1
MC= L I A+ L S A
2
FI= n1
n
N1 = n1
N2 = n1+ n2
N n = n1 + n2 + … + nn-1 + n n = n
distribucion de l muestreo proporcionales
Supongamos que una población es infinita y que la probabilidad de
ocurrencia de un suceso (su éxito) es p, mientras que la probabilidad de que
no ocurra es q=1-p. (Por ejemplo todas las posibles tiradas de una moneda,
en la que la probabilidad de cara es p=1/2). Esta población sigue una
distribución de Bernoulli. Queremos estimar la proporción de éxitos
poblacional (proporción de caras que han salido en todas las tiradas
posibles). Para ello consideramos todas las posibles muestras de tamaño n
de tal población, y para cada una de ellas determinamos la proporción
muestral de éxitos , que viene dada por:
donde cada Xi
se distribuye como una Bernoulli(p).
X = nº de éxitos en n intentos, por lo que X ∈ B(n,p), cuya media sería n.p, y
desviación típica sería npq
ocurrencia de un suceso (su éxito) es p, mientras que la probabilidad de que
no ocurra es q=1-p. (Por ejemplo todas las posibles tiradas de una moneda,
en la que la probabilidad de cara es p=1/2). Esta población sigue una
distribución de Bernoulli. Queremos estimar la proporción de éxitos
poblacional (proporción de caras que han salido en todas las tiradas
posibles). Para ello consideramos todas las posibles muestras de tamaño n
de tal población, y para cada una de ellas determinamos la proporción
muestral de éxitos , que viene dada por:
donde cada Xi
se distribuye como una Bernoulli(p).
X = nº de éxitos en n intentos, por lo que X ∈ B(n,p), cuya media sería n.p, y
desviación típica sería npq
algo para que no se te olvide (recuerda la mejor forma es practicarlo
El CI de los alumnos de un centro especial de se distribuye
normalmente con media 80 y desviación típica 10. Si extraemos una
muestra aleatoria simple de 25 alumnos:
a) Si se extrae un sujeto al azar, ¿Cuál es la probabilidad de que
obtenga como mínimo una puntuación en CI de 75?
b) ¿Cuál es la probabilidad de que su media aritmética sea mayor
de 75?
c) ¿Cuál es la probabilidad de que su media aritmética sea como
máximo 83?
d) ¿Qué valor debería tomar la media aritmética para que la
probabilidad de obtenerlo en esa muestra sea como máximo
0,85?
normalmente con media 80 y desviación típica 10. Si extraemos una
muestra aleatoria simple de 25 alumnos:
a) Si se extrae un sujeto al azar, ¿Cuál es la probabilidad de que
obtenga como mínimo una puntuación en CI de 75?
b) ¿Cuál es la probabilidad de que su media aritmética sea mayor
de 75?
c) ¿Cuál es la probabilidad de que su media aritmética sea como
máximo 83?
d) ¿Qué valor debería tomar la media aritmética para que la
probabilidad de obtenerlo en esa muestra sea como máximo
0,85?
formas de distribucion de muestreo
Si la variable original sigue una distribución Normal, la media muestral
sigue también una distribución Normal
Si la variable original sigue una distribución cualquiera, pero el tamaño de
la muestra es suficientemente grande (≥ 30), dado que la media muestral es
igual a la suma de variables independientes de igual media y varianza,
aplicando el Teorema Central del Límite (que veremos a a continuación),
podemos decir que el estadístico media muestral se distribuye también
según una Normal, como antes.
sigue también una distribución Normal
Si la variable original sigue una distribución cualquiera, pero el tamaño de
la muestra es suficientemente grande (≥ 30), dado que la media muestral es
igual a la suma de variables independientes de igual media y varianza,
aplicando el Teorema Central del Límite (que veremos a a continuación),
podemos decir que el estadístico media muestral se distribuye también
según una Normal, como antes.
distribucion de la media muestral
Esta estadística tiene un papel muy importante en problemas de toma de
decisiones para medias poblacionales desconocidas.
Supóngase que se toma una muestra aleatoria de n observaciones de una
población (con cualquier distribución) con media µ y con varianza finita σ2
.
Cada observación Xi
: i=1, 2, ..., n, de la muestra aleatoria constituye una
variable aleatoria independiente, con la misma distribución que la
población que está siendo muestreada. (E[Xi
] = µ; V(Xi
) = σ2
). Entonces, la
estadística:
se define como la media de las n v.a.i.i.d. o, sencillamente, media muestral.
Nótese que una vez que se conocen las realizaciones x
1
, x
2
, ..., x
n
de X1
, X2
,... ,
Xn
, respectivamente, la realización de se obtiene promediando los datos
muestrales.
decisiones para medias poblacionales desconocidas.
Supóngase que se toma una muestra aleatoria de n observaciones de una
población (con cualquier distribución) con media µ y con varianza finita σ2
.
Cada observación Xi
: i=1, 2, ..., n, de la muestra aleatoria constituye una
variable aleatoria independiente, con la misma distribución que la
población que está siendo muestreada. (E[Xi
] = µ; V(Xi
) = σ2
). Entonces, la
estadística:
se define como la media de las n v.a.i.i.d. o, sencillamente, media muestral.
Nótese que una vez que se conocen las realizaciones x
1
, x
2
, ..., x
n
de X1
, X2
,... ,
Xn
, respectivamente, la realización de se obtiene promediando los datos
muestrales.
parametros
Nosotros supondremos a partir de ahora que utilizamos siempre el muestreo
aleatorio simple:
Para seleccionar una muestra aleatoria simple de tamaño n de una población
que sigue una distribución f(x), se utilizará cualquier mecanismo de azar
(lanzar una moneda, sacar bolas numeradas, …) n veces, de forma
independiente y se define una variable aleatoria Xi
: i=1,2,...,n, que representa
la medición o valor muestral iésimo que se observe. Las variables aleatorias
X1
, X2
, ..., Xn
(o la variable aleatoria multidimensional (X1
,X2
,...Xn
,((
constituirán entonces una muestra aleatoria simple de la población f(x) con
valores numéricos x
1
, x
2
, ..., x
n
Debido a las condiciones idénticas bajo las cuales se seleccionan los
elementos de la muestra, es razonable suponer que las n variables aleatorias
X1
, X2
, ..., Xn
son independientes, y que cada una tiene la misma distribución
de probabilidad f(x). Esto es, las distribuciones de probabilidad de X1
, X2
,... ,
Xn
son, respectivamente, f(x
1
), f(x
2
), ..., f(x
n
) y su distribución de
probabilidad conjunta es: f(X1
,X2
, ... Xn
) = f(X1
).f(X2
)....f(Xn
aleatorio simple:
Para seleccionar una muestra aleatoria simple de tamaño n de una población
que sigue una distribución f(x), se utilizará cualquier mecanismo de azar
(lanzar una moneda, sacar bolas numeradas, …) n veces, de forma
independiente y se define una variable aleatoria Xi
: i=1,2,...,n, que representa
la medición o valor muestral iésimo que se observe. Las variables aleatorias
X1
, X2
, ..., Xn
(o la variable aleatoria multidimensional (X1
,X2
,...Xn
,((
constituirán entonces una muestra aleatoria simple de la población f(x) con
valores numéricos x
1
, x
2
, ..., x
n
Debido a las condiciones idénticas bajo las cuales se seleccionan los
elementos de la muestra, es razonable suponer que las n variables aleatorias
X1
, X2
, ..., Xn
son independientes, y que cada una tiene la misma distribución
de probabilidad f(x). Esto es, las distribuciones de probabilidad de X1
, X2
,... ,
Xn
son, respectivamente, f(x
1
), f(x
2
), ..., f(x
n
) y su distribución de
probabilidad conjunta es: f(X1
,X2
, ... Xn
) = f(X1
).f(X2
)....f(Xn
nocion y tipos de muestras
Nosotros supondremos a partir de ahora que utilizamos siempre el muestreo
aleatorio simple:
Para seleccionar una muestra aleatoria simple de tamaño n de una población
que sigue una distribución f(x), se utilizará cualquier mecanismo de azar
(lanzar una moneda, sacar bolas numeradas, …) n veces, de forma
independiente y se define una variable aleatoria Xi
: i=1,2,...,n, que representa
la medición o valor muestral iésimo que se observe. Las variables aleatorias
X1
, X2
, ..., Xn
(o la variable aleatoria multidimensional (X1
,X2
,...Xn
,((
constituirán entonces una muestra aleatoria simple de la población f(x) con
valores numéricos x
1
, x
2
, ..., x
n
Debido a las condiciones idénticas bajo las cuales se seleccionan los
elementos de la muestra, es razonable suponer que las n variables aleatorias
X1
, X2
, ..., Xn
son independientes, y que cada una tiene la misma distribución
de probabilidad f(x). Esto es, las distribuciones de probabilidad de X1
, X2
,... ,
Xn
son, respectivamente, f(x
1
), f(x
2
), ..., f(x
n
) y su distribución de
probabilidad conjunta es: f(X1
,X2
, ... Xn
) = f(X1
).f(X2
)....f(Xn
aleatorio simple:
Para seleccionar una muestra aleatoria simple de tamaño n de una población
que sigue una distribución f(x), se utilizará cualquier mecanismo de azar
(lanzar una moneda, sacar bolas numeradas, …) n veces, de forma
independiente y se define una variable aleatoria Xi
: i=1,2,...,n, que representa
la medición o valor muestral iésimo que se observe. Las variables aleatorias
X1
, X2
, ..., Xn
(o la variable aleatoria multidimensional (X1
,X2
,...Xn
,((
constituirán entonces una muestra aleatoria simple de la población f(x) con
valores numéricos x
1
, x
2
, ..., x
n
Debido a las condiciones idénticas bajo las cuales se seleccionan los
elementos de la muestra, es razonable suponer que las n variables aleatorias
X1
, X2
, ..., Xn
son independientes, y que cada una tiene la misma distribución
de probabilidad f(x). Esto es, las distribuciones de probabilidad de X1
, X2
,... ,
Xn
son, respectivamente, f(x
1
), f(x
2
), ..., f(x
n
) y su distribución de
probabilidad conjunta es: f(X1
,X2
, ... Xn
) = f(X1
).f(X2
)....f(Xn
analizando
Los análisis estadísticos que se realizan en el mundo real tienen como
objetivo estudiar las propiedades características de las poblaciones (cuyos
individuos pueden ser personas, animales o cosas).
Pero estudiar todos los individuos de la población supone:
• Elevados costes económicos
• Mucho tiempo de trabajo
• Errores de medición
• En algunos casos, la destrucción del elemento objeto del estudio (vida
media de un motor, tiempo de duración de determinado tipo de
cubiertas de automóvil,…)
Se recurre entonces a considerar conjuntos de elementos representativos de
dicha población, llamadas muestras, cuyas propiedades nos permiten
inducir las propiedades que nos interesan de la población.
El estudio de poblaciones mediante muestras adecuadas tomadas de ellas
constituye la llamada Inferencia Estadística, Estadística Inductiva, Teoría de
la Estimación o Teoría de Muestras
objetivo estudiar las propiedades características de las poblaciones (cuyos
individuos pueden ser personas, animales o cosas).
Pero estudiar todos los individuos de la población supone:
• Elevados costes económicos
• Mucho tiempo de trabajo
• Errores de medición
• En algunos casos, la destrucción del elemento objeto del estudio (vida
media de un motor, tiempo de duración de determinado tipo de
cubiertas de automóvil,…)
Se recurre entonces a considerar conjuntos de elementos representativos de
dicha población, llamadas muestras, cuyas propiedades nos permiten
inducir las propiedades que nos interesan de la población.
El estudio de poblaciones mediante muestras adecuadas tomadas de ellas
constituye la llamada Inferencia Estadística, Estadística Inductiva, Teoría de
la Estimación o Teoría de Muestras
regla de complementacion
Regla de adicion
La probabilidad que que alguno de los dos eventos pertenecientes a un mismo muestral ocurra se determina mediante la siguiente ecuación :
P(AUB)=P(A)+P(B)-P(AᶇB)
EJEMPLO si el experimento es lanzar un dado ala vez ,el espacio muestral es S={1,2,3,4,5,6}
Si el evento a es cae en un numero par A={2,4,6}
Si el evento B es cae en un numero menor de 3:B{1,2}¿Cuál será la probabilidad de que suceda alguno de estos eventos ?
¿Cuál será la probabilidad de que suceda alguno de estos eventos ?
La probabilidad de A y la probabilidad de B es :
P(A)=3/6=0.50 p(B)=2/6=0.33
Para aplicar este teorema es necesario conocer la probabilidad de la intercecion de estos dos eventos si se quiere conocer la probsbilidad de la unión, para calcular la probabilidad de la intersección
En este caso queremos sabr la uniión entonces es necesario conocer la interceccion que es “numero par y menor de 3”
AUB={2},ENTONCES
P(Aṇ
REGLA DE COMPLEMENTACION
La probabilidad de que el complemento de un evento ocurra esta dada por la siguiente ecuación:
P(Ā)=1-P(A)
SI A es cae un seis ,entonces la probabilidad de que no caiga seis es:
P(Ā)=1-0.16=0.84
Reglas de diferenciación:
La probabilidad de que un evento dado curra pero no ocurra otro evento dado pertenecientes al mismo espacio muestral esta dada por :
P(A-B)=P(A)-P(A
Tipos de distribuciones de probabilidad
Las distribuciones de probabilidad se clasifican como continuas y discretas. En la distribución de probabilidad discreta está permitido tomar sólo un número limitado de valores.
En una distribución de probabilidad continua, la variable que se está considerando puede tomar cualquier valor dentro de un intervalo dado.
Las distribuciones continuas son una forma conveniente de presentar distribuciones discretas que tienen muchos resultados posibles, todos muy cercanos entre sí.
Variables aleatorias.
Valor esperado de una variable aleatoria.
Se puede pensar en una variable aleatoria como un valor o una magnitud que cambia de una presentación a otra, sin seguir una secuencia predecible. Los valores de una variable aleatoria son los valores numéricos correspondientes a cada posible resultado de un experimento aleatorio.
La distribución de probabilidad de una variable aleatoria proporciona una probabilidad para cada valor posible, y estas probabilidades deben sumar 1.
Valor esperado de una variable aleatoria….
El valor esperado es una idea fundamental en el estudio de las distribuciones de probabilidad.
Para obtener el valor esperado de una variable aleatoria discreta, se multiplica cada valor que la variable puede tomar por la probabilidad de presentación de ese valor y luego se suman esos productos. Es un promedio pesado de los resultados que se esperan en el futuro. El valor esperado pesa cada resultado posible con respecto a la frecuencia con que se espera se que presente. En consecuencia, las presentaciones más comunes tienen asignadas un peso mayor que las menos comunes.
miércoles, 6 de abril de 2011
probabilidad y estadistica
La probabilidad mide la frecuencia con la que se obtiene un resultado (o conjunto de resultados) al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la matemática, la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de sistemas complejos.
Regla de la adición
La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia de cualquier evento en particular es igual a la suma de las probabilidades individuales, si es que los eventos son mutuamente excluyentes, es decir, que dos no pueden ocurrir al mismo tiempo.
[editar]Regla de la multiplicación
La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más eventos estadisticamente independientes es igual al producto de sus probabilidades individuales.
[editar]Distribución binomial
La probabilidad de ocurrencia de una combinación específica de eventos independientes y mutuamente excluyentes se determina con la distribución binomial, que es aquella donde hay solo dos posibilidades, tales como masculino/femenino o si/no.
Suscribirse a:
Entradas (Atom)