miércoles, 1 de junio de 2016

EJERCICIOS

Aqui les traigo un pdf
Alberto Luce y Francisco J. Gonzalez el cual tiene muchos ejercicios para resolver sobre variables separables 
 http://personales.unican.es/gonzaleof/Itop/variables.pdf

                                                                 Videos con ejercicios
Si te a gustado la información por favor no olvides darle a like y suscribirte al canal 

Varianza

Varianza

   En teoría de probabilidad, la varianza (que suele representarse como  sigma ^{2} de una variable aleatoria es una medida de dispersión definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media.

   Está medida en la unidad de medida de la variable al cuadrado. Por ejemplo, si la variable mide una distancia en metros, la varianza se expresa en metros al cuadrado. La desviación estándar es la raíz cuadrada de la varianza, es una medida de dispersión alternativa expresada en las mismas unidades de los datos de la variable objeto de estudio. La varianza tiene como valor mínimo 0.

   Hay que tener en cuenta que la varianza puede verse muy influida por los valores atípicos y no se aconseja su uso cuando las distribuciones de las variables aleatorias tienen colas pesadas. En tales casos se recomienda el uso de otras medidas de dispersión más robustas.

                                                            Video relacionado 
       Si te a gustado la información por favor no olvides darle a like y suscribirte al canal 

Esperanza matemática

Esperanza matemática


      En estadística la esperanza matemática (también llamada esperanza, valor esperado, media poblacional o media) de una variable aleatoria X, es el número  {E}[X] que formaliza la idea de valor medio de un fenómeno aleatorio.


    Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra - el valor de la esperanza puede ser improbable o incluso imposible.

Funciones generadoras de momentos

 Funciones generadoras de momentos

Definición

Sea X una variable aleatoria. El valor esperado:
recibe el nombre de función generadora de momentos.

Si X es una variable aleatoria discreta
Si la variable es continua
Puede demostrarse que si la función generadora de momentos existe, entonces es única y determina por completo a la distribución de probabilidad de X. Es decir, si dos variables aleatorias tienen la misma función generatriz de momentos, entonces, las dos variables tienen también la misma distribución de probabilidad.
Por otra parte, si la función generadora de momentos existe, entonces es indefinidamente derivable en t=0. Esto nos asegura que generará todos los momentos, de cualquier orden, de X en cero. En efecto:
Derivando
Para la derivada segunda, se tiene:
En general, siguiendo con el proceso de diferenciación, se obtiene:
El mismo resultado se obtendría si se reemplaza la función exponencial por su desarrollo en serie de potencias alrededor de t=0.
al derivar con respecto a t y calcular sus derivadas en t=0, se llegaría al mismo resultado.

Funciones generadoras de momentos de algunas distribuciones discretas.

·        Binomial
La función de probabilidad de la distribución binomial B(n; p) es
La función generadora de momentos
·        Poisson
La función de probabilidad de una variable aleatoria de Poisson de parámetro λ es:
La función generadora de momentos viene dada por:
·        Binomial negativa
La función de probabilidad de una variable aleatoria binomial negativa de parámetros k y p es:
La función generadora de momentos está dada por

 Funciones generadoras de momentos de algunas distribuciones continuas.

·        Normal
La función de densidad de una variable aleatoria que se distribuye según una normal de parámetros μ y σ está dada por
Empecemos calculando la función generadora de momentos centrales.
En el último termino, la parte de la integral y el factor donde se encuentra la raíz cuadrada constituyen la función de distribución de una variable aleatoria normal de parámetros N (μ+σ2t; σ) extendida a toda la recta real, valiendo, por tanto, 1.
La función generadora de momentos respecto del origen puede obtenerse fácilmente de
·        Uniforme
La función de densidad de una variable aleatoria uniforme está dada por
La función generadora de momentos se obtiene de la manera siguiente:
·        Distribución Gama
La función de densidad de una variable aleatoria X que se distribuye según una gama de parámetros α y θ viene dada por
La función generadora de momentos se obtiene


 
Queda
·        Función exponencial negativa
La función de densidad de una variable aleatoria X que se distribuye según una exponencial negativa de parámetro θ, está dada por
La función generadora de momentos se obtiene
Queda

 Distribución de una función de una variable aleatoria.

Sea X una variable aleatoria continua con función de densidad fX(x). Sea Y=g(X). Supongamos que g es una función inyectiva, creciente y diferenciable, entonces es posible determinar la función de densidad de Y de la manera siguiente:
Diferenciando y aplicando la regla de la cadena:
Si g(x) fuera decreciente, el resultado sería el mismo salvo que la derivada de una función decreciente sería negativa.

Teorema

Sea X una variable aleatoria continua con función de densidad fX(x) y defínase Y=g(X). Si y=g(x); x=g-1(y) son funciones univaluadas, continuas y diferenciables y si y=g(x) es una función monótona, la función de densidad de Y está determinada por
donde
es el Jacobiano de la transformación.
Ejemplo 1
Sea X una variable aleatoria continua con función de densidad f(x;μ,θ,α) donde μ,θ y α son los parámetros de localización, escala y forma, respectivamente. El efecto del parámetro de localización puede notarse mas claramente si se considera la variable aleatoria normalizada Y= (X-μ)/θ el cual no contiene a μ ni a θ. Mediante el empleo del teorema, la función de densidad de Y es:
Despejando x= θy + μ; y dx/dy= θ. Se tiene:
En particular si X es una variable aleatoria gama cuya función de densidad es
La función de densidad de Y=X/θ es:
Despejando x= θy; dx/dy= θ. Por tanto
De manera similar si X es una distribución Weibull con función de densidad de probabilidad de
La función de densidad de Y=X/θ es:
Despejando x= θy; dx/dy= θ. Por tanto
Si no existe parámetro de forma y si μ y θ son la media y la desviación típica de X, entonces la función de densidad de Y dará lugar a una función de densidad libre de parámetros con media cero y desviación típica 1. Un ejemplo de lo anterior lo tenemos con la función de densidad de la distribución normal estandarizada.
Ejemplo 2
Si la variable aleatoria X se encuentra uniformemente distribuida en el intervalo (0; π). Obtener la función de densidad de probabilidad de la función Y=c.sen(X) donde c es una constante positiva cualquiera.
La función de densidad de X es
Despejemos x:
Como sen(x) es creciente para (0, π/2) y decreciente para (π/2, π) se obtiene:
Para el intervalo (0, π/2)
y para el intervalo (π/2, π)
La función de densidad de Y es:
Ejemplo 3
Sea Z una variable aleatoria, N(0; 1), normal con media 0 y desviación típica 1. Demostrar que Y = Z2 es una distribución Chi-cuadrado con un grado de libertad.
La función generadora de momentos de Z2 es:
que como sabemos es la función generadora de momentos de la distribución chi-cuadrado con un grado de libertad.


                                                                     Videos relacionados 
Si te a gustado la información por favor no olvides darle a like y suscribirte al canal 

El percentil

El percentil 


       El percentil es una medida de tendencia central usada en estadística que indica, una vez ordenados los datos de menor a mayor, el valor de la variable por debajo del cual se encuentra un porcentaje dado de observaciones en un grupo de observaciones. Por ejemplo, el percentil 20º es el valor bajo el cual se encuentran el 20 por ciento de las observaciones.

Se representan con la letra P. Para el percentil i-ésimo, donde la i toma valores del 1 al 99. El i % de la muestra son valores menores que él y el 100-i % restante son mayores.

Aparecen citados en la literatura científica por primera vez por Francis Galton en 18851

P25 = Q1.
P50 = Q2 = mediana.
P75 = Q3.
                       
                                  video del tema 
Si te a gustado la información por favor no olvides darle a like y suscribirte al canal 

Mediana y Moda

Mediana y Moda 


Medidas de Ubicación en los Conjuntos de Datos:
    Una medida de ubicación es un valor que se calcula para un grupo de datos y que se utiliza para describir los datos en alguna forma. Generalmente se busca que el valor sea representativo de todos los valores del grupo y por lo tanto se desea un estadístico de tendencia central. Existen diversos estadísticos de tendencia central pero para el alcance del curso estudiaremos cuatro de ellos: La Media Simple, La Media Ponderada, La Mediana y La Moda.
La Media Aritmética: También llamada promedio simple se define matemáticamente como el cociente entre la suma de una serie de valores y el numero de valores de la serie.
X =ðXi/N. Siendo N el numero de datos. Este estadístico nos permite conocer el valor alrededor del cual se presentan los valores de una serie.
Para datos agrupados en distribuciones de frecuencia se utiliza el punto medio de cada clase para el calculo de la media aritmética. La cual se obtiene a través de esta expresión.
X= ð(FiXi)/ðFi, en donde Xi es el punto medio de clase y Fi es la frecuencia absoluta de cada clase. En este caso se puede decir que ðFi = N, siendo N el numero de datos.
La Media Ponderada: También conocido como promedio ponderado es una media aritmética en la cual cada valor se pondera de acuerdo a su importancia en le grupo total. Esta importancia se determina a través de un valor “k ” que puede estar sujeto a consideraciones subjetivas del investigador. La expresión matemática para el calculo de la media ponderada es: Xp = ð(kiXi)/ðki, siendo ki el valor de ponderación correspondiente al dato Xi.
La Mediana: La mediana de un grupo de valores es el valor del ítem medio cuando todos los ítems del grupo se han dispuestos en orden ascendente o descendente, en términos de valor. Para un grupo con un numero par de elementos se supone que la mediana esta en la posición intermedia entre dos valores adyacentes al medio. Cuando trabajamos con datos agrupados en distribuciones de frecuencia, debemos determinar primero la clase que contiene el valor de la mediana (aquella cuya frecuencia absoluta acumulada iguala o excede a la mitad del numero total de observaciones). Una vez identificada esta clase se proceda a interpolar a través de la formula:
Med = CL + {(N/2-ðfi-1)/fi}I
Siendo CL = frontera inferior de la clase que contiene a la mediana
N = Numero total de datos u observaciones en la distribución de frecuencia
ðfi-1 = Frecuencia acumulada en la clase precedente a la clase que contiene la mediana
fi = Frecuencia absoluta en la clase que contiene la mediana
I = Tamaño del intervalo de clase

La Moda: La moda es el valor que ocurre mas frecuentemente en un conjunto de valores. Dicha distribución se describe como unimodal. Para los conjuntos pequeños de valores en los cuales no se repiten valores medidos, no hay moda. Puede darse el caso de que una distribución de valores tenga mas de una moda. En este caso hablamos de distribuciones multimodales.
    Para los datos agrupados en una distribución de frecuencia, con intervalos de clase iguales, se determina primero la clase modal (aquella que contiene el valor de la moda), identificada con el numero mayor de observaciones (mayor frecuencia absoluta). Después interpolamos a través de la expresión:
Mo = CL + {(d1/(d1+d2)}I
En donde
CL = frontera inferior de la clase que contiene a la moda
d1 = diferencia entre la frecuencia de la clase modal y la frecuencia de la clase precedente
d2 = diferencia entre la frecuencia de la clase modal y la frecuencia de la clase siguiente
I = tamaño del intervalo de clase.

videos informativo del tema 
                                  
Si te a gustado la información por favor no olvides darle a like y suscribirte al canal 

Variables aleatorias discretas y continuas

Variables aleatorias discretas y continuas

Variables aleatorias discretas

 

Distribución uniforme

La distribución uniforme es la que corresponde a una variable que toma todos sus valores, x1, x2... , xk, con igual probabilidad; el espacio muestral debe ser finito.
Si la variable tiene k posibles valores, su función de probabilidad sería:

donde k es el parámetro de la distribución (un parámetro es un valor que sirve para determinar la función de probabilidad o densidad de una variable aleatoria)
La media y la varianza de la variable uniforme se calculan por las expresiones:


             El histograma de la función toma el aspecto de un rectángulo, por ello, a la distribución uniforme se le suele llamar distribución rectangular.



Distribución binomial

           
  La distribución binomial es típica de las variables que proceden de un experimento que cumple las siguientes condiciones:
1)     El experimento está compuesto de n pruebas iguales, siendo n un número natural fijo.
2)     Cada prueba resulta en un suceso que cumple las propiedades de la variable binómica o de Bernouilli, es decir, sólo existen dos posibles resultados, mutuamente excluyentes, que se denominan generalmente como éxito y fracaso.
3)     La probabilidad del ‚éxito (o del fracaso) es constante en todas las pruebas. P(éxito) = p ; P(fracaso) = 1 - p = q
4)     Las pruebas son estadísticamente independientes,
             En estas condiciones, la variable aleatoria X que cuenta el número de ‚éxitos en las n pruebas se llama variable binomial. Evidentemente, el espacio muestral estar compuesto por los números enteros del 0 al n. Se suele decir que una variable binómica cuenta objetos de un tipo determinado en un muestreo de n elementos con reemplazamiento.
      La función de probabilidad de la variable binomial se representa como b(x,n,p) siendo n el número de pruebas y p la probabilidad del ‚éxito. n y p son los parámetros de la distribución.

           
 La manera más fácil de calcular de valor de números combinatorios, como los incluidos en la expresión anterior, es utilizando el triángulo de Tartaglia
        La media y la varianza de la variable binomial se calculan como:
Media = μ = n p
Varianza = σ2 = n p q
        Gráficamente el aspecto de la distribución depende de que sea o no simétrica Por ejemplo, el caso en que n = 4:


Distribución multinomial


La distribución multinomial es esencialmente igual a la binomial con la única diferencia de que cada prueba tiene más de dos posibles resultados mutuamente excluyentes.
Si tenemos K resultados posibles (Ei , i = 1, ... , K) con probabilidades fijas (pi , i = 1, ... , K), la variable que expresa el número de resultados de cada tipo obtenidos en n pruebas independientes tiene distribución multinomial.

             La probabilidad de obtener x1 resultados E1, x2 resultados E2, etc. se representa como:

             Los parámetros de la distribución son p1,..., pK y n.


Distribución hipergeométrica

        
     Una variable tiene distribución hipergeométrica si procede de un experimento que cumple las siguientes condiciones:
1)     Se toma una muestra de tamaño n, sin reemplazamiento, de un conjunto finito de N objetos.
2)     K de los N objetos se pueden clasificar como ‚éxitos y N - K como fracasos.
            X cuenta el número de ‚éxitos obtenidos en la muestra. El espacio muestral es el conjunto de los números enteros de 0 a n, ó de 0 a K si K < n.
En este caso, la probabilidad del ‚éxito en pruebas sucesivas no es constante pues depende del resultado de las pruebas anteriores. Por tanto, las pruebas no son independientes entre sí.
La función de probabilidad de la variable hipergeométrica es:



Los parámetros de la distribución son n, N y K.
Los valores de la media y la varianza se calculan según las ecuaciones:
            


Si n es pequeño, con relación a N (n << N), la probabilidad de un ‚éxito variar muy poco de una prueba a otra, así pues, la variable, en este caso, es esencialmente binomial; en esta situación, N suele ser muy grande y los números combinatorios se vuelven prácticamente inmanejables, así pues, la probabilidades se calculan más cómodamente aproximando por las ecuaciones de una binomial con p = K / N.

La media de la variable aproximada (μ = n p = n (K / N)) es la misma que la de la variable antes de la aproximación; sin embargo, la varianza de la variable binomial es ligeramente superior a la de la hipergeométrica.


el factor por el que difieren ser siempre menor que 1 y tan próximo a 1 como cierto sea que n << N.

     El aspecto de la distribución es bastante similar al de la binomial. Como ejemplo, mostramos los casos análogos a los de las binomiales del apartado anterior (p inicial = 0,25 y  n = 4)


Distribución multihipergeométrica

            
     Este variable se define igual que la hipergeométrica con la única diferencia de que se supone que el conjunto de objetos sobre el que se muestrea se divide en R grupos de A1, A2,..., AR objetos y la variable describe el número de objetos de cada tipo que se han obtenido (x1, x2,..., xR)

Esta situación es análoga a la planteada en el caso de la distribución multinomial. La función de probabilidad es:



Distribución de poisson

             
      Una variable de tipo poisson cuenta ‚éxitos (es decir, objetos de un tipo determinado) que ocurren en una región del espacio o del tiempo.
 El experimento que la genera debe cumplir las siguientes condiciones:
  1.  El número de éxitos que ocurren en cada región del tiempo o del espacio es independiente de lo que ocurra en cualquier otro tiempo o espacio disjunto del anterior.
  2. La probabilidad de un ‚éxito en un tiempo o espacio pequeño es proporcional al tamaño de este y no depende de lo que ocurra fuera de él.
  3. La probabilidad de encontrar uno o más ‚éxitos en una región del tiempo o del espacio tiende a cero a medida que se reducen las dimensiones de la región en estudio.
        Como consecuencia de estas condiciones, las variables Poisson típicas son variables en las que se cuentan sucesos raros.
        La función de probabilidad de una variable Poisson es:

El parámetro de la distribución es λ que es igual a la media y a la varianza de la variable.

Esta característica puede servirnos para identificar a una variable Poisson en casos en que se presenten serias dificultades para verificar los postulados de definición.
La distribución de Poisson se puede considerar como el límite al que tiende la distribución binomial cuando n tiende a  y p tiende a 0, siendo np constante (y menor que 7); en esta situación sería difícil calcular probabilidades en una variable binomial y, por tanto, se utiliza una aproximación a través de una variable Poisson con media l = n p.
La varianza de la variable aproximada es ligeramente superior a la de la variable binomial.
Las variables Poisson cumplen la propiedad de que la suma de variables Poisson independientes es otra Poisson con media igual a la suma las medias.

     El aspecto de la distribución depende muchísimo de la magnitud de la media. Como ejemplo, mostramos tres casos con λ = 0,5 (arriba a la izquierda), λ = 1,5 (arriba a la derecha) y λ = 5 (abajo) Obsérvese que la asimetría de la distribución disminuye al crecer λ y que, en paralelo, la gráfica empieza a tener un aspecto acampanado.


Variables aleatorias continuas


Distribución normal o de Gauss

             La distribución normal fue definida por De Moivre en 1733 y es la distribución de mayor importancia en el campo de la estadística.
Una variable es normal cuando se ajusta a la ley de los grandes números, es decir, cuando sus valores son el resultado de medir reiteradamente una magnitud sobre la que influyen infinitas causas de efecto infinitesimal.
Las variables normales tienen una función de densidad con forma de campana a la que se llama campana de Gauss.
Su función de densidad es la siguiente:


Los parámetros de la distribución son la media y la desviación típica, μ y σ, respectivamente. Como consecuencia, en una variable normal, media y desviación típica no deben estar correlacionadas en ningún caso (como desgraciadamente ocurre en la inmensa mayoría de las variables aleatorias reales que se asemejan a la normal.
La curva normal cumple las siguientes propiedades:
1)     El máximo de la curva coincide con la media.
2)     Es perfectamente simétrica respecto a la media (g1 = 0).
3)     La curva tiene dos puntos de inflexión situados a una desviación típica de la media. Es convexa entre ambos puntos de inflexión y cóncava en ambas colas.


4)     Sus colas son asintóticas al eje X.

             Para calcular probabilidades en intervalos de valores de la variable, habría que integrar la función de densidad entre los extremos del intervalo. por desgracia (o por suerte), la función de densidad normal no tiene primitiva, es decir, no se puede integrar. Por ello la única solución es referirse a tablas de la función de distribución de la variable (calculadas por integración numérica) Estas tablas tendrían que ser de triple entrada (μ, σ, valor) y el asunto tendría una complejidad enorme.
Afortunadamente, cualquier que sea la variable normal, X, se puede establecer una correspondencia de sus valores con los de otra variable con distribución normal, media 0 y varianza 1, a la que se llama variable normal tipificada o Z. La equivalencia entre ambas variables se obtiene mediante la ecuación:
            

La función de distribución de la variable normal tipificada está tabulada y, simplemente, consultando en las tablas se pueden calcular probabilidades en cualquier intervalo que nos interese.
             De forma análoga a lo pasaba con las variables Poisson, la suma de variables normales independientes es otra normal.

Histograma de una normal idealizada
Histograma de una muestra de una variable normal



Distribución Gamma (Γ)


             La distribución gamma se define a partir de la función gamma, cuya ecuación es:

La función de densidad de la distribución gamma es:

α y β son los parámetros de la distribución.
La media y la varianza de la variable gamma son:




Distribución exponencial

             Es un caso particular de la distribución gamma cuando α = 1. Su función de densidad es:

Su parámetro es β.
La media y la varianza de la distribución exponencial son:
            


Distribución Chi-cuadrado (c2)


             Es otro caso particular de la distribución gamma para el caso β = 2 y α = n / 2, siendo n un número natural. 
Su función de densidad es:



El parámetro de la distribución c2 es n y su media y su varianza son, respectivamente:

            

Otra forma de definir la distribución c2 es la siguiente: Supongamos que tenemos n variables aleatorias normales independientes, X1,..., Xn, con media μi y varianza (i = 1 ... n), la variable definida como


tiene distribución c2 con n grados de libertad y se le denomina c2n.
Variables chi-cuadrado con valores de  progresivamente
mayores son cada vez menos asimétricas.

Distribución T de Student


             Supongamos dos variables aleatorias independientes, una normal tipificada, Z , y otra con distribución c2 con n grados de libertad, la variable definida según la ecuación:

tiene distribución t con n grados de libertad.
La función de densidad de la distribución t es:



El parámetro de la distribución t es n, su número de grados de libertad.
Esta distribución es simétrica respecto al eje Y y sus colas se aproximan asintóticamente al eje X. Es similar a la distribución Z salvo que es platicúrtica y, por tanto, más aplanada.
Cuando n tiende a infinito, t tiende asintóticamente a Z y se pueden considerar prácticamente iguales para valores de n mayores o iguales que 30..
Variables T con valores de n progresivamente mayores
son cada vez menos platicúrticas
Comparación entre la variable T y la normal tipificado.

Distribución F de Snedecor


             Sean U y V dos variables aleatorias independientes con distribución c2 con n1 y n2 grados de libertad, respectivamente. La variable definida según la ecuación:


tiene distribución F con n1n2 grados de libertad.
La función de densidad de la distribución F es:



Los parámetros de la variable F son sus grados de libertad n1 y n2.
Las distribuciones F tienen una propiedad que se utiliza en la construcción de tablas que es la siguiente:
            Llamemos  fa,n1,n2 al valor de una distribución F con n1 y n2 grados de libertad que cumple la condición, P(F > fa,n1,n2) = α; llamemos f1-a,n1,n2 al valor de una distribución F con n1 y n2 grados de libertad que cumple la condición, P(F > f1-a,n1,n2) = 1- α. Ambos valores están relacionados de modo que uno es el inverso del otro.

Variables F con distintos valores de 1,2


video informativo 

                                                
                                                  Si te a gustado la información por favor no olvides darle a like y suscribirte al canal