jueves, 11 de diciembre de 2008

UNIDAD V: CORRELACION Y REGRESION

MARCO TEORICO:

La regresión como una técnica estadística, una de ellas la regresión lineal simple y la regresión multifactorial, analiza la relación de dos o mas variables continuas, cuando analiza las dos variables a esta se el conoce como variable bivariantes que pueden corresponder a variables cualitativas, la regresión nos permite el cambio en una de las variables llamadas respuesta y que corresponde a otra conocida como variable explicativa, la regresión es una técnica utilizada para inferir datos a partir de otros y hallar una respuesta de lo que puede suceder.

Siendo así la regresión una técnica estadística, por lo tanto para interpretar situaciones reales, pero a veces se manipula de mala manera por lo que es necesario realizar una selección adecuada de las variables que van a construir las formulas matemática, que representen a la regresión, por eso hay que tomar en cuenta variables que tiene relación, de lo contraria se estaría matematizando un galimatías.

Se pueden encontrar varios tipos de regresión, por ejemplo:

1.-Regresión lineal simple
2.-Regresión múltiple ( varias variables)
3.-Regresión logística
4.-Simple b) Múltiple, etc.

La regresión lineal técnica que usa variables aleatorias, continuas se diferencia del otro método analítica que es la correlación, por que esta última no distingue entre las variables respuesta y la variable explicativa por que las trata en forma simétrica.

La matematización nos da ecuaciones para manipular los datos, como por ejemplo medir la circunferencia de los niños y niñas y que parece incrementarse entre las edades de 2 meses y 18 años, aquí podemos inferir o predecir que las circunferencias del cráneo cambiara con la edad, en este ejercicio la circunferencia de la cabeza es la respuesta y la edad la variable explicativa.

En la regresión tenemos ecuaciones que nos representan las diferentes clases de regresión:

Regresión Lineal : y = A + Bx
Regresiòn Logarìmica : y = A + BLn(x)
Regresión Exponencial : y = Ac(bx)
Regresión Cuadrática : y = A + Bx +Cx2

Para obtener un
modelo de regresión es suficiente establecer la regresión para eso se hace uso del coeficiente de correlación: R.

R = Coeficiente de correlación, este método mide el grado de relación existente entre dos variables, el valor de R varía de -1 a 1, pero en la práctica se traba con un valor absoluto de R. El valor del coeficiente de relación se interpreta de modo que a media que R se aproxima a 1, es más grande la relación entre los datos, por lo tanto R (coeficiente de correlación) mide la aproximación entre las variables.

El coeficiente de correlación se puede clasificar de la siguiente manera:
CORRELACIÒN VALOR O RANGO

1) Perfecta 1) R = 1
2) Excelente 2) R = 0.9 < = R < r =" 0.8" r =" 0.5">

DISTRIBUCIÒN DIVARIANTE

DEFINICIÒN :

La distribución diváriate es cuando se estudia en una población dos variables, que forman pares correspondientes a cada individuo, como por Ejm:
Las notas de 10 alumnos en
biología y lenguaje

BIOLOGIA: 2, 4, 5, 5, 6, 6, 7, 7, 8, 8, 9

LENGUAJE: 2, 2, 5, 5, 5, 7, 5, 8, 7, 10
Los pares de valores son: ( 2, 2) (4,2) (5,5)…….(8,7) (9,10) forman una distribución diváriate.

La correlación, método por el cual se relacionan dos variables se pude graficar con un diagrama de dispersión de puntos, a la cual muchos autores le llaman nubes de puntos, encuadrado dentro de un gráfico de coordenadas X Y en la cual se pude trazar una recta y cuyos puntos mas cercanos de una recta hablaran de una correlación mas fuerte, ha esta recta se le denomina recta de regresión, que puede ser positiva o negativa, la primera contundencia a aumentar y la segunda en descenso o decreciente.

También se puede describir un diagrama de dispersión en coordenadas cartesianas valores como en la distribución diváriate, en donde la nube de puntos representa los pares de valores.

GRAFICOS DE RECTA DE REGRESIÒN:

Por último se pueden graficar las líneas de tendencia, herramienta muy útil para el mercadeo por que es utilizada para evaluar la resistencia que proyectan los precios. Cuando una línea de tendencia central se rompe ya sea con tendencia al alza o en la baja es porque ocurre un cambio en los precios, por lo tanto las líneas de tendencia pueden ser alcista cuando se unen los puntos sucesivos y bajista cuando se unen los puntos máximos.

NUBE DE PUNTOS O DIAGRAMA DE DISPERSIÓN

La primera forma de describir una distribución bidimensional es representar los pares de valores en el plano cartesiano. El gráfico obtenido recibe el nombre de nube de puntos o diagrama de dispersión.

CORRELACIÓN LINEAL Y RECTA DE REGRESIÓN.

Cuando observamos una nube de puntos podemos apreciar si los puntos se agrupan cerca de alguna curva. Aquí nos limitaremos a ver si los puntos se distribuyen alrededor de una recta. Si así ocurre diremos que hay correlación lineal. La recta se denomina recta de regresión.

MEDIDA DE LA CORRELACIÓN

La apreciación visual de la existencia de correlación no es suficiente. Usaremos un parámetro, llamado coeficiente de correlación que denotaremos con la letra r, que nos permite valorar si ésta es fuerte o débil, positiva o negativa. El cálculo es una tarea mecánica, que podemos realizar con una calculadora o un programa informático. Nuestro interés está en saber interpretarlo.

Antes de ponernos a trabajar destacaremos una de sus propiedades

-1 <>

~~~~~~~~~~~~~~~~~```````````````````````````````````````~~~~~~~~~~~~~~~~~~``

EJEMPLOS:

Una persona se entrena para obtener el carnet de conducir repitiendo un test de 50 preguntas. En la gráfica se describen el nº de errores que corresponden a los intentos realizados.

Observa que hay una correlación muy fuerte (los puntos están "casi" alineados) y negativa (la recta es decreciente).

A 12 alumnos de un centro se les preguntó a qué distancia estaba su residencia del Instituto, con fin de estudiar si esta variable estaba relacionada con la nota media obtenida. Se obtuvieron los datos que figuran en la siguiente tabla:


Distancia (en km) 0.05, 0.1, 0.12, 0.4, 0.5, 0.7, 1, 1.2, 2.1, 2.5, 3, 3

Nota media 8.4, 4, 5.7, 9.1, 6.3, 6.7, 4.3, 5.4, 7.8, 4.5, 7.2, 8.1

Observamos una nube de puntos que no nos sugiere ninguna recta concreta, porque la correlación es prácticamente inexistente, es decir, no tiene nada que ver con el rendimiento académico la distancia del domicilio al instituto,

UNIDAD IV: ESTADISTICA INFERENCIAL Y PRUEBA DE HIPOTESIS

ESTADISTICA INFERENCIAL

La inferencia estadística es una parte de la Estadística que comprende los métodos y procedimientos para deducir propiedades (hacer inferencias) de una población, a partir de una pequeña parte de la misma (muestra). La bondad de estas deducciones se mide en términos probabilísticos, es decir, toda inferencia se acompaña de su probabilidad de acierto.
La estadística inferencial comprende:

Método

Un estudio estadístico comprende los siguientes pasos:

1.-Planteamiento del problema
2.-Elaboración de un modelo
3.-Extracción de la muestra

4.-Tratamiento de los datos

5.-Estimación de los parámetros
6.-Contraste de hipotesis
7.-Conclusiones

Estimación puntual

Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos. Lo más importante de un estimador, es que sea un estimador eficiente. Es decir, que sea insesgado(ausencia de sesgos) y estable en el muestreo (varianza mínima).
Distribucion de muestras
Si X1, X2 ... Xn, es una muestra aleatoria de tamano n tomada de una poblacion (finita o no infinita) son media (M) y varianza finita y si \overline{X}es la media muestral, entonces la forma limite de la distribucion Z cuando n tiende infinito es una distribucion normal estandar:

La aproximacion normal depende del tamano de la muestra


Si n ≥ 30 , se puede aplicar el TLC, para una poblacion con cualquier tipo de distribucion de probabilidad.

Diferencia de medias

Sean 2 poblaciones con medias M1 y M2, y varianzas conocidas




condicion:

Muestra debe ser n ≥ 30

Distribucion de T

En probabilidad y estadística, la distribución-t o distribución t de Student es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base del popular test de la t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones.
La distribución t surge, en la mayoría de los estudios estadísticos prácticos, cuando la
desviación típica de una población se desconoce y debe ser estimada a partir de los datos de una muestra.

Aparición y especificaciones de la distribución t

Supongamos que X1,..., Xn son variables aleatorias independientes distribuidas normalmente, con media μ y varianza σ2. Sea

\overline{X}_n=

la media muestral y

s ^ 2(x) = \frac{1}{n-1} \sum_{i=1}^n (x_i - \overline{x}) ^ 2

la varianza muestral. Entonces, está demostrado que


Z=

tiende a la distribución normal de media 0 y varianza 1 cuando n tiende a infinito.

Gosset estudió una expresión relacionada,


T=


si es menor, debemos tener la confianza de que la poblacion se distribuye de manera normal.

Distribucion de ji-cuadrada

En estadística, la distribución ji-cuadrado, también denominada ji-cuadrado de Pearson, es una distribución de probabilidad continua con un parámetro k que representa los grados de libertad de la variable aleatoria:


X = Z_1^2 + \cdots + Z_k^2


donde Zi son variables de distribución normal, de media cero y varianza uno. Esta distribución se expresa habitualmente c X\sim\chi^2_k

Donde el subíndice k de  \chi^2_k , es le número de sumandos, se denomina grados de libertad de la distribución. Se suele usar la denominada prueba ji-cuadrado como test de independencia y como test de bondad de ajuste.

si se extraen todas las muestras posibles de una población normal y a cada muestra se le calcula su varianza, se obtendrá la distribución muestral de varianzas.Para estimar la varianza poblacional o la desviación estándar, se necesita conocer el estadístico X2.Si se elige una muestra de tamaño n de una población normal con varianza , el estadístico: donde n es el tamaño de la muestra, s2 la varianza muestral y la varianza de la población de donde se extrajo la muestra.

El estadistico de Ji cuadrada es el siguiente:


Distribucion F

Usada en teoría de probabilidad y estadística, la distribución F es una distribución de probabilidad continua. También se la conoce como distribución F de Snedecor o como distribución F de Fisher-Snedecor.
Una
variable aleatoria de distribución F se construye como el siguiente cociente:


 F =\frac{U_1/d_1}{U_2/d_2}

donde:
1.-U1 y U2 siguen una distribución ji-cuadrada con d1 y d2 grados de libertad respectivamente.
2.-U1 y U2 son estadísticamente independientes.

La distribución F aparece frecuentemente como la distribución nula de una prueba estadística, especialmente en el análisis de varianza.
Intervalos de confianza
Se llama intervalo de confianza en estadística a un intervalo de valores alrededor de un parámetro muestral en los que, con una probabilidad o nivel de confianza determinado, se situará el parámetro poblacional a estimar. Si α es el error aleatorio que se quiere cometer, la probabilidad será de 1 − α. A menor nivel de confianza el intervalo será más preciso, pero se cometerá un mayor error.

Para comprender las siguientes fórmulas, es necesario conocer los conceptos de variabilidad del parámetro, error, nivel de confianza, valor crítico y valor α.
Un intervalo de confianza es, pues, una expresión del tipo [θ1, θ2] ó θ1 ≤ θ ≤ θ2, donde θ es el parámetro a estimar. Este intervalo contiene al parámetro estimado con una determinada certeza o nivel de confianza 1-α.

Al ofrecer un intervalo de confianza se da por supuesto que los datos poblacionales se distribuyen de un modo determinado. Es habitual que lo hagan mediante la distribución normal.
Ejemplos

Intervalo de confianza para la media de una población

De una población de media μ y desviación típica σ se pueden tomar muestras de n elementos. Cada una de estas muestras tiene a su vez una media (). Se puede demostrar que la media de todas las medias muestrales coincide con la media poblacional:

\mu_{\bar{x}} = \mu

Pero además, si el tamaño de las muestras es lo suficientemente grande, las medias muestrales tienden a una distribución normal (o gaussiana) con dicha media y una desviación típica dada por la siguiente expresión:
\sigma_{\bar{x}}^2 = \frac{\sigma^2}{n}; \sigma_{\bar{x}} = \frac{\sigma}{\sqrt{n}}

Si estandarizamos:


\frac{\bar{x} - \mu_{\bar{x}}}{\sigma_{\bar{x}}} = \frac{\bar{x} - \mu}{\frac{\sigma}{\sqrt{n}}} \sim N(0, 1)

En esta distribución normal de medias se puede calcular el intervalo de confianza donde se encontrará la media poblacional si sólo se conoce una media muestral (\bar{x}), con una confianza determinada. Habitualmente se manejan valores de confianza del 95% y 99%. A este valor se le llamará 1 − α (debido a que α es el error que se cometerá, un término opuesto).

Para ello se necesita calcular el punto Xα / 2 —o mejor dicho su versión estandarizada Zα / 2— junto con su "opuesto en la distribución" X − α / 2. Estos puntos delimitan la probabilidad para el intervalo, como se muestra en la siguiente imagen:




Dicho punto es el número tal que:

\mathbb{P}[\bar{x} \ge X_{\alpha/2}] = \mathbb{P}[z \ge Z_{\alpha/2}] = \alpha/2


Y en la versión estandarizada se cumple que:


Z − α / 2 = − Zα / 2


Así:

\mathbb{P}\left[-Z_{\alpha/2} \le \frac{\bar{x} - \mu}{\frac{\sigma}{\sqrt{n}}} \le Z_{\alpha/2}\right] = 1 - \alpha


Haciendo operaciones es posible despejar μ para obtener el intervalo:

\mathbb{P}\left[\bar{x} - Z_{\alpha/2}\frac{\sigma}{\sqrt{n}} \le \mu \le \bar{x} + Z_{\alpha/2}\frac{\sigma}{\sqrt{n}}\right] = 1 - \alpha

Resultado el intervalo de confianza:

(\bar{x} - Z_{\alpha/2}\frac{\sigma}{\sqrt{n}}, \bar{x} + Z_{\alpha/2}\frac{\sigma}{\sqrt{n}})

Si σ no es conocida y n es grande (p.e. ≥ 30):

(\bar{x} - Z_{\alpha/2}\frac{s}{\sqrt{n}}, \bar{x} + Z_{\alpha/2}\frac{s}{\sqrt{n}}) donde s es la desviación típica de una muestra.

Aproximaciones para el valor Zα / 2 para los niveles de confianza estándar son 1,96 para 1 − α = 95% y 2,576 para 1 − α = 9.

______-----------PRUEBA DE HIPOTESIS------------________


Objetivo de la prueba de hipótesis

El propósito de la prueba de hipótesis no es cuestionar el valor calculado del estadístico (muestral), sino hacer un juicio con respecto a la diferencia entre estadístico de muestra y un valor planteado del parámetro.

Procedimiento para prueba de hipotesis

1.- Identificar el parametro de interes (para probar parametros se hacen estimaciones por medio de la muestra).
2.- Establecer Hipotesis Nula.
3.- Establecer una apropiada Hipotesis Alternativa.
4.- Seleccionar el nivel de significancia (α).
5.- Establecer un parametro de prueba apropiada (Z,t, ji cuadrada, F).
6.- Establecer region de rechazo (critica).
7.- Calcular las cantidades muestrales y sustituirlos en los estadisticos de prueba (z,t, ji cuadrada, f) y encontrar los calculos.
8.- Decide si se debe rechazar hipotesis.
9.- Conclusion.

Criterios de rechazo

Ho-si Z* <>
1.-si Z* > Zα

2.-si Z* <>

Tipos de prueba

a) Prueba bilateral o de dos extremos: la hipótesis planteada se formula con la igualdad

Ejemplo:

H0 : µ = 200
H1 : µ ≠ 200
b) Pruebas unilateral o de un extremo: la hipótesis planteada se formula con ≥ o ≤

H0 : µ ≥ 200 H0 : µ ≤ 200
H1 : µ <> 200
Ejemplo:
Paso 1: Plantear la hipótesis nula Ho y la hipótesis alternativa H1.

Cualquier investigación estadística implica la existencia de hipótesis o afirmaciones acerca de las poblaciones que se estudian.

La hipótesis nula (Ho) se refiere siempre a un valor especificado del parámetro de población, no a una estadística de muestra. La letra H significa hipótesis y el subíndice cero no hay diferencia. Por lo general hay un "no" en la hipótesis nula que indica que "no hay cambio" Podemos rechazar o aceptar Ho.

La hipótesis nula es una afirmación que no se rechaza a menos que los datos maestrales proporcionen evidencia convincente de que es falsa. El planteamiento de la hipótesis nula siempre contiene un signo de igualdad con respecto al valor especificado del parámetro.

La hipótesis alternativa (H1) es cualquier hipótesis que difiera de la hipótesis nula. Es una afirmación que se acepta si los datos maestrales proporcionan evidencia suficiente de que la hipótesis nula es falsa. Se le conoce también como la hipótesis de investigación. El planteamiento de la hipótesis alternativa nunca contiene un signo de igualdad con respecto al valor especificado del parámetro.

Paso 2: Seleccionar el nivel de significancia.

Nivel de significacia: Probabilidad de rechazar la hipótesis nula cuando es verdadera. Se le denota mediante la letra griega α, tambiιn es denominada como nivel de riesgo, este termino es mas adecuado ya que se corre el riesgo de rechazar la hipótesis nula, cuando en realidad es verdadera. Este nivel esta bajo el control de la persona que realiza la prueba.

Si suponemos que la hipótesis planteada es verdadera, entonces, el nivel de significación indicará la probabilidad de no aceptarla, es decir, estén fuera de área de aceptación. El nivel de confianza (1-α), indica la probabilidad de aceptar la hipótesis planteada, cuando es verdadera en la población.
La distribución de muestreo de la estadística de prueba se divide en dos regiones, una región de rechazo (conocida como región crítica) y una región de no rechazo (aceptación). Si la estadística de prueba cae dentro de la región de aceptación, no se puede rechazar la hipótesis nula.

La región de rechazo puede considerarse como el conjunto de valores de la estadística de prueba que no tienen posibilidad de presentarse si la hipótesis nula es verdadera. Por otro lado, estos valores no son tan improbables de presentarse si la hipótesis nula es falsa. El valor crítico separa la región de no rechazo de la de rechazo.

Tipos de errores

Cualquiera sea la decisión tomada a partir de una prueba de hipótesis, ya sea de aceptación de la Ho o de la Ha, puede incurrirse en error:

Un error tipo I se presenta si la hipótesis nula Ho es rechazada cuando es verdadera y debía ser aceptada. La probabilidad de cometer un error tipo I se denomina con la letra alfa α.

Un error tipo II, se denota con la letra griega β se presenta si la hipótesis nula es aceptada cuando de hecho es falsa y debía ser rechazada.

En cualquiera de los dos casos se comete un error al tomar una decisión equivocada.

En la siguiente tabla se muestran las decisiones que pueden tomar el investigador y las consecuencias posibles.
Para que cualquier ensayo de hipótesis sea bueno, debe diseñarse de forma que minimice los errores de decisión. En la práctica un tipo de error puede tener más importancia que el otro, y así se tiene a conseguir poner una limitación al error de mayor importancia. La única forma de reducir ambos tipos de errores es incrementar el tamaño de la muestra, lo cual puede ser o no ser posible.

La probabilidad de cometer un error de tipo II denotada con la letra griega beta β, depende de la diferencia entre los valores supuesto y real del parámetro de la población. Como es más fácil encontrar diferencias grandes, si la diferencia entre la estadística de muestra y el correspondiente parámetro de población es grande, la probabilidad de cometer un error de tipo II, probablemente sea pequeña.

El estudio y las conclusiones que obtengamos para una población cualquiera, se habrán apoyado exclusivamente en el análisis de una parte de ésta. De la probabilidad con la que estemos dispuestos a asumir estos errores, dependerá, por ejemplo, el tamaño de la muestra requerida. Las contrastaciones se apoyan en que los datos de partida siguen una distribución normal

Existe una relación inversa entre la magnitud de los errores α y β: conforme a aumenta, β disminuye. Esto obliga a establecer con cuidado el valor de a para las pruebas estadísticas. Lo ideal sería establecer α y β.En la práctica se establece el nivel α y para disminuir el Error β se incrementa el número de observaciones en la muestra, pues así se acortan los limites de confianza respecto a la hipótesis planteada .La meta de las pruebas estadísticas es rechazar la hipótesis planteada. En otras palabras, es deseable aumentar cuando ésta es verdadera, o sea, incrementar lo que se llama poder de la prueba (1- β) La aceptación de la hipótesis planteada debe interpretarse como que la información aleatoria de la muestra disponible no permite detectar la falsedad de esta hipótesis.

Paso 3:
Cálculo del valor estadístico de prueba

Valor determinado a partir de la información muestral, que se utiliza para determinar si se rechaza la hipótesis nula., existen muchos estadísticos de prueba para nuestro caso utilizaremos los estadísticos z y t. La elección de uno de estos depende de la cantidad de muestras que se toman, si las muestras son de la prueba son iguales a 30 o mas se utiliza el estadístico z, en caso contrario se utiliza el estadístico t.
En las pruebas de hipótesis para la media (μ), cuando se conoce la desviación estándar (σ) poblacional, o cuando el valor de la muestra es grande (30 o más), el valor estadístico de prueba es z y se determina a partir de:

El valor estadístico z, para muestra grande y desviación estándar poblacional desconocida se determina por la ecuación:

En la prueba para una media poblacional con muestra pequeña y desviación estándar poblacional desconocida se utiliza el valor estadístico t.

Paso 4: Formular la regla de decisión

Se establece las condiciones específicas en la que se rechaza la hipótesis nula y las condiciones en que no se rechaza la hipótesis nula. La región de rechazo define la ubicación de todos los valores que son tan grandes o tan pequeños, que la probabilidad de que se presenten bajo la suposición de que la hipótesis nula es verdadera, es muy remota
Distribución muestral del valor estadístico z, con prueba de una cola a la derecha

Valor critico: Es el punto de división entre la región en la que se rechaza la hipótesis nula y la región en la que no se rechaza la hipótesis nula.

Paso 5: Tomar una decisión.

En este último paso de la prueba de hipótesis, se calcula el estadístico de prueba, se compara con el valor crítico y se toma la decisión de rechazar o no la hipótesis nula. Tenga presente que en una prueba de hipótesis solo se puede tomar una de dos decisiones: aceptar o rechazar la hipótesis nula. Debe subrayarse que siempre existe la posibilidad de rechazar la hipótesis nula cuando no debería haberse rechazado (error tipo I). También existe la posibilidad de que la hipótesis nula se acepte cuando debería haberse rechazado (error de tipo II).

UNIDAD III: FUNCIONES DE PROBABILIDAD

FUNCIONES DE PROBABILIDAD
la función de probabilidad de una variable aleatoria discreta X es una función tal que, al sustituir x por un valor de la variable, el valor que toma la función es la probabilidad de que la variable X asuma el valor x. Habitualmente, la función de probabilidad se representa como f(x).

f(x) = P(X = x)
Condiciones para que sea una funcion de probabilidad:
1.- f(x) = P(X=x)
2.- f(x) ≥ 0
3.- ∑x f(x) = 1
Distribucion de probabilidad o distribucion de una variable aleatoriaEs una descripcion del conjunto de valores posibles de X (rango de X), junto con la probabilidad asociada con cada uno de estos valores.
Variable discreta: Aquella que se define sobre un espacio muestral numerable, finito o infinito. Espacio numerable es aquel cuyos elementos se pueden ordenar, asignándoles a cada uno un número de la serie de los números naturales (del 1 al n ó del 1 al I). Todas las variables con un número finito de valores y todas las que tomen valores en números enteros o racionales (fraccionarios), son variables discretas.

Variable continua: Es aquella que se define sobre un espacio asimilable al conjunto de los números reales, es decir, un espacio no numerable (o un espacio infinito de tipo C o infinito dos).
DISTRIBUCION BINOMIAL

Función de probabilidad de la distribución Binomial o también denominada función de la distribución de Bernoulli (para n=1). Verificándose: 0 £ p £ 1


Como el cálculo de estas probabilidades puede resultar algo tedioso se han construido tablas para algunos valores de n y p que nos facilitan el trabajo.

Parámetros de la Distribución Binomial

Función de Distribución Binomial

siendo k el mayor número entero menor o igual a xi.

Esta función de distribución proporciona, para cada número real xi, la probabilidad de que la variable X tome valores menores o iguales que xi. El cálculo de las F(x) = p( X £x) puede resultar laborioso, por ello se han construido tablas para algunos valores de n y p que nos facilitan el trabajo.

Sea X una variable aleatoria discreta correspondiente a una distribución binomial.


Condicones:
1.- Los ensayos son independientes
2.- Cada ensayo, tiene solo dos resultados posibles denominados exito y fracaso
3.-La probabilidad de exito de cada ensayo, denotada por P permanece constante y fracaso con q
FUNCIÓN DE DENSIDAD

Empleando cálculos bastante laboriosos, puede demostrarse que el modelo de la función de densidad que corresponde a tales distribuciones viene dado por la fórmula


La distribución normal queda definida por dos parámetros, su media y su desviación típica y la representamos así

FUNCIÓN DE DISTRIBUCIÓN

1.-Puede tomar cualquier valor (- ¥, + ¥)
2.-Son más probables los valores cercanos a uno central que llamamos media m
3.-Conforme nos separamos de ese valor m , la probabilidad va decreciendo de igual forma a derecha e izquierda (es simétrica).
4.-Conforme nos separamos de ese valor m , la probabilidad va decreciendo de forma más o menos rápida dependiendo de un parámetro s , que es la desviación típica.


F(x) es el área sombreada de esta gráfica

TIPIFICACIÓN

Por tanto su función de densidad es

EJEMPLOS:
VALOR EPERADO DE UNA VARIABLE ALEATORIA

En estadística la esperanza matemática (o simplemente esperanza) o valor esperado de una variable aleatoria es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso. Por ejemplo, en un juego de azar el valor esperado es el beneficio medio.
Si todos los sucesos son de igual probabilidad la esperanza es la
media aritmética.

Definición
Para una variable aleatoria discreta con valores posibles x_1, x_2 \ldots x_n \,\!y sus probabilidades representadas por la
función de masa p(xi) la esperanza se calcula como:

E[X]=\sum_{i=1}^{n} x_i p(x_i) \,\!


Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los valores y la función de densidad f(x) \,\!:

E[X]=\int_{-\infty}^\infty x f(x)dx \,\! O \operatorname{E}[X] = \int_\Omega X\, \operatorname{d}P \,\!

La esperanza también se suele simbolizar con \mu = E[X] \,\!
Las esperanzas E[X^k] \,\!para k=0,1,2... \,\!se llaman momentos de orden . Más importantes son los
momentos centrados .

E[(X-E[X])^k] \,\!

No todas las variables aleatorias tienen un valor esperado. Por ejemplo, la distribución de Cauchy no lo tiene.
```````~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~```