miércoles, 28 de noviembre de 2012

muestreo y estimacion



A CONTINUACIÓN SE PODRÁ ENCONTRAR UN POWER POINT CON TODA LA INFORMACIÓN DE LO QUE ES EL MUESTREO Y LA ESTIMACIÓN


http://www.slideshare.net/jose_pabon_2012/muestreo-y-estimacion-2012#btnNext

inferencia estadistica

hipotesis estadistica



PRUEBA DE HIPOTESIS
Las secciones anteriores han mostrado cómo puede estimarse un parámetro a partir de los datos contenidos en una muestra. Puede encontrarse ya sea un sólo número (estimador puntual) o un intervalo de valores posibles (intervalo de confianza). Sin embargo, muchos problemas de ingeniería, ciencia, y administración, requieren que se tome una decisión entre aceptar o rechazar una proposición sobre algún parámetro. Esta proposición recibe el nombre de hipótesis. Este es uno de los aspectos más útiles de la inferencia estadística, puesto que muchos tipos de problemas de toma de decisiones, pruebas o experimentos en el mundo de la ingeniería, pueden formularse como problemas de prueba de hipótesis.

Una hipótesis estadística es una proposición o supuesto sobre los parámetros de una o más poblaciones.

Suponga que se tiene interés en la rapidez de combustión de un agente propulsor sólido utilizado en los sistemas de salida de emergencia para la tripulación de aeronaves. El interés se centra sobre la rapidez de combustión promedio. De manera específica, el interés recae en decir si la rapidez de combustión promedio es o no 50 cm/s. Esto puede expresarse de manera formal como

Ho = 50 cm/s

H1  50 cm/s
La proposición Ho = 50 cm/s, se conoce como hipótesis nula, mientras que la proposición H1  50 cm/s, recibe el nombre de hipótesis alternativaPuesto que la hipótesis alternativa especifica valores de  que pueden ser mayores o menores que 50 cm/s, también se conoce como hipótesis alternativa bilateral. En algunas situaciones, lo que se desea es formular unahipótesis alternativa unilateral, como en

Ho = 50 cm/s Ho = 50 cm/s

ó

H1 < 50 cm/s H1 > 50 cm/s

Es importante recordar que las hipótesis siempre son proposiciones sobre la población o distribución bajo estudio, no proposiciones sobre la muestra. Por lo general, el valor del parámetro de la población especificado en la hipótesis nula se determina en una de tres maneras diferentes:



  1. Puede ser resultado de la experiencia pasada o del conocimiento del proceso, entonces el objetivo de la prueba de hipótesis usualmente es determinar si ha cambiado el valor del parámetro.


  2. Puede obtenerse a partir de alguna teoría o modelo que se relaciona con el proceso bajo estudio. En este caso, el objetivo de la prueba de hipótesis es verificar la teoría o modelo.



  3. Cuando el valor del parámetro proviene de consideraciones externas, tales como las especificaciones de diseño o ingeniería, o de obligaciones contractuales. En esta situación, el objetivo usual de la prueba de hipótesis es probar el cumplimiento de las especificaciones.

Un procedimiento que conduce a una decisión sobre una hipótesis en particular recibe el nombre de prueba de hipótesis. Los procedimientos de prueba de hipótesis dependen del empleo de la información contenida en la muestra aleatoria de la población de interés. Si esta información es consistente con la hipótesis, se concluye que ésta es verdadera; sin embargo si esta información es inconsistente con la hipótesis, se concluye que esta es falsa. Debe hacerse hincapié en que la verdad o falsedad de una hipótesis en particular nunca puede conocerse con certidumbre, a menos que pueda examinarse a toda la población. Usualmente esto es imposible en muchas situaciones prácticas. Por tanto, es necesario desarrollar un procedimiento de prueba de hipótesis teniendo en cuenta la probabilidad de llegar a una conclusión equivocada.

La hipótesis nula, representada por Ho, es la afirmación sobre una o más características de poblaciones que al inicio se supone cierta (es decir, la "creencia a priori").

La hipótesis alternativa, representada por H1, es la afirmación contradictoria a Ho, y ésta es la hipótesis del investigador.

La hipótesis nula se rechaza en favor de la hipótesis alternativa, sólo si la evidencia muestral sugiere que Ho es falsa. Si la muestra no contradice decididamente a Ho, se continúa creyendo en la validez de la hipótesis nula. Entonces, las dos conclusiones posibles de un análisis por prueba de hipótesis son rechazar Ho o no rechazar Ho.


Prueba de una Hipótesis Estadística

Para ilustrar los conceptos generales, considere el problema de la rapidez de combustión del agente propulsor presentado con anterioridad. La hipótesis nula es que la rapidez promedio de combustión es 50 cm/s, mientras que la hipótesis alternativa es que ésta no es igual a 50 cm/s. Esto es, se desea probar:

Ho = 50 cm/s

H1  50 cm/s

Supóngase que se realiza una prueba sobre una muestra de 10 especímenes, y que se observa cual es la rapidez de combustión promedio muestral. La media muestral es un estimador de la media verdadera de la población. Un valor de la media muestral  que este próximo al valor hipotético  = 50 cm/s es una evidencia de que el verdadero valor de la media  es realmente 50 cm/s; esto es, tal evidencia apoya la hipótesis nula Ho. Por otra parte, una media muestral muy diferente de 50 cm/s constituye una evidencia que apoya la hipótesis alternativa H1. Por tanto, en este caso, la media muestral es el estadístico de prueba.
La media muestral puede tomar muchos valores diferentes. Supóngase que si 48.551.5, entonces no se rechaza la hipótesis nula Ho = 50 cm/s, y que si <48.5 ó >51.5, entonces se acepta la hipótesis alternativa H1  50 cm/s.
Los valores de que son menores que 48.5 o mayores que 51.5 constituyen la región crítica de la prueba, mientras que todos los valores que están en el intervalo 48.551.5 forman laregión de aceptación. Las fronteras entre las regiones crítica y de aceptación reciben el nombre de valores críticos. La costumbre es establecer conclusiones con respecto a la hipótesis nula Ho. Por tanto, se rechaza Ho en favor de H1 si el estadístico de prueba cae en la región crítica, de lo contrario, no se rechaza Ho.

Este procedimiento de decisión puede conducir a una de dos conclusiones erróneas. Por ejemplo, es posible que el valor verdadero de la rapidez promedio de combustión del agente propulsor sea igual a 50 cm/s. Sin embargo, para todos los especímenes bajo prueba, bien puede observarse un valor del estadístico de prueba que cae en la región crítica. En este caso, la hipótesis nula Ho será rechazada en favor de la alternativa H1cuando, de hecho, Ho en realidad es verdadera. Este tipo de conclusión equivocada se conoce como error tipo I.
El error tipo I se define como el rechazo de la hipótesis nula Ho cuando ésta es verdadera. También es conocido como  ó nivel de significancia.


Si tuviéramos un nivel de confianza del 95% entonces el nivel de significancia sería del 5%. Análogamente si se tiene un nivel de confianza del 90% entonces el nivel de significancia sería del 10%.

Ahora supóngase que la verdadera rapidez promedio de combustión es diferente de 50 cm/s, aunque la media muestral caiga dentro de la región de aceptación. En este caso se acepta Hocuando ésta es falsa. Este tipo de conclusión recibe el nombre de error tipo II.
El error tipo II ó error  se define como la aceptación de la hipótesis nula cuando ésta es falsa.

Por tanto, al probar cualquier hipótesis estadística, existen cuatro situaciones diferentes que determinan si la decisión final es correcta o errónea.


Decisión

Ho es verdadera

Ho es falsa

Aceptar Ho

No hay error

Error tipo II ó 

Rechazar Ho

Error tipo I ó 

No hay error


  1. Los errores tipo I y tipo II están relacionados. Una disminución en la probabilidad de uno por lo general tiene como resultado un aumento en la probabilidad del otro.


  2. El tamaño de la región crítica, y por tanto la probabilidad de cometer un error tipo I, siempre se puede reducir al ajustar el o los valores críticos.

  3. Un aumento en el tamaño muestral n reducirá  y  de forma simultánea.

  4. Si la hipótesis nula es falsa,  es un máximo cuando el valor real del parámetro se aproxima al hipotético. Entre más grande sea la distancia entre el valor real y el valor hipotético, será menor 
.





  1. Interpretar correctamente hacia que distribución muestral se ajustan los datos del enunciado.



  2. Interpretar correctamente los datos del enunciado diferenciando los parámetros de los estadísticos. Así mismo se debe determinar en este punto información implícita como el tipo de muestreo y si la población es finita o infinita.



  3. Establecer simultáneamente el ensayo de hipótesis y el planteamiento gráfico del problema. El ensayo de hipótesis está en función de parámetros ya que se quiere evaluar el universo de donde proviene la muestra. En este punto se determina el tipo de ensayo (unilateral o bilateral).


  4. Establecer la regla de decisión. Esta se puede establecer en función del valor crítico, el cual se obtiene dependiendo del valor de  (Error tipo I o nivel de significancia) o en función del estadístico límite de la distribución muestral. Cada una de las hipótesis deberá ser argumentada correctamente para tomar la decisión, la cual estará en función de la hipótesis nula o Ho.



  5. Calcular el estadístico real, y situarlo para tomar la decisión.



  6. Justificar la toma de decisión y concluir.

ESTIMACION POR INTERVALOS DE CONFIANZA

LOS SIGUIENTES LINK, TE MOSTRARAN COMO PUEDES LLEGAR A REALIZAR ESTIMACIONES CON INTERVALOS DE CONFIANZA

* Y EN ESPECIAL EL PRIMER LINK MUESTRA EN UN POWER POINT  UNA FORMA MAS FÁCIL Y ENTRETENIDA DE ENTENDER SOBRE  SOBRE ESTIMACIÓN PUNTUAL E INTERVALOS DE CONFIANZA

http://www.slideshare.net/lexoruiz/estimacin-e-intervalos-de-confianza

http://www.ing.unlp.edu.ar/fismat/estadistica/estadistica/archivos/Capitulo5_ESTIMACION_POR_INTERVALO_ES_DE_CONFIANZA.pdf
http://halweb.uc3m.es/esp/Personal/personas/amalonso/esp/ietema7.pdf


CÁLCULO DE INDICADORES

Al describir grupos de observaciones, con frecuencia es conveniente resumir la información con un solo número, y por lo tanto a continuacion se encontraran las clasificaciones de cada una de las medidas segun los indicadores. ( todos los link tienen caracterizadas las clasificaciones).


REVISA ESTOS LINK Y VERAS QUE TAN AMPLIO ES EL ÁMBITO DE LOS INDICADORES EN ESTADÍSTICA

http://estadisticayprobabilidad.wikispaces.com/file/view/Capitulo+V.pdf
http://estadisticayprobabilidad.wikispaces.com/file/view/Capitulo+VI.pdf
http://ocw.uniovi.es/file.php/25/1C_C6587/materia_de_clase/Tema3_EAI_teoria.pdf

Regresión y Correlación


Regresión y Correlación
La regresión y la correlación son dos técnicas estrechamente relacionadas y comprenden una forma de estimación.
En forma más especifica el análisis de correlación y regresión comprende el análisis de los datos muestrales para saber que es y como se relacionan entre si dos o mas variables en una población. El análisis de correlación produce un número que resume el grado de la correlación entre dos variables; y el análisis de regresión da lugar a una ecuación matemática que describe dicha relación.
El análisis de correlación generalmente resulta útil para un trabajo de exploración cuando un investigador o analista trata de determinar que variables son potenciales importantes, el interés radica básicamente en la fuerza de la relación. La correlación mide la fuerza de una entre variables; la regresión da lugar a una ecuación que describe dicha relación en términos matemáticos
Los datos necesarios para análisis de regresión y correlación provienen de observaciones de variables relacionadas.
Regresión lineal
La regresión lineal simple comprende el intento de desarrollar una línea recta o ecuación matemática lineal que describe la reacción entre dos variables.
La regresión puede utilizadas de diversas formas. Se emplean en situaciones en la que las dos variables miden aproximadamente lo mismo, pero en las que una variable es relativamente costosa, o, por el contrario, es poco interesante trabajar con ella, mientras que con la otra variable no ocurre lo mismo.
La finalidad de una ecuación de regresión seria estimar los valores de una variable con base en los valores conocidos de la otra.
Otra forma de emplear una ecuación de regresión es para explicar los valores de una variable en término de otra. Es decir se puede intuir una relación de causa y efecto entre dos variables. El análisis de regresión únicamente indica qué relación matemática podría haber, de existir una. Ni con regresión ni con la correlación se pude establecer si una variable tiene “causa “ciertos valores de otra variable.
Ecuación Lineal
Dos características importantes de una ecuación lineal

  • la independencia de la recta
  • la localización de la recta en algún punto. Una ecuación lineal tiene la forma

  • y = a + bx
    En la que a y b son valores que se determina a partir de los datos de la muestra; a indica la altura de la recta en x= 0, y b señala su pendiente. La variable y es la que se habrá de predecir, y x es la variable predictora.
    Determinación de la ecuación matemática
    En la regresión, los valores de y son predichos a partir de valores de x dados o conocidos. La variable y recibe le nombre variable dependiente y la variable x, el de variable independiente.
    Métodos de mínimos cuadrados
    EL procedimiento mas utilizado por adaptar una recta aun conjunto de punto se le que conoce como método de mínimos cuadrados. La recta resultante presenta 2 característica importantes

  • es nula la suma desviaciones verticales en los puntos a partir de la recta
  • es mínima la suma de los cuadrados de dicha desviaciones

  • (yi - yc)2
    En el cual
    Yi = valor esperado de y
    Yc= valor calculado de y utilizando la ecuación de mínimos cuadrados con el valor correspondientes x para yi
    Los valores de a y b para la recta es Yc = a + bx que minimiza la suma de los cuadrados de la desviación “ecuaciones normales “
    y = na + ( x)
    xy= a ( x) +b ( x2)
    En las que n es el numero de pares de observaciones. Evaluando las cantidades  x, y, etc. Se puede resolver estas dos ecuaciones simultáneamente para determinar a b. la ecuaciones puede despejarse. Se obtuvieron dos formulas aun para a y otra para b.
    n( xy)- ( x)( y)
    b=
    n( x2)-( x)2
    y - b x
    a=
    n
    Inferencia en el análisis de regresión
    Los supuestos para el análisis de regresión son como:

  • Existen datos de medición para a x y z.
  • la variable dependiente es una variable aleatoria.
  • para cada valor de x, existe una distribución condicional de la qué es de naturaleza normal
  • la desviación estándar de toda las distribuciones condicionales son iguales

  • EL error estándar de estimación
    La determinante primaria de la exactitud es el grado de dispersión de la población: cuanto mas dispersa este, menor será la exactitud de la estimación. El grado de dispersión en la población se puede estimar a partir del grado de dispersión en las observaciones de la muestra con respecto a la línea de regresión calculada, utilizando la formula.
    S" (yi -yc)
    n-2
    en la cual:
    yi = cada valor de y
    yc = valor de línea de regresión correspondiente a partir de la ecuación de regresión.
    n = números de observaciones.
    La formula anterior no se utiliza por lo general para cálculos reales, es mas fácil trabajar con la formula simplificada
    Se " y- a y - b xy
    n - 2
    Inferencia de acerca de la pendiente de una línea de regresión
    Aun cuando es muy poca o nula relación entre dos variables de aun población, es posible obtener valores maestrales que hacen que parezca que la variables están relacionadas, es importantes probar los resultados tales de caculo, a fin determinar si son significativos (es decir si los parámetros verdaderos no son cero), Si no existe ninguna relación se esperaría obtener aun pendiente cero, se pone a prueba la hipótesis nula contra la hipótesis alternativa.
    La significación del coeficiente de regresión se puede probar comparándolo con su desviación estándar
    t = valor de la muestra - valor esperado
    Desviación estándar
    Análisis de regresión lineal múltiple
    La regresión múltiple comprende tres o más variables. Existe solo una variable dependiente, pero hay dos o mas tipo independiente. Esta operación al desarrollo de una ecuación que se pede utilizar para predecir valore de y, respecto a valores dados de la diferencia variables independientes adicionales es incrementar la capacidad predicativa sobre la de la regresión lineal simple.
    Las técnicas de los mínimos cuadrados se utilizan para obtener ecuaciones de regresión.
    Yc= a +b1x1+b2x2+…bkxk
    a = ordenada en el origen
    b1= pendiente
    k = numero de variables independientes
    Un análisis de regresión simple de dos variable da lugar a la ecuación de una recta, un problema de tres variables produce un plano, y un problema de k variables implica un hiperplano de a
    (k +1) dimensiones.
    Análisis de Correlación
    EL objetivo de un estudio de correlación es determinar la consistencia de una relación entre observaciones por partes. EL termino “correlación “significa relación mutua, ye que indica el grado en el que los valores de una variable se relacionan con los valores de otra. Se considera tres técnicas de correlación uno para datos de medición, otro para datos jerarquizados y el último para clasificaciones nominales.
    Datos Continuos: r de Pearson
    EL grado de relación entre dos variables continuas se resume mediante un coeficiente de correlación que se conoce como “r de Pearson “en honor del gran matemático Kart Pearson, quien ideo este método. Esta técnica es valida mientras si es posible establecer ciertos supuestos bastante estrictos. Tales supuestos son los siguientes:

  • Tanto x como y son variables continuas aleatorias. Es decir, a diferencia del análisis de referencia de regresión, no es aceptable seleccionar ciertos valores de x, y después medir y; tanto y como x deben de variar libremente.
  • La distribución conjunta de frecuencia es normal. Esto recibe el nombre de de distribución normal divariada.

  • Carácter de r
    El coeficiente de relación presenta dos propiedades que establecen la naturaleza de una relación entre dos variables. Una es su signo (+ o -) y la otra, es su magnitud. El signo es igual al de la pendiente de una recta que podría “ajustarse” a los datos si estos se graficaran en un diagrama de dispersión, y la magnitud de r indica cuan cerca esta de la “recta” tales puntos.
    Método practicar para calcular r
    Dado que los cálculos necesarios pueden requerir mucho tiempo especialmente cuando se resta las medias del grupo de cada observación se elevan a cuadrado esas diferencias. Existe una versión, la cual simplifica los cálculos:
    r= n ("xy)-("x)("y) _
    "n("x2)-("x)2 ·"n("y2)("y)2
    Existen 3 formas posibles para obtener el valor de r en el caso de datos de medición: estandarizar cada conjunto y hallar el producto medio, calcular el coeficiente de determinación r2 y obtener su raíz cuadrada como utilizar la formula. Para un conjunto de datos los tres métodos producirán el mismo valor para r no obstante cada método agrega algo a la comprensión del significado del termino “correlación”
    Inferencia acerca del coeficiente de correlación
    Intervalo de confianza para la correlación de la población
    El valor del coeficiente de correlación de la muestra se puede utilizar como un estimado de la correlación verdadera de población existen varios métodos para obtener un método de confianza para pero quizás la forma mas directa es usar un diagrama.
    Si se examinan el diagrama se observara que el intervalo de los valores potenciales (no conocidos) se indica a lo largo de la escala vertical los posibles valores r de la muestra se indica en la escala inferior una serie de curvas representan tamaño de muestras seleccionadas.
    Prueba de significación de r
    Puede ser necesario evaluar una aseveración con respecto al valor de . La forma mas sencilla es obtener un intervalo de confianza para r y observar si el valor propuesto esta incluido en el intervalo de ser así se rechaza a Ho y se acepta la alternativa.
    Datos jerarquizados de: r Spearman
    Es una técnica no paramétrica que utiliza para medir la fuerza de una relación por pares de 2 variables cuando los datos se encuentran en forma jerarquizados. El objeto de calcular un coeficiente de correlación estos ejemplos es determinar el grado en el que dos conjuntos de jerarquización concuerdan o no. Esta técnica también se puede extender a calificaciones u otro tipo de medición si estas se convierten a rangos.
    Las medidas de l grado de concordancia son sol cuadrados de las diferencias entre los dos conjuntos de rangos: si la suma de éstos es pequeña, esto significa que hay acuerdo; si la suma es grande, esto indica lo contrario. EL calculo real de la correlación comprende la formula.
    rsp = 1 - 6"d2
    n(n2 -1)
    En la cual n es el número de observaciones y "d2 es la suma de los cuadrados de la diferencia entre los rangos. El coeficiente de correlación de jerarquía obtenido recibe el nombre de r Spearman. La suma de la diferencia es cero. Esto no sirve como una comprobación útil de los cálculos aunque no es necesaria en la fórmula.
    El procedimiento es como el siguiente:

  • Obtener la diferencia en rango para cada par de observaciones
  • Como comprobaciones, verificar que la diferencias se sumen a 0
  • elevar el cuadrado la diferencias
  • sumar los cuadrados de la diferencia para obtener "d2
  • Calcular rsp

  • Si el valor rsp es pequeño para situaciones en donde n es mayor que 10, la hipótesis nula de rsp = 0 puede ser probada utilizándola la fórmula
    rsp - 0
    t=
    "(1- rsp 2) (n -2)
    Datos nominales: el coeficiente de contingencia
    Cuando ambas variables se miden en escalas nominales ( es decir , categorías ) , el análisis es fácilmente mediante el desarrollo de una tabla de contingencia semejante a la que se utilizo en el análisis de k proporciones ( prueba de ji cuadrada ), el procedimiento en realidad de aun extensión del análisis de una tabla r * k.
    Una medida de relación es calcular el coeficiente de contingencia en C, donde
    x2
    C=
    X+ N
    Un aspecto interesante de una tabla ji cuadrada es que l tamaño máximo posible de x2 es función de N, de las observaciones y del tamaño de la tabla.
    En le caso de tabla con los valores cuadrado, esto lleva obtener un valor máximo de C de
    K - 1
    max =
    k
    En el cual k es el número de fila o columnas. La comprar C con C max se pude obtener una idea de la intensidad de la asociación entre la variables.
    Esta es una relación moderada, no muy intensa. Su interpretación exacta en parte de la naturaleza de los datos y de los resultados comparables que se obtengan de otros estudios, por lo que es difícil establecer valores definitivos dé intensidades.
    Se bebe observar que la formula no fórmula no produce automáticamente el signo del coeficiente de contingencia. DE ahí que no siempre resulte evidente el existe aun relación positiva o negativa.
    Ventajas:

  • Nos e requiere de supuestos con respectos a la formula de población
  • Solamente se necesita una medición nominal ( categorías)

  • Limitaciones

  • El limite superior de C es menor que 1.00 incluso Para un correlación perfecta.
  • El límite superior depende del tamaño de la tabla, por lo que no son comparables los coeficientes de contingencia de tablas de tamaño diferente
  • El coeficiente de contingencia no es directamente comprable con otras medidas de correlación, como la r de Pearson y la r de Spearman, o incluso con otras tablas de contingencia de tamaño diferente.
  • Cada casilla deberá tener una frecuencia esperada por lo menos 5.
  • C max solamente se puede calcular a partir de tabla de valores al cuadrado

  • EJERCICIOS PAG. 411
    1.- Cual es la ecuación de una recta con las siguientes características?

  • pendiente 10.2 y ordenada en el origen 5.0.

  • Yc=5 + 10.2x.

  • pendiente 55 y ordenada en el origen 0.

  • Yc=55x.

  • Pendiente 27 y ordenada en el origen -2.

  • Yc=-2 + 27x.

  • Pendiente -13 y ordenada en el origen 200.

  • Yc=200 - 13x.

  • Pendiente 0 y ordenada en el origen 2.4.

  • Yc=2.4
    2.- Calcule los valores de a y b en la ecuación lineal yc =a+bx apartir de las gráficas de la fig. 14.4.
    Yc= 6+(7.5/500)x Yc=-1 +(12/4)x

    TEORIA DE PROBABILIDADES


    INTRODUCCION A LA TEORIA DE PROBABILIDADES
    El concepto de probabilidad nace con el deseo del hombre de conocer con certeza los eventos futuros. Es por ello que el estudio de probabilidades surge como una herramienta utilizada por los nobles para   los juegos y pasatiempos de la época. El desarrollo de estas herramientas fue asignado a los matemáticos de la corte.
    Con el tiempo estas técnicas matemáticas se perfeccionaron y encontraron otros usos muy diferentes para la que fueron creadas. Actualmente se continúo con el estudio de nuevas metodologías que permitan maximizar el uso de la computación en el estudio de las probabilidades disminuyendo, de este modo, los  de error en los cálculos.
    A través de la historia se han desarrollado tres enfoques conceptuales diferentes para definir la probabilidad y determinar los valores de probabilidad:
    El enfoque clásico
    Dice que si hay x posibles resultados favorables a la ocurrencia de un evento A y z posibles resultados desfavorables a la ocurrencia de A, y todos los resultados son igualmente posibles y mutuamente excluyente (no pueden ocurrir los dos al mismo tiempo), entonces la probabilidad de que ocurra A es:
    El enfoque clásico de la probabilidad se basa en la suposición de que cada resultado sea igualmente posible.
    Este enfoque es llamado enfoque a priori porque permite, (en caso de que pueda aplicarse) calcular el valor de probabilidad antes de observar cualquier evento de muestra.
    Ejemplo:
    Si tenemos en una caja 15 piedras verdes y 9 piedras rojas. La probabilidad de sacar una piedra roja en un intento es:
    El enfoque de frecuencia relativa
    También llamado Enfoque Empírico, determina la probabilidad sobre la base de la proporción de veces que ocurre un evento favorable en un numero de observaciones. En este enfoque no ese utiliza la suposición  de aleatoriedad. Porque la determinación de los valores de probabilidad se basa en la observación y recopilación de datos.
    Ejemplo:
    Se ha observado que 9 de cada 50  que pasan por una esquina no tienen cinturón de seguridad. Si un vigilante de  se para en esa misma esquina un  cualquiera ¿Cuál será la probabilidad de que detenga un vehículo sin cinturón de seguridad?
    Tanto el enfoque clásico como el enfoque empírico conducen a valores objetivos de probabilidad, en el sentido de que los valores de probabilidad indican al largo  la tasa relativa de ocurrencia del evento.
    El enfoque subjetivo
    Dice que la probabilidad de ocurrencia de un evento es el grado de creencia por parte de un individuo de que un evento ocurra, basado en toda la evidencia a su disposición.  esta premisa se puede decir que este enfoque es adecuado cuando solo hay una oportunidad de ocurrencia del evento. Es decir, que el evento ocurrirá o no ocurrirá esa sola vez. El  de probabilidad bajo este enfoque es un juicio personal.
    Concepto de Probabilidad
    Se define como cálculo de probabilidad al conjunto de  que permiten determinar si un fenómeno ha de producirse, fundando la suposición en el cálculo, las estadísticas o la teoría.
    El objetivo de esta práctica es realizar varios experimentos de probabilidad, anotar los resultados y posteriormente compararlos con los resultados teóricos.
    Objetivos de las Probabilidades
            El objetivo fundamental de la probabilidad, es la de mostrar al alumno la importancia y utilidad del Método Estadístico en el ámbito económico-empresarial. Con tal fin, el alumno deberá aprender a manejar los métodos y técnicas más adecuadas para el correcto tratamiento y análisis de lainformación proporcionada por los datos que genera la actividad económica.
    Para ello se comienza afianzando los conocimientos que el alumno ya posee de Estadística Descriptiva, además de algunos conceptos nuevos relacionados con este tema.
    El valor de la probabilidad
    El valor más pequeño que puede tener la probabilidad de ocurrencia de un evento es igual a 0, el cual indica que el evento es imposible, y el valor mayor es 1, que indica que el evento ciertamente ocurrirá. Entonces si decimos que P(A) es la probabilidad de ocurrencia de un evento A y P(A´ ) la probabilidad de no-ocurrencia de A, tenemos que:
    Eventos mutuamente excluyentes y eventos no excluyentes
    Dos o más eventos son mutuamente excluyentes o disjuntos, si no pueden ocurrir simultáneamente. Es decir, la ocurrencia de un evento impide automáticamente la ocurrencia del otro evento (o eventos).
    Ejemplo:
    Al lanzar una moneda solo puede ocurrir que salga cara o sello pero no los dos a la vez, esto quiere decir que estos eventos son excluyentes.
    Dos o más eventos son no excluyentes, o conjuntos, cuando es posible que ocurran ambos. Esto no indica que necesariamente deban ocurrir estos eventos en forma simultánea.
    Ejemplo:
    Si consideramos en un juego de domino sacar al menos un blanco y un seis, estos eventos son no excluyentes porque puede ocurrir que salga el seis blanco.
    Reglas de la Adición
    La Regla de la Adición expresa que: la probabilidad de ocurrencia de al menos dos sucesos A y B es igual a:
    P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente
    P(A o B) = P(A) + P(B) – P(A y B) si A y B son no excluyentes
    Siendo: P(A) = probabilidad de ocurrencia del evento A
    P(B) = probabilidad de ocurrencia del evento B
    P(A y B) = probabilidad de ocurrencia simultanea de los eventos A y B
    Eventos Independientes
    Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Un caso típico de eventos independiente es el muestreo con reposición, es decir, una vez tomada la muestra se regresa de nuevo a lapoblación donde se obtuvo.
    Ejemplo:
    lanzar al aire dos veces una moneda son eventos independientes por que el resultado del primer evento no afecta sobre las probabilidades efectivas de que ocurra cara o sello, en el segundo lanzamiento.
    Eventos dependientes
    Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno de ellos afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este caso, empleamos entonces, el concepto de probabilidad condicional para denominar la probabilidad del evento relacionado. La expresión P(A|B) indica la probabilidad de ocurrencia del evento A sí el evento B ya ocurrió.
    Se debe tener claro que A|B no es una fracción.
    P(A|B) = P(A y B)/P(B) o P(B|A) = P(A y B)/P(A)
    Reglas de Multiplicación
    Se relacionan con la determinación de la ocurrencia de conjunta de dos o más eventos. Es decir la intersección entre los conjuntos de los posibles valores de A y los valores de B, esto quiere decir que la probabilidad de que ocurran conjuntamente los eventos A y B es:
    P(A y B) = P(A B) = P(A)P(B) si A y B son independientes
    P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes
    P(A y B) = P(A B) = P(B)P(A|B) si A y B son dependientes
    Distribución de probabilidad normal
    Es una distribución de probabilidad continua que es tanto simétrica como mesocurtica. La curva que representa la distribución de probabilidad normal se describe generalmente como en forma de campana. Esta distribución es importante en inferencia estadística por tres razones diferentes:
    1. Se sabe que las medidas producidas en muchos procesos aleatorios siguen esta distribución.
    2. Las probabilidades normales pueden utilizarse generalmente para aproximar otras distribuciones de probabilidad, tales como las distribuciones binomial y de Poisson.
    3. Las distribuciones estadísticas tales como la media de la muestra y la proporción de la muestra, siguen a menudo la distribución normal, sin tener en cuenta la distribución de la población
    Los valores de los parámetros de la distribución de probabilidad normal son  = 0 y  = 1. Cualquier conjunto de valores X normalmente distribuido pueden convertirse en valores normales estándar z por medio de la formula:
    Haciendo posible el uso de la tabla de proporciones de área y hace innecesario el uso de la ecuación de la función de densidad de cualquier distribución normal dada.
    Para aproximar las distribuciones discretas binomial y de Poisson se debe hacer:
    Binomial
    np
     np(1-p)
    Si n > 30
    .np > 5 n(1-p) > 5
    Poisson
    
     
     > 10
    Distribución de probabilidad exponencial
    Si en el contexto de un proceso de Poisson ocurren eventos o éxitos en un espectro continuo de tiempo y espacio. Entonces la longitud del espacio o tiempo entre eventos sucesivos sigue una distribución de probabilidad exponencial. Puesto que el tiempo y el espacio son un espectro continuo, esta es una distribución continua.
    En caso de este tipo de distribución no vale la pena preguntarse ¿cuál es la probabilidad de que el primer pedido de servicio se haga exactamente de aquí a un minuto?. Mas bien debemos asignar un intervalo dentro del cual el evento puede ocurrir, preguntándonos, ¿cuál es la probabilidad de que el primer pedido se produzca en el próximo minuto?.
    Dado que el proceso de Poisson es estacionario, la distribución exponencial se aplica ya sea cuando estamos interesados en el tiempo (o espacio) hasta el primer evento, el tiempo entre dos eventos sucesivos, o el tiempo hasta que ocurra el primer evento después de cualquier punto aleatoriamente seleccionado.
    Donde es la cifra media de ocurrencias para el intervalo de interés, la probabilidad exponencial de que el primer evento ocurra dentro del intervalo designado de tiempo o espacio es.
    P(T < t) = 1 - e -
    De manera que la probabilidad exponencial de que el primer evento no ocurra dentro del intervalo designado de tiempo o espacio es:
    P(T > t) = e -
    Ejemplo: 
    Un departamento de mantenimiento recibe un promedio de 5 llamadas por hora. Comenzando en un momento aleatoriamente seleccionado, la probabilidad de que una llamada llegue dentro de media hora es:
    Promedio 5 por hora, como el intervalo es media hora tenemos que  = 2,5/media hora.
    P (T < 30 min.) = 1- e -5 = 1 - 0,08208 = 0,91792