Muestreo con probabilidades simples - Inferencia basada en el diseño de muestreo - Estrategias de muestreo, diseño de encuestas y estimación de parámetros - Libros y Revistas - VLEX 747468137

Muestreo con probabilidades simples

AutorAndrés Gutiérrez Rojas
Páginas65-120
Cap´ıtulo 3
Muestras con probabilidades
simples
Las muestras no est´an dadas, las muestras deben ser seleccionadas, asigna-
das o capturadas. El tama˜no de la muestra no siempre es fijo. En estudios
por muestreo, el tama˜no de muestra es casi siempre una variable aleato-
ria. Los datos no siempre son independientes o id´enticamente distribuidos
y usualmente no son seleccionados de una sola poblaci´on, sino de sub-
poblaciones compuestas o complementarias. M´as a´un, no se produce una
sola estimaci´on, se produce un conjunto de estimaciones, as´ı que la historia
que siempre nos han contado est´a equivocada.
Leslie Kish (1996)
Cuando el marco de muestreo disponible para la selecci´on de la muestra es una
lista conteniendo la identificaci´on y la ubicaci´on de los elementos en la poblaci´on,
se utilizan dise˜nos de muestreo que permitan la inclusi´on de ´estos en la muestra de
forma directa. Es decir, en la selecci´on de la muestra, los elementos poblacionales
son las mismas unidades de muestreo. Una vez que el procedimiento de muestreo
ha seleccionado la muestra de elemento, el siguiente paso a realizar es la medici´on
de la caracter´ıstica de inter´es yken cada elemento de la muestra seleccionada
(ks).
En este cap´ıtulo se describen los dise˜nos de muestreo para elementos m´as impor-
tantes, algunos de los cuales son ampliamente utilizados en la pr´actica, otros tienen
la caracter´ıstica de ser de tama˜no de muestra variable o aleatorio. Cuando el marco
de muestreo contiene informaci´on auxiliar de tipo continuo para cada elemento de
la poblaci´on, se utilizar´a esta informaci´on en la selecci´on de la muestra, inducien-
do los dise˜nos proporcionales al tama˜no. Cuando el marco de muestreo contiene
informaci´on auxiliar discreta, se utilizar´an dise˜nos de muestra estratificados que
permiten, a menudo, mayor precisi´on cuando la caracter´ıstica de inter´es presenta
comportamientos diferentes en cada estrato o grupo poblacional.
Para cada dise˜no de muestreo se realiza una descripci´on te´orica, se utilizar´a la po-
blaci´on Upara realizar algunos ejercicios l´exico-gr´aficos que describan el compor-
tamiento de la estrategia de muestreo. Por otro lado, se utilizar´a la poblaci´on Lucy
65
66 3. Muestreo con probabilidades simples
y, con ayuda del paquete TeachingSampling, se seleccionar´a una ´unica mues tra
para la posterior estimaci´on de los par´ametros de inter´es. Tambi´en habr´a ejemplos
pr´acticos de la vida real que permiten una mayor comprensi´on de las caracter´ısti-
cas del dise˜no y un mayor conocimiento a la hora de decidir qu´e dise˜no de muestreo
debe see implementado en determinados casos.
Las estrategias de muestreo implementadas en este cap´ıtulo corresponden a la
utilizaci´on del estimador de Horvitz-Thompson junto con dise˜nos de muestreo sin
reemplazo y/o al uso del estimador de Hansen-Hurwitz en dise˜nos de muestra con
reemplazo.
3.1 Dise˜no de muestreo Bernoulli
En el dise˜no de muestreo Bernoulli se fija a priori (por experiencia o alguna otra
raz´on) la probabilidad de inclusi´on de todos los individuos, la cual permanece cons-
tante para todo el universo. Es decir, πk=πpara todo kU. Un t´ıpico ejemplo
de la implementaci´on de este dise˜no en la pr´actica es la revisi´on de equipajes de
pasajeros por los funcionarios de la aduana en un aeropuerto; se fija la probabilid ad
de inclusi´on para cada pasajero y mediante cierto mecanismo de selecci´on (muy
simple) se selecciona la muestra, conforme las personas van ingresando al sitio.
otese que el tama˜no de muestra n(S) es aleatorio porque una muestra realizada
mediante este mecanismo de selecci´on puede incluir a todos los pasajeros o a ning´un
pasajero de la poblaci´on.
Definici´on 3.1.1. Siendo n(s)el tama˜no de muestra, el dise˜no de muestreo Bernou-
lli selecciona la muestra scon probabilidad
p(s) = (πn(s)(1 π)Nn(s)si stiene tama˜no igual a n(s)
0en otro caso (3.1.1)
3.1.1 Algoritmo de selecci´on
La selecci´on de una muestra con dise˜no Bernoulli conlleva los siguientes pasos:
1. Fijar el valor de πtal que 0 1.
2. Obtener εkpara kUcomo Nrealizaciones indep endientes de una variable
aleatoria con distribuci´on uniforme sobre el intervalo [0,1].
3. El elemento kesimo pertenece a la muestra con probabilidad π. Es decir, si
εkel individuo kesimo es seleccionado.
Dado que εkUnif [0,1], se tiene que P r (εk) = πpara kU. Por tanto, la
inclusi´on de los individuos kesimo y lesimo, para k6=l, es independiente. Esto
implica que la distribuci´on de Ik(S) es Bernoulli Ber(π) y se tiene el siguiente
resultado.
Resultado 3.1.1. Definiendo a Qrcomo el soporte que contiene a to das las po-
sibles muestras de tama˜no r, existen N
rmuestras pertenecientes a Qr. En otras
palabras
3.1. Dise˜no de muestreo Bernoulli 67
#(Qr) = N
rr= 0, . . . , N
Sin embargo, al definir Qcomo el soporte general de todas las posibles muestras
de tama˜nos entre r= 0 yr=N, se tiene que
#(Q) =
N
X
r=1 N
r= 2N
Resultado 3.1.2. Bajo muestreo Bernoulli, la distribuci´on del tama ˜no de muestra
n(S)es binomial Bin(N, π )y
P r(n(S) = r) = X
sQr
p(s) = N
rπr(1 π)Nr,(3.1.2)
con r= 1, . . . , N yQrel sop orte que contiene a todas las posibles muestras de
tama˜no r, donde QrQ.
Prueba. La distribuci´on de Ik(S) es Bernoulli Ber(π), las inclusiones de los in-
dividuos en la muestra son eventos independientes, entonces n(S) = PUIksigue
una distribuci´on binomial. Ahora, dado el dise˜no de muestreo (3.1.1), para cual-
quier sQr, se cumple que p(s) = πr(1 π)Nr. Como existen N
rmaneras de
seleccionar una muestra de relementos de una poblaci´on de tama˜no N, se tiene
que #(Qr) = N
r. Luego, al sumar p(s) sobre todas las muestras del soporte Qr
se obtiene el resultado.
Como n(S) es aleatorio, existen 2Nposibles muestras en el soporte Q. N´otese que
n(S) tiene una distribuci´on Binomial y, por tanto, su esperanza y varianza est´an
dadas por:
E(n(S)) = V ar(n(S)) = N(π)(1 π),(3.1.3)
Aunque el investigador haya fijado las probabilidades de inclusi´on, se puede verifi-
car que realmente el dise˜no de muestreo Bernoulli cumple las condiciones estableci-
das en el cap´ıtulo anterior y tambi´en que las pr obabilidades de inclusi´on, inducidas
por el dise˜no de muestreo, son id´enticas para cada elemento en la poblaci´on πk=π.
Resultado 3.1.3. Bajo el dise ˜no de muestreo Bernoulli, se verifica que
X
sQ
p(s) = 1 (3.1.4)
Prueba. Para una poblaci´on de tama˜no N, el tama˜no de muestra puede ser r
con r= 0,1, . . . , N. Es suficiente probar que PN
r=0 P r(n(S) = r) = 1, utilizando
el teorema binomial se tiene de inmediato porque n(S)Bin(N , π). M´as a´un, se

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR