Introduction aux épreuves Bernoulli

Live
0

Théorie de base

Définition

Le processus d'essais de Bernoulli , du nom de Jacob Bernoulli, est l'un des processus aléatoires les plus simples mais les plus importants en probabilité. Essentiellement, le processus est l'abstraction mathématique du tirage au sort, mais en raison de sa large applicabilité, il est généralement énoncé en termes d'une séquence d' essais génériques .



Une séquence d' essais de Bernoulli satisfait les hypothèses suivantes :

  1. Chaque essai a deux résultats possibles, dans le langage de la fiabilité appelé succès et échec .
  2. Les épreuves sont indépendantes. Intuitivement, le résultat d'un essai n'a aucune influence sur le résultat d'un autre essai.
  3. A chaque essai, la probabilité de succès est p et la probabilité d'échec est 1p où p??[0,1]est le paramètre de réussite du processus.

Variables aléatoires

Mathématiquement, nous pouvons décrire le processus d'essais de Bernoulli avec une séquence de variables aléatoires indicatrices :

(11.1.1)X=(X1,X2,)

Une variable indicatrice est une variable aléatoire qui ne prend que les valeurs 1 et 0, qui dans ce paramètre indiquent respectivement le succès et l'échec. Variable indicatriceXje enregistre simplement le résultat du procès jeAinsi, les variables indicatrices sont indépendantes et ont la même fonction de densité de probabilité :

(11.1.2)P(Xje=1)=p,P(Xje=0)=1p
La distribution définie par cette fonction de densité de probabilité est connue sous le nom de distribution de Bernoulli . En termes statistiques, le processus d'essais de Bernoulli correspond à un échantillonnage de la distribution de Bernoulli. En particulier, le premierm essais (X1,X2,,Xm) former un échantillon aléatoire de taille mde la distribution de Bernoulli. Notons encore que le processus des essais de Bernoulli est caractérisé par un seul paramètrep.

La fonction de densité de probabilité conjointe de (X1,X2,,Xm) les épreuves sont données par

(11.1.3)Fm(X1,X2,,Xm)=pX1+X2+??+Xm(1p)m(X1+X2+??+Xm),(X1,X2,,Xm)??{0,1}m

Preuve

Notez que l'exposant de p dans la fonction de densité de probabilité est le nombre de succès dans le m essais, tandis que l'exposant de 1p est le nombre d'échecs.

Si X=(X1,X2,,) est un processus d'essais de Bernoulli avec le paramètre p alors 1X=(1X1,1X2,) est une suite d'essais de Bernoulli de paramètre 1p.

Supposer que U=(U1,U2,) est une séquence de variables aléatoires indépendantes, chacune avec la distribution uniforme sur l'intervalle [0,1]Pourp??[0,1] et je??N+, laisser Xje(p)=1(Uje??p)PuisX(p)=(X1(p),X2(p),) est un processus d'essais de Bernoulli avec probabilité p.

Notez que dans le résultat précédent, les essais de Bernoulli traitent pour toutes les valeurs possibles du paramètre psont définis sur un espace de probabilité commun. Ce type de construction est parfois appelé accouplement . Ce résultat montre également comment simuler un processus d'essais de Bernoulli avec des nombres aléatoires. Tous les autres processus aléatoires étudiés dans ce chapitre sont des fonctions de la séquence d'essais de Bernoulli et peuvent donc également être simulés.

Des moments

Laisser X être une variable indicatrice avec P(X=1)=p, où p??[0,1]Ainsi,X est le résultat d'un essai générique de Bernoulli et a la distribution de Bernoulli avec le paramètre pLes résultats suivants donnent la moyenne, la variance et certains des moments les plus élevés. Un fait utile est que si nous prenons une puissance positive d'une variable indicatrice, rien ne se passe ; C'est,Xm=X pour m>0

La moyenne et la variance de X sommes

  1. E(X)=p
  2. var(X)=p(1p)
Preuve

A noter que le graphique de var(X), en tant que fonction de p??[0,1]est une parabole s'ouvrant vers le bas. En particulier, la plus grande valeur est14 lorsque p=12, et la plus petite valeur est 0 lorsque p=0 ou p=1Bien entendu, dans les deux derniers cas,X est déterministe, prenant la valeur unique 0 lorsque p=0 et la valeur unique 1 lorsque p=1

Graphique des écarts

Chiffre 11.1.1var(X) en tant que fonction de p

Supposer que p??(0,1)L'asymétrie et l'aplatissement deX sommes

  1. fausser(X)=12pp(1p)
  2. kurt(X)=3+1p(1p)

La fonction génératrice de probabilité de X est P(t)=E(tX)=(1p)+pt pour t??R.

Exemples et applications

Pièces de monnaie

Comme nous l'avons noté précédemment, l'exemple le plus évident des essais de Bernoulli est le tirage au sort, où le succès signifie face et l'échec signifie pile. Le paramètrep est la probabilité de face (donc en général, la pièce est biaisée).

Dans l'expérience de base de la pièce, définissez m=100 et pour chaque p??{0,1,0,3,0,5,0,7,0,9} exécuter l'expérience et observer les résultats.

Exemples génériques

Dans un sens, l'exemple le plus général d'essais de Bernoulli se produit lorsqu'une expérience est répliquée. Plus précisément, supposons que nous ayons une expérience aléatoire de base et un événement d'intérêtUNESupposons maintenant que nous créions une expérience composée qui consiste en des réplications indépendantes de l'expérience de base. Définir le succès à l'essaije signifier cet événement UNE s'est produit le jeth run, et définir l'échec à l'essai je signifier cet événement UNE ne s'est pas produit le jee course. Ceci définit clairement un processus d'essais de Bernoulli avec le paramètrep=P(UNE).

Des essais de Bernoulli sont également formés lorsque nous échantillonnons à partir d'une population dichotomique. Plus précisément, supposons que nous ayons une population de deux types d'objets, que nous appellerons type 0 et type 1. Par exemple, les objets pourraient être des personnes, classées comme hommes ou femmes , ou les objets pourraient être des composants, classés comme bon ou défectueux . Nous sélectionnonsmobjets au hasard parmi la population; par définition, cela signifie que chaque objet de la population au moment du tirage est également susceptible d'être choisi. Si l'échantillonnage est avec remise , alors chaque objet tiré est remplacé avant le prochain tirage. Dans ce cas, les tirages successifs sont indépendants, de sorte que les types des objets de l'échantillon forment une séquence d'essais de Bernoulli, dans laquelle le paramètrepest la proportion d'objets de type 1 dans la population. Si l'échantillonnage est sans remise , alors les tirages successifs sont dépendants, de sorte que les types des objets de l'échantillon ne forment pas une séquence d'essais de Bernoulli. Cependant, si la taille de la population est grande par rapport à la taille de l'échantillon, la dépendance causée par le non-remplacement des objets peut être négligeable, de sorte qu'à toutes fins pratiques, les types d'objets dans l'échantillon peuvent être traités comme une séquence d'essais de Bernoulli. . Une discussion supplémentaire sur l'échantillonnage à partir d'une population dichotomique se trouve dans le chapitre Modèles d'échantillonnage fini.

Supposons qu'un élève passe un test à choix multiples. Le test comporte 10 questions, chacune ayant 4 réponses possibles (une seule correcte). Si l'élève devine aveuglément la réponse à chaque question, les questions forment-elles une séquence d'essais de Bernoulli ? Si oui, identifiez les résultats de l'essai et le paramètrep.

Réponse

Candidat UNEest candidat à un poste dans un certain district. Vingt personnes sont choisies au hasard parmi la population des électeurs inscrits et invitées à choisir leur candidatUNELes réponses forment-elles une séquence d'essais de Bernoulli ? Si oui, identifiez les résultats de l'essai et la signification du paramètrep.

Réponse

Une roue de roulette américaine a 38 emplacements ; 18 sont rouges, 18 sont noirs et 2 sont verts. Un joueur joue à la roulette 15 fois, en pariant à chaque fois sur le rouge. Les résultats forment-ils une séquence d'essais de Bernoulli ? Si oui, identifiez les résultats de l'essai et le paramètrep.

Réponse

La roulette est abordée plus en détail dans le chapitre sur les jeux de hasard.

Deux joueurs de tennis jouent un ensemble de 6 jeux. Les jeux forment-ils une séquence d'épreuves de Bernoulli ? Si oui, identifiez les résultats de l'essai et la signification du paramètrep.

Réponse

Fiabilité

Rappelons que dans le modèle standard de fiabilité structurelle, un système est composé de mcomposants qui fonctionnent indépendamment les uns des autres. LaisserXje désigne l'état du composant je, où 1 signifie fonctionner et 0 signifie échec. Si les composants sont tous du même type, alors notre hypothèse de base est que le vecteur d'état

(11.1.4)X=(X1,X2,,Xm)
est une séquence d'essais de Bernoulli. L'état du système, (là encore où 1 signifie fonctionner et 0 signifie échoué) ne dépend que de l'état des composants, et est donc une variable aléatoire
(11.1.5)Oui=s(X1,X,,Xm)
où s:{0,1}m{0,1}est la fonction de structure . Généralement, la probabilité qu'un appareil fonctionne est la fiabilité de l'appareil, donc le paramètrepde la séquence d'essais de Bernoulli est la fiabilité commune des composants. Par indépendance, la fiabilité du système r est fonction de la fiabilité du composant :
(11.1.6)r(p)=Pp(Oui=1),p??[0,1]
où nous soulignons la dépendance de la mesure de probabilité P sur le paramètre pAssez convenablement, cette fonction est connue sous le nom de fonction de fiabilité . Notre défi est généralement de trouver la fonction de fiabilité, étant donné la fonction de structure.

Un système en série fonctionne si et seulement si chaque composant fonctionne.

  1. L'état du système est Oui=X1X2??Xm=min{X1,X2,,Xm}.
  2. La fonction de fiabilité est r(p)=pm pour p??[0,1].

Un système parallèle fonctionne si et seulement si au moins un composant fonctionne.

  1. L'état du système est Oui=1(1X1)(1X2)??(1Xm)=max{X1,X2,,Xm}.
  2. La fonction de fiabilité est r(p)1(1p)m pour p??[0,1].

Rappelons que dans certains cas, le système peut être représenté sous forme de graphe ou de réseau . Les arêtes représentent les composants et les sommets les connexions entre les composants. Le système fonctionne si et seulement s'il existe un chemin de travail entre deux sommets désignés, que nous désignerons parune et b.

Trouvez la fiabilité du réseau de ponts de Wheatstone illustré ci-dessous (du nom de Charles Wheatstone).

Réseau de ponts

Chiffre 11.1.2: Le réseau du pont de Wheatstone

Réponse

Le test sanguin poolé

Supposons que chaque personne d'une population, indépendamment de toutes les autres, souffre d'une certaine maladie avec une probabilité p??(0,1)Ainsi, vis-à-vis de la maladie, les personnes de la population forment une séquence d'essais de Bernoulli. La maladie peut être identifiée par un test sanguin, mais bien sûr le test a un coût.

Pour un groupe de kpersonnes, nous comparerons deux stratégies. La première consiste à tester lek personnes individuellement, de sorte que, bien sûr, kdes tests sont nécessaires. La deuxième stratégie consiste à mettre en commun les échantillons de sang deskpersonnes et tester d'abord l'échantillon regroupé. On suppose que le test est négatif si et seulement si touskles personnes sont indemnes de la maladie ; dans ce cas, un seul test est requis. En revanche, le test est positif si et seulement si au moins une personne est atteinte de la maladie, auquel cas il faut alors tester les personnes individuellement ; dans ce cask+1des tests sont nécessaires. Ainsi, laissezOui désignent le nombre de tests requis pour la stratégie groupée.

Le nombre d'épreuves Oui a les propriétés suivantes :

  1. P(Oui=1)=(1p)k,P(Oui=k+1)=1(1p)k
  2. E(Oui)=1+k[1(1p)k]
  3. var(Oui)=k2(1p)k[1(1p)k]

En termes de valeur attendue, la stratégie groupée est meilleure que la stratégie de base si et seulement si

(11.1.7)p<1(1k)1/k

Le graphique de la valeur critique pk=1(1/k)1/k en tant que fonction de k??[2,20] est représenté dans le graphique ci-dessous :

Piscine.png

Chiffre 11.1.3: Le graphique de pk en tant que fonction de k

La valeur critique pk satisfait les propriétés suivantes :

  1. La valeur maximale de pk se produit à k=3 et p3??0,307.
  2. pk0 comme k??.

Il s'ensuit que si p??0,307, la mutualisation n'a jamais de sens, quelle que soit la taille du groupe kA l'autre extrême, sip est très petite, de sorte que la maladie est assez rare, la mise en commun est meilleure sauf si la taille du groupe k est très grand.

Supposons maintenant que nous ayons mpersonnes. Sik??m alors nous pouvons diviser la population en m/k groupes de kchacun, et appliquer la stratégie groupée à chaque groupe. Noter quek=1 correspond à des tests individuels, et k=mcorrespond à la stratégie mutualisée sur l'ensemble de la population. LaisserOuije désigne le nombre de tests requis pour le groupe je.

Les variables aléatoires (Oui1,Oui2,,Ouim/k)sont indépendants et chacun a la distribution donnée ci-dessus .

Le nombre total de tests requis pour ce schéma de partitionnement est Zm,k=Oui1+Oui2+??+Ouim/k.

Le nombre total de tests attendu est

(11.1.8)E(Zm,k)={m,k=1m[(1+1k)(1p)k],k>1

La variance du nombre total de tests est

(11.1.9)var(Zm,)={0,k=1mk(1p)k[1(1p)k],k>1

Ainsi, en termes de valeur attendue, la stratégie optimale consiste à regrouper la population en m/k groupes de taille k, où kminimise la fonction de valeur attendue ci-dessus. Il est difficile d'obtenir une expression fermée pour la valeur optimale dek, mais cette valeur peut être déterminée numériquement pour des m et p.

Pour les valeurs suivantes de m et p, trouver la taille de pooling optimale ket le nombre prévu de tests. (Restreindre votre attention aux valeurs dek qui divise m.)

  1. m=100p=0,01
  2. m=1000p=0,05
  3. m=1000p=0,001
Réponse

Si k ne divise pas m, alors nous pourrions diviser la population de m personnes en ??m/k?? groupes de kchacun et un groupe restant avecmmodekmembres. Cela complique clairement l'analyse, mais n'introduit pas d'idées nouvelles, nous laisserons donc cette extension au lecteur intéressé.

Post a Comment

0Comments

Post a Comment (0)

#buttons=(Accept !) #days=(20)

Our website uses cookies to enhance your experience. Check Now
Accept !