Ανεξαρτησία (θεωρία πιθανοτήτων)

Από testwiki
Μετάβαση στην πλοήγηση Πήδηση στην αναζήτηση

Στην θεωρία πιθανοτήτων, δύο γεγονότα A και B λέγονται ανεξάρτητα όταν γνωρίζοντας αν έγινε το ένα από τα δύο, δεν λαμβάνουμε πληροφορίες για το αν έγινε το άλλο. Διαφορετικά, λέγονται εξαρτημένα.

Για παράδειγμα, αν ρίξουμε ένα (δίκαιο) ζάρι δύο φορές και τα αποτελέσματα είναι X1 και X2, τα γεγονότα {X1=6} και {X2=3} είναι ανεξάρτητα, δηλαδή η γνώση ότι το πρώτο ζάρι ήταν 6 δεν μας δίνει (παραπάνω) πληροφορία για το αν το άλλο ζάρι ήταν 3.

Αντίθετα, αν διαλέξουμε δύο φύλλα από μία τράπουλα X1 και X2 το ένα κατόπιν του άλλου, τότε τα γεγονότα {X1=3♣} και {X2=5♥} δεν είναι ανεξάρτητα, καθώς αν γνωρίζουμε ότι το πρώτο φύλλο είναι το 3♣, τότε αυξάνονται οι πιθανότητες το δεύτερο φύλλο να είναι το 5♥. Αν επιστρέφαμε το πρώτο φύλλο στην τράπουλα προτού διαλέξουμε το δεύτερο φύλλο, τότε τα δύο γεγονότα θα ήταν ανεξάρτητα.

Ορισμός

Δύο γεγονότα A,BΩ λέγονται ανεξάρτητα αν ισχύει ότι:[1][2][3][4]

P(AB)=P(A)P(B).

Πιο γενικά, n γεγονότα A1,A2,,An είναι ανεξάρτητα αν για κάθε k[1,n] και κάθε i1<<ik έχουμε ότι:

P(Ai1Aik)=P(Ai1)P(Aik).

Αντίστοιχα, δύο τυχαίες μεταβλητές X και Y είναι ανεξάρτητες αν για κάθε x,y, τα γεγονότα {Xx} και {Yy} είναι ανεξάρτητα. ή ισοδύναμα:

FX,Y(x,y)=FX(x)FY(y).

Αντίστοιχα, n τυχαίες μεταβλητές X1,,Xn είναι ανεξάρτητες αν για κάθε x1,,xn:

FX1,,Xn(x1,,xn)=FX1(x1)FXn(xn).

Ιδιότητες

  • Το γεγονός A είναι ανεξάρτητο του εαυτού του, αν και μόνο αν A=Ω ή A=.
  • Αν οι τυχαίες μεταβλητές X και Y είναι ανεξάρτητες, τότε και οι f(X) και g(Y) είναι ανεξάρτητες, για οποιεσδήποτε συναρτήσεις f και g.
  • Έστω X και Y ανεξάρτητες μεταβλητές. Τότε,
E[XY]=E[X]E[Y],

Πρότυπο:Μαθηματική απόδειξη

και για την συνδιακύμανσή τους, ισχύει ότι
Cov(X,Y)=0.

Πρότυπο:Μαθηματική απόδειξη

  • (Ταυτότητα Bienaymé) Έστω n ανεξάρτητες τυχαίες μεταβλητές X1,,Xn, τότε η διακύμανση του αθροίσματος τους είναι ίση με το άθροισμα των διακύμανσεών τους:
Var(i=1nXi)=i=1nVar(Xi).

Δείτε επίσης

Παραπομπές