View Full Version : statistica: help su calcolo combinatorio
sarà che non è giornata ma continua a sfuggirmi la differenza tra una combinazione ed una disposizione :muro: :muro:
aiuto!
wikipedia ti è amica :O
http://it.wikipedia.org/wiki/Combinazione
http://it.wikipedia.org/wiki/Disposizione
la differenza è che nelle combinazioni non conta l'ordine mentre per le disposizioni si, quindi, per esempio,
1 2 3 4 5 6
1 4 3 6 2 5
sono 2 disposizioni ma una sola combinazione
avevo già letto in wikipedia ma mi sono rimasti ancora dubbi sulla differenze tra le due, da me indicate
wikipedia ti è amica :O
http://it.wikipedia.org/wiki/Combinazione
http://it.wikipedia.org/wiki/Disposizione
la differenza è che nelle combinazioni non conta l'ordine mentre per le disposizioni si, quindi, per esempio,
1 2 3 4 5 6
1 4 3 6 2 5
sono 2 disposizioni ma una sola combinazione
che sbadato :D
ora ho capito.....
1 2 3 4 5 6 = 1 4 3 6 2
in quanto contengono gli stessi oggetti anche se in ordine differente(questo vale per le combinazioni)
se invece parliamo di disposizioni 1 2 3 4 5 6 != 1 4 3 6 2 :stordita:
le combinazioni differiscono per gli oggetti contenuti le disposizione invece per gli oggetti e per la posizione di essi.... a questi due si aggiungono le permutazioni che differiscono per la posizione dell'oggetto
una combinazione è come nel gioco delle carte: non importa in quale ordine uno sistema una mano di carte es: un asso un re ed una donna; cambiandone l'ordine: donna, asso, re la mano di carte non cambia(ha lo stesso significato)
Quindi dire combinazione di numeri (per un codice ad esempio) per come lo intendiamo noi è sbagliato, in quanto in un codice l'ordine conta eccome... O mi sbaglio?
Già che ci siamo ho anch'io un quesito:
Voglio creare un codice alfanumerico formato da 9 caselle, (5 numeri e 4 lettere). Le possibili disposizioni sono date da:
10^5 (dieci cifre fra 0-9)*25^4 (25 lettere dell'alfabeto) * 9! (le permutazioni di 9 caselle tra loro) = 1,41*10^16.
Perchè allora mi viene un risultato diverso se calcolo 35^9 (35 posizioni tra da 0 a Z) ossia 7,88*10^13?
Cosa sbaglio nel ragionamento? I risultati non dovrebbero essere uguali?
Quindi dire combinazione di numeri (per un codice ad esempio) per come lo intendiamo noi è sbagliato, in quanto in un codice l'ordine conta eccome... O mi sbaglio?
non sbagli, sarebbe corretto parlare di disposizioni
Già che ci siamo ho anch'io un quesito:
Voglio creare un codice alfanumerico formato da 9 caselle, (5 numeri e 4 lettere). Le possibili disposizioni sono date da:
10^5 (dieci cifre fra 0-9)*25^4 (25 lettere dell'alfabeto) * 9! (le permutazioni di 9 caselle tra loro) = 1,41*10^16.
Perchè allora mi viene un risultato diverso se calcolo 35^9 (35 posizioni tra da 0 a Z) ossia 7,88*10^13?
Cosa sbaglio nel ragionamento? I risultati non dovrebbero essere uguali?
nel primo caso il codice permette disposizioni di 9 caratteri dei quali 5 numeri e 4 lettere; nel secondo caso disposizioni di 9 caratteri qualsiasi: potrebbero essere 0 numeri e 9 lettere, 1 numero e 8 lettere, 2 numeri e 7 lettere etc etc. vien da sè che il secondo caso ammetta un numero molto più grande di possibili disposizioni :)
[edit] mi sono accorto ora di un errore nella prima formula da te riportata: non va moltiplicata per 9!, bensì per 9!/(5!*4!), formula della permutazione di n oggetti non tutti diversi, dove n = 9 (i caratteri possibili) = k + j (con k = 5, i numeri, e j = 4, le lettere)
il che significa moltiplicare tutto per 126 e non per 362880 ;)
il risultato quindi è:
10^5 * 25^4 * 9!/(5!*4!) = 4,92*10^12 < 35^9 = 7,88*10^13
se non ho commesso errori in linea teorica dovrebbe verificarsi l'equazione:
10^0 * 25^9 * 9!/(0!*9!) + 10^1 * 25^8 * 9!/(1!*8!) + 10^2 * 25^7 * 9!/(2!*7!) + 10^3 * 25^6 * 9!/(3!*6!) + 10^4 * 25^5 * 9!/(4!*5!) + 10^5 * 25^4 * 9!/(5!*4!) + 10^6 * 25^3 * 9!/(6!*3!) + 10^7 * 25^2 * 9!/(7!*2!) + 10^8 * 25^1 * 9!/(8!*1!) + 10^9 * 25^0 * 9!/(9!*0!) = 35^9
(ovvero la somma di tutte le disposizioni possibili con rispettivamente 0 numeri 9 lettere, 1 numero 8 lettere, 2 numeri 7 lettere etc etc, è uguale al caso generale di 9 caratteri qualsiasi)
se volete provare a fare i conti... :p
edit2: in effetti ho fatto i conti e il calcolo è esatto, l'equazione è verificata :D
approfitto anch'io per una domanda :D
che diamine si intende per principio di simmetria ? :stordita:
approfitto anch'io per una domanda :D
che diamine si intende per principio di simmetria ? :stordita:
ti riferisci alla simmetria statistica, questa (http://it.wikipedia.org/wiki/Simmetria_%28statistica%29)?
ti riferisci alla simmetria statistica, questa (http://it.wikipedia.org/wiki/Simmetria_%28statistica%29)?
no!
La definizione che ho trovatio io è questa:
Principio di simmetria: Dato un fenomeno ed n sue osservazioni, s e non attivo alcuno strumento per determinare o almeno favorire l’ordine con cui effettuare queste osservazioni all’interno di un insieme di sue permutazioni, ivi compresa quella in atto, allora ogni affermazione che faccio sul fenomeno deve rimanere vera qualunque sia la sequenza con cui le osservazioni si presentano all’interno di questo insieme.
Però non mi è chiaro il significato
non sbagli, sarebbe corretto parlare di disposizioni
nel primo caso il codice permette disposizioni di 9 caratteri dei quali 5 numeri e 4 lettere; nel secondo caso disposizioni di 9 caratteri qualsiasi: potrebbero essere 0 numeri e 9 lettere, 1 numero e 8 lettere, 2 numeri e 7 lettere etc etc. vien da sè che il secondo caso ammetta un numero molto più grande di possibili disposizioni :)
[edit] mi sono accorto ora di un errore nella prima formula da te riportata: non va moltiplicata per 9!, bensì per 9!/(5!*4!), formula della permutazione di n oggetti non tutti diversi, dove n = 9 (i caratteri possibili) = k + j (con k = 5, i numeri, e j = 4, le lettere)
il che significa moltiplicare tutto per 126 e non per 362880 ;)
il risultato quindi è:
10^5 * 25^4 * 9!/(5!*4!) = 4,92*10^12 < 35^9 = 7,88*10^13
se non ho commesso errori in linea teorica dovrebbe verificarsi l'equazione:
10^0 * 25^9 * 9!/(0!*9!) + 10^1 * 25^8 * 9!/(1!*8!) + 10^2 * 25^7 * 9!/(2!*7!) + 10^3 * 25^6 * 9!/(3!*6!) + 10^4 * 25^5 * 9!/(4!*5!) + 10^5 * 25^4 * 9!/(5!*4!) + 10^6 * 25^3 * 9!/(6!*3!) + 10^7 * 25^2 * 9!/(7!*2!) + 10^8 * 25^1 * 9!/(8!*1!) + 10^9 * 25^0 * 9!/(9!*0!) = 35^9
(ovvero la somma di tutte le disposizioni possibili con rispettivamente 0 numeri 9 lettere, 1 numero 8 lettere, 2 numeri 7 lettere etc etc, è uguale al caso generale di 9 caratteri qualsiasi)
se volete provare a fare i conti... :p
edit2: in effetti ho fatto i conti e il calcolo è esatto, l'equazione è verificata :D
Grazie 1000!!!
In effetti mi ero dimenticato di "togliere" al 9! il 4 e 5 che inevitabilmente fa abbassare il conto.
no!
La definizione che ho trovatio io è questa:
Principio di simmetria: Dato un fenomeno ed n sue osservazioni, s e non attivo alcuno strumento per determinare o almeno favorire l’ordine con cui effettuare queste osservazioni all’interno di un insieme di sue permutazioni, ivi compresa quella in atto, allora ogni affermazione che faccio sul fenomeno deve rimanere vera qualunque sia la sequenza con cui le osservazioni si presentano all’interno di questo insieme.
Però non mi è chiaro il significato
mi spiace su questo non ti so aiutare, non ne avevo mai sentito parlare :help:
in particolare, scritto così fuori contesto, mi sfugge il significato di "un insieme di sue permutazioni" riferito ad un fenomeno e alle sue osservazioni :what:
cmq si tratta sempre di un ambito statistico giusto? visto che si parla di fenomeni e di osservazioni...
mi spiace su questo non ti so aiutare, non ne avevo mai sentito parlare :help:
in particolare, scritto così fuori contesto, mi sfugge il significato di "un insieme di sue permutazioni" riferito ad un fenomeno e alle sue osservazioni :what:
cmq si tratta sempre di un ambito statistico giusto? visto che si parla di fenomeni e di osservazioni...
si, sempre in ambito statistico!
hai chiaro cosa si intende per spazio campionario e spazio degli eventi ?
si, sempre in ambito statistico!
hai chiaro cosa si intende per spazio campionario e spazio degli eventi ?
hmm direi di si: detto velocemente (magari non è rigoroso, ma per intenderci...) lo spazio campionario è l'insieme di tutti gli eventi elementari possibili (ad esempio lanciando un dado normale lo spazio campionario è l'insieme {1,2,3,4,5,6}).
lo spazio degli eventi dovrebbe essere un'estensione dello spazio campionario in modo che l'insieme risulti chiuso rispetto all'unione e alla complementazione.
anche se in pratica generalmente parlando di spazio campionario e spazio degli eventi si intende la stessa cosa...
hmm direi di si: detto velocemente (magari non è rigoroso, ma per intenderci...) lo spazio campionario è l'insieme di tutti gli eventi elementari possibili (ad esempio lanciando un dado normale lo spazio campionario è l'insieme {1,2,3,4,5,6}).
lo spazio degli eventi dovrebbe essere un'estensione dello spazio campionario in modo che l'insieme risulti chiuso rispetto all'unione e alla complementazione.
anche se in pratica generalmente parlando di spazio campionario e spazio degli eventi si intende la stessa cosa...
insieme chiuso rispetto all'unione e alla complementazione significa che presi due elementi dello stesso spazio e fatta l'unione o la complementzione ottengo un oggetto sempre dello stesso spazio ?
Ero convinto che uno spazio degli eventi fosse uno spazio che contenesse spazi campionari invece, contiene sottospazi di spazi campionari :stordita:
Allora non mi è chiaro ad esempio nel lancio di dadi dove fissato uno spazio campionario:
spazio campionario={1,2,3,4,5,6}
e dove mi interessa determinare la probabilità che escano solo numeri pari, come sarà formato lo spazio degli eventi. Se può contenere più sottoinsiemi significa che posso formare il mio spazio degli eventi con considerazioni diverse del mio spazio campionario e poi con questi oggetti studiare attraverso le operazioni insiemistiche se uno o più eventi sono congiunti o meno.....
Supponendo ancora che mi interessi conoscere la probablità dei numeri pari e che io disponga di due dadi, l'uno numerato e l'atro colorato e mi interessi studiare il caso in cui esca un 6 da un dado e faccia rossa dall'altro, come sarà formato lo spazio campionario e quello degli eventi ? :stordita:
insieme chiuso rispetto all'unione e alla complementazione significa che presi due elementi dello stesso spazio e fatta l'unione o la complementzione ottengo un oggetto sempre dello stesso spazio ?
Ero convinto che uno spazio degli eventi fosse uno spazio che contenesse spazi campionari invece, contiene sottospazi di spazi campionari :stordita:
Allora non mi è chiaro ad esempio nel lancio di dadi dove fissato uno spazio campionario:
spazio campionario={1,2,3,4,5,6}
e dove mi interessa determinare la probabilità che escano solo numeri pari, come sarà formato lo spazio degli eventi. Se può contenere più sottoinsiemi significa che posso formare il mio spazio degli eventi con considerazioni diverse del mio spazio campionario e poi con questi oggetti studiare attraverso le operazioni insiemistiche se uno o più eventi sono congiunti o meno.....
Supponendo ancora che mi interessi conoscere la probablità dei numeri pari e che io disponga di due dadi, l'uno numerato e l'atro colorato e mi interessi studiare il caso in cui esca un 6 da un dado e faccia rossa dall'altro, come sarà formato lo spazio campionario e quello degli eventi ? :stordita:
ti risp in velocità, dovrei controllare per sicurezza, cmq:
1) lo spazio degli eventi nel caso interessino solo i numeri pari sarà: {numero_pari, numero_dispari}
2) non ho capito, ti interessa l'evento numero pari oppure l'evento numero 6? ad ogni modo lo spazio campionario (supponendo il dado colorato con tutte le facce diverse) sarà: {1bianco, 1rosso, 1verde, 1blu, 1nero, 1giallo, 2bianco, 2rosso, 2verde, 2blu, 2nero, 2giallo, 3bianco, 3rosso, 3verde, 3blu, 3nero, 3giallo, 4bianco, 4rosso, 4verde, 4blu, 4nero, 4giallo, 5bianco, 5rosso, 5verde, 5blu, 5nero, 5giallo, 6bianco, 6rosso, 6verde, 6blu, 6nero, 6giallo,}
nel caso ti interessi l'evento numero 6 e faccia rossa allora lo spazio degli eventi sarebbe semplicemente: {6rosso, non_6rosso} dove non_6rosso è dato dall'insieme di tutti di eventi elementari dello spazio campionario meno l'evento elementare 6rosso.
ti risp in velocità, dovrei controllare per sicurezza, cmq:
1) lo spazio degli eventi nel caso interessino solo i numeri pari sarà: {numero_pari, numero_dispari}
2) non ho capito, ti interessa l'evento numero pari oppure l'evento numero 6? ad ogni modo lo spazio campionario (supponendo il dado colorato con tutte le facce diverse) sarà:
{1bianco, 1rosso, 1verde, 1blu, 1nero, 1giallo, 2bianco, 2rosso, 2verde, 2blu, 2nero, 2giallo, 3bianco, 3rosso, 3verde, 3blu, 3nero, 3giallo, 4bianco, 4rosso, 4verde, 4blu, 4nero, 4giallo, 5bianco, 5rosso, 5verde, 5blu, 5nero, 5giallo, 6bianco, 6rosso, 6verde, 6blu, 6nero, 6giallo,}
nel caso ti interessi l'evento numero 6 e faccia rossa allora lo spazio degli eventi sarebbe semplicemente: {6rosso, non_6rosso} dove non_6rosso è dato dall'insieme di tutti di eventi elementari dello spazio campionario meno l'evento elementare 6rosso.
pensavo invece che si dovessero costuire due spazi campionari e poi una volta costruiti, finissero entrambi nello spazio degli eventi.
Quindi, i lanci dei miei dadi e cioè i risultati(eventi) finiscono nello spazio degli eventi ?
pensavo invece che si dovessero costuire due spazi campionari e poi una volta costruiti, finissero entrambi nello spazio degli eventi.
Quindi, i lanci dei miei dadi e cioè i risultati(eventi) finiscono nello spazio degli eventi ?
premesso che per ogni esperimento lo spazio campionario relativo è uno soltanto (è l'insieme di tutti i risultati possibili, ovvero gli eventi elementari detti anche punti campionari), non se ne possono costruire due come dici!
sono andato a ricontrollare il concetto di spazio degli eventi, e nel reply precedente ho scritto una cavolata: infatti lo spazio degli eventi è l'insieme di tutti i sottoinsiemi (ammissibili) dello spazio campionario, ovvero è l'insieme di tutti gli eventi (ammissibili).
quindi riprendendo gli esempi che hai portato prima {numero_pari, numero_dispari}={246,135} non è lo spazio degli eventi, ma solamente un suo sottoinsieme. lo spazio degli eventi è dato invece dalla lista di TUTTI gli eventi possibili: {1,2,3,4,5,6,12,13,14,15,16,23,24,25,26,34,35,36,45,46,56,123,124,125,126,134,135,136,145,146,234,235,236,245,246,256,345,346, ....}
ricapitolando:
spazio campionario (insieme di tutti gli eventi elementari): tutti gli eventi elementari di un esperimento finiscono nel suo relativo spazio campionario
spazio degli eventi (insieme di tutti gli eventi): tutti gli eventi di un esperimento finiscono nel suo relativo spazio degli eventi
ti faccio un ultimo esempio molto semplice, caso di lancio di una moneta:
spazio campionario: {esce T, esce C}
spazio degli eventi: {esce T, esce C, esce T e C, esce T o C}
ti faccio un ultimo esempio molto semplice, caso di lancio di una moneta:
spazio campionario: {esce T, esce C}
spazio degli eventi: {esce T, esce C, esce T e C, esce T o C}
sei stato chiarissimo....
quindi se desidero verificare se due eventi sono congiunti(dipendenti) è sufficiente prendere due sottoinsiemi dello spazio degli eventi ed attraverso le operazioni dell'insiemistica fare le mie verifiche, almeno: credo di aver capito così :stordita:
sei stato chiarissimo....
quindi se desidero verificare se due eventi sono congiunti(dipendenti) è sufficiente prendere due sottoinsiemi dello spazio degli eventi ed attraverso le operazioni dell'insiemistica fare le mie verifiche, almeno: credo di aver capito così :stordita:
hmmm non esattamente.
con le operazioni insiemistiche è possibile verificare se 2 eventi sono compatibili o incompatibili. ad esempio, su un tiro di dado: esce_pari e esce_dispari sono eventi incompatibili; esce_minore_di_4 e esce_dispari sono eventi compatibili (1 e 3 sono numeri sia dispari che minori di 4).
per verificarlo è sufficiente fare l'intersezione dei 2 eventi sullo spazio campionario: se l'insieme risultante è vuoto allora sono incompatibili, viceversa sono compatibili.
parlando della dipendenza/indipendenza le cose non sono così immediate: la dipendenza di un evento A rispetto all'evento B implica un restringimento dello spazio campionario, in particolar modo lo spazio campionario diventa coincidente con l'insieme B, e l'evento A diventa coincidente con l'insieme A disgiunto B.
per verificare che A è indipendente da B deve risultare P(A|B) = P(A) e quindi P(A disgiunto B) = P(A)*P(B) (la probabilità che si verifichi sia A che B è uguale alla probabilità che si verifichi A moltiplicato per la probabilità che si verifiche B) ovverosia dobbiamo tirare in ballo la funzione probabilità P associata agli eventi, non sono sufficienti le operazioni insiemistiche sugli eventi (disgiunzione, negazione).
si potrebbe dire (ipotizzando di lavorare sul continuo e sacrificando un po' il rigore matematico) che 2 eventi A e B sono indipendenti se il rapporto tra l'area di A e l'area dello spazio campionario è uguale al rapporto tra l'area di A disgiunto B e l'area di B. viceversa se i 2 rapporti sono differenti, allora gli eventi sono dipendenti.
questo perchè P(A) è uguale all'area A diviso l'area dello spazio campionario (casi favorevoli diviso totalità dei casi); P(A|B) è uguale all'area di A disgiunto B diviso l'area del nuovo spazio campionario ridefinito, coincidente con B.
Assunto come detto sopra che P(A) = P(A|B) <==> A e B sono indipendenti.
spero di esser stato sufficientemente chiaro :p
scusa ma il pipe | ha valore di disgiunzione ?
Ho un'altra domanda basata su un esempio e riferito al 3° assioma della probabilità che dice:
se due eventi A e B sono mutuament esclusivi allora P(A U B) = P(A) + P(B)
esempio:
si osserva la durata di alcune batterie esi vuole stimare la probabilità relativa di........(il resto non è importante)
Evento A = "la batteria dura almeno 3 anni"
Evento B = "la batteria dura meno di 1 anno"
per l'evento A sia ha un dato = 94 batterie su 800
per l'evento B sia ha un dato = 61 batterie su 800
il 3° assioma mi suggerische che potrei scrivere:
P("la batteria dura almeno 3 anni","la batteria dura meno di 1 anno") = 94 + 61/800 = 19,...% circa
ma posso scrivere una cosa del genere ?
La domanda nasce esclusivamente per farmi capire come si può fare dei conti con insiemi e numeri che li rappresentano :stordita:
p.s.
scusa, ma si può fare quanto ho esposto, l'ho trovato poi in un esercizio :)
scusa ma il pipe | ha valore di disgiunzione ?
il pipe ha valore "supposto che sia verificato"
P(A|B) significa "la probabilità che si verifichi A supposto che sia verificato B"
Ho un'altra domanda basata su un esempio e riferito al 3° assioma della probabilità che dice:
se due eventi A e B sono mutuament esclusivi allora P(A U B) = P(A) + P(B)
esempio:
si osserva la durata di alcune batterie esi vuole stimare la probabilità relativa di........(il resto non è importante)
Evento A = "la batteria dura almeno 3 anni"
Evento B = "la batteria dura meno di 1 anno"
per l'evento A sia ha un dato = 94 batterie su 800
per l'evento B sia ha un dato = 61 batterie su 800
il 3° assioma mi suggerische che potrei scrivere:
P("la batteria dura almeno 3 anni","la batteria dura meno di 1 anno") = 94 + 61/800 = 19,...% circa
ma posso scrivere una cosa del genere ?
La domanda nasce esclusivamente per farmi capire come si può fare dei conti con insiemi e numeri che li rappresentano :stordita:
p.s.
scusa, ma si può fare quanto ho esposto, l'ho trovato poi in un esercizio :)
certo che si può scrivere: P(AUB) = 94/800 + 61/800 (probabilità che la batteria duri almeno 3 anni oppure che la batteria duri meno di un anno)
Il teorema che hai menzionato è un caso speciale del teorema più generale P(AUB) = P(A) + P(B) - P(A disgiunto B), valido in tutti i casi.
Nel caso di 2 eventi A e B incompatibili allora si riduce nella formula che hai scritto. I 2 eventi sono incompatibili: se si verifica uno non si può verificare l'altro ==> P(A disgiunto B) = 0 in qualsiasi caso.
poniamo caso che l'evento A sia "la batteria dura almeno 1 anno"
e l'evento B sia "la batteria dura meno di 3 anni"
in questo caso A e B sono eventi compatibili (è possibile che si verifichi contemporaneamente A e B) e bisogna usare la formula più generale P(AUB)=P(A)+P(B)-P(A disgiunto B)
per risolverla bisogna conoscere la probabilità P(A disgiunto B) (la probabilità che la batteria duri almeno un anno e meno di 3 anni), che si può calcolare trovando l'area dell'insieme A disgiunto l'insieme B diviso l'area dello spazio campionario
edit: presupponendo che lo spazio campionario sia continuo e vada per esempio da 0 a 10 anni (nessuna batteria dura più di 10 anni) e che la probabilità sia per tutti i punti campionari eguale, si trova che
P(A) = 9/10
P(B) = 3/10
P(A disgiunto B) = (3-1)/10 = 2/10
P(AUB) = 9/10 + 3/10 - 2/10 = 10/10 = 1 (evento certo: infatti qualsiasi batteria, nell'esperimento fatto, dura almeno 1 anno oppure meno di 3 anni!)
l'assioma che ho postato P(AUB)=P(A)+P(B) dovrebbe essere di kolmogorov e come tale, leggo che non dev'essere dimostrato in quanto viene dato per vero: è giusto ?
però ve ne sono anche altri di assiomi da usarsi per ogni caso specifico del tipo:
P(ins vuoto) = 0
P(A complementato) = 1 - P(A)
P(A U B) = P(A) + P(B) - P(A intersec B)
P(A - B) = P(A intersec B complementato) = P(A) - P(A intersec B)
e altri......
Scusa per la domanda ingenua, ma ognuna di queste formule va usata per il caso specifico vero ?
Beh, se così fosse, non è facile identificare sempre i vari casi :muro:
l'assioma che ho postato P(AUB)=P(A)+P(B) dovrebbe essere di kolmogorov e come tale, leggo che non dev'essere dimostrato in quanto viene dato per vero: è giusto ?
si esatto, gli assiomi sono dati a priori, nessuna dimostrazione, come dire che 2 rette parallele non si intersecano mai nella geometria euclidea
è una convenzione per costruire un sistema coerente e logico, e in questo caso è anche particolarmente intuitivo: se la probabilità che si verifichi A è P(A), la probabilità che si verifichi B è P(B), e presupposto che se si verifica A non può verificarsi B e viceversa, viene da sè che la probabilità che si verifichi A oppure B è la somma di P(A) e P(B).
però ve ne sono anche altri di assiomi da usarsi per ogni caso specifico del tipo:
P(ins vuoto) = 0
P(A complementato) = 1 - P(A)
P(A U B) = P(A) + P(B) - P(A intersec B)
P(A - B) = P(A intersec B complementato) = P(A) - P(A intersec B)
e altri......
Scusa per la domanda ingenua, ma ognuna di queste formule va usata per il caso specifico vero ?
Beh, se così fosse, non è facile identificare sempre i vari casi :muro:
a parte che le formule che hai scritto non sono assiomi ma teoremi derivati dai tre assiomi di Kolmogorov:
1) Ad ogni evento casuale a corrisponde un certo numero P(a), chiamato "probabilità di a", che soddisfa la disuguaglianza 0 <= P(a) <= 1.
2) La probabilità dell'evento certo è 1.
3) La probabilità dell'unione di un numero finito o infinito numerabile di eventi mutuamente esclusivi è pari alla somma delle probabilità di questi eventi.
ma indipendentemente da questo, la tua domanda non ha molto senso imho: ogni formula matematica ha valore in un ben determinato contesto, che può essere più o meno "ampio" :p
possiamo dire cmq che le formule da te riportate sono generali e valgono in tutti i casi classici di studio delle probabilità.
certo, alcuni si possono generalizzare molto di più :D considerando ad esempio i casi con n eventi, e non solo con 2 ;)
tutte le formule sono molto intuitive se leggi il problema in ottica insiemistica/geometrica: associando gli eventi a degli insiemi e questi insiemi a figure geometriche (presupposto che la figura dello spazio campionario racchiude tutte le figure-eventi ed ha area uguale a 1), e conoscendo che la probabilità dell'evento X è data dall'area della figura associata, è immediato intuire la verità delle formule:
P(ins vuoto) = 0 (evento che non si può verificare, non esiste nello spazio campionario, non ha figura e ha area 0)
P(A complementato) = 1 - P(A) (l'area di tutto ciò che sta al di fuori della figura-evento A è data da 1 (area dello spazio campionario dove operiamo) meno l'area di A
P(A U B) = P(A) + P(B) - P(A intersec B) (l'area della figura-evento A unita alla figura-evento B è uguale alla somma delle aree A e B meno l'area della figura risultante dall'intersezione di A con B)
etc etc... ;)
e lo so che alcune domande possono apparire nonsense se viste al di fuori del mio cervello :D è una questione di spazi :p
Mi serviva la conferma che qualcosina la avevo individuata. :)
Ad ogni buon conto, è una materia del tutto nuova per me e mi sento ancora fuori dalla porta, in aggiunta ho pochissima dimestichezza con l'insiemistica, ma sto notando che lavorandoci sopra insistentemente le cose migliorano.....
Tra un pò ti chiedero lumi sul modello bernoulliano e quello binomiale :stordita:
grazie 1000
p.s.
però la sigma algebra è poco chiara: http://it.wikipedia.org/wiki/Spazio_campionario
al link non si capisce se omega è un sottoinsieme della famiglia degli eventi A oppure è il contrario
p.p.s
idea
al link si parla di famiglia e quindi, pensavo che una famiglia di sottoinsiemi fosse ancora un sottoinsieme ma....forse avrebbe creato confusione usare lo stesso termine, per cui; se A è un insieme di eventi e A una famiglia, significa che contiene A1, A2, A3 etc....sembra logico ?
vedi immagine
53729
omega è il simbolo con cui normalmente viene definito lo spazio campionario.
in wiki, omega = spazio campionario (che è un insieme, in particolare l'insieme di tutti gli eventi elementari)
per sigma algebra, riferito alle probabilità, si intende lo spazio degli eventi: ovvero l'insieme di tutti i sottoinsiemi dello spazio campionario (omega), ovvero l'insieme di tutti gli eventi.
considerando che l'insieme omega è anche un sottoinsieme di se stesso (un sottoinsieme improprio visto che trattasi dello medesimo insieme) allora si può certamente affermare che omega è un sottoinsieme della sigma-algebra A (lo spazio degli eventi).
infatti come abbiamo già detto nei post precedenti lo spazio campionario è incluso nello spazio degli eventi, che è la stessa cosa che dire omega è incluso in sigma-algebra, e ugualmente è lo stesso che dire omega è un sottoinsieme di sigma-algebra (sono un po' ridondante, lo so :D )
sempre degli stessi concetti stiamo parlando, solo che cambiano i nomi :)
lo spazio degli eventi è un insieme di eventi (ciò che tu indichi con A), e in particolare è l'insieme di tutti gli eventi possibili (gli eventi ricordo che sono insiemi di eventi elementari) che equivale, come ripetuto più volte, all'insieme di tutti i sottoinsiemi di omega (o insieme delle parti di omega), che equivale alla famiglia che tu indichi con A. infatti come puoi leggere qui (http://it.wikipedia.org/wiki/Famiglia_(matematica)), quando si parla di un insieme che ha per elementi a sua volta degli insiemi (come ad esempio l'insieme delle parti), invece del cacofonico "insieme di insiemi" si usa "famiglia di insiemi" (o classe o collezione), non necessariamente intendendo nel senso di famiglia indiciata
A e A sono sostanzialmente la stessa cosa, con queste premesse: chiamali come preferisci :D sempre dello spazio degli eventi stiamo parlando ;)
è effettivamente un po' un casino definire rigorosamente questi concetti, ma l'idea di fondo è molto semplice e intuitiva.
c'è omega/spazio campionario/insieme di tutti gli eventi elementari
c'è sigma-algebra/spazio degli eventi/A/A/insieme di tutti gli eventi/famiglia di tutti i sottoinsiemi di omega/insieme delle parti di omega/insieme di tutti i sottoinsiemi di omega.
stop, tutto qua :p
ps: in realtà ho semplificato un po' le cose. ad essere rigorosi si dovrebbe parlare di una particolare sigma-algebra costruita a partire da omega, e non sempre lo spazio degli eventi coincide con l'insieme delle parti di omega, nel caso che omega abbia cardinalità infinita. ma direi che a questi "dettagli" per ora si può soprassedere, l'importante è che tu capisca i concetti di base imho :)
io invece aveo intuito che A e A fossero rispettivamente:
A = insieme di eventi
A = insieme di insiemi di eventi
e cioè Ai contenuti in A
che casino :(
io invece aveo intuito che A e A fossero rispettivamente:
A = insieme di eventi
A = insieme di insiemi di eventi
e cioè Ai contenuti in A
che casino :(
questo no.
casomai se vuoi puoi definire A come evento qualsiasi e A come famiglia/insieme di eventi.
io in genere un singolo evento generico lo chiamo E :stordita:
ti ricordo sempre che un evento E (o A, chiamalo come vuoi :D ) è un insieme, non lo devi considerare un elemento!
solamente gli eventi elementari (che compongono lo spazio campionario) sono da intendersi come elementi singoli e non come insiemi.
gli eventi sono insiemi di eventi elementari, tutti gli eventi.
e A è l'insieme degli eventi, ovvero l'insieme degli insiemi degli eventi elementari. e come ti ho scritto nel post sopra A, che si può anche chiamare famiglia di eventi non è una lista indicizzata o tantomeno ordinata: è un semplice insieme di insiemi.
più schematico di così non lo riesco a scrivere :p
scusa, ma è QUI (http://it.wikipedia.org/wiki/Evento_%28teoria_della_probabilit%C3%A0%29) che un evento denominato A viene definito insieme e A un insieme(famiglia) di insiemi di A, dove A è sempre un insieme e che può contenere sia un singolo evento che più eventi.
La situazione che ho immaginato io poi, è quella che avevo messo in grafica: se le cose le vedo me le ricordo a vita natural durante :)
rettifico il link: http://it.wikipedia.org/wiki/Spazio_campionario
scusa, ma è QUI (http://it.wikipedia.org/wiki/Evento_%28teoria_della_probabilit%C3%A0%29) che un evento denominato A viene definito insieme e A un insieme(famiglia) di insiemi di A, dove A è sempre un insieme e che può contenere sia un singolo evento che più eventi.
La situazione che ho immaginato io poi, è quella che avevo messo in grafica: se le cose le vedo me le ricordo a vita natural durante :)
nella pagina che hai linkato non mi pare si definisca A, è definito solo l'evento A, come insieme appunto.
sai forse dove fai confusione? A è un insieme di eventi elementari, ma quegli eventi elementari di omega con "combinazioni" diverse formano altri eventi, inclusi di conseguenza in A.
Ad esempio: omega = {1,2,3,4,5,6}
A = {1,2,4,6}
B = {1,2}
C = {2,4,6}
poichè ogni elemento degli eventi B e C sono inclusi anche nell'evento A, allora si può affermare che A include B e C, e quindi B e C sono sono sottoinsiemi di A. in questo senso A può contenere un singolo evento sia più eventi!
se A = {2}, avendo un unico elemento allora A non può contenere altri eventi, tranne l'evento "vuoto" (con probabilità 0)
se A = {1,2,3,4,5,6} = omega, avendo tutti gli elementi dello spazio campionario, include di conseguenza tutti gli eventi possibili.
Ma non considerare gli eventi come insiemi di insiemi che ti incasini, considerali come semplici insiemi a sè stanti.
l'immagine che avevi postato l'altro giorno dovrebbe essere errata, per il semplice motivo che hai "sdoppiato" gli elementi dello spazio campionario!
un esempio più calzante te l'ho messo in allegato, dove:
A = {1,2,3,4,5}
B = {1,2}
C = {3}
D = {2,4,5}
E = {5,6}
in questo caso si può affermare che l'evento A include gli eventi B, C e D (ma non l'evento E)
si può ugualmente affermare che gli eventi B e D come pure D e E sono compatibili (intersecati non danno un insieme vuoto), mentre B e C, come B e E sono incompatibili
[edit] uff, mi sono accorto ora che nell'immagine avevi definito A e non A! in quel caso allora va bene, essendo A propriamente un insieme di eventi, e non un evento.
uff, mi sono accorto ora che nell'immagine avevi definito A e non A! in quel caso allora va bene, essendo A propriamente un insieme di eventi, e non un evento.
però mi hai messo una pulce nell'orecchio....
Tu hai rappresentato la situazione, i vari insiemi A, B, C, ..., intersecando i vari eventi, io non ho fatto così semplicemente perchè avevo pensato che una volta costruito l'insieme A che contiene vari eventi A (nel tuo esempio A,B,C,...) si potesse attraverso e operazioni insiemistiche fare delle operazioni tra eventi e, sse da tali operazioni ne deriva un insieme che sta in A allora è una sigma-algebra in quanto A sarebbe per definizione chiuso rispetto alle operazioni di unione e complementazione :stordita:
p.s.
che disastro che sono :( :( :(
rettifico il link: http://it.wikipedia.org/wiki/Spazio_campionario
ho seguito proprio le convenzioni di quella pagina nei miei ultimi post, visto che mi pare di capire che ti basi spesso sulla wiki per le tue considerazioni :)
e non c'è scritto che "A è un insieme(famiglia) di insiemi di A" come hai scritto.
se fai attenzione c'è scritto invece che A è una famiglia di eventi di omega, dove A è un evento qualsiasi: quindi A è una famiglia (insieme) di eventi, e gli eventi sono sottoinsiemi (degli elementi) di omega.
però mi hai messo una pulce nell'orecchio....
Tu hai rappresentato la situazione, i vari insiemi A, B, C, ..., intersecando i vari eventi, io non ho fatto così semplicemente perchè avevo pensato che una volta costruito l'insieme A che contiene vari eventi A (nel tuo esempio A,B,C,...) si potesse attraverso e operazioni insiemistiche fare delle operazioni tra eventi e, sse da tali operazioni ne deriva un insieme che sta in A allora è una sigma-algebra in quanto A sarebbe per definizione chiuso rispetto alle operazioni di unione e complementazione :stordita:
dimmi una cosa ma lavori all'ufficio complicazione cose semplici? :sofico: :p
normalmente quando devi risolvere degli esercizi di calcolo delle probabilità si lavora sullo spazio campionario omega e sui vari insiemi (eventi) contenuti in esso. gli eventi adeguati te li scegli te in base a cosa richiede l'esercizio.
non ha senso mettersi a costruire ogni volta tutto lo spazio degli eventi (la sigma-algebra), ad occhio mi pare una cosa completamente inutile, salvo forse rari casi che ora nemmeno mi vengono in mente.
anche perchè costruire una sigma-algebra con tutti i possibili eventi è un bell'elenco di roba eh :D con omega di cardinalità elevata ti vengono un botto di combinazioni e possibili eventi!
e poi cmq se hai un omega con cardinalità finita la sigma-algebra è sempre immediatamente definibile, basta imporla molto semplicemente uguale all'insieme delle parti di omega (ovvero tutte le possibili combinazioni); mentre se omega ha cardinalità infinita e di conseguenza si corre il rischio di dover escludere determinati eventi non ammissibili, allora rappresentare graficamente la sigma-algebra diventa proprio impossibile, in quanto ha infiniti eventi all'interno :stordita:
dimmi una cosa ma lavori all'ufficio complicazione cose semplici? :sofico: :p
infatti :muro:
per sigma algebra, riferito alle probabilità, si intende lo spazio degli eventi: ovvero l'insieme di tutti i sottoinsiemi dello spazio campionario (omega), ovvero l'insieme di tutti gli eventi.
quello che ho messo in grassetto è ancora il solito A usato anche nel tuo disegno e cioè, repetita iuvant, l'insieme degli insiemi degli eventi ?
ci scommetto che alle superiori hai fatto lo scientifico :)
quello che ho messo in grassetto è ancora il solito A usato anche nel tuo disegno e cioè, repetita iuvant, l'insieme degli insiemi degli eventi ?
:cry: deve esserci qualche problema di comunicazione tra di noi :cry:
si quello che hai messo in grassetto è A, ma A è l'insieme degli eventi, non l'insieme degli insiemi degli eventi! l'avrò scritto e riscritto almeno 10 volte :muro:
oppure se vuoi puoi dire che A è l'insieme dei sottoinsiemi di omega, perchè i sottoinsiemi di omega sono appunto gli eventi, come dicevo sulla parte che hai quotato!
e nel mio disegno NON ho usato lo spazio degli eventi A, bensi un A evento generico, come sono parimodo B, C, D e E nel mio esempio: tutti semplici eventi, non insiemi di eventi!
ci scommetto che alle superiori hai fatto lo scientifico :)
yes :p
e nel mio disegno NON ho usato lo spazio degli eventi A, bensi un A evento generico, come sono parimodo B, C, D e E nel mio esempio: tutti semplici eventi, non insiemi di eventi!
yes :p
allora avevo visto male :stordita:
allora avevo visto male :stordita:
;)
e omega è il rettangolo grande che contiene tutti gli eventi :)
dammi pure dell'imbranato ma a me quella famiglia di sottoinsieme crea ancora dei problemi :muro:
dire che A è una famiglia di eventi sottoinsiemi di omega e poi dire che A è una sigma-algebra se contiene omega, fa apparire omega come se fosse un sottoinsieme di A :muro: :muro: :muro:
no ho mai fatto insiemistica e riconosco che è un grosso limite :cry:
dammi pure dell'imbranato ma a me quella famiglia di sottoinsieme crea ancora dei problemi :muro:
dire che A è una famiglia di eventi sottoinsiemi di omega e poi dire che A è una sigma-algebra se contiene omega, fa apparire omega come se fosse un sottoinsieme di A :muro: :muro: :muro:
no ho mai fatto insiemistica e riconosco che è un grosso limite :cry:
infatti omega stesso è un sottoinsieme di A, questo è vero! forse ora ci siamo :D
l'intero spazio campionario omega infatti può essere tranquillamente considerato un evento, in particolare è un evento certo con probabilità 1.
esempio, lancio di un dado: omega = {1,2,3,4,5,6}
considera l'evento E: esce 1 oppure 2 oppure 3 oppure 4 oppure 5 oppure 6
risulta quindi che E = {1,2,3,4,5,6} = omega, e l'evento E si verifica di sicuro (racchiude tutti gli elementi dello spazio campionario, non può uscire alcun altro numero!)
Ed E, in quanto evento, è incluso nello spazio degli eventi A :)
ho la seguente situazione che mi è oscura parlando del modello binomiale
probabilità di estrazioni di palline nere da un'urna: con reimissione
P(k) = m * P^k * (1-P)^n-k * Ik{0,..,m}
---
k
m = numero di palline estratte nera o bianca
k = è un volore che va da 0 a m
n = numero di palline totali nell'urna
I = è una funzione indicatice, mah...
Leggo che quando k = 2m la funzione indicatrice I vale zero: perchè secondo te ? :confused:
53780
boh sinceramente quella formula non mi dice nulla :boh:
sicuro di averla scritta bene?
o sono io che so fuso, riguarderò meglio domani :O
la formula è giusta
ah ho visto ora l'edit di ieri.
così con k{1,..,m} come pedice mi pare già più sensata la formula
restano 2 "problemi": onestamente non ho idea di cosa intendano per funzione indicatrice (indicatrice di cosa?), e soprattutto perchè k sarebbe compreso tra 1 ed m, se poi gli si da valore 2m?
in che ambito hai trovato questo esempio? dammi qualche elemento in più pls
scusa, per il momento accantono quella formula; me la lascio per quando avrò più confidenza con tale materia :stordita:
Un dubbio: P(X = 2) = 1/4
dove X è la variabile aleatoria e P è la probabilità che non ho capito se è anch'essa una funzione in quanto di depista la scrittura P( X = a qualche cosa) all'interno di un argomento...mah....
continuo con la domanda....scrive X = 2 significa che mi aspetto almeno 2 successi e che la probabilità che ho di ottenerli è 1/4 ?
Per farti capire, l'esercizio parla di una moneta nella quale X viene definita come il numero di teste T in due lanci della moneta: suppongo che intendesse dire che si aspetta due volte testa da due lanci.
scusa, per il momento accantono quella formula; me la lascio per quando avrò più confidenza con tale materia :stordita:
Un dubbio: P(X = 2) = 1/4
dove X è la variabile aleatoria e P è la probabilità che non ho capito se è anch'essa una funzione in quanto di depista la scrittura P( X = a qualche cosa) all'interno di un argomento...mah....
significa che P è la probabilità della variabile aleatoria X quando X è uguale ad un qualche valore. in questo caso la probabilità che X = 2 è 1/4
continuo con la domanda....scrive X = 2 significa che mi aspetto almeno 2 successi e che la probabilità che ho di ottenerli è 1/4 ?
Per farti capire, l'esercizio parla di una moneta nella quale X viene definita come il numero di teste T in due lanci della moneta: suppongo che intendesse dire che si aspetta due volte testa da due lanci.
si esatto. nel caso di 2 lanci di una moneta, con la v.a. X definita in questo modo ci sono solo 3 casi possibili: X=0 (2 lanci 2 croci), X=1 (2 lanci, 1 croce e 1 testa, in questo esempio l'ordine non conta), X=2 (2 lanci 2 teste)
le rispettive probabilità saranno:
P(X = 0) = 1/4
P(X = 1) = 2/4 = 1/2
P(X = 2) = 1/4
dipende tutto da come viene definita la v.a.: in questo caso X rappresenta il numero dei successi
ciao krammer,
visto che sei molto navigato su questa materia provo a chiederti questa cosa. Ci è stato fatto un esempio circa due avvenimenti allo scopo di spiegare il teorema di Bayes.
In un foglio di excel sono stati inseriti in una colonna A 100 osservazioni di un fenomeno accaduto 100 anni prima e cioè se il tal giorno pioveva si segnava 1 in caso contrario si segnava 0.
Nel medesimo foglio è stata riempita con 100 osservazioni i giorni che un tizio portava l'ombrello, ma 100 anni dopo; 1 se lo portava e 0 l'opposto.
Prese le due osservazioni si è cercato di unirle per vedere se ci fossero dei legami ma, in statistica si può mettere assieme anche eventi così differenti ?
E se ci fossero delle coincidenze, che valore avrebbero ?
E' con bayes che si studiano fenomeni di questo tipo ?
p.s.
è come se mettessi assieme i giorni che mangio pasta ed i giorni in cui piove :D
potresti chiedermi a questo punto, se io i libri li leggo e studio ma, mi è stato detto che ognuno la statistica la spiega a modo suo :stordita:
ciao krammer,
visto che sei molto navigato su questa materia
non sono molto navigato, tutt'altro: anch'io sto ripassando con te questi concetti che avevo studiato per un esame dato un bel po' di anni fa :p ma la statistica e il calcolo delle probabilità è sempre stato per me un campo interessante e anche utile :)
provo a chiederti questa cosa. Ci è stato fatto un esempio circa due avvenimenti allo scopo di spiegare il teorema di Bayes.
In un foglio di excel sono stati inseriti in una colonna A 100 osservazioni di un fenomeno accaduto 100 anni prima e cioè se il tal giorno pioveva si segnava 1 in caso contrario si segnava 0.
Nel medesimo foglio è stata riempita con 100 osservazioni i giorni che un tizio portava l'ombrello; 1 se lo portava e 0 l'opposto.
Prese le due osservazioni si è cercato di unirle per vedere se ci fossero dei legami ma, in statistica si può mettere assieme anche eventi così differenti ?
non mi sembrano gli eventi di questo esempio così slegati come dici, anzi! entrambi rappresentano in qualche modo le probabilità che ci sia "brutto tempo": se il cielo è coperto è molto probabile che piova e che il tizio porti l'ombrello, viceversa se il cielo è sereno è improbabile che piova e che il tizio porti l'ombrello.
certo bisogna fare delle precisazioni: ad esempio si suppone che il tizio porti l'ombrello secondo logica (quasi sempre se piove o se il cielo è coperto) e non "a caso" (indipendentemente dalla situazione meteorologica), altrimenti si che i 2 eventi non hanno alcuna correlazione tra loro come sostieni.
in secondo luogo gli esperimenti sono tanto più correlati ed chiari quanto più i "domini" delle osservazioni coincidono: se l'osservazione delle precipitazioni viene svolta in india e il tizio con l'ombrello sta in canada, e/o se le precipitazioni vengono trascritte nell'inverno di 100 anni fa e il tizio con l'ombrello è stato controllato nell'estate di quest'anno, allora la correlazione tra i 2 eventi è quasi assente (il che non significa cmq che non esiste alcuna correlazione tra loro, ma solamente che il "dominio" viene enormemente "dilatato" - clima a livello mondiale e nell'arco dei secoli/stagioni, rispetto al clima di una determinata regione in una determinata stagione di un anno preciso - per cui le osservazioni perdono valore visto che campionano malamente il suddetto dominio).
E se ci fossero delle coincidenze, che valore avrebbero ?
nel campo della statistica tutti gli eventi sono coincidenza! si tratta di capire quali coincidenze sono più probabili di altre e di calcolarne in qualche modo il valore ;)
E' con bayes che si studiano fenomeni di questo tipo ?
anche si, ma dipende da cosa viene richiesto di studiare...
scusa ma mi sono dimenticato di scrivere che il tizio con l'ombrello è stato osservato 100 dopo :stordita:
scusa ma mi sono dimenticato di scrivere che il tizio con l'ombrello è stato osservato 100 dopo :stordita:
in tal caso i 2 eventi sono sicuramente poco correlati tra loro.
ma alcune inferenze si possono cmq dedurre a partire da questi, anche se il loro valore sarà "limitato". dai test effettuati si possono stilare le probabilità che piova o non piova e le conseguenti probabilità che il tizio prenda l'ombrello se piove o meno.con bayes quindi si possono calcolare ad esempio le probabilità che abbia piovuto 100 anni prima nel caso che il tizio abbia preso l'ombrello o meno.
lascia un bel po' il tempo che trova come inferenza, visto la scarsa correlazione tra i 2 eventi, ma un valore almeno nominale potrebbe avercelo...
ciao krammer,
per quanto riguarda la varianza, leggo che se si analizzano un certo numero di dati e questi sono di molto diversi tra loro, significa che si ha elevata dispersione. Wikipedia recita un esempio di voti per un esame dove, se la varianza mostra un numero elevato allora l'esame è considerato difficile, viceversa l'esame è facile.
Mi chiedo rispetto a cosa va riferito il valore della varianza. Ho provato con una serie di dati di voti d'esame ed ho ottenuto valori poco comprensibili.
Se ad esempio ho i seguenti voti:
18
18
18
18
30
la varianza vale 23.04
invece con:
18
18
30
30
30
la varianza vale 34.56 e così viene da pensare che sia ancora più difficile passare quell'esame nonostante prevalga il 30 sul 18
forse si devono considerare più dati per avere qualcosa di più significativo ?
ciao krammer,
per quanto riguarda la varianza, leggo che se si analizzano un certo numero di dati e questi sono di molto diversi tra loro, significa che si ha elevata dispersione. Wikipedia recita un esempio di voti per un esame dove, se la varianza mostra un numero elevato allora l'esame è considerato difficile, viceversa l'esame è facile.
[CUT]
l'esempio citato in wiki è decisamente fuoriluogo e fuorviante in questo caso: è la media dei voti che ci può dare indicazioni adeguate sulla "difficoltà" di un esame, non la varianza.
per farti capire con un semplice esempio: se in un esame tutti prendono 18 la varianza è esattamente uguale a zero, è nulla; mentre se tutti prendono voti compresi tra il 18 e il 30 con una media del 24 (voti ben più alti, quindi l'esame dovrebbe essere più "semplice"), la varianza sarà positiva e anche abbastanza elevata. nel caso estremo si massimizza la varianza se la metà degli studenti prendono esattamente 18 e l'altra metà esattamente 30: in tal caso la varianza risulterà sempre 36, indipendentemente da quanti studenti abbiano sostenuto l'esame, che siano 10, 100, 1000 o quanti vuoi (questo per rispondere anche alla tua ultima domanda: la quantità di dati, in questo specifico caso è ininfluente).
la varianza indica, come hai ben detto all'inizio, la dispersione dei dati campionati rispetto alla media aritmetica: più i valori di questi dati si discostano dalla media complessiva e maggiore sarà la varianza, al contrario più i valori sono vicini alla media più la varianza sarà piccola, fino ad annullarsi (nel caso in cui tutti i dati abbiano valori uguali, e uguali quindi anche alla loro media).
l'esempio usato da wiki dovrebbe essere interpretato in questo modo: si deve intendere come "difficile" un esame in cui gli studenti prendono voti molto diversi tra loro, e quindi la loro preparazione è maggiormente variegata, e pochi, solo i migliori prendono il massimo dei voti. viceversa se tutti prendono voti molto simili tra di loro dovrebbe significare che hanno tutti fatto l'esame nel medesimo modo indipendentemente dalla loro bravura e preparazione (ci sono sempre studenti più capaci e altri meno), quindi l'esame è più "facile", perchè magari hanno tutti copiato o il prof regala a tutti più o meno lo stesso voto :asd:
ma come detto è un esempio mal riuscito imho, visto che per come la intendiamo di solito un esame in cui tutti prendono solo 18-19 dovrebbe essere più ostico di un esame in cui i voti sono spalmati in un range che va dal 18 al 30 ;)
e l'indicazione di "difficoltà" in questo senso ce la da la media e non la varianza
grazie krammer, mi guarderò bene anche su quello che leggo in wikipedia.
leggo a proposito di cose già discusse con te:
2.3 Eventi dipendenti ed indipendenti.
E' bene a questo punto precisare meglio il concetto di dipendenza o indipendenza tra due eventi.
L'indipendenza può essere logica o intuitiva quando tra gli eventi non c'è nesso plausibile. Immaginiamo due eventi:
A: "Il primo estratto sulla ruota di Genova è il 65."
B: "A L'Aquila la temperatura notturna è scesa sotto lo zero."
E' del tutto evidente che la temperatura notturna a L'Aquila è assolutamente indipendente dal numero estratto sulla ruota di Genova e viceversa.
I due eventi sono quindi indipendenti fra loro.
Non sempre le cose sono così chiare.
Non avendo studiato logia per me non è affatto chiaro neppure questo seppur semplice esempio ma, ripensandoci bene mi sono detto: forse intendeva dire che se sulla ruota di genova fosse uscito il 30 oppure il 45 o il 20, a L'Aquila avrebbero avuto lo stesso una temperatura notturna sotto zero; quindi, il risultato dell'estrazione è ininfluente sulla temperatura notturna di quella città.
Ma se uno volesse dimostrarlo ?
Lo dovrebbe fare attraverso lo spazio campione e se l'intersezione dei due eventi è l'insieme vuoto allora i due eventi sono disgiunti ?
Ma se l'evento A fosse stato: "a Genova è uscito il 65 e nevicava" e l'evento B "a L'Aquila la temperatura è scesa sotto lo zero e nevicava" è ancora possibile dire che gli eventi sono disgiunti ?
Boh!
Dipendenza indipendenza
Ma due eventi sono dipendenti sse uno dei due modifica lo spazio campione per l'altro ?
Esempio: ho due dadi ed ipotizzo che escano due 6. Le possibilità(coppie) sono 36 cioè: (1,1),(1,2),...,(2,1),(2,2),..,(6,1),...,(6,6) quindi una probabilità P=1/36
Ma se lancio il primo dado ed ottengo un 6, a questo punto lo spazio campione per il secono diminuisce e quindi, credo che aumenti la probabilità che col secondo dado esca una 6 con una P=1/6
torno a studiare :stordita:
grazie krammer, mi guarderò bene anche su quello che leggo in wikipedia.
leggo a proposito di cose già discusse con te:
2.3 Eventi dipendenti ed indipendenti.
E' bene a questo punto precisare meglio il concetto di dipendenza o indipendenza tra due eventi.
L'indipendenza può essere logica o intuitiva quando tra gli eventi non c'è nesso plausibile. Immaginiamo due eventi:
A: "Il primo estratto sulla ruota di Genova è il 65."
B: "A L'Aquila la temperatura notturna è scesa sotto lo zero."
E' del tutto evidente che la temperatura notturna a L'Aquila è assolutamente indipendente dal numero estratto sulla ruota di Genova e viceversa.
I due eventi sono quindi indipendenti fra loro.
Non sempre le cose sono così chiare.
Non avendo studiato logia per me non è affatto chiaro neppure questo seppur semplice esempio ma, ripensandoci bene mi sono detto: forse intendeva dire che se sulla ruota di genova fosse uscito il 30 oppure il 45 o il 20, a L'Aquila avrebbero avuto lo stesso una temperatura notturna sotto zero; quindi, il risultato dell'estrazione è ininfluente sulla temperatura notturna di quella città.
esatto: indipendenti in quanto il risultato dell'estrazione sulla ruota non influenza le probabilità della temperatura notturna
Ma se uno volesse dimostrarlo ?
ti basta dimostrare che P(A|B) = P(A) (oppure analogamente che P(B|A) = P(B)), ovvero la probabilità dell'evento "temperatura notturna" A rimane inalterato anche supposto che si verifichi l'evento B "estrazione sulla ruota di genova". vale a dire che B non influenza, non modifica in alcun modo la probabilità di A. per cui i 2 eventi sono indipendenti.
Lo dovrebbe fare attraverso lo spazio campione e se l'intersezione dei due eventi è l'insieme vuoto allora i due eventi sono disgiunti ?
stavamo parlando di indipendenza tra eventi e non di disgiunzione (sono 2 concetti diversi tra loro, vedi i precedenti post!)
Ma se l'evento A fosse stato: "a Genova è uscito il 65 e nevicava" e l'evento B "a L'Aquila la temperatura è scesa sotto lo zero e nevicava" è ancora possibile dire che gli eventi sono disgiunti ?
Boh!
premesso come scritto sopra che indipendenza e disgiunzione hanno significato ben diverso, in questo caso cmq i 2 eventi non sono disgiunti: l'avverarsi di A non preclude la probabilità che possa avverarsi anche B. l'intersezione tra i 2 insiemi non è vuota infatti comprende l'evento comune "a genova è uscito il 65 E a l'aquila la temperatura è scesa sottozero E nevicava"
ma da dove ti escono questi esempi?:eek:
Dipendenza indipendenza
Ma due eventi sono dipendenti sse uno dei due modifica lo spazio campione per l'altro ?
Esempio: ho due dadi ed ipotizzo che escano due 6. Le possibilità(coppie) sono 36 cioè: (1,1),(1,2),...,(2,1),(2,2),..,(6,1),...,(6,6) quindi una probabilità P=1/36
Ma se lancio il primo dado ed ottengo un 6, a questo punto lo spazio campione per il secono diminuisce e quindi, credo che aumenti la probabilità che col secondo dado esca una 6 con una P=1/6
torno a studiare :stordita:
si, in sostanza è come dici. A e B sono dipendenti se l'avverarsi di B modifica le probabilità che si possa verificare A (o viceversa se l'avverarsi di A modifica le probabilità che si possa verificare B): quindi l'avverarsi di B modifica il totale dei casi possibili di A (che sarebbe lo spazio campionario).
ricordiamo infatti che la probabilità di A è data da tutti i casi favorevoli diviso tutti i casi possibili (ammesso che siano equiprobabili): diminuendo la spazio campionario la probabilità aumenta.
nell'esempio che hai citato in particolare lo spazio campionario di A si trasforma da 36 a 6 (supposto che si avveri B) e quindi la probabilità si modifica da 1/36 a 1/6
ho un'urna con 20 palline, 15 bianche e 5 nere.
Mi si chiede la probabilità, senza reimissione, di estrarre prima una pallina bianca e poi una nera. Evento A è l'estrazione di una palline bianca, l'evento B è la seconda estrazione ma di una pallina nera.
Dovrebbe essere il caso di una probabilità combinata.
P(A) = 15/20
P(B) = 5/19 (19 in quanto una è già stata estratta)
la probabilità ora di ottenere in due estrazioni consecutive una pallina bianca e poi una nera senza reimissione vale:
P(A Ç B) = P(A)*P(B|A)
non mi è chiaro il P(A Ç B) :muro:
ho un'urna con 20 palline, 15 bianche e 5 nere.
Mi si chiede la probabilità, senza reimissione, di estrarre prima una pallina bianca e poi una nera. Evento A è l'estrazione di una palline bianca, l'evento B è la seconda estrazione ma di una pallina nera.
Dovrebbe essere il caso di una probabilità combinata.
P(A) = 15/20
P(B) = 5/19 (19 in quanto una è già stata estratta) //sarebbe più preciso dire che P(B|A) = 5/19, perchè P(B) senza che si verifichi l'evento A è 5/20 (le palline ci sono tutte ancora)
la probabilità ora di ottenere in due estrazioni consecutive una pallina bianca e poi una nera senza reimissione vale:
P(A Ç B) = P(A)*P(B|A)
non mi è chiaro il P(A Ç B) :muro:
non ho ben capito cosa tu non capisca di quella formula :wtf: :wtf: ne avevamo parlato più volte nei precedenti tread... sempre che tu al simbolo Ç associ il significato di disgiunzione
sinceramente mi ero perso in un bicchiere d'acqua e quindi mi sono fatto questo semplice esempio.
Ho uno spazio campionario={1,2,3,4,5,6} e due eventi A,B che mi interessa studiare; A={1,2,3} e B={2,3,4}
Se faccio l'unione dei due eventi ottengo A U B = {1,2,3,4} mentre per l'intersezione ottengo A Ç B = {2,3}.
Ora, passando alle probabilità, possedendo l'insieme A 3 possibili eventi su 6 possiede una P(A)=3/6=1/2; stesso discorso per B cioè P(B)=3/6=1/2.
Posso anche determinare la probabilità all'unione dei due eventi che risultano essere 4 quindi P(A U B) = 4/6 = 2/3 e la probabilità all'intersezione P(A Ç B) = 2/6=1/3 in quanto la cardinalità degli elementi all'intersezione è due.
Se non ho scritto castronate questa volta credo di non aver accumulato ulteriori buchi :stordita:
sinceramente mi ero perso in un bicchiere d'acqua e quindi mi sono fatto questo semplice esempio.
Ho uno spazio campionario={1,2,3,4,5,6} e due eventi A,B che mi interessa studiare; A={1,2,3} e B={2,3,4}
Se faccio l'unione dei due eventi ottengo A U B = {1,2,3,4} mentre per l'intersezione ottengo A Ç B = {2,3}.
Ora, passando alle probabilità, possedendo l'insieme A 3 possibili eventi su 6 possiede una P(A)=3/6=1/2; stesso discorso per B cioè P(B)=3/6=1/2.
Posso anche determinare la probabilità all'unione dei due eventi che risultano essere 4 quindi P(A U B) = 4/6 = 2/3 e la probabilità all'intersezione P(A Ç B) = 2/6=1/3 in quanto la cardinalità degli elementi all'intersezione è due.
Se non ho scritto castronate questa volta credo di non aver accumulato ulteriori buchi :stordita:
si questo è corretto :)
grazie Krammer, forse ora sono sulla strada giusta per capire i vari teoremi, assiomi et similia.
Anche se apparentemente semplici, per alcuni, per chi non li ha mai visti(me medesimo) è un pò duretta :stordita:
Ma diamine se insisto :muro:
nell'immagine, quello che mi sfugge dell'esempio è ciò che ho racchiuso in un rettangolo 54122 :confused:
Siccome ho palline rosse e nere, dove diamine sta una eventuale intersezione ? :confused:
nell'immagine, quello che mi sfugge dell'esempio è ciò che ho racchiuso in un rettangolo 54122 :confused:
Siccome ho palline rosse e nere, dove diamine sta una eventuale intersezione ? :confused:
nel calcolo delle probabilità non sempre quel simbolo (la U rovesciata) sta ad indicare una vera e propria intersezione di eventi (esce pallina rossa evento A, esce pallina nera evento B) nell'accezione classica ovvero "in contemporanea" (un elemento di A fa parte contemporaneamente anche di B: impossibile perchè se esce una pallina rossa, quindi si verifica A, non può contemporaneamente verificarsi anche B perchè quella stessa pallina dovrebbe essere nera e non rossa)! nei cosiddetti "eventi a due fasi" l'intersezione ha il significato di "E POI".
ovvero A intersecato B significa, come scritto nel riquadro che mi hai segnalato in allegato, esce una pallina rossa E POI una pallina nera.
il tuo dubbio è sacrosanto e anzi dimostra che hai compreso bene i concetti alla base: infatti usare il simbolo della intersezione per descrivere il concetto E POI è una inesattezza del tuo libro di testo, che può portare a incomprensioni ;)
se non ti è chiara la cosa leggi l'ultimo paragrafo "Osservazioni sui Teoremi sul CdP" in questa pagina (http://www.chihapauradellamatematica.org/Quaderni2002/CdP/cdp12_2.htm), è spiegato molto semplicemente mi pare (ti consiglio anche di dare una letta a tutti i paragrafi di quel sito, sono scritti bene, semplici, sufficientemente precisi e con esempi illuminanti: qui c'è l'indice (http://www.chihapauradellamatematica.org/Quaderni2002/CdP/IndiceCdP.htm))
cavolo com'è progredito il mio 3D, basta mancare qualche giorno eh :D
Statistica pure voi ?
Bene!
Qualcuno sa spiegarmi l'utilità del teorema di Bayes ?
Se non ho compreso male, serve a definire la causa di un evento :stordita:
cavolo com'è progredito il mio 3D, basta mancare qualche giorno eh :D
Statistica pure voi ?
Bene!
Qualcuno sa spiegarmi l'utilità del teorema di Bayes ?
Se non ho compreso male, serve a definire la causa di un evento :stordita:
più che altro direi che definisce la probabilità della causa di un evento.
ciao Krammer,
mi sto perdendo su una semplice definizione :muro:
http://it.wikipedia.org/wiki/Funzione_di_ripartizione
Nel calcolo delle probabilità la funzione di ripartizione di una variabile aleatoria X a valori reali è la funzione che associa a ciascun valore x la probabilità dell'evento "la variabile casuale X assume valori minori o uguali ad x".
In altre parole, F(x) : R --> R è la funzione con dominio la retta reale e immagine l'intervallo [0,1] definita da
significa che la mia partenza sono tutti i numeri reali e l'arrivo è un insieme fatto di elementi del tipo: {0, 0.001, 0.02, 0.05, 0.09, 0.15, ... , 1}
Scusate la banalità ma alle volte ci si perde :stordita:
mannaggia a quando rispondete solo alle cose difficili e non a quelle che vi paiono ovvie :D
mannaggia a quando rispondete solo alle cose difficili e non a quelle che vi paiono ovvie :D
m'ero scordato :p
ciao Krammer,
mi sto perdendo su una semplice definizione :muro:
http://it.wikipedia.org/wiki/Funzione_di_ripartizione
Nel calcolo delle probabilità la funzione di ripartizione di una variabile aleatoria X a valori reali è la funzione che associa a ciascun valore x la probabilità dell'evento "la variabile casuale X assume valori minori o uguali ad x".
In altre parole, F(x) : R --> R è la funzione con dominio la retta reale e immagine l'intervallo [0,1] definita da
significa che la mia partenza sono tutti i numeri reali e l'arrivo è un insieme fatto di elementi del tipo: {0, 0.001, 0.02, 0.05, 0.09, 0.15, ... , 1}
Scusate la banalità ma alle volte ci si perde :stordita:
si l'esempio che hai fatto va bene. indicando la funzione di ripartizione una probabilità "cumulativa" P(X<=x), al crescere di x crescerà anche la relativa probabilità che "si realizzi il valore x oppure valori minori di x", e questa probabilità varia ovviamente tra 0 (per il valore più piccolo di x) e 1 (per il valore più grande di x).
solo 2 considerazioni: non per forza il dominio di una funzione di ripartizione è dato dalle retta reale: può essere anche solo la semiretta dei valori positivi (o negativi) o in generale un qualunque intervallo chiuso di numeri reali.
seconda cosa, il dominio non deve per forza essere continuo (quindi numeri reali) bensì può essere anche discreto (ad esempio numeri naturali, o un qualsivoglia insieme di numeri ben definiti).
grazie Krammer come sempre :)
Facendo esercizi emergono sempre dubbi che si devono limare :muro:
Lancio di una moneta esce testa o croce quindi, evento A={T} evento B={C}
le probabilità sono:
P(A)=1/2
P(B)=1/2
P(A intersec B) = 0
P(A U B) = 1
volevo sperimentare il caso della probabilità condizionata che dice:
(1)
P(B|A)=P(A intersec B) / P(A)
mi chiedevo: ma se l'intersezione tra A e B è l'insieme vuoto e quindi applicando la (1) ottengo 0, che significato gli si attribuisce, sempre che un tale modo di applicare la (1) abbia un senso ?
Ho visto anche che facendo la moltiplicazione:
P(A intersec B) = P(A)*P(B)
è possibile scoprire se due eventi sono indipendenti ma: 1/2*1/2=1/4
Spero di non aver scritto troppe cose senza senso :stordita:
grazie Krammer come sempre :)
Facendo esercizi emergono sempre dubbi che si devono limare :muro:
Lancio di una moneta esce testa o croce quindi, evento A={T} evento B={C}
le probabilità sono:
P(A)=1/2
P(B)=1/2
P(A intersec B) = 0
P(A U B) = 1
volevo sperimentare il caso della probabilità condizionata che dice:
(1)
P(B|A)=P(A intersec B) / P(A)
mi chiedevo: ma se l'intersezione tra A e B è l'insieme vuoto e quindi applicando la (1) ottengo 0, che significato gli si attribuisce, sempre che un tale modo di applicare la (1) abbia un senso ?
Ho visto anche che facendo la moltiplicazione:
P(A intersec B) = P(A)*P(B)
è possibile scoprire se due eventi sono indipendenti ma: 1/2*1/2=1/4
Spero di non aver scritto troppe cose senza senso :stordita:
come hai scritto P(A intersec B) = 0, quindi P(B|A) = 0/0.5 = 0 (la probabilità che si verifichi B, supposto che si verifichi A, è uguale a 0)
infatti se si verifica A (esce testa) non c'è nessuna possibilità che si verifichi B (non può uscire croce, essendo uscita testa: tieni a mente infatti che si sta considerando un unico lancio di moneta!): è questo che sta a significare lo zero della probabilità condizionata, correttamente :)
il passo successivo: se P(B|A) = 0 e P(B) = 1/2, significa che P(B) e P(A) NON sono indipendenti bensì sono dipendenti (infatti se si verifica A non può verificarsi B e viceversa).
essendo eventi dipendenti non puoi usare la formula P(A intersec B) = P(A)*P(B) perchè questa riguarda esclusivamente eventi indipendenti!
la formula corretta da usare è P(A intersec B) = P(A)*P(B|A), che se noti è la stessa formula che hai scritto tu all'inizio (la (1)) solo che sono stati moltiplicati entrambe i membri dell'equazione per P(A). l'equazione rimane la stessa di fatto...
e che diamine con sto concetto di indipendenza :D
Sempre e solo lui :stordita:
Ora ho ben chiaro il concetto di indipendenza/dipendenza; due eventi sono indipendenti se la probabilità che avvenga l'uno non influenza minimamente la probabilità che si verifichi l'altro. Se ad esempio l'evento A si verifica(vince il milan) o non si verifica(improbabile :D ), un evento B(vince l'nter ) può o meno verificarsi(scherzo). Nel caso da me citato invece, se esce testa, non può uscire croce quindi, gli eventi sono giocoforza dipendenti :muro: :muro: :muro:
e che diamine con sto concetto di indipendenza :D
Sempre e solo lui :stordita:
Ora ho ben chiaro il concetto di indipendenza/dipendenza; due eventi sono indipendenti se la probabilità che avvenga l'uno non influenza minimamente la probabilità che si verifichi l'altro. Se ad esempio l'evento A si verifica(vince il milan) o non si verifica(improbabile :D ), un evento B(vince l'nter ) può o meno verificarsi(scherzo). Nel caso da me citato invece, se esce testa, non può uscire croce quindi, gli eventi sono giocoforza dipendenti :muro: :muro: :muro:
esatto!
a meno che non ci sia il derby, in quel caso i 2 eventi A e B sono dipendenti :D
grazie Krammer :)
Mi stavo richiedendo perchè si fa distinzione tra La binomiale bernoulliana o più semplicemente solo "bernoulliana" e binomiale.
Io ho capito che nel caso del lancio di una moneta siamo nel caso della bernoulliana mentre, se i lanci della moneta sono n, allora si parla di binomiale :stordita:
Quindi la bernoulliana ha come probabilità "successo/insuccesso" ma considerando una sola prova.
La binomiale invece, prende in considerazione la medesima probabilità ma somma e sottrae n volte tali probabilità in luogo di una sola :stordita:
Ma è così ?:help:
provo con un esempio:
laura, paolo e maria devono prendere un autobus, vogliamo calcolare quale probabilità hanno di prendere o perdere l'autobus.
Se considero tale evento una sola volta, stiamo parlando di una prova bernolliana ma, se considero un numero di n volte che i tre possono perdere l'autobus, diventa una binomiale.
A quanto pare abbiamo nella bernoulliana n=1 e nella binomiale n=....+oo, o no ?
grazie Krammer :)
Mi stavo richiedendo perchè si fa distinzione tra La binomiale bernoulliana o più semplicemente solo "bernoulliana" e binomiale.
Io ho capito che nel caso del lancio di una moneta siamo nel caso della bernoulliana mentre, se i lanci della moneta sono n, allora si parla di binomiale :stordita:
Quindi la bernoulliana ha come probabilità "successo/insuccesso" ma considerando una sola prova.
La binomiale invece, prende in considerazione la medesima probabilità ma somma e sottrae n volte tali probabilità in luogo di una sola :stordita:
Ma è così ?:help:
provo con un esempio:
laura, paolo e maria devono prendere un autobus, vogliamo calcolare quale probabilità hanno di prendere o perdere l'autobus.
Se considero tale evento una sola volta, stiamo parlando di una prova bernolliana ma, se considero un numero di n volte che i tre possono perdere l'autobus, diventa una binomiale.
A quanto pare abbiamo nella bernoulliana n=1 e nella binomiale n=....+oo, o no ?
si ma con alcune imprecisioni.
la bernoulliana l'hai capita: determina la probabilità di successo/insuccesso in una prova secca, ed è dicotomica (solo 2 valori possibili)
la binomiale potremmo intenderla come la probabilità su n bernoulliane ripetute; "sommate" tra loro.
ma la somma di variabili devi intenderla in senso lato: infatti le probabilità di n bernoulliane in una binomiale non sono sommate/sottratte come hai scritto tu ma bensì moltiplicate (come abbiamo già detto, la probabilità di eventi a più fasi, indipendenti tra loro, è data moltiplicando tra loro le probabilità di ogni evento).
se osservi bene la formula della binomiale P(X=k) vedi che è composta da p (probabilità di successo di una bernoulliana) moltiplicata per sè stessa k volte (numero di successi), per 1-p (probabilità di insuccesso di una bernoulliana) moltiplicata per sè stessa n-k volte (numero di insuccessi), per un moltiplicatore (il coefficiente binomiale).
in questa formula se prendi il caso specifico n=1 (una sola prova) ti ritroverai esattamente con la formula della bernoulliana (il risultato dà p in caso di successo e 1-p in caso di insuccesso).
se prendi k=n il coefficiente binomiale è pari a 1 così come il fattore (1-p)^(n-k), e la formula si riduce semplicemente in p^n: infatti quel numero è la probabilità di n successi su n tentativi, ottenibile moltiplicando p per sè stesso n volte (esempio: probabilità che esca 4 volte testa su 4 lanci di moneta = 1/2*1/2*1/2*1/2 = 1/16)
la seconda imprecisione è che in una binomiale n può essere grande quanto ti pare ma finito, non può assumere valore di +oo
scusa Krammer,
ma la densità di probabilità esiste solo nel continuo o anche nel discreto ? :muro:
e poi...
si ha un'arma da testare con la quale si spara una raffica di 20 colpi. Tale arma spara distribuendo i proiettili su un raggio di 25 cm; il raggio del centro da colpire è di 20 cm.
L'arma è buona se la probabilità che almeno il 60% dei proiettili colpisce il centro è > 0.8.
Io sono partito con una binomiale in quanto i colpi (le prove) sono più di una ed in quanto ho solo la possibiltà che colpisca o non colpisca il centro.
Quando è stato corretto l'esercizio però, si è scritta la formula della binomiale in aggiunta ad una sommatoria, ovviamente di binomiali: ma perchè ?
Ultima domanda: abbiamo fatto diversi modelli: bernoulliano, binomiale, geometrica, etc.... in alcuni di tali modelli appare la f e la F battezzata al mio corso F grande ed f piccola; sbaglio oppure queste due non esistono per tutti i modelli ?
E' probabile che la f piccola nella binomiale si chiama densità ed e definita come (n/k)*p^k*(1-p)^(n-k)?
scusa Krammer,
ma la densità di probabilità esiste solo nel continuo o anche nel discreto ? :muro:
solo nel continuo. nel caso discreto assume nomi diversi (in wiki si parla nel campo discreto di funzione di probabilità, o funzione di massa di probabilità, o densità discreta...)
ma sono convenzioni, basta mettersi d'accordo sul nome da dare alla funzione f.
nel caso continuo si trova la probabilità integrando f, nel caso discreto con la sommatoria su f.
e poi...
si ha un'arma da testare con la quale si spara una raffica di 20 colpi. Tale arma spara distribuendo i proiettili su un raggio di 25 cm; il raggio del centro da colpire è di 20 cm.
L'arma è buona se la probabilità che almeno il 60% dei proiettili colpisce il centro è > 0.8.
Io sono partito con una binomiale in quanto i colpi (le prove) sono più di una ed in quanto ho solo la possibiltà che colpisca o non colpisca il centro.
Quando è stato corretto l'esercizio però, si è scritta la formula della binomiale in aggiunta ad una sommatoria, ovviamente di binomiali: ma perchè ?
si usa la sommatoria perchè la probabilità richiesta è che almeno il 60% dei proiettili colpisca il centro. su 20 colpi disponibili significa che devono centrare il bersaglio esattamente 12 o 13 o 14 o 15 o 16 o 17 o 18 o 19 o 20 proiettili. per cui per calcolare la probabilità totale fa fatta la somma della probabilità che 12 facciano centro + quella che 13 facciano centro + quella che 14 facciano centro + quella che 15 facciano centro etc etc fino al 20.
dovrebbe venirti infatti una sommatoria di binomiali con n = 20 e k che vanno da 12 a 20, se non ho sbagliato a fare i conti.
se l'esercizio ti avesse chiesto di trovare la prob che esattamente il 60% dei colpi vadano a segno, bastava fare una sola binomiale con n=20 e k=12
Ultima domanda: abbiamo fatto diversi modelli: bernoulliano, binomiale, geometrica, etc.... in alcuni di tali modelli appare la f e la F battezzata al mio corso F grande ed f piccola; sbaglio oppure queste due non esistono per tutti i modelli ?
E' probabile che la f piccola nella binomiale si chiama densità ed e definita come (n/k)*p^k*(1-p)^(n-k)?
la f piccola indica (o per lo meno di solito indica) la funzione di probabilità (caso discreto) oppure la funzione di densità di probabilità (caso continuo).
per darti l'idea (anche se non glielo spiegherei così al prof :D ): f ti dice la probabilità esattamente di un punto preciso dello spazio campionario.
la F grande invece indica la probabilità di un insieme di punti dello spazio campionario e si ottiene, come scritto sopra, integrando f nel caso continuo oppure con una sommatoria su f nel caso discreto (esattamente quello che abbiamo fatto nell'esempio: f è una binomiale generica con n=20 e k non definito; F si trova con la sommatoria della binomiale f per valori di k che vanno da 12 a 20)
la prossima volta vengo con te a fare lo scientifico :muro:
:muro:
nella figura la F grande e la f piccola :muro:
54562
la prossima volta vengo con te a fare lo scientifico :muro:
:muro:
nella figura la F grande e la f piccola :muro:
54562
esatto, non mi ero sbagliato quindi :)
ma tu hai capito o ti sfugge ancora qualcosa?
e che diamine! :muro:
Per me non ho ben chiara la differenza tra la 4.1(funzione di densità discreta o di probabilità) e la 4.2(funzione di distribuzione) della figura che ho postato.
Ad esempio, nella 4.2 appare una k, cosa che non appare nella 4.1.
x, a sto punto, penso che sia il valore atteso. Se ad esempio lancio una moneta 6 volte e mi aspetto che esca almeno 2 volte testa imposterò:
n=6
x=2
Ma se tale esperimento lo desidero fare 10 volte a sto punto scrivo k=10 ?
Che significa lanciare 60 volte la moneta e raccogliere i risultati ogni 6 lanci, sperando che ogni 6 lanci si abbia 2 volte testa :sob:
e che diamine! :muro:
Per me non ho ben chiara la differenza tra la 4.1(funzione di densità discreta o di probabilità) e la 4.2(funzione di distribuzione) della figura che ho postato.
Ad esempio, nella 4.2 appare una k, cosa che non appare nella 4.1.
x, a sto punto, penso che sia il valore atteso. Se ad esempio lancio una moneta 6 volte e mi aspetto che esca almeno 2 volte testa imposterò:
n=6
x=2
Ma se tale esperimento lo desidero fare 10 volte a sto punto scrivo k=10 ?
Che significa lanciare 60 volte la moneta e raccogliere i risultati ogni 6 lanci, sperando che ogni 6 lanci si abbia 2 volte testa :sob:
ah ok, pensavo avessi capito :p
provo a rispiegare nel modo più semplice possibile, visto che hai le idee ancora molto confuse.
la 4.1 indica la probabilità potremmo dire "puntuale", cioè la probabilità che si realizzi esattamente X = x, dove x sono il numero dei successi.
tornando all'esempio dei proiettili (mi sembra più chiaro di questo che hai fatto con il lancio di monete), se viene richiesta la probabilità che esattamente il 60% dei proiettili vada a segno, significa che sparando 20 colpi devono andare a segno esattamente 12 proiettili, nè di più nè di meno. i 12 proiettili a segno è il numero di successi (i restanti 8 è il numero di insuccessi).
quindi bisogna usare la formula 4.1 (che determina la probabilità di un preciso numero di successi) e impostare x = 12. n = 20 in tutti i casi (si tratta sempre di 20 spari, se per ipotesi la probabilità p che un proiettile centri il bersaglio fosse 0.5, allora sarebbe la stessa cosa che lanciare 20 monete e calcolare la probabilità che 12 di queste siano testa).
la 4.2 indica invece la probabilità di "più punti". in particolare la probabilità che si realizzi X<=x (x indica sempre il numero dei successi).
riprendendo di nuovo l'esempio di prima, il numero dei successi è il numero dei proiettili a bersaglio. il proiettili sono sempre 20 in tutto (n=20), quindi i successi possibili possono essere 0 (nessun colpo a segno), 1 (1 colpo a segno), 2 (2 colpi a segno), 3, 4, ..., 19, 20 (tutti e 20 i colpi a segno).
la 4.2 calcola la probabilità che X<=x, quindi se nell'esempio si chiede che al più il 60% dei 20 colpi vada a segno, i casi possibili sono 13: 0 colpi a segno, 1 colpo a segno, 2 colpi a segno, 3, 4, ..., 11, 12 colpi a segno. la probabilità per ogni singolo caso può essere calcolata con la 4.1 (impostando x=0, poi x=1, poi x=2 etc etc fino a x=12). e la probabilità totale richiesta (X<=12) si trova semplicemente facendo la somma di quelle 12 probabilità "puntuali".
ed è proprio questo che c'è scritto nella formula 4.2: si sommano tutte le probabilità puntuali con k che varia tra 0 (nessun proiettile a segno) e x (in questo caso 12, 12 proiettili a segno). n è, come già detto, sempre uguale a 20.
ora dovrebbe esserti tutto più chiaro (spero :D)
ps: in realtà l'esempio originale chiedeva la probabilità che almeno il 60% dei colpi vadano a segno, cioè 9 casi "puntuali": devono colpire il bersaglio 12, 13, 14, 15, 16, 17, 18, 19 oppure 20 proiettili.
il tal caso non sarà più P(X<=x) bensì P(X>=x), quindi la formula della 4.2 si deve modificare: non sarà k che varia tra 0 e x=12, bensì k che varia tra x=12 e n=20 ;)
ciao Krammer,
sai se esiste una sorta di tabella riepilogo che ti fornisca indicazioni per quali casi usare una ditribuzione anzichè l'altra ? :stordita:
equiprobabile/bernoulliana/binomiale/geometrica/esponenziale/gamma/poissoniana/bayesiana :muro:
lo immaginavo :(
Ci arriveremo attraverso tanti esercizi :)
p.s.
qualcosina però l'ho trovata in rete :)
francescosalvaggio
17-11-2007, 08:51
sarà che non è giornata ma continua a sfuggirmi la differenza tra una combinazione ed una disposizione :muro: :muro:
aiuto!
la differenza tra una combinazione e una disposizione nel caso del gioco delle carte è che nella disposizione le carte si considera che una volta estratte vengano rimesse nel mazzo, se usi le combinazioni supponi il contrario ovvero che l'insieme da cui scegliere diminuisce ogni volta
cia Krammer,
i miei dubbi non si sono ancora dissipati; ne ho uno circa l'indipendenza di eventi.
La definizione dice che se due eventi sono indipendenti allora:
P(A int B)=P(A)*P(B)
mi chiedevo se è una caratterisica calcolabile oppure il fatto che due eventi siano indipendenti è puramente intuitiva ?
Esempio:
A={4,5,6}; B{1,2,3,4}
lancio un dado due volte e mi chiedo la probabilità di ottenere una volta un numero appartenente all'evento A e un'altra volta un numero appartenente all'evento B.
Se mi metto a fare i conti, così capisci il mio dubbio ottengo:
P(A) = 3/6 = 1/2
P(B) = 4/6 = 2/3
P(A U B) = 1
P(A int B) = 1/6 in quanto (A int B) = {4}
se ora dalle probabilità calcolate cerco di applicare il teorema, mi aspettavo una cosa del tipo:
1/6 = 1/2 * 2/3 = 1/3 ???? è questo che non mi spiego, non dovrebbe risultare 1/6 ???
Forse il teorema non va applicato a questo modo però, leggo che può essere usato per scoprire se due eventi sonon indipendenti
:muro:
p.s.
leggo al link sotto: Puoi pensare l'indipendenza in questa maniera: sapere che un evento si è verificato non modifica la probabilità assegnata all'altro evento.
http://www.ds.unifi.it/VL/VL_IT/prob/prob6.html
ne avevamo già parlato dell'indipendenza però, a quanto sembra se è come dice al link è un concetto puramente intuitivo e non calcolabile, o no ?
p.p.s
mi sto convincendo che è un parametro di calcolo che viene dato :D
cia Krammer,
i miei dubbi non si sono ancora dissipati; ne ho uno circa l'indipendenza di eventi.
La definizione dice che se due eventi sono indipendenti allora:
P(A int B)=P(A)*P(B)
mi chiedevo se è una caratterisica calcolabile oppure il fatto che due eventi siano indipendenti è puramente intuitiva ?
Esempio:
A={4,5,6}; B{1,2,3,4}
lancio un dado due volte e mi chiedo la probabilità di ottenere una volta un numero appartenente all'evento A e un'altra volta un numero appartenente all'evento B.
Se mi metto a fare i conti, così capisci il mio dubbio ottengo:
P(A) = 3/6 = 1/2
P(B) = 4/6 = 2/3
P(A U B) = 1
P(A int B) = 1/6 in quanto (A int B) = {4}
se ora dalle probabilità calcolate cerco di applicare il teorema, mi aspettavo una cosa del tipo:
1/6 = 1/2 * 2/3 = 1/3 ???? è questo che non mi spiego, non dovrebbe risultare 1/6 ???
Forse il teorema non va applicato a questo modo però, leggo che può essere usato per scoprire se due eventi sonon indipendenti
:muro:
il tuo problema consta nel fatto che non differenzi l'evento singolo dall'evento a 2 fasi, che sono cose completamente differenti.
queste formule sono giuste solo considerando l'evento singolo: lancio di un unico dado:
P(A) = 3/6 = 1/2
P(B) = 4/6 = 2/3
P(A U B) = 1
P(A int B) = 1/6 in quanto (A int B) = {4}
con il lancio di un singolo dado tutto torna: infatti i 2 eventi A e B sono dipendenti, poichè 1/6 diverso da 1/2 * 2/3 = 1/3 (come avevi scritto te, ma tu ti riferivi al lancio di 2 dadi, sbagliando)
puoi verificare banalmente che P(A) = 3/6 = 1/2 ma anche che P(A|B) = 1/4: verificandosi B lo spazio campionario si riduce da 6 a 4 casi possibili (comprenderà adesso solo i numeri 1,2,3,4: infatti 5 e 6 sono esclusi perchè non rientrano nell'evento B, avendolo supposto verificato!), e di questi i casi favorevoli perchè si verifichi anche A sono solamente uno (ovvero esce il numero 4).
riepilogando:
P(A) = 1/2: 3 casi favorevoli (4,5,6) su 6 casi possibili (1,2,3,4,5,6)
P(A|B) = 1/4: 1 caso favorevole (4) su 4 casi possibili (1,2,3,4)
poichè P(A) è diverso da P(A|B), allora A e B sono eventi dipendenti.
parimenti, poichè P(A intersec B)=1/6 è diverso da P(A)*P(B)=1/3, allora A e B sono eventi dipendenti.
essendo eventi dipendenti la formula corretta da applicare è questa: P(A intersec B) = P(A)*P(B|A).
calcoliamo anche P(B|A): 1 caso favorevole (4) su 3 casi possibili (4,5,6), quindi P(B|A) = 1/3.
sostituiamo i risultati alla formula e verifichiamo che è corretta: 1/6 = 1/2*1/3
CVD ;)
ripeto: tutto questo è valido solo se consideriamo il caso del lancio di un solo dado!
viceversa se vuoi analizzare la situazione di due lanci di dadi (evento a 2 fasi), le cose cambiano e di molto.
la prima cosa che cambia è lo spazio campionario: non è più composto da soli 6 elementi (1,2,3,4,5,6) bensì da 6*6=36 elementi (11,12,13,14,15,16,21,22,23,24,...,64,65,66)!!
seconda cosa devi ridefinire gli eventi A e B: A potrebbe verificarsi se esce:
[1]- {4,5,6} nel primo lancio di dadi (allora comprende 18 elementi dei totali 36 dello spazio campionario: {41,42,43,44,45,46,51,52,53,54,55,56,61,62,63,64,65,66})
[2]- {4,5,6} nel secondo lancio di dadi (comprenderà ancora 18 elementi dei totali 36 dello spazio campionario, ma diversi: {14,24,34,44,54,64,15,25,35,45,55,65,16,26,36,46,56,66})
[3]- {4,5,6} indifferentemente nel primo oppure nel secondo lancio di dadi (in questo caso comprenderà 27 elementi dei 36 dello spazio campionario: tutti quelli dove compare 4, 5 o 6 nella prima oppure nella seconda cifra)
la stessa identica cosa la devi fare con l'evento B (esce 1, 2, 3 o 4 nel primo dado, nel secondo, oppure indifferentemente nel primo o nel secondo?)
oppure ancora puoi scindere gli eventi A e B rispettivamente in A1, A2 e B1, B2, dove:
A1: esce 4,5,6 sul primo lancio
A2: esce 4,5,6 sul secondo lancio
B1: esce 1,2,3,4 sul primo lancio
B2: esce 1,2,3,4 sul secondo lancio.
per poi "riassemblerli" A={A1,A2}, B={B1,B2}. in questo caso gli eventi A e B sono gli stessi di quelli definiti in [3].
dopodiché, definiti rigorosamente gli eventi, puoi fare i tuoi ragionamenti e i tuoi calcoli per verificare se sono tra loro dipendenti o meno.
per rispondere alla tua domanda iniziale "lancio un dado due volte e mi chiedo la probabilità di ottenere una volta un numero appartenente all'evento A e un'altra volta un numero appartenente all'evento B.", definendo A e B come in [3], risultano questi 36 casi possibili:
11 BB
12 BB
13 BB
14 BB e BA
15 BA
16 BA
21 BB
22 BB
23 BB
24 BB e BA
25 BA
26 BA
31 BB
32 BB
33 BB
34 BB e BA
35 BA
36 BA
41 BB e AB
42 BB e AB
43 BB e AB
44 BB e AB e BA e AA
45 BA e AA
46 BA e AA
51 AB
52 AB
53 AB
54 AB e AA
55 AA
56 AA
61 AB
62 AB
63 AB
64 AB e AA
65 AA
66 AA
(AA= si verifica 2 volte l'evento A; BB= si verifica 2 volte l'evento B; AB=BA= si verifica una volta l'evento A e una volta l'evento B, l'ordine non conta)
di tutti questi casi possibili (spazio campionario) dobbiamo contare solo i casi favorevoli che verificano indifferentemente AB e BA (l'ordine di come sono stati lanciati i dadi abbiamo detto che non conta, visto che non è specificato nel tuo quesito).
il numero di casi favorevoli risulta (se ho contato bene :D) 23, e la probabilità richiesta sarà quindi 23/36, differentemente da quanto pensavi ;)
p.s.
leggo al link sotto: Puoi pensare l'indipendenza in questa maniera: sapere che un evento si è verificato non modifica la probabilità assegnata all'altro evento.
http://www.ds.unifi.it/VL/VL_IT/prob/prob6.html
ne avevamo già parlato dell'indipendenza però, a quanto sembra se è come dice al link è un concetto puramente intuitivo e non calcolabile, o no ?
p.p.s
mi sto convincendo che è un parametro di calcolo che viene dato :D
l'indipendenza tra eventi non sempre è un concetto puramente intuitivo, anzi a volte se non si fa attenzione alle sottigliezze del problema si possono prendere grosse cantonate!!
ma se si definisce rigorosamente il problema e non si commettono errori, è sempre possibile verificarla tramite calcoli :)
domani mi stampo quanto hai scritto.
Quindi, se prestavo più attenzione ai conti che ho fatto e notando che non riuscivo in alcun modo a dimostrare che gli eventi erano indipendenti attraverso il teorema che ho scritto, avrei dovuto intuire che gli eventi erano/sono dipendenti.
Difatti, ho letto una definizione che dice che il teorema P(A int B) = P(A)*P(B) serve anche a stabilire se due eventi sono indipendenti.
Purtroppo mi ero fossilizzato nel pensare che i due eventi fossero indipendenti quando invece, erano l'opposto. :muro:
domani mi stampo quanto hai scritto.
Quindi, se prestavo più attenzione ai conti che ho fatto e notando che non riuscivo in alcun modo a dimostrare che gli eventi erano indipendenti attraverso il teorema che ho scritto, avrei dovuto intuire che gli eventi erano/sono dipendenti.
Difatti, ho letto una definizione che dice che il teorema P(A int B) = P(A)*P(B) serve anche a stabilire se due eventi sono indipendenti.
Purtroppo mi ero fossilizzato nel pensare che i due eventi fossero indipendenti quando invece, erano l'opposto. :muro:
già, infatti anche nel caso di 2 lanci di dadi i 2 eventi A e B risultano dipendenti :)
definiamo rigorosamente il problema:
2 lanci di dadi, quindi lo spazio campionario come abbiamo già visto è composto da 6*6=36 elementi, tutti i casi possibili.
evento A = esce 4, 5 o 6 in uno qualsiasi dei due dadi
evento B = esce 1, 2, 3 o 4 in uno qualsiasi dei due dadi
P(A) = casi_favorevoli/casi_possibili = (36-9)/36 = 27/36 (dove 9 sono tutti i casi sfavorevoli, ovvero 11,12,13,21,22,23,31,32,33 = 9 elementi)
P(B) = (36-4)/36 = 32/36 (dove 4 sono i casi sfavorevoli, ovvero 55,56,65,66 = 4 elementi)
P(A|B) = 23/32 (se si verifica B lo spazio campionario viene ridefinito su 36-4=32 elementi, vanno esclusi i casi 55,56,65,66, e dei casi rimanenti solo 32-9=23 sono favorevoli)
P(B|A) = 23/27 (se si verifica A lo spazio campionario viene ridefinito su 36-9=27 elementi, vanno esclusi i casi 11,12,13,21,22,23,31,32,33, e dei casi rimanenti solo 27-4=23 sono favorevoli)
si vede che P(A) diverso da P(A|B), e analogamente P(B) diverso da P(B|A): quindi gli eventi A e B sono dipendenti
facciamo la verifica: deve risultare che P(A intersec B) = P(A)*P(B|A) = P(B)*P(A|B)
P(A intersec B) = (36-9-4)/36 = 23/36
P(A)*P(B|A) = 27/36 * 23/27 = 23/36
P(B)*P(A|B) = 32/36 * 23/32 = 23/36
CVD :)
[edit] con questo esempio ti ho fatto vedere come è possibile trasformare lo studio di un "esperimento a 2 fasi" (2 lanci di dadi in successione) nello studio di un esperimento a fase singola (2 dadi lanciati contemporaneamente) nel quale si possono applicare tutte le classiche operazioni insiemistiche.
a patto di:
- ridefinire lo spazio campionario
- ridefinire gli eventi considerati nel modo più appropriato
le eventuali "informazioni temporali" (cosa esce nel primo e nel secondo lancio, distinguendoli tra loro - cmq non richiesto in questo esempio) si possono mantenere dando un indice ai dadi lanciati, considerandoli quindi come una coppia ordinata
visto che non mi passa nulla e mi piace sta roba, ti mostro anche un altro modo di trovare la probabilità cercata (esce 1,2,3 o 4 su un dado e 3,4 o 5 sull'altro) :D
si fa un grafo con tutti i casi possibili (tra parentesi le relative probabilità parziali) e alla fine si sommano le probabilità finali (P1*P2) solo dei casi favorevoli. il risultato è sempre 23/36 :)
http://www.hwupgrade.it/forum/attachment.php?attachmentid=54868&stc=1&d=1195770303
ps: si verifica che la somma delle probabilità finali di tutti i casi è uguale a 1
ciao Krammer,
scusa se insisto ancora nelle cose vecchie :D ma :muro:
se effettuo questa prova: P(A int B) = P(A)*P(B)
ed il risultato che ottengo è una disuguagliana, posso asserire che gli eventi dati sono dipendenti.
E posso verificarlo quindi col teorema da te proposto:
P(A int B) = P(A) * P(B|A)
è così ? :stordita:
ciao Krammer,
scusa se insisto ancora nelle cose vecchie :D ma :muro:
se effettuo questa prova: P(A int B) = P(A)*P(B)
ed il risultato che ottengo è una disuguagliana, posso asserire che gli eventi dati sono dipendenti.
E posso verificarlo quindi col teorema da te proposto:
P(A int B) = P(A) * P(B|A)
è così ? :stordita:
si esatto: una delle 2 equazioni deve essere verificata, a seconda che gli eventi siano dipendenti o indipendenti
ciao Krammer,
a proposito del teorema di bayes: 4 tecnici effetuano delle riparazioni ad un impianto; il primo tecnico effettua il 20% delle riparazioni e 1/20 non la esegue bene, il secondo tecnico effettua il 60% delle riparazioni e 1/10 non la esegue bene, il terzo tecnico effettua il 15% delle riparazioni e 1/10 non la esegue bene, il quarto tecnico effettua il 5% delle riparazioni e 1/20 non la esegue bene.
Determinare qual'è la probabilità che l'ultima riparazione fatta male, sia stata eseguita dal primo tecnico.
Applicando il teorema di Bayes ottengo i seguenti risultati ed il colpevole pare proprio essere il tecnico 1 però, lo è in quanto effettua sull'impianto il 60 % dei lavori quindi, non lo si evincerebbe anche senza fare alcun conto ? :stordita:
pb1 0,2 pa|b1 0,05 tecnico 1 11%
pb2 0,6 pa|b2 0,1 tecnico 2 69%
pb3 0,15 pa|b3 0,1 tecnico 3 17%
pb4 0,05 pa|b4 0,05 tecnico 4 3%
ciao Krammer,
a proposito del teorema di bayes: 4 tecnici effetuano delle riparazioni ad un impianto; il primo tecnico effettua il 20% delle riparazioni e 1/20 non la esegue bene, il secondo tecnico effettua il 60% delle riparazioni e 1/10 non la esegue bene, il terzo tecnico effettua il 15% delle riparazioni e 1/10 non la esegue bene, il quarto tecnico effettua il 5% delle riparazioni e 1/20 non la esegue bene.
Determinare qual'è la probabilità che l'ultima riparazione fatta male, sia stata eseguita dal primo tecnico.
Applicando il teorema di Bayes ottengo i seguenti risultati ed il colpevole pare proprio essere il tecnico 1 però, lo è in quanto effettua sull'impianto il 60 % dei lavori quindi, non lo si evincerebbe anche senza fare alcun conto ? :stordita:
pb1 0,2 pa|b1 0,05 tecnico 1 11%
pb2 0,6 pa|b2 0,1 tecnico 2 69%
pb3 0,15 pa|b3 0,1 tecnico 3 17%
pb4 0,05 pa|b4 0,05 tecnico 4 3%
emhh mi sa che hai fatto un po' di confusione nel post, volevi dire tecnico2 e non tecnico1 giusto? :stordita:
cmq si, in questo caso la probabilità maggiore di essere "colpevole" ce l'ha il tecnico 2 senza nemmeno dover fare conti: infatti ha la maggiore probabilità che sia stato lui ad eseguire la riparazione e contemporaneamente anche la maggiore probabilità che la riparazione sia fatta male ;)
ma l'esercizio non chiede chi è il colpevole più probabile (tecnico2 in questo caso) bensì chiede la probabilità che il colpevole sia il tecnico1 :p
i risultati son giusti cmq :)
giusta correzione, tecnico 2 :D
Ma se si vede ad occhio e senza fare conti, mi sa che ho beccato l'esercizio sbagliato per mettere in evidenza le potenzialità del teorema di Bayes :fagiano:
Da questo esercizio sembra inutile, il teorema; che non me ne voglia Bayes :stordita: :D
giusta correzione, tecnico 2 :D
Ma se si vede ad occhio e senza fare conti, mi sa che ho beccato l'esercizio sbagliato per mettere in evidenza le potenzialità del teorema di Bayes :fagiano:
Da questo esercizio sembra inutile, il teorema; che non me ne voglia Bayes :stordita: :D
si però l'esercizio richiedeva la probabilità che la causa fosse il tecnico1, e per sapere questo i conti li devi fare eccome ;) devi calcolare tutte e quattro le probabilità "parziali", sommarle, e dividere la probabilità parziale del tecnico1 per questa somma. anche se sono calcoli banali oltre che intuitivi, di fatto quel teorema lo applichi eccome :O
scusa Krammer, intendevo un'altra cosa :D
Quello che intendevo è che forse un esercizio così semplice non mette in evidenza la potenza del teorema :)
Ho un esercizio
Il proprietario di un negozio di videocassette scopre che in media il 20% delle cassette contiene un film diverso da quello scritto sulla scatola. Sapendo che in quel momento ci sono 200 cassette nel negozio, effettua un veloce calcolo della probabilità che al massimo 5 cassette siano sbagliate, decidendo di effettuare subito un controllo completo solo se la probabilità risultasse minore di 0,7.
La domanda che viene posta nell'esercizio è se il propietario effettua il controllo.
Mi chiedo come diamine faccio a determinare a quale distribuzione fare riferimento(Binomiale, Poissoniana, Bayesiana, Geometrica etc...) e, quali possono essere mai i parametri per il calcolo.
Sinceramente non ci vedo n prove bernoulliane per impostare una binomiale ma nemmeno una poissoniana....boh.
Si va a tentativi ?
:muro:
p.s.
si va ad esercizi.
Ho visto che si può approssimare la binomiale con la poissoniana se ti ritrovi il coefficiente binomiale con parametri grandi :)
ciao Krammer,
ma nella distribuzione normale(gaussiana) se si devono determinare i parametri della media e della varianza, si usa normalizzare e cioè portare tali parametri a:
media=0
varianza=1
e si determina una probabilità P per quei due valori; poi, facendo uso di una tabella, si va a cercare il valore della funzione Fz per quella P ed infine si calcolano i valori della media e della varianza reali: è così ? :stordita:
ciao Krammer,
ma nella distribuzione normale(gaussiana) se si devono determinare i parametri della media e della varianza, si usa normalizzare e cioè portare tali parametri a:
media=0
varianza=1
e si determina una probabilità P per quei due valori; poi, facendo uso di una tabella, si va a cercare il valore della funzione Fz per quella P ed infine si calcolano i valori della media e della varianza reali: è così ? :stordita:
scusa ma ho pochissimo tempo in questo periodo.
provo a rispondere velocemente. media e varianza di una gaussiana X in genere sono dati, non li devi calcolare...
media e varianza si portano a 0 e 1 normalizzando l'originale funzione X nella nuova funzione Z per poter usare le tabelle di risoluzione (basta operare la sostituzione Z = (X-[media])/[sqrt_varianza])
ciò che generalmente viene richiesto di trovare è la probabilità dato un valore della funzione, oppure il valore data una probabilità.
qui a pg 75-76 (http://www.ds.unifi.it/~chiandot/STAT1_EA/DISPE/cap2%20rivisto%20per%20PT.pdf) trovi degli esempi molto semplici e immediati se avessi ancora dei dubbi...
ciao
quello che non mi è chiaro è il significato di standardizzare :confused:
Significa che esiste una funzione di gauss standard con media = 0 e varianza = 1 dove tutte le altre rappresentazioni non standard possono rientrarvi ?
E se si, a quale scopo ? :muro:
pietro84
04-12-2007, 14:07
quello che non mi è chiaro è il significato di standardizzare :confused:
Significa che esiste una funzione di gauss standard con media = 0 e varianza = 1 dove tutte le altre rappresentazioni non standard possono rientrarvi ?
E se si, a quale scopo ? :muro:
standardizzare vuol dire semplicemente traslare la gaussiana lungo l'asse delle ascisse(in modo da centrarla all'origine) e scalarla in modo che abbia varianza unitaria. serve solo a semplificare i calcoli degli integrali su porzioni della gaussiana. infatti per gaussiane standardizzate tali integrali sono tabellati.
hai presente quando tu calcoli gli integrali effettuando cambi di variabili?
Il concetto è quello. Standardadizzi la guassiana(cioè effettui un cambio di variabili), leggi i valori che ti interessano in tabella(cioè integri sull'intervallo desiderato), e poi ritorni alla forma iniziale.
z= (x-media)/sigma il cambio di variabili è questo
standardizzare vuol dire semplicemente traslare la gaussiana lungo l'asse delle ascisse(in modo da centrarla all'origine) e scalarla in modo che abbia varianza unitaria. serve solo a semplificare i calcoli degli integrali su porzioni della gaussiana. infatti per gaussiane standardizzate tali integrali sono tabellati.
hai presente quando tu calcoli gli integrali effettuando cambi di variabili?
Il concetto è quello. Standardadizzi la guassiana(cioè effettui un cambio di variabili), leggi i valori che ti interessano in tabella(cioè integri sull'intervallo desiderato), e poi ritorni alla forma iniziale.
z= (x-media)/sigma il cambio di variabili è questo
è come dire che le probabilità sono già tutte calcolate ed è sufficiente prendere l'equivalente nella tabella normalizzata per sapere la probabilità ricercata ?
aggiungo: allora l'esempio al l'ink lo posso normalizzare ? facendo:
- calcolo della deviazione standard
- calcolo della media
- applizazione della Z=X-u/@
- ricavo dalla tabella i valori Z calcolati
http://www.liceofoscarini.it/studenti/probabilita/normale.html
pietro84
04-12-2007, 19:16
- calcolo della deviazione standard
- calcolo della media
- applizazione della Z=X-u/@
- ricavo dalla tabella i valori Z calcolati
aggiungo:
-se necessario, trovato Z passare di nuovo alla variabile X
scusa pietro, ma allora non ho scritto bestialità ? :stordita:
pietro84
05-12-2007, 14:10
scusa pietro, ma allora non ho scritto bestialità ? :stordita:
no di bestialità non ne vedo.
il calcolo della media e della varianza può essere dato solo in esercizi un po più compessi in cui tipicamente si parte da dati campionati e si aprrossima la distribuzione discreta(istogrammi) con una curva continua(spesso una gaussiana).... quindi nella maggior parte dei casi media e varianza saranno note.
ps: cmq per essere sicuro che hai capito realmente devi fare qualche esercizio e verificare la soluzione.
però non ho ancora ben chiara la differenza tra la f e la F.
La f è definita come funzione di distribuzione di probabulità mentre la F è definita come funzione di distribuzione cumulativa.
La differenza che mi salta immediatamente all'occhio nella definizione è quel = posto nella definizione della f in luogo di quel <= nel caso della F.
(1)
fX(xi) = (P = xi) per i = 1,2,...
(2)
FX(x) = (P <= x) per x appartenente a R
la (1) mi dice la probabilità che la P assuma il valore xì, mentre la (2) la probabilità che la x assuma un valore <= x :confused:
Altra domanda di una cosa che non mi resta assolutamente in testa; la densità appartiene alle distribuzioni continue e la calcolo attraverso un integrale in quanto, nelle distribuzioni continue se assumessi che la P valga un punto dato, questa varrebbe zero; ma la si calcola cona la f e non con la F giusto ? :stordita:
però non ho ancora ben chiara la differenza tra la f e la F.
La f è definita come funzione di distribuzione di probabulità mentre la F è definita come funzione di distribuzione cumulativa.
La differenza che mi salta immediatamente all'occhio nella definizione è quel = posto nella definizione della f in luogo di quel <= nel caso della F.
(1)
fX(xi) = (P = xi) per i = 1,2,...
(2)
FX(x) = (P <= x) per x appartenente a R
la (1) mi dice la probabilità che la P assuma il valore xì, mentre la (2) la probabilità che la x assuma un valore <= x :confused:
Altra domanda di una cosa che non mi resta assolutamente in testa; la densità appartiene alle distribuzioni continue e la calcolo attraverso un integrale in quanto, nelle distribuzioni continue se assumessi che la P valga un punto dato, questa varrebbe zero; ma la si calcola cona la f e non con la F giusto ? :stordita:
la f(x) calcola la probabilità di un preciso punto campionario ( =x )
la F(x) calcola la probabilità di molteplici punti campionari ( <=x ), e si ottiene con una sommatoria di f(x) nel caso discreto oppure con l'integrale di f(x) nel caso continuo
la f(x) calcola la probabilità di un preciso punto campionario ( =x )
la F(x) calcola la probabilità di molteplici punti campionari ( <=x ), e si ottiene con una sommatoria di f(x) nel caso discreto oppure con l'integrale di f(x) nel caso continuo
scusa ma anche nel continuo c'è la f(x) e la si calcola con un integrale :stordita:
pietro84
07-12-2007, 21:23
scusa ma anche nel continuo c'è la f(x) e la si calcola con un integrale :stordita:
in realtà nel caso continuo f(x) non è una probabilità ma una densità di probabilità, come il nome stesso dice.
f(x) != P(x) infatti se siamo nel continuo P(x)=0 per ogni x.
intuitivamente poichè i punti sono infiniti la probabilità che la variabile assuma proprio un preciso valore ,tra gli infiniti possibili, è zero. Il discorso si fa solo su intervalli: ha senso calcolare la probabilità che la variabile aleatoria x cada in un certo intervallo; per far cio si integra la f(x) sull'intervallo desiderato.
ok pietro,
quindi riassumendo...
nel discreto:
la f(x) calcola la P di un punto (=)
la F(x) in più punti (<=)
nel continuo:
la f(x) calcola la densità di probabilità attraverso un integrale
e la F(x) ?
ok pietro,
quindi riassumendo...
nel discreto:
la f(x) calcola la P di un punto (=)
la F(x) in più punti (<=)
nel continuo:
la f(x) calcola la densità di probabilità attraverso un integrale
e la F(x) ?
F(x) la probabilità dell'intervallo, ovvero più punti continui
F(x) la probabilità dell'intervallo, ovvero più punti continui
scusa ma credo di non aver capito :stordita:
pietro84
08-12-2007, 09:29
ok pietro,
quindi riassumendo...
nel discreto:
la f(x) calcola la P di un punto (=)
la F(x) in più punti (<=)
nel continuo:
la f(x) calcola la densità di probabilità attraverso un integrale
e la F(x) ?
per quanto riguarda il discreto prendi per buono quello che hai scritto.
a rigori però è sbagliato perchè bisognerebbe introdurre la pmf oppure l'impulso di Dirac, ma meglio non mettere troppa carne a cuocere :D
per quanto riguarda il continuo quello che hai scritto è sbagliato.
la f(x) è una funzione di densità di probabilità. integrando questa funzione su un intervallo ottieni la probabilità che la variabile aleatoria cada nell'intervallo di integrazione.
quindi:
f(x) è una densità di probabilità
/f(x)dx è una probabilità, più precisamente è la probabilità che x cada nell'intervallo [a,b] (col simbolo / indico l'integrale definito da a a b)
passiamo alla F(x):
questa funzione deve essere capita attraverso la sua definizione formale, spiegandola a parole si fa solo confusione.
Fx(X)= P(x<X) dove x è la variabile aleatoria e X è il valore assunto dalla variabile.
Fx(X) è la probabilità che la variabile aleatoria x cada nell'intervallo ]-inf,X]
es
X=4 cioè il valore assunto da x è 4
Fx(4)=P(x<4)
cioè Fx(4) è la probabilità che la x cada nell'intervallo ]-inf,4]
tutte queste funzioni in realtà si indicano col simbolo
fx(X) con x nome della variabile e X valore assunto dalla variabile
ciao pietro quindi, mi stai dicendo che ne continuo la f(x) me la calcolo in un intervallo a,b col mio belll'integrale
la F(x) invece che ha per definizione -oo, +oo me la calcolo sempre col mio bell'integrale ma cambia l'intervallo; +/- oo come citato da te nell'esempio ? :stordita:
esempio
F(x) tra b e +oo oppure tra a e -oo
pietro84
08-12-2007, 09:52
ciao pietro quindi, mi stai dicendo che ne continuo la f(x) me la calcolo in un intervallo a,b col mio belll'integrale
la F(x) invece che ha per definizione -oo, +oo me la calcolo sempre col mio bell'integrale ma cambia l'intervallo; +/- oo come citato da te nell'esempio ? :stordita:
no.
Allora supponiamo tu sei interessato a calcolare la probabilità che la variabile aleatoria x cada in un certo intervallo [a,b] ,ok?
Hai a disposizione la funzione di densità di probabilità di x(può essere una gaussiana per esempio). Indichiamo questa funzione col simbolo fx(X)
(tu la chiami f(x) ma la notazione standard è diversa, quindi abituati alla mia notazione).
indichiamo la probabilità che intendiamo calcolare col simbolo
P{x cada in [a,b]} ok?
P{x cada in [a,b]} = /fx(X)dX dove "/" indica l'integrale da a a b .
con l'integrale della fx(X) tu calcoli una probabilità; fx(X) non è una probabilità, ma solo una densità di probabilità
finora ti è chiaro?
pietro84
08-12-2007, 09:59
a F(x) invece che ha per definizione -oo, +oo me la calcolo sempre col mio bell'integrale ma cambia l'intervallo; +/- oo come citato da te nell'esempio ?
esempio
F(x) tra b e +oo oppure tra a e -oo
qui sei del tutto fuori strada.
ragiona sulla definizione:
1.Fx(X) è una probabilità
2. che probabilità?
la probabilità che x<X dove X è un valore per esempio 4, 3.5 , 10003
+inf non c'entra niente.... da dove l'hai tirato fuori ? e nemmeno l'integrale...
poi esiste una proprietà:
Fx(X)= /fx(X)dX
ma questo non c'entra niente con la definizione della Fx, serve per ricavare la Fx(X) nota la fx(X)
e lo so che non è facile farsi capire!
Nel mio libro con X grande si indica la variabile aleatoria e con x piccolo i valori che questa può assumere.
Io ho capito che nelle distribuzioni continue si calcola la densità di probabilità e cioè, che la variabile aleatoria assuma un valore compreso in un intervallo [a,b] attraverso un integrale.
La F(x) = P(X <=x) che è la funzione di distribuzione cumulata , la si calcola sempre con un integrale ma sull'intervallo e va da -oo a x.
ho editato
pietro84
08-12-2007, 11:24
e lo so che non è facile farsi capire!
Nel mio libro con X grande si indica la variabile aleatoria e con x piccolo i valori che questa può assumere.
ah è tutto il contrario.... bene :D
Io ho capito che nelle distribuzioni continue si calcola la densità di probabilità in un intervallo ese: [a,b] attraverso un integrale.
ecco il problema è qui.
non è la densità di probabilità a calcolarsi attraverso un integrale; è la probabilità che si calcola attraverso l'integrale della densità.
Se stai facendo ingegneria basta che fai riferimento a qualunque altro esame di fisica o fisica applicata, puoi calcolare il valore di qualunque grandezza con l'integrale della sua densità.
Il concetto è lo stesso: supponi di voler calcolare il volume di acqua che cade in una certa regione piana. Hai a disposizione la funzione di densità delle precipitazioni D(x,y). z=D(x0,y0) vuol dire che nel punto (x0,y0) cadono z l/m^2 di acqua (è quindi una densità).
Per ottenere il volume totale d'acqua devi integrare su tutta la regione la funzione D(x,y).
Volume_totale= /DdS dS=dxdy
oppure fai riferimento alla densità di corrente: la corrente in un conduttore si calcola integrando la sua densità sulla seperficie attraversata .
in maniera analoga di ragiona con la probabilità. La probabilità si ottiene come integrale della sua densità. Il nome "densità" deriva proprio dall'analogia con la fisica.
La F(x) = P(X <=x) che è la funzione di distribuzione cumulata , la si calcola sempre con un integrale ma sull'intervallo e va da -oo a x.
sì, con un integrale della fx(X). poichè la Fx(X) è una probabilità può essere ottenuta integrando la densità di probabilità, come ho detto sopra.
però l'importante è avere ben chiare la definizione.
si ma non sono ancora del tutto soddisfatto :D
ci medito sopra ancora un pochino :stordita:
sì, con un integrale della fx(X). poichè la Fx(X) è una probabilità può essere ottenuta integrando la densità di probabilità, come ho detto sopra.
però l'importante è avere ben chiare la definizione.
F(x) = P(X <=x)
quella sopra è la definizione generale della cumulata e mi stai dicendo che sto facendo confusione con la F(x) = -oo/x f(x) dx
dove -oo/x è l'integrale da -oo a x
pietro84
09-12-2007, 09:44
F(x) = P(X <=x)
quella sopra è la definizione generale della cumulata e mi stai dicendo che sto facendo confusione con la F(x) = -oo/x f(x) dx
dove -oo/x è l'integrale da -oo a x
allora quella sopra è la definizione della cumulata. ok.
quella sotto è un modo di calcolare la culmulata a partire dalla funzione di densità di probabilità.
non a caso la funzione di densità si ottiene derivando la cumulata, quindi la cumulata si ottine integrando la funzione di densità.
quindi se ho la f(x) integrando ho la F(x) e derivando torno sulla f(x) ma..... è tutta qui la differenza tra f(x) ed F(x) ?
pietro84
09-12-2007, 12:17
quindi se ho la f(x) integrando ho la F(x) e derivando torno sulla f(x) ma..... è tutta qui la differenza tra f(x) ed F(x) ?
sì,per definizione
f(x):= d/dx F(x)
quindi si parte dal definire F(x) come ho scritto nei post precedenti. Poi si introduce la f(x) derivando la F(x).
ciao a tutti, sono alle prese con alcuni problemi che, anche se banali, non riesco a risolvere. Devo riprendere in mano tutta la teoria perchè ho interrotto gli studi per alcuni anni e adesso ricominciare è difficile...comunque si tratta di questo problema:
2 scatole con tre pietre preziose in ciascuna, nella prima scatola 2 sono vere ed 1 falsa, nella seconda scatola 2 sono false ed una vera.
a) scegliendo a caso 1 delle 2 scatole, qual è la probabilità di avere 2 pietre vere?
b) si può estrarre 1 pietra senza conoscere però il contenuto delle scatole, qual è la strategia migliore per riuscire a prendere le 2 pietre vere?
grazie e ciao.
ciao a tutti, sono alle prese con alcuni problemi che, anche se banali, non riesco a risolvere. Devo riprendere in mano tutta la teoria perchè ho interrotto gli studi per alcuni anni e adesso ricominciare è difficile...comunque si tratta di questo problema:
2 scatole con tre pietre preziose in ciascuna, nella prima scatola 2 sono vere ed 1 falsa, nella seconda scatola 2 sono false ed una vera.
a) scegliendo a caso 1 delle 2 scatole, qual è la probabilità di avere 2 pietre vere?
b) si può estrarre 1 pietra senza conoscere però il contenuto delle scatole, qual è la strategia migliore per riuscire a prendere le 2 pietre vere?
grazie e ciao.
sembra proprio il caso di una probabilità condizionata
pietro84
10-12-2007, 23:32
ciao a tutti, sono alle prese con alcuni problemi che, anche se banali, non riesco a risolvere. Devo riprendere in mano tutta la teoria perchè ho interrotto gli studi per alcuni anni e adesso ricominciare è difficile...comunque si tratta di questo problema:
2 scatole con tre pietre preziose in ciascuna, nella prima scatola 2 sono vere ed 1 falsa, nella seconda scatola 2 sono false ed una vera.
a) scegliendo a caso 1 delle 2 scatole, qual è la probabilità di avere 2 pietre vere?
b) si può estrarre 1 pietra senza conoscere però il contenuto delle scatole, qual è la strategia migliore per riuscire a prendere le 2 pietre vere?
grazie e ciao.
a) la probabilità di scegliere la scatola con due pietre è 0.5 , dato che le scatole sono due.
b)la prima volta peschi a caso, se trovi una pietra vera cambi scatola. Se trovi una pietra falsa peschi nella stessa scatola.ripeti questi pèassi finchè non trovi due pietre. si possono fare i conti per dimostrarlo formalmente ma ora ho sonno :D
se ora voglio calcolare la probabilità nel continuo che la mia variabile aleatoria appartenga all'intervallo (alfa, beta) uso:
http://ishtar.df.unibo.it/stat/img/probalfabeta.gif
dove f(x) rappresenta una delle tante funzioni di distribuzione (normale, esponenziale etc...) per il caso del continuo, giusto ?
e poi....
calcolato l'integrale quello che trovo e rappresentato graficamente è questo:
http://ishtar.df.unibo.it/stat/img/alfabetagra.gif
mentre la sua cumulata graficamente è quest'altra:
http://ishtar.df.unibo.it/stat/img/dscumgraf.gif
pietro84
11-12-2007, 14:49
se ora voglio calcolare la probabilità nel continuo che la mia variabile aleatoria appartenga all'intervallo (alfa, beta) uso:
http://ishtar.df.unibo.it/stat/img/probalfabeta.gif
dove f(x) rappresenta una delle tante funzioni di distribuzione (normale, esponenziale etc...) per il caso del continuo, giusto ?
e poi....
calcolato l'integrale quello che trovo e rappresentato graficamente è questo:
http://ishtar.df.unibo.it/stat/img/alfabetagra.gif
mentre la sua cumulata graficamente è quest'altra:
http://ishtar.df.unibo.it/stat/img/dscumgraf.gif
sì
quindi, scusa pietro, ultima chicca finale: nelle continue non si calcola banalmente la probabilità ma la densità di probabilità con l'integrale giusto ?
mi sa che.......forse....me lo hai gia detto :stordita:
pietro84
11-12-2007, 18:59
quindi, scusa pietro, ultima chicca finale: nelle continue non si calcola banalmente la probabilità ma la densità di probabilità con l'integrale giusto ?
mi sa che.......forse....me lo hai gia detto :stordita:
no,te l'ho scritto più volte.
integrando la funzione di densità di probabilità f(x) ottieni una probabilità
nell'esempio che hai postato è scritto bene. vedi integrando la densità f(x) da alfa a beta ottieni la probabilità che x si trovi tra alfa e beta
no,te l'ho scritto più volte.
integrando la funzione di densità di probabilità f(x) ottieni una probabilità
nell'esempio che hai postato è scritto bene. vedi integrando la densità f(x) da alfa a beta ottieni la probabilità che x si trovi tra alfa e beta
quindi tutti i numeri(punti) tra alfa e beta piccoli a piacere hanno pari probabilità ?
pietro84
11-12-2007, 20:44
quindi tutti i numeri(punti) tra alfa e beta piccoli a piacere hanno pari probabilità ?
no, nel continuo un singolo punto ha probabilità nulla.
tu stai calcolando la probabilità che x assumi un valore tra alfa e beta. punto.
e lo fai con l'integrale della densità di probabilità f(x)
quindi tutti i numeri(punti) tra alfa e beta piccoli a piacere hanno pari probabilità ?
hanno probabilità nulla, ma ogni punto ha una ben determinata densità di probabilità, determinata appunto da f(x).
integrando f(x) in un intervallo qualsiasi si trova la probabilità che x sia compreso in quell'intervallo
sono alle prese con la "funzione di ripartizione congiunta" e la definizione valida per il continuo ed il discreto è la seguente:
F(x,y)=(P(X<=x) intersezione P(Y<=y))
ma significa che la funzione di ripartizione lavora solo se le due variabili aleatorie hanno il medesimo valore, giusto ?
Ma che diamine di significato ha una cosa del genere ?
pietro84
16-12-2007, 12:28
s
F(x,y)=(P(X<=x) intersezione P(Y<=y))
ma significa che la funzione di ripartizione lavora solo se le due variabili aleatorie hanno il medesimo valore, giusto ?
no... perchè dovrebbero avere lo stesso valore?
X:numero di goal fatti da una squadra in una partita di calcio
Y: voto preso da me all'esame
F(2,25) è la probabilità che la squadra faccia due o meno goal e che io prenda all'esame un voto minore o uguale di 25.
no... perchè dovrebbero avere lo stesso valore?
X:numero di goal fatti da una squadra in una partita di calcio
Y: voto preso da me all'esame
F(2,25) è la probabilità che la squadra faccia due o meno goal e che io prenda all'esame un voto minore o uguale di 25.
ma la probabilità è congiunta, altrimenti l'intersezione non avrebbe senso :stordita:
pietro84
16-12-2007, 12:45
ma la probabilità è congiunta, altrimenti l'intersezione non avrebbe senso :stordita:
certo che ha senso.
non per forza devono essere variabili aleatorie correlate tra loro.
certo che ha senso.
non per forza devono essere variabili aleatorie correlate tra loro.
bene!
Significa che questa parte non l'ho capita :muro:
no, nel continuo un singolo punto ha probabilità nulla.
tu stai calcolando la probabilità che x assumi un valore tra alfa e beta. punto.
e lo fai con l'integrale della densità di probabilità f(x)
avevo lasciato indietro questa :stordita:
Quello che intendevo dire è che se il mio intervallo alfa beta lo penso come un alfa=140 e un beta=180 e penso alla probabilità di riuscire a pescarere una persona alta 175, significa che, mi va bene sia se è alta 140 o 180, quindi è come se tutti i punti tra 140 e 180 abbiano pari probabilità!
Per me è solo una questzione di come la si pensa.
Stesso valore ha se dico: studio che probabilità ho è che la mia variabile aleatoria assuma un valore compreso tra 140 e 180.
pietro84
16-12-2007, 15:22
Quello che intendevo dire è che se il mio intervallo alfa beta lo penso come un alfa=140 e un beta=180 e penso alla probabilità di riuscire a pescarere una persona alta 175, significa che, mi va bene sia se è alta 140 o 180, quindi è come se tutti i punti tra 140 e 180 abbiano pari probabilità!
Per me è solo una questzione di come la si pensa.
emh... non è affatto così in realtà
emh... non è affatto così in realtà
boh, penso che sia solo una mia chiave di lettura.
Forse la più corretta è pensare che X assuma un valore compreso tra alfa beta e poi che tale probabilità che X assuma un valore tra quel range, la calcolo facendo l'integrale tra alfa e beta.
http://www.hwupgrade.it/forum/attachment.php?attachmentid=54562&d=1195116038
nell'iimagine al link dove viene mostrata la bernoulliana/binomiale dove la f(x) è bernoulliana se si pone n=1 e binimiale per n >1 ma.....
Sono le definizioni corrette che si trovano in tutti i libri ?
Non so, un dubbio che mi è venuto :stordita:
Quindi si può affermare senza dire sciocchezze che una bernoulliana è una binomiale di parametro n=1 :stordita:
Krammer,
ma ha senso parlare di cumulata nella bernoulliana trattandosi di una prova secca ?
ok, mi avete abbandonato :stordita:
un esempio
Caso di fare poker
La prima carta può essere scelta in 32 modi, la seconda carta in 3 modi distinti, la terza in 2 modi, la quarta in un solo modo.
Poiché l'ordine non conta i possibili poker con quattro carte sono: ( 32 x 3 x 2 x 1) / 4! =8.
La quinta carta può essere scelta in 7 x 4 = 28 modi distinti.
Quindi le possibili combinazioni sono 8 x 28 =224.
La probabilità di fare un poker è :
P = (N°casi favorevoli ) / (N° casi possibili) = 224/201376 = 1/899 circa 0,11%
domanda: nel testo si dice che la prima carta può essere scelta in 32 modi possibili e va bene; ma xchè la seconda in 3 modi e non 31 ? :muro:
ciao a tutti...:)
ho un problema con questo esercizio:
sia X una variabile casuale continua con funzione di densità:
0 se x<-1
fX(x) = -kx se -1<=x<0
kx se 0<=x<1
0 se x>=1
si determini il valore della costante k di modo che fX(x) sia una funzione di densità. Si definisca la funzione di ripartizione FX(x) della variabile casuale X e si calcoli P(|X| >=1/2). infine si determini il valore atteso, la moda, la mediana e la varianza di X.
so risolvere esercizi analoghi ma che presentano solo 2 opzioni su FX(x) o fX(x) (ovvero es: kx^2 se x contenuto nell'intervallo 0-2, 0 altrove o simili, ma per questo non riesco a capire come partire per risolverlo, gli appunti non mi danno aiuto (e neanche le dispense del prof).
grazie a chiunque saprà darmi una mano... :)
ho qualche dubbio sulla gaussiana.
Ho un certo numero di dati dei quali calcolo le media e la varianza però, quando vedo la generazione del grafico della gaussiana è errato se penso che sia solo un grafico teorico e cioè che serve da stampo per i miei dati reali ?
So che il grafico della gaussiana viene generato considerando i parametri della media e della varianza però mi chiedo, se è così che funzionano le cose.
Riassumendo:
- calcolo media
- calcolo varianza
- genero grafico
- ci spalmo dentro miei dati :stordita: :help:
in realtà nel caso continuo f(x) non è una probabilità ma una densità di probabilità, come il nome stesso dice.
f(x) != P(x) infatti se siamo nel continuo P(x)=0 per ogni x.
intuitivamente poichè i punti sono infiniti la probabilità che la variabile assuma proprio un preciso valore ,tra gli infiniti possibili, è zero. Il discorso si fa solo su intervalli: ha senso calcolare la probabilità che la variabile aleatoria x cada in un certo intervallo; per far cio si integra la f(x) sull'intervallo desiderato.
scusa ma a distanza di tempo mi emerge una ulteriore domanda.
Excel implementa il calcolo della normale e se gli fornisci due valori di media e varianza, è in grado di calcolarti sia la f(x) che la F(x).
Mi chiedevo cosa mi rappresenta quella f(x) che calcola excel esempio:
altezza delle persone:
170
176
180
185
172
168
160
165
177
181
media: 173,4
deviazione standar: 7,8
alcune f(x)
0,000017
0,000019
0,000022
0,000025
0,000028
0,000032
0,000036
0,000041
0,000046
0,000052
0,000059
0,000066
0,000074
0,000083
0,000093
0,000104
0,000117
0,000130
http://office.microsoft.com/it-it/excel/HP052091921040.aspx
p.s.
lascio la domanda per correttezza ma ho già svelato il mistero :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.