Liigu sisu juurde

Bayesi reegel samm-sammult

Kui näete hirmutavat valemit

P(Lcorrect)=P(L)(1P(S))P(L)(1P(S))+(1P(L))P(G)P(L \mid \text{correct}) = \frac{P(L) \cdot (1 - P(S))}{P(L) \cdot (1 - P(S)) + (1 - P(L)) \cdot P(G)}

ja tahad joosta — paus. Pakime selle lahti. See on terve mõistus kodeeritud murdarvuna.

Bayes vastab:

Arvasin, et sündmusel A on teatav tõenäosus. Siis nägin tähelepanekut B. Kuidas ma peaksin oma usku A-sse üle vaatama?

Siin:

  • A = “õpilane omandas oskuse”
  • B = “õpilane lahendas ülesande õigesti”

Soovime P(AB)P(A \mid B) — A antud B tõenäosus.

Kujutage ette, et me ei tea, kas õpilane tunneb oskust. Jagage õppijad kahte kasti:

%%{init: {'theme': 'base','flowchart': {'nodeSpacing': 96,'rankSpacing': 108,'padding': 40,'curve': 'basis','useMaxWidth': true}}}%%
flowchart LR
Pop["Populatsioon (1.0)"]
Pop -->|"P(L)"| K[Teadmised olemas]
Pop -->|"1 - P(L)"| NK[Pole veel õppinud]
K -->|"1 - P(S)"| KR[Õige, ei libisenud]
K -->|"P(S)"| KW[Vale, libisemine]
NK -->|"P(G)"| NKR[Õige, arvatud]
NK -->|"1 - P(G)"| NKW[Vale, ei tea]
Tõenäosuspuu: iga õppija lõpetab ühes neljast lahtrist.

Ühendusnumbrid:

  • P(L)=0.2P(L) = 0.2 → 20% “tean”, 80% “ei tea”;
  • P(S)=0.1P(S) = 0.1 → „tean” hulgas 90% vastab õigesti, 10% libiseb;
  • P(G)=0.2P(G) = 0.2 → “ei tea” hulgast arvab 20% õigesti, 80% ei tea.

Neli lahtrit:

Õiged vastusedVastused valesti
Teab (P(L)=0.2P(L)=0.2)0.20.9=0.180.2 \cdot 0.9 = 0.180.20.1=0.020.2 \cdot 0.1 = 0.02
Ei tea (1P(L)=0.81-P(L)=0.8)0.80.2=0.160.8 \cdot 0.2 = 0.160.80.8=0.640.8 \cdot 0.8 = 0.64
Kokku0,340,66

Lahtri tõenäosuste summa 1.001.00 — täielik partitsioon.

Tingimus “vastasin õigesti”

Jaotis «Tingimus “vastasin õigesti”»

“Õige” jälgimine piirab meid õige veeruga - mass 0,34.

Kui suur osa sellest massist on “teadjad”?

P(knowscorrect)=0.180.34=0.529P(\text{knows} \mid \text{correct}) = \frac{0.18}{0.34} = 0.529

See on Bayes – lugeja “teab JA õige”, nimetaja “kõik õige”.

Sümbolites:

P(Lcorrect)=P(L)(1P(S))knew and didn’t slipP(L)(1P(S))from knowers+(1P(L))P(G)from non-knowers who guessedP(L \mid \text{correct}) = \frac{\overbrace{P(L) \cdot (1 - P(S))}^{\text{knew and didn't slip}}}{\underbrace{P(L) \cdot (1 - P(S))}_{\text{from knowers}} + \underbrace{(1 - P(L)) \cdot P(G)}_{\text{from non-knowers who guessed}}}

Ja “vale” jaoks:

P(Lwrong)=P(L)P(S)P(L)P(S)+(1P(L))(1P(G))P(L \mid \text{wrong}) = \frac{P(L) \cdot P(S)}{P(L) \cdot P(S) + (1 - P(L)) \cdot (1 - P(G))}

Võtke P(L)=0.2P(L) = 0.2, P(S)=0.1P(S) = 0.1, P(G)=0.2P(G) = 0.2. Õpilane vastab õigesti.

P(Lcorrect)=0.20.90.20.9+0.80.2=0.180.18+0.16=0.180.340.529P(L \mid \text{correct}) = \frac{0.2 \cdot 0.9}{0.2 \cdot 0.9 + 0.8 \cdot 0.2} = \frac{0.18}{0.18 + 0.16} = \frac{0.18}{0.34} \approx 0.529

Enesekindlus hüppab 0,2-lt ~0,529-le – peaaegu “viskamine, kallutamine teab”.

Mis siis, kui nad vastavad valesti?

P(Lwrong)=0.20.10.20.1+0.80.9=0.020.02+0.72=0.020.740.027P(L \mid \text{wrong}) = \frac{0.2 \cdot 0.1}{0.2 \cdot 0.1 + 0.8 \cdot 0.9} = \frac{0.02}{0.02 + 0.72} = \frac{0.02}{0.74} \approx 0.027

Enesekindlus kukub nulli poole.

Miks üks probleem hinnanguid nii kõvasti kõigutab

Jaotis «Miks üks probleem hinnanguid nii kõvasti kõigutab»

Märkus: P(L0)=0.2P(L_0) = 0.2 puhul langetab viga usalduse 0,2-lt ~0,027-le – ~8×. See on õige:

Vaevalt me uskusime neisse; nad jäid kahe silma vahele – täpselt see, mida me mitteteadjalt ootasime.

Kuid P(L)=0.95P(L) = 0.95 juures (juba enesekindel) langetab üks viga P(L)P(L) väärtusele ~0,61 – seda käsitletakse enamasti kui libisemist. Kontrollige:

P(Lwrong)=0.950.10.950.1+0.050.9=0.0950.095+0.0450.679P(L \mid \text{wrong}) = \frac{0.95 \cdot 0.1}{0.95 \cdot 0.1 + 0.05 \cdot 0.9} = \frac{0.095}{0.095 + 0.045} \approx 0.679

See on kalibreeritud värskendamine.

2. samm: lubage katse ajal õppimine

Jaotis «2. samm: lubage katse ajal õppimine»

Pärast Bayesi (tagumise osa) pealekandmist lisame ühe väikese sammu:

P(Lnew)=Pposterior+(1Pposterior)P(T)P(L_{\text{new}}) = P_{\text{posterior}} + (1 - P_{\text{posterior}}) \cdot P(T)

Tähendus:

Isegi kui tagantjärele öeldakse, et te ei teadnud, oli teil siiski tõenäosus P(T)P(T) õppida selle probleemi ajal.

Koos P(T)=0.1P(T) = 0.1:

P(Lnew)=0.529+(10.529)0.10.576P(L_{\text{new}}) = 0.529 + (1 - 0.529) \cdot 0.1 \approx 0.576

Pärast viga:

P(Lnew)=0.027+(10.027)0.10.124P(L_{\text{new}}) = 0.027 + (1 - 0.027) \cdot 0.1 \approx 0.124

Alumine rida: kogu BKT matemaatika

Jaotis «Alumine rida: kogu BKT matemaatika»

see on kõik. Kogu mudel.

// Step 1. Posterior via Bayes.
posterior = correct
? (pL * (1 - pSlip)) / (pL * (1 - pSlip) + (1 - pL) * pGuess)
: (pL * pSlip) / (pL * pSlip + (1 - pL) * (1 - pGuess));
// Step 2. Update accounting for possible learning.
pL_new = posterior + (1 - posterior) * pTransit;

Täpselt see kuvatakse funktsioonis web/lib/bkt.ts – funktsioonis bktUpdate. Vaadake koodi ülevaadet.

Proovige: kaks kasti käsitsi

Jaotis «Proovige: kaks kasti käsitsi»

2×2 tabeli kõik neli lahtrit ühel ruudul. Lohistage liugureid ja vajutage õige/vale. Tipphetked näitavad, milline mass vaatluse “ellu jääb”; valem prindib tagumise.

«Kõik võimalikud tulemused» (4 lahtrit)
teabei tea
Kõrgus on P(L)/(1−P(L)). Rohelise laius on «õige». Eredamad lahtrid = vaatlus kattus.
P(L | ✓)
0.818
P(L | ✗)
0.111
posterior
0.818
nihe: +0.318

Sama Bayesi lugu nagu ülal – ilma algebrata – näete**, milline piirkond vaatlusele vastab.

Järgmine peatükk — mõlemad valemid kõrvuti; peatükk 7 – täielik numbriline ülevaade kuuest ülesandest.