Hva er skjevhet i maskinlæring?



Denne artikkelen dekker begrepet bias og varians i maskinlæring med et forhold mellom dem som bestemmer modellens prediktive nøyaktighet.

I , er modellens ytelse basert på dens spådommer og hvor godt den generaliserer mot usynlige, uavhengige data. En måte å måle nøyaktigheten på en modell på er å holde rede på forspenningen og avviket i modellen. I denne artikkelen vil vi lære hvordan bias-varians spiller en viktig rolle for å bestemme ektheten til modellen. Følgende emner er diskutert i denne artikkelen:

Ureduserbar feil

Enhver modell i blir vurdert ut fra prediksjonsfeilen på et nytt uavhengig, usett datasett. Feil er ikke annet enn forskjellen mellom den faktiske produksjonen og den forventede utgangen. For å beregne feilen, gjør vi summeringen av reduserbar og irredusibel feil a.k.a bias-varians dekomponering.





Irreversibel feil er ingenting annet enn de feilene som ikke kan reduseres uavhengig av noen som du bruker i modellen. Det er forårsaket av uvanlige variabler som har direkte innflytelse på utgangsvariabelen. Så for å gjøre modellen din effektiv, sitter vi igjen med den reduserbare feilen vi trenger å optimalisere for enhver pris.

En reduserbar feil har to komponenter - Bias og varians , tilstedeværelse av skjevhet og varians påvirker modellens nøyaktighet på flere måter som overfitting, underfitting , etc.La oss se på skjevhet og varians for å forstå hvordan vi skal håndtere den reduserbare feilen i .



Hva er skjevhet i maskinlæring?

Bias er i utgangspunktet hvor langt vi har spådd verdien fra den faktiske verdien. Vi sier at forspenningen er for høy hvis de gjennomsnittlige spådommene er langt unna de faktiske verdiene.

En høy forspenning vil føre til at algoritmen savner et dominerende mønster eller forhold mellom inngangs- og utgangsvariablene. Når skjevheten er for høy, antas det at modellen er ganske enkel og ikke forstår kompleksiteten til datasettet for å bestemme forholdet og dermedforårsaker underfitting.

Variasjon i en maskinlæringsmodell?

På et uavhengig, usett datasett eller et valideringssett. Når en modell ikke presterer like bra som den gjør med det trente datasettet, er det en mulighet for at modellen har en avvik. Det forteller i utgangspunktet hvor spredt de forutsagte verdiene er fra de faktiske verdiene.



En høy varians i et datasett betyr at modellen har trent med mye støy og irrelevante data. Dermed forårsaker overmontering i modellen. Når en modell har høy varians, blir den veldig fleksibel og gir gale spådommer for nye datapunkter. Fordi den har innstilt seg på datapunktene til treningssettet.

La oss også prøve å forstå begrepet bias-varians matematisk. La variabelen som vi forutsier være Y og de andre uavhengige variablene være X. La oss anta at det er et forhold mellom de to variablene slik at:

Y = f (X) + e

I ovenstående ligning, Her er er den estimerte feilen med en gjennomsnittsverdi 0. Når vi lager en klassifikator ved hjelp av algoritmer som lineær regresjon , , etc, vil den forventede kvadrerte feilen ved punkt x være:

err (x) = Bias2+ Avvik + irredusibel feil

type kommentarer i java

La oss også forstå hvordan Bias-variansen vil påvirke a Maskinlæring modellens ytelse.

hva er en instansvariabel i java

Hvordan påvirker det maskinlæringsmodellen?

Vi kan plassere forholdet mellom bias-varians i fire kategorier oppført nedenfor:

  1. High Variance-High Bias - Modellen er inkonsekvent og også unøyaktig i gjennomsnitt
  2. Lav varians-høy skjevhet - Modeller er konsistente, men lave i gjennomsnitt
  3. High Variance-Low Bias - Noe nøyaktig, men inkonsekvent i gjennomsnitt
  4. Lav varians-lav skjevhet - Det er det ideelle scenariet, modellen er konsistent og nøyaktig i gjennomsnitt.

bias-varians i maskinlæring-edureka

Selv om det er ganske tydelig å oppdage skjevheter og varians i en modell. En modell med høy varians vil ha en lav treningsfeil og høy valideringsfeil. Og i tilfelle av høy forspenning, vil modellen ha høy treningsfeil og valideringsfeil er det samme som treningsfeil.

Selv om det er enkelt å oppdage, er den virkelige oppgaven å redusere det til et minimum. I så fall kan vi gjøre følgende:

  • Legg til flere innspillingsfunksjoner
  • Mer kompleksitet ved å introdusere polynomiske funksjoner
  • Reduser reguleringsperioden
  • Få mer treningsdata

Nå som vi vet hva som er bias og varians og hvordan det påvirker modellen vår, la oss ta en titt på en bias-varians avveining.

Bias-varians avveining

Å finne den rette balansen mellom bias og varians i modellen kalles Bias-Variance avveining. Det er i utgangspunktet en måte å sikre at modellen verken er overmontert eller undermontert.

Hvis modellen er for enkel og har svært få parametere, vil den lide av høy skjevhet og lav varians. På den annen side, hvis modellen har et stort antall parametere, vil den ha høy variasjon og lav skjevhet. Denne kompromisset skal resultere i et perfekt balansert forhold mellom de to. Ideelt sett er lav skjevhet og lav varians målet for enhver maskinlæringsmodell.

Total feil

I en hvilken som helst maskinlæringsmodell fungerer en god balanse mellom skjevhet og varians som et perfekt scenario når det gjelder prediktiv nøyaktighet og å unngå overmontering, underkledning helt. En optimal balanse mellom skjevhet og varians, når det gjelder algoritmekompleksitet, vil sikre at modellen aldri blir overmontert eller undermontert i det hele tatt.

Gjennomsnittlig kvadratfeil i en statistisk modell regnes som summen av kvadratisk bias og varians og varians av feil. Alt dette kan settes i en total feil der vi har skjevhet, varians og irredusible feil i en modell.

La oss forstå hvordan vi kan redusere den totale feilen ved hjelp av en praktisk implementering.

Vi har opprettet en lineær regresjonsklassifisering i Lineær regresjon i maskinlæring artikkel om Edureka ved bruk av datasettet for diabetes i datasettmodulen til scikit lære bibliotek.

tableau desktop 9 kvalifisert medarbeider

Da vi vurderte den gjennomsnittlige kvadratiske feilen til klassifisereren, fikk vi en total feil rundt 2500.

For å redusere den totale feilen, matet vi mer data til klassifisereren, og til gjengjeld ble den gjennomsnittlige kvadrerte feilen redusert til 2000.

Det er en enkel implementering av å redusere den totale feilen ved å mate mer treningsdata til modellen. På samme måte kan vi bruke andre teknikker for å redusere feilen og opprettholde en balanse mellom skjevhet og varians for en effektiv maskinlæringsmodell.

Dette fører oss til slutten av denne artikkelen der vi har lært Bias-Variance i Machine Learning med implementering og brukstilfelle. Jeg håper du er klar med alt som har blitt delt med deg i denne opplæringen.

Hvis du fant denne artikkelen om “Bias-Variance In Machine Learning” relevant, kan du sjekke ut et pålitelig online læringsfirma med et nettverk av mer enn 250 000 fornøyde elever spredt over hele verden.

Vi er her for å hjelpe deg med hvert trinn på reisen og komme med en læreplan som er designet for studenter og fagpersoner som ønsker å være en . Kurset er designet for å gi deg et forsprang i Python-programmering og trene deg for både kjerne- og avanserte Python-konsepter sammen med forskjellige som , , etc.

Hvis du kommer over noen spørsmål, er du velkommen til å stille alle spørsmålene dine i kommentarfeltet i “Bias-Variance In Machine Learning”, og teamet vårt svarer gjerne.