Video: Lær at vælge regnemetode 2025
Del af Maskinindlæring til Dummies Cheat Sheet < Maskinindlæring involverer brugen af mange forskellige algoritmer. Denne tabel giver dig et hurtigt resumé af styrken og svaghederne i forskellige algoritmer.
Algoritme
Bedst ved | Fordele | Ulemper | Tilfældig skov |
Svar på næsten ethvert maskinindlæringsproblem | Bioinformatik
Kan arbejde parallelt |
Sjældent overfits > Håndter automatisk manglende værdier
Ikke nødvendigt at omdanne nogen variabel Ikke nødvendigt at justere parametre Kan bruges af næsten alle med fremragende resultater Vanskeligt at fortolke Svagere ved regression ved estimering af værdier ved ekstremiteterne i fordelingen af responsværdier |
Foretrukket i multiklasseproblemer mod hyppigere klasser
Gradient Boosting Apt ved næsten ethvert maskinindlæringsproblem |
Søgemaskiner (løser problemet med at lære at rangere) > Det kan tilnærme de fleste ikke-lineære funktioner | Bedst i klasseprospektoren
Håndter automatisk manglende værdier |
Intet behov for at omdanne nogen variabel
Det kan overfit, hvis det kører for mange iterationer Følsom over for støjende data og outliers Fungerer ikke godt uden parameterindstilling |
Lineær regression
Baseline predic Økonometriske forudsigelser |
Modellering af markedsføringssvar | Enkel at forstå og forklare
Det overgår sjældent Med L1 og L2-regulering er effektiv i funktionvalg |
Hurtig til træning
Let at træne på store data takket være dens stokastiske version Du skal arbejde hårdt for at gøre det tilpas for ikke-lineære funktioner. Kan lide af outliers Support Vector Machines |
Tegn genkendelse
Billedgenkendelse |
Tekst klassificering | Automatisk ikke-lineær funktionalisering
Kan tilnærme komplekse, ikke-lineære funktioner Vanskeligt at fortolke ved anvendelse af ikke-lineære kerner |
Lider af for mange eksempler. Efter 10.000 eksempler begynder det at tage for lang tid at træne
K-nærmeste naboer |
Computer vision
Multilabel-tagging |
Anbefalingssystemer | Stavekontrolproblemer
Hurtig og doven træning Kan naturligvis håndtere ekstreme multiklasseproblemer (som tagging tekst) Langsom og besværlig i den forudsigende fase |
Kan undlade at forudsige korr
Adaboost |
Ansigtsgenkendelse
Håndter automatisk manglende værdier |
Intet behov for at omdanne nogen variabel | Det overlader ikke let | Få parametre til at tilpasse > 9 Naive Bayes
Ansigtsgenkendelse Sentimentanalyse Spamopdagelse Det er muligt at udnytte mange forskellige svage elever |
Følsomme over for støjende data og outliers
Tekstklassificering |
Nem og hurtig at implementere, kræver ikke for meget hukommelse og kan bruges til onlineindlæring | Nem at forstå
Tager hensyn til forudgående viden Stærk og urealistisk egenskabsafhængighedsforudsætninger > Fejlberegner sjældne forekomster Lider af irrelevante egenskaber |
Neural Netværk
Billedgenkendelse Sproggenkendelse og oversættelse |
Talegenkendelse
Visionsgenkendelse Kan tilnærme enhver ikke-lineær funktion |
Robust til outliers | Fungerer kun med en del af eksemplerne (supportvektoren s)
Meget vanskeligt at indstille Vanskeligt at stille på grund af for mange parametre, og du skal også bestemme netværkets arkitektur Vanskeligt at fortolke |
Let at overfit
Logistisk regression < Bestilling af resultater efter sandsynlighed Modellering af markedsføringssvar |
Enkel at forstå og forklare
Det overgår sjældent Med L1 og L2-regulering er effektiv i funktionen valg Den bedste algoritme til forudsigelse af sandsynligheder for en begivenhed |
Hurtig til træning | Nem at træne på store data takket være dens stokastiske version
Du skal arbejde hårdt for at gøre det uegnet til ikke-lineære funktioner. |
Kan lide af outliers
SVD Recommender systemer Kan omstrukturere data på en meningsfuld måde Vanskeligt at forstå, hvorfor data er blevet omstruktureret på en bestemt måde PCA |
Fjernelse af collinearity
Reduktion af datasætets dimensioner |
Kan reducere datadimensionalitet | Antyder stærke lineære antagelser (komponenter er en vægtet summation af funktioner) K-means | Segmentering | Hurtig til at finde klynger |
Kan detektere afvigelser i flere dimensioner | Lider af multikollinearitet
Klynger er sfæriske, kan ikke registrere grupper af anden form |
Ustabil løsninger afhænger af initialisering |
|