Video: Steg 6. Maskininlärning, artificiell Intelligens & indikatorer. 2024
Del av maskinlärande för dummies Cheat Sheet < Maskininlärning innebär användning av många olika algoritmer. Denna tabell ger dig en snabb sammanfattning av styrkor och svagheter hos olika algoritmer.
Algoritm
Bäst på | Fördelar | Nackdelar | Slumpmässig skog |
Apt vid nästan alla maskininlärningsproblem | Bioinformatik
Kan arbeta parallellt |
Sällan överfyller > Behandlar saknade värden automatiskt
Inget behov av att ändra någon variabel Det går inte att ändra parametrar Kan användas av nästan alla med utmärkta resultat Svårt att tolka Svagare vid regression vid uppskattning av värden vid extremiteterna i fördelningen av responsvärden |
Förskjutna i flerklassproblem mot frekventare klasser
Gradient Boosting Apt vid nästan alla maskininlärningsproblem |
Sökmotorer (lösa problemet med att lära sig att rangordna) > Det kan approximera mest olinjära funktionen | Bäst i klasspredikern
Hanterar saknade värden automatiskt |
Inget behov av att ändra någon variabel
Det kan överföras om det körs för många iterationer Känslig för bullriga data och outliers Fungerar inte bra utan parameterinställning |
Linjär regression
Baseline predic Ekonometriska förutsägelser |
Modellering av marknadsresponser | Enkelt att förstå och förklara
Det går sällan över Med L1 och L2-regularisering är det effektivt att välja funktion |
Snabbt träning
Lätt att Träna på stora data tack vare sin stokastiska version Du måste arbeta hårt för att passa den i icke-linjära funktioner. Kan drabbas av utelämnare. Supportvektorer |
Teckenigenkänning
Bildigenkänning |
Text klassificering | Automatisk olinjär funktion skapande
Kan approximera komplexa olinjära funktioner Svårt att tolka vid tillämpning av icke-linjära kärnor |
Lider av alltför många exempel. Efter 10 000 exempel börjar det ta för lång tid att träna
K-närmaste grannar |
Datorsyn
Multilabel-taggning |
Recommender-system | Stavningskontrollproblem
Snabb och lat träning Kan naturligtvis hantera extrema multiclassproblem (t.ex. taggtext) Slow och besvärlig i den förutsägande fasen |
Kan misslyckas med att förutsäga corr
Adaboost |
Ansiktsigenkänning
Hanterar saknade värden automatiskt |
Det går inte att omforma någon variabel | Det går inte lätt att överföra | Få parametrar att tweak > Naive Bayes
Ansiktsigenkänning Sentimentanalys Spam-detektering Kännetecknande för spridningsdetektering |
Text klassificering
Enkelt och snabbt att implementera, kräver inte för mycket minne och kan användas för online-lärande |
Lätt att förstå | Med hänsyn till förkunskaper
Starka och orealistiska kännetecken för självständighetsförutsättningar > Bildigenkänning Språkigenkänning och översättning Taligenkänning |
Visionsigenkänning
Kan approximera någon olinjär funktion Robust till outliers |
Fungerar endast med en del av exemplen (supportvektorn s)
Mycket svårt att ställa in Svårt att ställa på grund av för många parametrar och du måste också bestämma nätverkets arkitektur |
Svårt att tolka | Lätt att övergå
Logistisk regression < Beställa resultat med sannolikhet Modellering av marknadsreaktioner Enkelt att förstå och förklara |
Det övergår sällan
Med L1 och L2-regularisering är effektiv i funktionen val Den bästa algoritmen för att förutsäga sannolikheten för en händelse |
Snabbt träning
Lätt att träna på stora data tack vare sin stokastiska version Du måste arbeta hårt för att passa in i olinjära funktioner. Kan drabbas av outliers |
SVD | Recommender system
Kan omstrukturera data på ett meningsfullt sätt |
Svårt att förstå varför data har omstrukturerats på ett visst sätt
PCA Ta bort collinearity Minska datadimensionens minskning Antyder starka linjära antaganden (komponenter är en viktad summering av funktioner) K-means |
Segmentering
Snabbt att hitta kluster |
Kan upptäcka avvikande enheter i flera dimensioner | Förluster från multikollinearitet | Kluster är sfäriska, kan inte detektera grupper av annan form | Instabil lösningar, beror på initialisering |
|