Video: Tillämpning av andragradsfunktioner 2024
Huvudkomponentanalysen (PCA) är en värdefull teknik som används allmänt i prediktiv analys och datavetenskap. Den studerar en dataset för att lära sig de mest relevanta variablerna som ansvarar för den högsta variationen i datasetet. PCA används mest som en datareduktionsteknik.
När du bygger prediktiva modeller kan du behöva minska antalet funktioner som beskriver datasetet. Det är väldigt användbart att minska denna höga dimensionering av data genom approximationstekniker, vid vilken PCA utmärker sig. Den approximerade data sammanfattar alla viktiga variationer av de ursprungliga data.
Exempelvis kan funktionsuppsättningen av data om lager innehålla aktiekurser, dagliga höjder och låga volymer, 200-dagars glidande medelvärden, prisfördelning, relativ styrka till andra marknader, räntor och styrka av valutor.
Att hitta de viktigaste prediktiva variablerna är kärnan i att bygga en prediktiv modell. Det sätt på vilket många har gjort det är att använda en brute force approach. Tanken är att börja med så många relevanta variabler som möjligt, och använd sedan en trappanordning för att eliminera funktioner som inte har någon inverkan eller inget prediktivt värde.
Intelligensen och insikten kommer till den här metoden genom att engagera affärsintressenter, eftersom de har några hunches om vilka variabler som kommer att få störst inverkan i analysen. Upplevelsen av datavetenskaparna som deltar i projektet är också viktigt för att veta vilka variabler som ska fungera med och vilka algoritmer som ska användas för en specifik datatyp eller ett domänspecifik problem.
För att hjälpa till med processen använder datavetenskapare många prediktiva analysverktyg som gör det enklare och snabbare att köra flera permutationer och analyser på en dataset för att mäta inverkan av varje variabel på datasetet.
Att veta att det finns en stor mängd data att arbeta med, kan du använda PCA för hjälp.
Att minska antalet variabler du tittar på är skäl nog att använda PCA. Genom att använda PCA skyddar du dessutom automatiskt mot övermontering av modellen.
Visst kan du hitta korrelation mellan väderdata i ett visst land och prestanda på aktiemarknaden. Eller med färgen på en persons skor och rutten som han eller hon tar till kontoret, och prestandan i deras portfölj för den dagen. Men inklusive de variablerna i en prediktiv modell är mer än bara övermontering, det är vilseledande och leder till falska förutsägelser.
PCA använder en matematiskt giltig metod för att bestämma delmängden av ditt dataset som innehåller de viktigaste funktionerna; När du bygger din modell på den mindre datamängden kommer du att ha en modell som har förutsägbart värde för den övergripande, större dataset du jobbar med. Kortfattat borde PCA hjälpa dig att känna av dina variabler genom att identifiera delmängden av variabler som ansvarar för den mest variationen med din ursprungliga dataset. Det hjälper dig att upptäcka redundans. Det hjälper dig att ta reda på att två (eller flera variabler) berättar samma sak.
Dessutom tar huvudkomponentanalys din multidimensionella dataset och producerar en ny dataset vars variabler är representativa för variablernas linjäritet i originaldatasetet. Dessutom har den utmatade datasatsen individuellt okorrelerade variabler, och deras varians ordnas av sina huvudkomponenter där den första är störst och så vidare. I detta avseende kan PCA också betraktas som en teknik för konstruktion av funktioner.
Medan du använder PCA eller andra liknande tekniker som bidrar till att minska dimensionerna för datasetet du har att göra med, måste du alltid vara försiktig så att den inte påverkar modellens prestanda negativt. Att minska storleken på data borde inte komma på bekostnad av att prestanda negativt påverkar prestandan (prediktionsmodellens noggrannhet). Skydda säkert och hantera din datablad med försiktighet.
Den ökade komplexiteten hos en modell översätter inte till högre kvalitet i utfallet.
För att behålla modellens prestanda kan du behöva noggrant utvärdera effektiviteten av varje variabel, mäta användbarheten vid utformningen av den slutliga modellen.
Att veta att PCA kan vara särskilt användbart när variablerna är högt korrelerade inom en given dataset, kan då en dataset med okorrelerade prediktiva variabler komplicera uppgiften att minska dimensioneringen av multivariata data. Många andra tekniker kan användas här förutom PCA, till exempel framåtval och avlägsnande av funktionen bakåt.
PCA är inte en magisk kula som löser alla problem med multidimensionell data. Dess framgång är mycket beroende av de data du jobbar med. Den statistiska variansen kanske inte anpassas till variabler med de mest förutsägda värdena, trots att det är säkert att arbeta med sådana approximationer.