Video: Excel - Get Data from Web 2024
Du kanske har läst att åtgärder som används på en Excel-instrumentbräda absolut borde stödja det ursprungliga syftet med den instrumentpanelen. Samma begrepp gäller för back-end datamodellen. Du bör bara importera data som är nödvändiga för att uppfylla syftet med din instrumentpanel eller rapport.
För att få så mycket data som möjligt vid sina fingertoppar, tar många Excel-användare in sina kalkylblad varje bit av data som de kan ta hand om. Du kan fånga dessa personer genom 40-megabyte-filerna som de skickar via e-post. Du har sett dessa kalkylblad - två flikar som innehåller något rapporteringspanel eller dashboardgränssnitt och sedan sex dolda flikar som innehåller tusentals datarader (de flesta är inte använda). De bygger väsentligen en databas i kalkylbladet.
Vad är det för fel med att utnyttja så mycket data som möjligt? Tja, här är några frågor:
-
Sammanställning av data i Excel ökar antalet formler. Om du tar in all rå data måste du sammanställa data i Excel. Detta leder oundvikligen till att du exponentiellt ökar antalet formler du behöver använda och underhålla.
Kom ihåg att din datamodell är ett fordon för att presentera analyser, och inte bearbeta rådata. De data som fungerar bäst i rapporteringsmekanismer är det som redan har aggregerats och sammanfattats i användbara visningar som kan navigeras och matas till instrumentbrädans komponenter. Importera data som redan har aggregerats så mycket som möjligt är mycket bättre.
Om du exempelvis behöver rapportera om intäkter per region och månad behöver du inte importera försäljnings transaktioner till din datamodell. Använd istället ett aggregerat tablett som består av region, månad och summa av intäkter.
-
Din datamodell kommer att distribueras med din instrumentpanel. Med andra ord, eftersom din instrumentpanel matas av din datamodell måste du behålla modellen bakom kulisserna (troligen i dolda flikar) när du delar ut instrumentpanelen. Förutom det faktum att det gör att filstorleken är otrygg, kan det innebära att data i din datormodell faktiskt försämrar prestandan på instrumentpanelen. Varför?
När du öppnar en Excel-fil laddas hela filen i minnet för att säkerställa snabb databehandling och åtkomst. Nackdelen med detta beteende är att Excel kräver mycket RAM för att bearbeta även den minsta förändringen i kalkylbladet. Du kanske har märkt att när du försöker utföra en åtgärd på en stor, formelintensiv dataset, är Excel långsamt att svara, vilket ger dig en beräkningsindikator på statusfältet.Ju större din dataset är desto mindre effektiv är dataskärningen i Excel.
-
Stora dataset kan orsaka svårigheter med skalbarhet. Föreställ dig att du arbetar i ett litet företag och du använder månatliga transaktioner i din datamodell. Varje månad rymmer 80 000 data. När tiden går vidare bygger du en robust process som är komplett med alla formler, pivottabeller och makron som du behöver analysera data som lagras på din snyggt underhållna flik.
Vad händer nu efter ett år? Startar du en ny flik? Hur analyserar du två dataset på två olika flikar som en enhet? Är dina formler fortfarande bra? Måste du skriva nya makron?
Det här är alla problem som kan undvikas genom att bara importera aggregerad och sammanfattad data som är användbar för kärnändamålet med dina rapporteringsbehov.