Du har kanskje lest at tiltak som brukes på et Excel-dashbord absolutt bør støtte det opprinnelige formålet med det instrumentbordet. Det samme konseptet gjelder for back-end-datamodellen. Du bør bare importere data som er nødvendige for å oppfylle formålet med dashbordet eller rapporten.
I et forsøk på å ha så mye data som mulig for hånden, tar mange Excel-brukere inn i regnearkene hver databit de kan få tak i. Du kan se disse menneskene ved å bruke filene på 40 megabyte de sender via e-post. Du har sett disse regnearkene – to faner som inneholder et rapporterings- eller dashbordgrensesnitt og deretter seks skjulte faner som inneholder tusenvis av linjer med data (hvorav de fleste ikke brukes). De bygger egentlig en database i regnearket.
Hva er galt med å bruke så mye data som mulig? Vel, her er noen problemer:
-
Aggregering av data i Excel øker antallet formler. Hvis du henter inn alle rådata, må du samle disse dataene i Excel. Dette fører uunngåelig til at du eksponentielt øker antallet formler du må bruke og vedlikeholde.
Husk at datamodellen din er et redskap for å presentere analyser, ikke å behandle rådata. Dataene som fungerer best i rapporteringsmekanismer er det som allerede er samlet og oppsummert til nyttige visninger som kan navigeres og mates til dashbordkomponenter. Det er langt bedre å importere data som allerede er samlet så mye som mulig.
Hvis du for eksempel trenger å rapportere om inntekt etter region og måned, er det ikke nødvendig å importere salgstransaksjoner til datamodellen din. Bruk i stedet en aggregert tabell som består av region, måned og inntektssum.
-
Datamodellen din vil bli distribuert med dashbordet ditt. Med andre ord, fordi dashbordet ditt mates av datamodellen din, må du vedlikeholde modellen bak kulissene (sannsynligvis i skjulte faner) når du distribuerer dashbordet. Foruten det faktum at det gjør at filstørrelsen blir uhåndterlig, kan det å inkludere for mye data i datamodellen din faktisk forringe ytelsen til dashbordet. Hvorfor?
Når du åpner en Excel-fil, lastes hele filen inn i minnet for å sikre rask databehandling og tilgang. Ulempen med denne oppførselen er at Excel krever mye RAM for å behandle selv den minste endringen i regnearket. Du har kanskje lagt merke til at når du prøver å utføre en handling på et stort, formelintensivt datasett, reagerer Excel tregt, og gir deg en kalkulerende indikator på statuslinjen. Jo større datasettet ditt er, desto mindre effektiv er dataknusingen i Excel.
-
Store datasett kan forårsake vanskeligheter med skalerbarhet. Tenk deg at du jobber i et lite selskap og du bruker månedlige transaksjoner i datamodellen din. Hver måned inneholder 80 000 linjer med data. Ettersom tiden går, bygger du en robust prosess komplett med alle formlene, pivottabellene og makroene du trenger for å analysere dataene som er lagret på den pent vedlikeholdte fanen.
Hva skjer nå etter ett år? Starter du en ny fane? Hvordan analyserer du to datasett på to forskjellige faner som én enhet? Er formlene dine fortsatt gode? Må du skrive nye makroer?
Dette er alle problemer som kan unngås ved å bare importere aggregerte og oppsummerte data som er nyttige for kjerneformålet med rapporteringsbehovene dine.