Skalerbarhet er en applikasjons evne til å utvikle seg fleksibelt for å møte vekst- og kompleksitetskrav. I forbindelse med Excel refererer skalerbarhet til Excels evne til å håndtere stadig økende datamengder.
De fleste Excel-entusiaster er raske til å påpeke at fra og med Excel 2007 kan du plassere 1 048 576 rader med data i et enkelt Excel-regneark - en overveldende økning fra begrensningen på 65 536 rader som ble pålagt av tidligere versjoner av Excel. Denne kapasitetsøkningen løser imidlertid ikke alle skalerbarhetsproblemene som oversvømmer Excel.
Tenk deg at du jobber i et lite selskap og bruker Excel til å analysere daglige transaksjoner. Etter hvert som tiden går, bygger du en robust prosess komplett med alle formlene, pivottabellene og makroene du trenger for å analysere dataene som er lagret i det pent vedlikeholdte regnearket ditt.
Etter hvert som datamengden vokser, vil du først merke ytelsesproblemer. Regnearket blir tregt å laste og deretter tregt å beregne.
Hvorfor skjer dette? Det har å gjøre med måten Excel håndterer minne på. Når en Excel-fil lastes inn, lastes hele filen inn i RAM. Excel gjør dette for å gi rask databehandling og tilgang. Ulempen med denne oppførselen er at hver gang dataene i regnearket endres, må Excel laste inn hele dokumentet på nytt til RAM. Nettoresultatet i et stort regneark er at det krever mye RAM for å behandle selv den minste endringen. Til slutt blir hver handling du tar i det gigantiske regnearket innledet av en uutholdelig venting.
Pivottabellene dine vil kreve større pivotbuffere, noe som nesten dobler filstørrelsen til Excel-arbeidsboken. Etter hvert vil arbeidsboken bli for stor til å enkelt distribueres. Du kan til og med vurdere å dele opp arbeidsboken i mindre arbeidsbøker (muligens en for hver region). Dette får deg til å duplisere arbeidet ditt.
Med tiden kan du til slutt nå grensen på 1 048 576 rader i regnearket. Hva skjer da? Starter du et nytt arbeidsark? Hvordan analyserer du to datasett på to forskjellige regneark som én enhet? Er formlene dine fortsatt gode? Må du skrive nye makroer?
Dette er alle problemer som må løses.
Selvfølgelig vil du også møte Excel-kraftkundene, som vil finne ulike smarte måter å omgå disse begrensningene. Til syvende og sist vil imidlertid disse metodene alltid være enkle løsninger. Etter hvert vil selv disse strømkundene begynne å tenke mindre på den mest effektive måten å utføre og presentere analyse av dataene sine på og mer på hvordan de kan få data til å "passe" inn i Excel uten å bryte formlene og funksjonene deres.
Excel er fleksibelt nok til at en dyktig kunde kan få det meste til å passe helt fint. Men når kunder bare tenker i Excel, begrenser de seg uten tvil, om enn på en utrolig funksjonell måte.
I tillegg tvinger disse kapasitetsbegrensningene ofte Excel-kunder til å ha dataene forberedt for dem. Det vil si at noen andre trekker ut store biter av data fra en stor database og deretter samler og former dataene for bruk i Excel.
Bør den seriøse analytikeren alltid være avhengig av noen andre for sine databehov? Hva om en analytiker kunne få verktøy for å få tilgang til store mengder data uten å være avhengig av andre for å levere data? Kan den analytikeren være mer verdifull for organisasjonen? Kunne den analytikeren fokusere på nøyaktigheten av analysen og kvaliteten på presentasjonen i stedet for å rute Excel-datavedlikehold?
Et relasjonsdatabasesystem (som Access eller SQL Server) er et logisk neste skritt for analytikeren som står overfor en stadig økende datapool. Databasesystemer har vanligvis ikke ytelsesimplikasjoner med store mengder lagret data, og er bygget for å adressere store datamengder. En analytiker kan deretter håndtere større datasett uten å kreve at dataene oppsummeres eller klargjøres for å passe inn i Excel.
Dessuten, hvis en prosess noen gang blir mer avgjørende for organisasjonen og må spores i et mer bedriftsakseptabelt miljø, vil det være lettere å oppgradere og skalere opp hvis den prosessen allerede er i et relasjonsdatabasesystem.