Video: Säker datahantering 2024
Är stora data verkligen nya eller är det en utveckling i datahanteringsresan? Det är faktiskt båda. Som med andra vågor i datahantering bygger stora data utöver utvecklingen av datahanteringspraxis under de senaste fem decennierna. Det som är nytt är att för första gången har kostnaden för datorcykler och lagring nått en tipppunkt. Varför är detta viktigt?
För några år sedan skulle organisationer vanligtvis kompromissa genom att lagra ögonblicksbilder eller delmängder av viktig information eftersom kostnaden för lagrings- och bearbetningsgränser förbjöd dem att lagra allt de ville analysera.
I många situationer fungerade denna kompromiss bra. Till exempel kan ett tillverkningsföretag ha samlat maskindata varannan minut för att bestämma systemens hälsa. Det kan dock finnas situationer där ögonblicksbilden inte skulle innehålla information om en ny typ av defekt och det kan gå obemärkt i flera månader.
Med stor data är det nu möjligt att virtualisera data så att den kan lagras effektivt och även utnyttja molnbaserat lagringsutrymme mer kostnadseffektivt. Dessutom har förbättringar i nätverkshastighet och tillförlitlighet tagit bort andra fysiska begränsningar för att kunna hantera stora mängder data i en acceptabel takt.
Lägg till här effekterna av förändringar i pris och sofistikering av datorminnet. Med alla dessa teknikövergångar är det nu möjligt att tänka sig hur företag kan utnyttja data som skulle ha varit otänkbara för bara fem år sedan.
Men ingen teknikövergång sker i isolation. det händer när det finns ett viktigt behov som kan tillgodoses av tillgänglighet och mognad av teknik. Många av teknikerna som ligger till grund för stora data, som virtualisering, parallell bearbetning, distribuerade filsystem och minnesdatabaser har funnits i årtionden.
Avancerad analys har också funnits i årtionden, men de har inte alltid varit praktiska. Annan teknik som Hadoop och MapReduce har varit på plats i bara några år. Denna kombination av tekniska framsteg kan nu hantera betydande affärsproblem. Företagen vill kunna få insikter och genomförbara resultat från många olika typer av data i rätt takt.
Om företag kan analysera dataöverföringar (motsvarande 20 miljoner arkslådor fyllda med textfiler eller 13. 3 år HDTV-innehåll) med godtagbar prestanda för att urskilja mönster och anomalier kan företag börja känna av data på nya sätt.Flyttningen till stora data handlar inte bara om företag.
Vetenskap, forskning och statliga aktiviteter har också bidragit till att driva framåt. Tänk bara på att analysera det mänskliga genomet eller hantera alla astronomiska data som samlats in i observatorier för att öka vår förståelse av världen runt omkring oss. Tänk på hur mycket data regeringen samlar i sina antiterroristaktiviteter också, och du får tanken på att stora data inte bara handlar om affärer.
Det finns olika metoder för hantering av data. Data i rörelse skulle användas om ett företag kan analysera kvaliteten på sina produkter under tillverkningsprocessen för att undvika kostsamma fel. Data i vila skulle användas av en företagsanalytiker för att bättre förstå kundernas nuvarande köpmönster baserat på alla aspekter av kundrelationen, inklusive försäljning, sociala medier och kundservice interaktioner.
Tänk på att företagen fortfarande befinner sig i ett tidigt skede för att utnyttja stora datamängder för att få en 360-graders syn på verksamheten och förutse förändringar och förändringar i kundernas förväntningar. Tekniken som krävs för att få svaren på affärsbehoven är fortfarande isolerad från varandra.
Stora data handlar inte bara om ett verktyg eller en teknik. Det handlar om hur alla dessa tekniker samlas för att ge rätt inblick, i rätt tid, baserat på rätt data - vare sig det genereras av människor, maskiner eller på webben.