Video: Mayer Brown's Tech Talks, Episode 3: The Big Data Paradox 2024
Du hittar en nyans om stor dataanalys. Det handlar verkligen om små data. Även om detta kan verka förvirrande och motsätta sig hela premissen är små data en produkt av stor dataanalys. Detta är inte ett nytt koncept, det är inte heller känt för personer som har gjort dataanalys under någon tid. Det totala arbetsutrymmet är större, men svaren ligger någonstans i "små". "
Traditionell dataanalys började med databaser fyllda med kundinformation, produktinformation, transaktioner, telemetri data, och så vidare. Även då var för mycket data tillgänglig för att effektivt kunna analysera. System, nätverk och programvara hade inte prestanda eller kapacitet att hantera skalan. Som en bransch åtgärdades bristerna genom att skapa mindre dataset.
Dessa mindre dataset var fortfarande ganska substantiva, andra brister upptäcktes snabbt; den mest skarpa var felmatchningen mellan data och arbetskontexten. Om du arbetade med kontot betalningsbar, var du tvungen att titta på en stor mängd orelaterade data för att göra ditt jobb. Återigen svarade branschen genom att skapa mindre, kontextuellt relevanta datamängder - stora till små till mindre fortfarande.
Du kanske känner igen detta som migrering från databaser till datalager till data mars. Ofta var inte data för lager och mars utvalt på godtyckliga eller experimentella parametrar vilket resulterade i en hel del försök och fel. Företagen fick inte de perspektiv som de behövde eller var möjliga eftersom kapacitetsminskningarna inte var baserade på beräkningsfaktorer.
Ange stora data, med alla volymer, hastigheter och sorter, och problemet kvarstår eller kanske förvärras. Bristerna i infrastrukturen har tagits upp och kan lagra och bearbeta enorma mängder ytterligare data, men ny teknik behövs specifikt för att hantera stora data.
Trots de yttre framträdandena är detta en underbar sak. Idag och i framtiden kommer företagen att ha mer data än de kan tänka sig och de kommer att ha möjlighet att fånga och hantera det. Vad som är mer nödvändigt än någonsin är förmågan att analysera rätt data i tid i tillräcklig takt för att fatta beslut och vidta åtgärder.
Företagen kommer fortfarande att krympa dataseten till "fight trim", men de kan göra det beräkningsmässigt. De bearbetar de stora dataen och omvandlar dem till små data så att det blir lättare att förstå. Det är mer exakt och det är mer kontextuellt relevant eftersom det härleddes från en mycket större utgångspunkt.