Video: Mayer Brown's Tech Talks, Episode 3: The Big Data Paradox 2025
Du finder en nyansering om stor dataanalyse. Det handler virkelig om små data. Selvom dette kan virke forvirrende og modvirke hele forudsætningen, er små data produkt af stor dataanalyse. Dette er ikke et nyt koncept, og det er heller ikke kendt for folk, der har lavet dataanalyse i nogen tid. Det overordnede arbejdsområde er større, men svarene ligger et sted i "lille". "
Traditionel dataanalyse begyndte med databaser fyldt med kundeoplysninger, produktinformation, transaktioner, telemetri data osv. Alligevel var der for mange data til rådighed til effektivt at analysere. Systemer, netværk og software havde ikke ydeevne eller kapacitet til at adressere skalaen. Som en industri blev manglerne behandlet ved at skabe mindre datasæt.
Disse mindre datasæt var stadig temmelig substantielle, andre mangler blev hurtigt opdaget; den mest skarpe var fejlparametrene mellem dataene og arbejdskonteksten. Hvis du arbejdede i Payable, måtte du se på en stor mængde uafhængige data for at gøre dit job. Igen reagerede industrien ved at skabe mindre, kontekstrelevante datasæt - store til små til mindre endnu.
Du kan genkende dette som migrering fra databaser til datalager til data marts. Oftere end ikke, blev dataene for varehuse og marts valgt efter vilkårlige eller eksperimentelle parametre, hvilket resulterede i en stor forsømmelse. Virksomhederne fik ikke de perspektiver, de havde brug for eller var mulige, fordi kapacitetsnedskæringerne ikke var baseret på beregningsfaktorer.
Indtast store data med alle dens volumener, hastigheder og sorter, og problemet forbliver eller forværres muligvis. Manglerne i infrastrukturen er blevet behandlet og kan lagre og behandle store mængder yderligere data, men nye teknologier var specielt nødvendige for at hjælpe med at håndtere store data.
På trods af de ydre fremtoninger er dette en vidunderlig ting. I dag og i fremtiden vil virksomheder have flere data, end de kan forestille sig, og de vil have midler til at fange og styre det. Hvad der er mere nødvendigt end nogensinde, er evnen til at analysere højre data i rette tid nok til at træffe beslutninger og handle.
Virksomhederne vil stadig krympe datasætene til "kæmper trim", men de kan gøre det beregningsmæssigt. De behandler de store data og gør det til små data, så det er lettere at forstå. Det er mere præcist, og fordi det er afledt af et meget større udgangspunkt, er det mere kontekstuelt relevant.