Indholdsfortegnelse:
Video: Essential Scale-Out Computing by James Cuff 2025
Bag alle de vigtige tendenser i løbet af det sidste årti, herunder serviceorientering, cloud computing, virtualisering og store data, er en grundlæggende teknologi kaldet distribueret computing. Simpelthen sagt, uden at distribuere computing, ville ingen af disse fremskridt være mulig.
Distribueret databehandling er en teknik, der gør det muligt for enkelte computere at blive sammenkoblet på tværs af geografiske områder som om de var et enkelt miljø. Du finder mange forskellige implementeringer af distribueret computing. I nogle topologier sender individuelle computerenheder simpelthen meddelelser til hinanden.
I andre situationer kan et distribueret computermiljø dele ressourcer, der spænder fra hukommelse til netværk og opbevaring. Alle distribuerede computermodeller har en fælles attribut: De er en gruppe af netværkscomputere, der arbejder sammen om at udføre en arbejdsbyrde eller proces.
DARPA og store data
Den mest velkendte distribuerede computermodel, internettet, er fundamentet for alt fra e-handel til cloud computing til servicehåndtering og virtualisering. Internettet blev opfattet som et forskningsprojekt finansieret af U. S. DARPA.
Det var designet til at skabe et sammenkoblet netværkssystem, som ville understøtte ikke-kommerciel, samarbejdende forskning blandt forskere. I de tidlige dage af internettet blev disse computere ofte forbundet via telefonlinjer! Medmindre du har oplevet den frustration, kan du kun forestille dig, hvor langsom og skrøbelig disse forbindelser var.
Da teknologien modnes i løbet af det næste årti, har de fælles protokoller som Transmission Control Protocol (TCP) bidraget til at sprede teknologien og netværket. Da Internet Protocol (IP) blev tilføjet, flyttede projektet fra et lukket netværk til en samling af forskere til en potentielt kommerciel platform til at overføre e-mail over hele kloden.
I løbet af 1980'erne begyndte nye internetbaserede tjenester at komme op på markedet som et kommercielt alternativ til DARPA-netværket. I 1992 bestod den amerikanske kongres af den videnskabelige og avancerede teknologilov, som for første gang tillod kommerciel brug af denne kraftfulde netværksteknologi. Med sin fortsatte eksplosive vækst er internettet virkelig et globalt distribueret netværk og er fortsat det bedste eksempel på kraften i distribueret databehandling.
Værdien af en konsistent stor datamodel
Hvilken forskel har denne DARPA-ledede indsats gjort i bevægelsen til distribueret computing?Før kommercialiseringen af internettet var der hundreder af virksomheder og organisationer, der skabte en softwareinfrastruktur, der skulle skabe en fælles platform for at understøtte et højt distribueret computermiljø.
Hver leverandør eller standard organisation har dog oprettet sine egne fjernproceduresamtaler (RPC'er), som alle kunder, kommercielle softwareudviklere og partnere skulle vedtage og støtte. RPC er en primitiv mekanisme, der bruges til at sende arbejde til en fjerncomputer og kræver normalt at vente på fjernbetjeningen til at afslutte, inden andet arbejde kan fortsætte.
Med leverandører, der gennemførte proprietære RPC'er, blev det upraktisk at forestille sig, at et enkelt firma ville kunne skabe en universel standard for distribueret computing. I midten af 1990'erne erstattede internetprotokollerne disse primitive tilgange og blev grundlaget for, hvad der distribueres computing i dag. Efter at dette blev afgjort, begyndte brugen af denne tilgang til netværk computing at blomstre.