Personlig finansiering

Apache Drill - dummies

Apache Drill - dummies

Apache Drill er et kandidatprojekt i Apache-inkubatoren. Apache Drill er dog ikke særlig syg. Apache Software Foundation (ASF) kandidat teknologier begynder som inkubatorprojekter, før de bliver officielle ASF teknologier. Du kan læse om Apache-inkubatoren. Du kan læse om Drill. Inspireret af Googles Dremel-teknologi er det angivne resultatmål for ...

Cloudera Impala og Hadoop - dummies

Cloudera Impala og Hadoop - dummies

Cloudera er en førende Apache Hadoop software- og serviceudbyder i det store datamarked. Som Apache Drill søger Clouderaas Impala-teknologi at forbedre interaktiv forespørgselsresponstid for Hadoop-brugere. Apache Hive har leveret en velkendt og kraftig forespørgselsmekanisme til Hadoop-brugere, men forespørgselstider er ofte uacceptable på grund af Hives tillid ...

Alternative implementeringsformfaktorer til Hadoop dummies

Alternative implementeringsformfaktorer til Hadoop dummies

Selvom Hadoop virker bedst, når den er installeret på en fysisk computer, hvor behandling har direkte adgang til dedikeret opbevaring og netværk, Hadoop har alternative implementeringer. Og selvom de er mindre effektive end den dedikerede hardware, er det i visse tilfælde værd at vælge. Virtuelle servere En stor tendens i IT-centre i løbet af det sidste årti ...

Kolonnen Kvalifikatorer i HBase Data Model - dummies

Kolonnen Kvalifikatorer i HBase Data Model - dummies

I kolonnekvalificatorerne for HBase data model er specifikke navne tildelt Dine data værdier for at sikre, at du er i stand til at identificere dem korrekt. I modsætning til kolonnefamilier kan kolonnekvalificatorer være næsten ubegrænset i indhold, længde og antal. Hvis du udelader kolonnekvalificatoren, vil HBase-systemet tildele en til dig. Udskrives ...

ACID versus BASE Data Stores - dummies

ACID versus BASE Data Stores - dummies

Et kendetegn ved relationelle database systemer er noget, der er kendt som ACID compliance. Som du måske har gættet, er ACID en akronym - de enkelte bogstaver, der er beregnet til at beskrive en karakteristik af individuelle database transaktioner, kan udvides som beskrevet i denne liste: Atomicitet: Databasetransaktionen skal helt lykkes eller helt mislykkes. Delvis succes er ...

Konfiguration af Oozie Workflows - dummies

Konfiguration af Oozie Workflows - dummies

Som en workflow-motor giver Oozie dig mulighed for at køre et sæt Hadoop-applikationer inden for en bestemt rækkefølge som en arbejdsgang. Du kan konfigurere Oozie-arbejdsgange på en af ​​tre måder, afhængigt af dine særlige omstændigheder. Du kan bruge config-default. xml-fil: Definerer parametre, der ikke ændrer sig til arbejdsgangen. Jobbet. egenskabsfil: Definerer ...

10 Hadoop Ressourcer Værdige af en bogmærke - dummies

10 Hadoop Ressourcer Værdige af en bogmærke - dummies

Følgende er ti fantastiske Hadoop-ressourcer, der er værdige til at skabe en bogmærke i din browser. Disse ressourcer hjælper dig med at oprette en livslang læring plan for Hadoop. Centralnervesystemet: Apache. org Apache Software Foundation (ASF) er det centrale fællesskab for open source software projekter. Ikke bare et projekt kan være et Apache-projekt - ...

Kompaktioner i HBase-dummies

Kompaktioner i HBase-dummies

Komprimering, processen ved hvilken HBase rydder op efter sig selv, kommer i to varianter: større og mindre . Store komplikationer kan være en big deal, men først skal du forstå mindre komplikationer. Mindre kompakanter kombinerer et konfigurerbart antal mindre HFiler i en større HFile. Du kan indstille antallet af HFiles til kompakt og ...

Data transformation i Hadoop - dummies

Data transformation i Hadoop - dummies

Ideen om Hadoop-inspirerede ETL motorer har fået en masse trækkraft i de seneste år. Hadoop er trods alt en fleksibel datalagrings- og behandlingsplatform, som kan understøtte enorme mængder data og operationer på disse data. Samtidig er det fejltolerant, og det giver mulighed for kapital- og softwareomkostninger ...

Datablokke i Hadoop Distributed File System (HDFS) - dummier

Datablokke i Hadoop Distributed File System (HDFS) - dummier

, Når du opbevarer en fil i HDFS, bryder systemet det ned i et sæt individuelle blokke og gemmer disse blokke i forskellige slave noder i Hadoop-klyngen. Dette er en helt normal ting at gøre, da alle filsystemer bryder filer ned i blokke, før de lagres til disk. HDFS har ingen ...

Data warehouse modernisering med Hadoop dummies

Data warehouse modernisering med Hadoop dummies

Data warehouses er nu under stress og forsøger at klare øgede krav til deres endelige ressourcer. Hadoop kan give en betydelig lettelse i denne data warehouse situation. Den hurtige stigning i mængden af ​​data, der er genereret i verden, har også påvirket datalagre, fordi mængden af ​​data, de administrerer, stiger - dels fordi ...

Udvikler Oozie Workflows i Hadoop - dummies

Udvikler Oozie Workflows i Hadoop - dummies

Oozie workflows er i kernen rettede grafer, hvor du kan definere handlinger (Hadoop-applikationer) og datastrømmen, men uden looping - hvilket betyder at du ikke kan definere en struktur, hvor du vil køre en bestemt operation igen og igen, indtil en tilstand er opfyldt (for eksempel for en loop). Oozie-arbejdsprocesser er ret fleksible i det ...

Sammenligning af Hadoop-distributioner - dummier

Sammenligning af Hadoop-distributioner - dummier

Du vil opdage, at Hadoop-økosystemet har mange komponenter, som alle eksisterer som deres egne Apache projekter. Fordi Hadoop er vokset betydeligt og står over for nogle betydelige yderligere ændringer, er forskellige versioner af disse komponenter i open source-fællesskabet måske ikke fuldt kompatible med andre komponenter. Dette giver betydelige vanskeligheder for folk, der søger at få ...

Faktorer, der øger omfanget af statistisk analyse i Hadoop - dummies

Faktorer, der øger omfanget af statistisk analyse i Hadoop - dummies

Grunden til, at folk udprøver deres data før du kører statistisk analyse i Hadoop er, at denne form for analyse ofte kræver betydelige databehandlingsressourcer. Det handler ikke kun om datamængder: der er fem hovedfaktorer, der påvirker omfanget af statistisk analyse: Denne er let, men vi skal nævne det: mængden af ​​data på ...

Komprimering af data i Hadoop - dummies

Komprimering af data i Hadoop - dummies

Er de enorme datamængder, der er realiteter i en typisk Hadoop-implementering, en nødvendighed. Datakomprimering sparer helt sikkert en stor mængde lagerplads og er sikker på at fremskynde bevægelsen af ​​disse data i hele din klynge. Ikke overraskende er der en række tilgængelige komprimeringsordninger, kaldet codecs, derude for ...

Hadapt og Hadoop - dummies

Hadapt og Hadoop - dummies

Sent i 2010, blev Hadapt dannet som en opstart af to Yale University-studerende og en adjunkt i datalogi. Professor Daniel Abadi og Kamil Bajda-Pawlikowski, ph.d.-studerende fra Yales computervidenskabsafdeling, havde arbejdet med forskningsprojektet HadoopDB. Efter dette papir blev udgivet, blev Justin Borgman, en studerende fra ...

Hadoop og hive dummies

Hadoop og hive dummies

For at lave en lang historie kort, giver Hive Hadoop en bro til RDBMS verden og giver en SQL dialekt kendt som Hive Query Language (HiveQL), som kan bruges til at udføre SQL-lignende opgaver. Det er de store nyheder, men der er mere at hive end at se på øjet, som de siger eller flere applikationer af ...

Kantnoder i Hadoop Clusters - dummies

Kantnoder i Hadoop Clusters - dummies

Kantnoder er grænsefladen mellem Hadoop-klyngen og det udvendige netværk. Af denne grund omtales de undertiden som gateway noder. Normalt bruges kantnoder til at køre klientprogrammer og værktøjer til administration af klynger. De bruges også ofte som mellemrum for data, der overføres til Hadoop-klyngen. Som sådan er Oozie, ...

Bedrageri detektion med Hadoop - dummies

Bedrageri detektion med Hadoop - dummies

Det store antal transaktioner gør det sværere at se bedrageri på grund af mængden af ​​data, Ironisk nok kan denne samme udfordring bidrage til at skabe bedre bedrageriske prædiktive modeller - et område, hvor Hadoop skinner. I dagens sammenkoblede verden gør det store volumen og kompleksiteten af ​​transaktioner det sværere end nogensinde at finde bedrageri. Hvad brugt ...

Grafikbehandling i Hadoop - dummies

Grafikbehandling i Hadoop - dummies

En af de mere spændende nye NoSQL teknologier indebærer opbevaring og behandling af grafdata. Du tror måske, at denne erklæring er gammel nyhed, fordi computerforskere har udviklet grafanalyse teknikker i årtier. Hvad du siger kan godt være sandt, men hvad er nyt er at ved at bruge Hadoop, kan du lave graf ...

Hadoop Distributed File System (HDFS) Federation - Dummies

Hadoop Distributed File System (HDFS) Federation - Dummies

Løsningen for at udvide Hadoop-klynger er ubestemt NameNode. Før Hadoop 2 kom ind i scenen, måtte Hadoop-klynger leve med, at NameNode satte grænser for, i hvilken grad de kunne skala. Få klynger kunne skala ud over 3, 000 eller 4, 000 noder. NameNode er nødt til at opretholde optegnelser for ...

Hadoop distribueret filsystem (HDFS) høj tilgængelighed - dummies

Hadoop distribueret filsystem (HDFS) høj tilgængelighed - dummies

Ofte i Hadops børnefølge en stor mængde af diskussionen var centreret om NameNode's repræsentation af et enkelt punkt af fiasko. Hadoop har generelt haft en robust og svigt tolerant arkitektur med undtagelse af dette nøgleområde. Uden NameNode er der ingen Hadoop-klynge. Ved hjælp af Hadoop 2 kan du konfigurere HDFS, så der er ...

Hadoop som en dataforarbejdningsmotor - dummier

Hadoop som en dataforarbejdningsmotor - dummier

Et af de tidligste anvendelsessager til Hadoop i virksomheden var som en programmatisk transformationsmotor anvendt til at forarbejde data bundet til et datalager. I det væsentlige udnytter denne brugstilfælde Hadoop økosystemets evne til at manipulere og anvende transformationer til data, før det indlæses i et datalager. Selv om den faktiske transformation ...

Hadoop som et forespørgselsarkiv for Cold Warehouse Data - dummies

Hadoop som et forespørgselsarkiv for Cold Warehouse Data - dummies

Et stort antal studier viser, at de fleste data i en virksomhed er datalageret sjældent forespurgt. Databaseleverandører har reageret på sådanne observationer ved at implementere deres egne metoder til at sortere ud, hvilke data der bliver placeret hvor. En metode ordner datarunet til betegnelser af varmt, varmt eller koldt, hvor varme data (nogle gange kaldes aktive ...

Hadoop som en arkivdata destination - dummies

Hadoop som en arkivdata destination - dummies

Den billige oplagringsomkostninger til Hadoop plus muligheden for at forespørge Hadoop data med SQL gør Hadoop den primære destination for arkivdata. Denne brugs sag har en lille indflydelse på din organisation, fordi du kan begynde at opbygge din Hadoop-færdighed på data, der ikke er gemt på ydeevne-missionskritiske systemer. Hvad mere gør du ikke ...

Hadoop Administration Commands - dummies

Hadoop Administration Commands - dummies

En hvilken som helst Hadoop-administrator, der er værd at saltet, skal beherske et omfattende sæt kommandoer til clusteradministration. Den følgende liste opsummerer de vigtigste kommandoer, der angiver, hvad kommandoen gør, såvel som syntaks og eksempler. Kend dem, og du vil gå langt hen ad vejen til Hadoop-visdom. balancer: Kører klyngebalanceringsværktøjet. ...

Hadoop Distributed File System (HDFS) til Big Data Projects - dummies

Hadoop Distributed File System (HDFS) til Big Data Projects - dummies

Hadoop Distributed File Systemet er en alsidig, robust og klynget tilgang til styring af filer i et stort datamiljø. HDFS er ikke den endelige destination for filer. Det er snarere en datatjeneste, der tilbyder et unikt sæt kapaciteter, der er nødvendige, når datamængder og hastighed er høje. Fordi dataene er skrevet en gang og ...

Hadoop MapReduce til Big Data - dummies

Hadoop MapReduce til Big Data - dummies

For at forstå Hadoop MapReduces evner, er det vigtigt at skelne mellem MapReduce algoritmen) og en implementering af MapReduce. Hadoop MapReduce er en implementering af algoritmen udviklet og vedligeholdt af Apache Hadoop projektet. Det er nyttigt at tænke på denne implementering som MapReduce-motor, fordi det er præcis det ...

Hadoop Rack Overvejelser - dummies

Hadoop Rack Overvejelser - dummies

Et kerneprincip af Hadoop skaler ud med yderligere slave noder for at imødekomme stigende datalagring og - behandling krav. I en scale-out model skal du omhyggeligt overveje cluster design, fordi snesevis og endda hundredvis af slave noder skal i sidste ende være racked, drevet, netværk og afkølet. Serverformfaktorer Et af de første valgmuligheder ...

Hadoop Integration med R - dummies

Hadoop Integration med R - dummies

I begyndelsen var store data og R ikke naturlige venner. R programmering kræver, at alle objekter lægges i hovedminnet på en enkelt maskine. Begrænsningerne af denne arkitektur opdages hurtigt, når store data bliver en del af ligningen. I modsætning hertil mangler distribuerede filsystemer som Hadoop stærkt ...

Hvordan man får Apache Oozie Set Up i Hadoop - dummies

Hvordan man får Apache Oozie Set Up i Hadoop - dummies

Apache Oozie er inkluderet i alle store Hadoop distribution, herunder Apache Bigtop. I din Hadoop-klynge skal du installere Oozie-serveren på en kantknude, hvor du også vil køre andre klientprogrammer mod gruppens data, som vist. Edge noder er designet til at være en gateway til det udvendige netværk til Hadoop-klyngen. Dette ...

Importerer data med Sqoop - dummies

Importerer data med Sqoop - dummies

Klar til at dykke ind i at importere data med Sqoop? Start med at se på figuren, som illustrerer trinene i en typisk Sqoop-importoperation fra et RDBMS eller et datalagringssystem. Intet for kompliceret her - bare en typisk Produktdatabord fra et (typisk) fiktivt firma importeres til en typisk ...

Image Klassificering med Hadoop-dummies

Image Klassificering med Hadoop-dummies

Billedklassifikation kræver en betydelig mængde databehandlingsressourcer, der dog har begrænset skalaen af implementeringer. Billedklassifikation er et varmt emne i Hadoop-verdenen, fordi ingen mainstream-teknologi kunne - indtil Hadoop kom sammen - åbne døre for denne slags dyre behandling på så massiv og effektiv ...

Input Splits i Hadoop's MapReduce - dummies

Input Splits i Hadoop's MapReduce - dummies

Den måde HDFS er oprettet på bryder den meget store filer ind i store blokke (for eksempel måling 128 MB) og gemmer tre kopier af disse blokke på forskellige knudepunkter i klyngen. HDFS har ingen bevidsthed om indholdet af disse filer. I YARN, når et MapReduce-job er startet, er ressourceadministratoren (den ...

Sammenføjning af tabeller med Hive - dummies

Sammenføjning af tabeller med Hive - dummies

Du ved sikkert allerede, at eksperter i relationelt databasemodellering og design typisk bruger mange af deres tid til at designe normaliserede databaser eller skemaer. Database normalisering er en teknik, der beskytter mod tab af data, redundans og andre uregelmæssigheder, da data opdateres og hentes. Eksperterne følger en række regler for at nå frem til en ...

Styring af Big Data med Hadoop: HDFS og MapReduce - dummies

Styring af Big Data med Hadoop: HDFS og MapReduce - dummies

Hadoop, en open source software framework , bruger HDFS (Hadoop Distributed File System) og MapReduce til at analysere store data på klynger af råvarehardware-det vil sige i et distribueret computermiljø. Hadoop Distributed File System (HDFS) blev udviklet for at give virksomhederne lettere at håndtere store mængder data på en enkel og pragmatisk måde. Hadoop ...

Nøgle Værdipar i HBase Data Model - dummies

Nøgle Værdipar i HBase Data Model - dummies

Den logiske HBase data model er enkel, men elegant, og det giver en naturlig datalagringsmekanisme til alle slags data - især ustrukturerede store datasæt. Alle dele af datamodellen konvergerer til et nøgleværdipar. Først og fremmest, i en verden, hvor du kan tænke på radnøglen som ...

Netværk og Hadoop Clusters - dummies

Netværk og Hadoop Clusters - dummies

Som med ethvert distribueret system, kan netværk lave eller bryde en Hadoop-klynge "Gå billigt. "En stor chatter finder sted mellem master noder og slave noder i en Hadoop-klynge, der er afgørende for at holde klyngen kørende, så virksomhedsklasse-switche anbefales absolut. For hvert rack i din klynge, vil du ...

Log data analyse med Hadoop - dummies

Log data analyse med Hadoop - dummies

Log analyse er en almindelig brug tilfælde til et indledende Hadoop projekt. Faktisk var Hadoops tidligste anvendelser til den store analyse af clickstream logs - logs, der registrerer data om de websider, som folk besøger, og i hvilken rækkefølge de besøger dem. Alle loggene af data genereret af din it-infrastruktur ...

Log data med flume i HDFS - dummies

Log data med flume i HDFS - dummies

Nogle af de data, der ender i Hadoop Distributed File System ( HDFS) kan lande der via databasebelastningsoperationer eller andre typer batchprocesser, men hvad hvis du vil fange de data, der strømmer i high-throughput-datastrømme, såsom applikationslogdata? Apache Flume er den nuværende standard måde at ...

Valg af editor

A + eksamener og netværkskortet (NIC) - dummies

A + eksamener og netværkskortet (NIC) - dummies

Er bekendt med netværksgrænsefladen kort (NIC) til A + eksamenerne og forstå fordelene herfor. Netværksinterfacekortet (almindeligvis benævnt et netværkskort) er ansvarlig for at forbinde computeren eller enheden til netværket. Endnu vigtigere er netværkskortet på afsendelsescomputeren ansvarlig for at konvertere digitale data til en ...

Enhedsrelaterede fejl du behøver at vide - dummies

Enhedsrelaterede fejl du behøver at vide - dummies

Når du forfølger din compTIA A + -certificering, skal du vide om enhedsrelaterede fejl og hvad man skal gøre, når du støder på dem. Det er uheldigt, at enhederne og deres drivere, der tillader folk at udføre så meget af deres daglige arbejde med computere, er også en af ​​de største faktorer ved ikke at kunne ...

A + Certificering Alt-i-One til Dummies Cheat Sheet - dummies

A + Certificering Alt-i-One til Dummies Cheat Sheet - dummies

A + Certification All -in-One For Dummies online snydeark giver dig hurtige fakta at huske på testdagen for at hjælpe dig med at besvare spørgsmål, der findes på A + Certification Exams. Før A + eksamenerne vil du gennemgå nogle af de store Windows-begreber som boot-filer, gendannelsesværktøjer, RAID-typer og fejlfinding af værktøjer. Du ...

Valg af editor

Hvordan man definerer ordforråddefinitioner for SAT-dummierne

Hvordan man definerer ordforråddefinitioner for SAT-dummierne

Du kan komme igennem ordforrådssektionen af SAT med flyvende farver, hvis du kan forberede dig til testen ved at gruppere ord i logiske klynger. Under testen kan du finde ud af orddefinitioner fra orddele og bruge kontekst til at give dig spor til et ords betydning. Overvejer konnotationsklynger Medmindre du har ...

Valg af editor

Outlook 2013 Task Home Tab - dummies

Outlook 2013 Task Home Tab - dummies

Du kan planlægge og spore personlige projekter og professionelle projekter i Outlook 2013. Knapper og ikoner på fanen Opgaver Startside i Outlook 2013-båndet er de værktøjer, der hjælper med at håndtere din arbejdsbyrde. Outlook 2013 tilbyder forskellige visninger - Afsluttet, i dag og næste 7 dage - for at hjælpe dig med at prioritere.

Outlook 2007 Business Contact Manager til Dummies Cheat Sheet - dummies

Outlook 2007 Business Contact Manager til Dummies Cheat Sheet - dummies

Outlook 2007 Business Contact Manager (BCM ) er lige hvad du har brug for, hvis du er en sælger eller en forretningschef. Sammen med de normale, hjælpsomme Outlook-funktioner tilbyder BCM værktøjer, der hjælper dig med at holde dig i top af dit forretningsliv.

Vedligeholdelse af en glad og sund kontaktperson mappe i Outlook - dummies

Vedligeholdelse af en glad og sund kontaktperson mappe i Outlook - dummies

I patologi, som er undersøgelsen af sygdomme og hvordan de overføres, er en kontaktperson en person, der overleverer en smitsom sygdom, men i Outlook er en kontaktperson, som du holder information om. Oplysninger om kontaktpersoner gemmes i mappen Kontakter. Denne mappe er en superdrevet adressebog. Det har steder ...