Video: Jabba's Dance Number (Original 1983) - Return of the Jedi 2025
Som død og skat er diskfejl (og givet nok tid, selv knude eller rackfejl) uundgåeligt i Hadoop Distributed File System (HDFS). I det viste eksempel kunne klyngen fortsætte med at fungere, selvom en rack skulle svigte. Ydeevne ville lide, fordi du har mistet halvdelen af dine behandlingsressourcer, men systemet er stadig online, og alle data er stadig tilgængelige.
I et scenario, hvor en diskdrev eller en slave node fejler, finder den centrale metadataserver til HDFS (kaldet NameNode) i sidste ende ud af, at de filblokke, der er gemt på den fejlede ressource, ikke længere er tilgængelige. Hvis f.eks. Slave Node 3 fejler, betyder det, at blokke A, C og D er underreplikeret .
Med andre ord er for få kopier af disse blokke tilgængelige i HDFS. Når HDFS føler, at en blok er underrepliceret, bestiller den en ny kopi.
For at fortsætte med eksemplet, skal du sige, at Slave Node 3 kommer tilbage online efter et par timer. I mellemtiden har HDFS sikret, at der er tre kopier af alle filblokkene. Så nu, Blokke A, C og D har fire eksemplarer og er overreplikeret . Som med underreplicerede blokke vil HDFS central metadata server også finde ud af det herom og vil bestille en kopi af hver fil, der skal slettes.
Et godt resultat af tilgængeligheden af data er, at når der opstår diskfejl, er det ikke nødvendigt at udskifte mislykkede harddiske med det samme. Dette kan mere effektivt gøres med jævne mellemrum.