Video: SCP-2875 the town that got Fucked by bears | keter | animal scp 2024
Hadops Distributed File System (HDFS) är utformat för att lagra data på billig och mer opålitlig hårdvara. Billig har en attraktiv ringning till den, men det ger upphov till bekymmer om systemets tillförlitlighet som helhet, särskilt för att säkerställa den höga tillgängligheten av data.
Planerade före katastrofen tog hjärnorna bakom HDFS beslutet att konfigurera systemet så att det skulle lagra tre (räkna dem-tre) kopior av varje datablock.
HDFS förutsätter att varje hårddisk och varje slavnod är inneboende otillförlitlig, så tydligt måste man ta hand om att välja var de tre kopiorna av datablocken lagras.
Figuren visar hur datablock från den tidigare filen är striped över Hadoop-klustret - vilket innebär att de är jämnt fördelade mellan slavnoderna så att en kopia av blocket fortfarande kommer att vara tillgänglig oavsett disk, nod eller rackfel.
Den visade filen har fem datablock, märkta a, b, c, d och e. Om du ser en närmare titt kan du se att det här klustret består av två rackar med två noder och att de tre kopiorna av varje datablock har spridits över de olika slavnoderna.
Varje komponent i Hadoop-klustret ses som en potentiell misslyckande punkt, så när HDFS lagrar replikerna av de ursprungliga blocken över Hadoop-klustret, försöker den se till att blockreplikorna lagras i olika felpunkter.
Ta en titt på Block A. Vid den tidpunkt som det behövdes lagras, valdes Slave Node 3, och den första kopian av Block A lagrades där. För flera racksystem bestämmer HDFS att de återstående två kopiorna av block A måste lagras i ett annat rack. Så lagras den andra kopian av block A på slavnod 1.
Den slutliga kopian kan lagras på samma rack som den andra kopian, men inte på samma slavnod, så den lagras på slavnod 2.