Hirdetés

Memóriavédelmi technológiák

Történelem

A szakemberek immár tapasztalati tényként fogadják el, hogy a szervereket felépítő részegységek közül - természetesen a mozgó mechanikát tartalmazó komponenseken túl - messze a memóriamodulok hajlamosak leginkább a meghibásodásra. Cikkünkben e különös jelenség okainak eredtünk nyomába, egyúttal arról is rövid áttekintést nyújtva, hogy milyen technológiákat fejlesztett ki az iparág az ilyesfajta hibák kivédésére.

Különös, de igaz: elegendő volna kevesebb, mint egy évtizedet visszaugranunk az időben, és máris egy olyan érában találnánk magunkat, amikor is az x86-os processzorokra (akkoriban leginkább az Intel Pentiumra és Pentium Próra) épülő szerverek még vajmi kevéssé szenvedtek a fenti problémáktól. Mindez még különösebbé válik, ha figyelembe vesszük, hogy az újabban széles körben elterjedt memóriavédelmi technológiák a 90-es évek közepén még a felsőkategóriás RISC/UNIX kiszolgálók kiváltságának számítottak, lényegében oltalom nélkül hagyva az x86-os szervereket.

Ez még akkor is igaz, ha elszigetelt próbálkozások azért történtek a kedvező ár/teljesítmény arányuk miatt egyre népszerűbbé váló x86-os szerverek megbízhatóságának növelésére: például az akkoriban ezen a téren piacvezető Compaq 1993-tól kezdve számos SystemPro, majd ProLiant szerverébe integrálta az ECC (Error Checking&Correcting), vagyis a hibafelderítő és -javító technológiát. Ez a lépés azonban hosszú éveken át vajmi kevés követőre talált az x86-os szerverekben csak a szükséges rosszat látó és a főként a nagyobb profitot termelő RISC/UNIX kiszolgálók gyártásában érdekelt vetélytársak körében. Így a többségnek maradt a "bízz Istenben, és tartsd készenlétben a pótalkatrészt" elv alkalmazása. A meghibásodások azonban ennek ellenére sem voltak gyakoriak - vajon miért?


256-szoros növedés alig tíz év alatt: Compaq SystemPro 256 MB-nyi,...


...és HP ProLiant DL585 64 GB-nyi maximális memóriakapacitással

Nos, a viszonylagos eseménytelenség okai közül elsőként a memória mennyiségének csekély volta említendő, amely egyenes következménye volt annak, hogy a korszak alkalmazásai mai szemmel nézve nevetséges erőforrásokkal is elboldogultak. Hasonló volt a helyzet az operációs rendszerek szempontjából is, hiszen még a köztudottan krónikus memóriaéhségben szenvedő Windows éppen aktuális szerveroldali inkarnációja (NT 4.0) is megelégedett néhány tucat (komplexebb alkalmazások esetén esetleg néhány száz) MB-nyi memóriával. Azután persze voltak bizonyos megkerülhetetlen korlátozások is: mivel az NT 4.0 maximum 4 GB-nyi memória kezelésére volt képes, ez határt szabott a hardverfejlesztők álmainak is. Ennek megfelelően a korszak legnépszerűbb szerverei, köztük például a korábban már említett Compaq SystemPro is, nem voltak képesek 256 MB-nyi memóriánál többet fogadni. Ám az átlagfelhasználó természetesen még ezt sem használta ki teljesen, és többnyire megelégedett 64 MB-tal. Ez a memóriamennyiség még a kor technikai színvonala mellett sem igényelt túlzottan magas memóriasűrűséget, nem véletlen tehát, hogy egy esetleges hiba valószínűsége is rendkívül csekély volt: 64 MB-nyi memória esetében éves szinten mindössze 0,3 százalék.

Moore-törvény párhuzamok

Azonban alig néhány év múltán a helyzet gyökeresen megváltozott. Az általában processzorokra alkalmazott (valójában szinte minden egyes chipre, vagyis memóriamodulokra is érvényes) Moore-törvény ugyanis ezen a téren is éreztette hatását. Az exponenciálisan növekvő teljesítményű CPU-k és a velük együtt "hízó", egyre erőforrás-igényesebb alkalmazások exponenciálisan növekvő mennyiségű memóriát követeltek: így nőtt a múlt évtized közepének átlagos 64 MB-ja 512 MB-ra, sőt 1 GB-ra az ezredforduló környékére. Ráadásul a sokáig inkább elméleti, mintsem gyakorlati korlátozást jelentő operációs rendszer felőli kapacitáshatár is kezdett gondokat okozni, nem véletlen tehát, hogy a Microsoft 8 GB-ra emelte azt a Windows 2000-ben. A nagyságrendileg több memória - a gyártástechnológia folyamatos tökéletesedése ellenére - pedig természetesen nagyságrendileg több hibát okozott: az előzőekben említett 0,3 százalékos éves meghibásodási mutató így módosult 3 százalékra az átlagos (1 GB-nyi) memória esetén.

A több modul / nagyobb memóriachip-sűrűség / több kondenzátor = több hiba törvényszerűség hatálya alól a későbbiekben sem volt menekvés. A Windows adatközpontokhoz szánt, már 32 GB-nyi memóriával is elboldoguló verziójának (DataCenter) megjelenése még csak előhírnöke volt a memóriaéhség ama korának, amely aztán az új, már 64 bites kiterjesztésekkel is ellátott, x86-os processzorokkal szerelt szerverek képességeihez igazított operációs rendszerek eljövetelével köszöntött be visszavonhatatlanul. Így jutottunk el napjainkig, amikor már 16 GB-nyi memória sem számít rendkívülinek egy x86-os kiszolgálóban, és egy esetleges memóriahiba valószínűsége pedig (az alkalmazáskritikus környezetekben elfogadhatatlan) 48 százalékra (!) emelkedett. Szerencsére eme ijesztő tendencia kibontakozását az iparág sem nézte tétlenül, és - különösen az ezredfordulótól kezdve - számos erőfeszítést tett a nehézségek megoldására.

A cikk még nem ért véget, kérlek, lapozz!

  • Kapcsolódó cégek:
  • HP

Előzmények

Hirdetés