z pewnym zainteresowaniem przeczytałem o wirtualizacji … dysków. tzn. nie dysku twardego, a systemów pamięci masowych – das'ów, sanów itd.
podobno ma to być nowy “trynd" na świecie. podobno jest cool, fajne i ogólnie super.
tylko jakoś nie mogę zrozumieć po co to komu. kupujemy super-fajną macierz by móc ją wirtualizować jako kilkanaście kiepskich?
no, ale – zwykłej wirtualizacji – jako rozwiązania na serwery – też nie kumam.
A, bo z tą wirtualizacją to jest trochę tak, że rozwiązanie dla specyficznych zastosowań (w dzień obciążamy maszynkę X a w nocy Y; przez 28 dni w miesiącu X a przez 2 Y) rodem z banków i świata SAP R/3 nagle zaczęto sprzedawać jako rozwiązanie super uniwersalne.
Do mnie na razie przemawiają dwa aspekty wirtualizacji: izolacja uzytkowników w formie parawirtualizacji a la zony Solarisa przy zachowaniu maszyny “centralnej” na której widać wszystkie procesy (i ew. zasoby) i mogącej sterować ich przydzielaniem; i jako coś co umożliwia migrację całych pracujących aplikacji prawie w locie na inną maszynę (czego nie widziałem, ale czym się mocno chwalą) – taki lepszy failover. Bo to, że 5 serwerów po 15 tys. zł zastapię 1 za 50 tys. ale $ to jakos słabo do mnie przemawia 😉
Wirtualizacja umozliwia Ci wygodny logiczny podzial poola fizycznych zasobow – CPU albo pamieci (roznego rodzaju). Plus bonusy w postaci latwego skalowania systemow i latwego failoveru. Przestajesz myslec o pojedynczych fizycznych maszynach.
No, tak, tylko w pewnym momencie cena maszynki z duzym pulem gwałtownie rośnie:
4x x4200 z 2×285 to powiedzmy 120 000 w cenach listowych.
1x x4600 z 8×285 to jakieś 230 000.
Jak na “wygodę” to troszkę jednak drogo.
Wirtualizacja IA-32 i IA-64 to skarlały potomek technologii mainframe. W mainframach możesz odłączać i hotswapować pojedyńćze podzespoły, procersory, SIMy. Wielkiej maszyny jedna aplikacja zwykle nie wykorzysta więc se ją dzieli na mniejsze partycje, które są do poziomu sprzętu osobnymi komputerami.