Ami biztosan kimaradt: Nem beszéltünk a Management Modulról, pedig szoktunk :) A korábbi szerverek csak management funkciókkal rendelkeztek alapból (be, kikapcsolás, szenzorok, log, alert), ahhoz hogy KVM (Keyboard, Video, Mouse) átirányítás is legyen egy KVM modult külön meg kellett vásárolni (igaz alig volt drágább mint netto 10e Ft). Ebben a konfigurációban ez már szériatartozék (nem is vehető ki, nem egy külön modul, az alaplap szervers része), és az ASUS ASMB11-IKVM-nek hívja. Akad egy elszólás is (lehet, hogy több is, egy biztosan) 25:33 előtt taglaljuk, hogy ebbe a szerverbe csak SATA és NVMe eszköz tehető a SAS-hoz HBA kell majd gyorsan megismétlem, hogy SAS és NVMe megy benne alapból ami helyesen SATA NVMe lenne. Bocs.
Öröm nézni amikor a profizmust sugározni kívánó szerver szaki műszálas pulóverben a bolyhos műanyag padlószőnyegen mindenféle ESD védelem nélkül turkál puszta kézzel egy sokezer € értékű szerverben :)
Köszönjük észrevételedet. A profizmust sosem akartuk sugározni, most sem. Bár hajszál pontosan nem így szereljük össze a szervereket amikor éppen nem forog a kamera, de ez mégis közelebb áll a valósághoz mint az állig beöltözött ESD kesztyűs "szaki" . Bármit eljátszhattunk volna a a videó kedvéért, nem tettük. Mi inkább meg akartuk mutatni azoknak akik sosem láttak ilyet, miből áll össze egy szerver, és hogyan kell - ha nem is nem tankönyvbe illően - de összeszerelni. 32(!) év alatt összeszereltünk már úgy 500-1000 szervert (kisebbet, nagyobbat, olcsóbbat és ennél drágábbat is) a végeredmény pedig minket igazol. Minden szerverünk tette/teszi a dolgát, működik. Megkárosítani senkit nem fogunk. Kell ennél több?
@@tibcsy2010 Nem állig beöltözés meg kesztyű kell, hanem egy leföldelt konduktív gumiborítás az asztalra meg egy csuklópánt. A videóban is látszik hogy a csomagoláson is fel van tüntetve, hogy ESD érzékeny alkatrész. De biztos a gyártó se ért hozzá. JóvanazúgyⒸ
A foglalat az FC kártyán SFP+ lesz (small form-factor pluggable enhanced), ez a fizikai (első) réteg az OSI modellben... Az Ethernet, és az FC a második réteg, bármelyik képes használni az alatta lévő réteg különféle fizikai megvalósításait, így az SFP+-t is, szóval attól, hogy valami SFP+, még mehet rajta FC vagy Ethernet. A kettő között amúgy a fő különbség, hogy az FC loop free, non blocking hálózatra épül, azaz nem tart fenn egy dinamikus MAC-port összerendelős táblát, és nem tudsz hurkot csinálni, cserébe viszont pontosan be kell konfigurálnod, hogy egy adott WWN-el rendelkező storage egység egy adott WWN-el rendelkező hoston hol/merre/melyik portokon mehet, és ha valami módosul a topológián, azt mindig precízen követni kell az FC (storage/switch/host) konfigurációban. (fun fact: régi SFP modulos FC hálózatból kiszedett optikai modul minden további nélkül ment ethernet modulként egy tp-link switchben, habár manapság ezen modulok is tartalmaznak firmware-t, és hát manapság a gyártók szeretik lockolni a saját moduljukat a saját eszközükkel)
Nagyon szép szerver! A raid kártya elnevezésen egy kicsit mosolyogtam, mert eljárt az idő a hardveres raid felett. CPU simán kiszámolja a parity számításokat. Tengeren túl JBOD-ozik az ember raid kártya nem képzelhető el. A legnagyobb JBOD szerver amit saját szemmel láttam 3,5 PB-os volt ZFS-el!
Ez attól is függ azért, hogy merre mozogsz. A sw RAID nem elvetendő dolog szerintem sem, kb 25 éve használom én is a Linux mdadm-et nagyon jó és valóban az alap RAID vezérlőket ki lehetett vele szépen váltani. Persze azért ha a felső szegmenst néztük sok memóriával, akkuval, akkor azért az sebességben és szolgáltatásban többet tudott, mint az mdadm, de KKV környezetbe tökéles volt/van az mdadm, szeretem. A ZFS valóban egy új liga, nagyon jó is, csak hát itt is kérdés mi kerül arra a szerverre. Linux-on, BSD-n faxa, PROXMOX-ot mással nem is érdemes használni, de ha például esxi-t szeretnék a szerverre rakni, akkor ott bizony hw RAID kontroller a jó út. Nem temetném én még pár évig a hw raid vezérlőket, nem mindenhol járható út az zfs. Feladathoz, eszközhöz, sw-hez kell választani a megoldást, mindkettőnek van helye.
Engem elkapott a ZFS. Többet nem is néztem vissza a normál raid-re adat tárolás terén. Itt is True NAS-ra kaptam rá. Hol pőre vason használom, hol VM-ben. Építettem olyan szervert is, ahol NVME meghajtókon volt ZFS raid Z. Ilyenkor True NAS-nak nem kell annyi memória, mert a RAM cashe-t át kell állítani csak meta data tárolásra, ami egy paranccsal érhető el CLI-ben. Eléggé kőkori megoldás, de NVME olyan gyors, hogy kiegészítő RAM cashe-re nincs szükség.
Nem tudom, milyen adatokat tárolnak egy 3,5PB-s ZFS tárolón, de azért én nem lennék nyugodt, ha egy szerveren múlna minden adat (még ha a diszkek között van is redundancia).. Elég egy megpukkanó tápegység, és máris kész a baj, ráadásul a JBODokat SAS/FC backpane-en kötik össze, aminek az áteresztőképessége egy pont felett limitált, pont úgy, ahogy a CPU/memória/networking is. A jobb út JBOD-al szerintem pl. egy CEPH alapú tároló, amit szintén nem használsz vmware alatt, de kvm+librbd kombóval simán, és ott minden egyes bővítés azt jelenti, hogy nem vertikálisan skálázol (azonos kontroller keresztmetszed, de a diszkek nőnek) hanem horizontálisan, azaz minden betett diszk erőforrás (új szerver+ egy-két JBOD rákötve) újabb CPU/RAM/network erőforrás is bekerül a rendszerbe. Építettem ilyenből 1+PB-s tárolókat, és ha jól van méretezve, akkor eszeveszett sebességekre képes a cucc 🤭
Mindkettőnek megvan a maga helye és meg is lesz még jó darabig. Egyébként mi is szeretjük az ZFS-t mert ( bár sajnos jó néhány esetben nem lehet) de ha lehet legalább jó drágán lehet menteni. Persze a "sima" RAID sem olcsó de egyszerűbb, nagyobb az esély. Legyen biztonsági mentésed. 3,5PB adatmentése több 10 milliós nagyságrend lenne, gyaníthatóan hónapokig tartana. Még csak 1PB könyéki adatmentésünk sem volt 100TB nagyságrendű igen (hagyományos RAID) az is 3 millió Ft volt és nem volt benne hardware hibás disk, úgy még drágább lett volna. Vigyázzatok az adatokra!
9 месяцев назад+2
Köszönjük a videót és a betinkintést! Egyetlen kis észrevétel, a mikrofon elhelyezése lehetett volna szerencsésebb is, de majd legközelebb jobb lesz 😉😉 Nyílván voltak fontosabb és más szempontok, ami miatt így lett feltéve a port, nem kötözködésből írom, csak tanácsként, mert voltak jóval halkabb részek Tibi mondandójánál. 🙂
Amúgy teljesen igazad van! Félig berúgni kidobott pénz! 💸 Vagy többet, vagy kevesebbet kellene inni! Na ez is egy digitális probléma, 1, vagy 0 értékkel!
Kár hogy szoftveres támogatásuk nincs a PCIE X16-nak amit biztosan tud még VGA esetén is az a PCIE X8 + X1 = X16 / busz. Mivel CF / SLI driver tudná csak és kizárólag az X16 lehetőséget használni. Illetve néhány SATA / SCSI kártya (integrált két chipszet van egy CHIP tokozásban) megy M.2 átalakító (minden M.2.-nek van saját chipje amiről meghajtás megy) mivel ezekhez van támogatás. Még a dupla GPU VGA-ák kapnak ilyen támogatást hogy PCIE X16 viszont CF / SLI esetén HDMI hang le kell mondani mert vissza vált X8 + X1-be mert a VGA hangkártyája csak X1-ben aktiválható. Mérnöki sorscsapás a PCIE szabványok.
Kicsomagolást soha nem csinálok az alaplap felett. Egyszer bele ejtettem egy hdd-t egy kurva drága szerverbe, amitől tönkrement az alaplap. De az az igazság, hogy beszélgetni sem szoktam, ha ilyen alkatrészekkel dolgozom. Félős vagyok. Ja és a paneleket soha nem érintem meg a lapjukon. Szikra okozta károm is volt már.
@@kernel_panik : Az is igaz. De az a két hiba azt okozta nekem, hogy utána egy hónapig ingyen dolgoztam. :)
9 месяцев назад+1
Asus "szerver"? Vettem én is hármat (az akkori társam unszolására) is 2005-ben. Eltettem örök mementónak, hogy ilyen baromságot ne csináljak az életben többet.
Ami biztosan kimaradt:
Nem beszéltünk a Management Modulról, pedig szoktunk :) A korábbi szerverek csak management funkciókkal rendelkeztek alapból (be, kikapcsolás, szenzorok, log, alert), ahhoz hogy KVM (Keyboard, Video, Mouse) átirányítás is legyen egy KVM modult külön meg kellett vásárolni (igaz alig volt drágább mint netto 10e Ft). Ebben a konfigurációban ez már szériatartozék (nem is vehető ki, nem egy külön modul, az alaplap szervers része), és az ASUS ASMB11-IKVM-nek hívja.
Akad egy elszólás is (lehet, hogy több is, egy biztosan)
25:33 előtt taglaljuk, hogy ebbe a szerverbe csak SATA és NVMe eszköz tehető a SAS-hoz HBA kell majd gyorsan megismétlem, hogy SAS és NVMe megy benne alapból ami helyesen SATA NVMe lenne. Bocs.
Jó volt látni, nagyjából hol tart ma a szervervilág! ❤
Köszönöm!
Én meg köszönöm a visszajelzést!
Jók ezek a videók.Még a laikusok számára is,akik csak felületes informatikai tudással rendelkeznek :)
Öröm nézni amikor a profizmust sugározni kívánó szerver szaki műszálas pulóverben a bolyhos műanyag padlószőnyegen mindenféle ESD védelem nélkül turkál puszta kézzel egy sokezer € értékű szerverben :)
Köszönjük észrevételedet. A profizmust sosem akartuk sugározni, most sem. Bár hajszál pontosan nem így szereljük össze a szervereket amikor éppen nem forog a kamera, de ez mégis közelebb áll a valósághoz mint az állig beöltözött ESD kesztyűs "szaki" . Bármit eljátszhattunk volna a a videó kedvéért, nem tettük. Mi inkább meg akartuk mutatni azoknak akik sosem láttak ilyet, miből áll össze egy szerver, és hogyan kell - ha nem is nem tankönyvbe illően - de összeszerelni. 32(!) év alatt összeszereltünk már úgy 500-1000 szervert (kisebbet, nagyobbat, olcsóbbat és ennél drágábbat is) a végeredmény pedig minket igazol. Minden szerverünk tette/teszi a dolgát, működik. Megkárosítani senkit nem fogunk. Kell ennél több?
Csikó koromban mikor még szervizes voltam, pár száz gépet biztosan összeraktam és soha nem volt ebből probléma.
@@tibcsy2010 Ráadásul úgy is ti szervizelitek garanciában, szóval ha baja lenne hozzátok kerül vissza. ;) :)
@@tibcsy2010 Nem állig beöltözés meg kesztyű kell, hanem egy leföldelt konduktív gumiborítás az asztalra meg egy csuklópánt. A videóban is látszik hogy a csomagoláson is fel van tüntetve, hogy ESD érzékeny alkatrész. De biztos a gyártó se ért hozzá. JóvanazúgyⒸ
A foglalat az FC kártyán SFP+ lesz (small form-factor pluggable enhanced), ez a fizikai (első) réteg az OSI modellben... Az Ethernet, és az FC a második réteg, bármelyik képes használni az alatta lévő réteg különféle fizikai megvalósításait, így az SFP+-t is, szóval attól, hogy valami SFP+, még mehet rajta FC vagy Ethernet. A kettő között amúgy a fő különbség, hogy az FC loop free, non blocking hálózatra épül, azaz nem tart fenn egy dinamikus MAC-port összerendelős táblát, és nem tudsz hurkot csinálni, cserébe viszont pontosan be kell konfigurálnod, hogy egy adott WWN-el rendelkező storage egység egy adott WWN-el rendelkező hoston hol/merre/melyik portokon mehet, és ha valami módosul a topológián, azt mindig precízen követni kell az FC (storage/switch/host) konfigurációban. (fun fact: régi SFP modulos FC hálózatból kiszedett optikai modul minden további nélkül ment ethernet modulként egy tp-link switchben, habár manapság ezen modulok is tartalmaznak firmware-t, és hát manapság a gyártók szeretik lockolni a saját moduljukat a saját eszközükkel)
Ez rövid és kimerítő volt :) mindenki nevében mi is köszönjük az összefoglalót.
Nagyon szép szerver! A raid kártya elnevezésen egy kicsit mosolyogtam, mert eljárt az idő a hardveres raid felett. CPU simán kiszámolja a parity számításokat. Tengeren túl JBOD-ozik az ember raid kártya nem képzelhető el. A legnagyobb JBOD szerver amit saját szemmel láttam 3,5 PB-os volt ZFS-el!
Ez attól is függ azért, hogy merre mozogsz. A sw RAID nem elvetendő dolog szerintem sem, kb 25 éve használom én is a Linux mdadm-et nagyon jó és valóban az alap RAID vezérlőket ki lehetett vele szépen váltani. Persze azért ha a felső szegmenst néztük sok memóriával, akkuval, akkor azért az sebességben és szolgáltatásban többet tudott, mint az mdadm, de KKV környezetbe tökéles volt/van az mdadm, szeretem.
A ZFS valóban egy új liga, nagyon jó is, csak hát itt is kérdés mi kerül arra a szerverre. Linux-on, BSD-n faxa, PROXMOX-ot mással nem is érdemes használni, de ha például esxi-t szeretnék a szerverre rakni, akkor ott bizony hw RAID kontroller a jó út. Nem temetném én még pár évig a hw raid vezérlőket, nem mindenhol járható út az zfs.
Feladathoz, eszközhöz, sw-hez kell választani a megoldást, mindkettőnek van helye.
Engem elkapott a ZFS. Többet nem is néztem vissza a normál raid-re adat tárolás terén. Itt is True NAS-ra kaptam rá. Hol pőre vason használom, hol VM-ben.
Építettem olyan szervert is, ahol NVME meghajtókon volt ZFS raid Z. Ilyenkor True NAS-nak nem kell annyi memória, mert a RAM cashe-t át kell állítani csak meta data tárolásra, ami egy paranccsal érhető el CLI-ben. Eléggé kőkori megoldás, de NVME olyan gyors, hogy kiegészítő RAM cashe-re nincs szükség.
Nem tudom, milyen adatokat tárolnak egy 3,5PB-s ZFS tárolón, de azért én nem lennék nyugodt, ha egy szerveren múlna minden adat (még ha a diszkek között van is redundancia).. Elég egy megpukkanó tápegység, és máris kész a baj, ráadásul a JBODokat SAS/FC backpane-en kötik össze, aminek az áteresztőképessége egy pont felett limitált, pont úgy, ahogy a CPU/memória/networking is. A jobb út JBOD-al szerintem pl. egy CEPH alapú tároló, amit szintén nem használsz vmware alatt, de kvm+librbd kombóval simán, és ott minden egyes bővítés azt jelenti, hogy nem vertikálisan skálázol (azonos kontroller keresztmetszed, de a diszkek nőnek) hanem horizontálisan, azaz minden betett diszk erőforrás (új szerver+ egy-két JBOD rákötve) újabb CPU/RAM/network erőforrás is bekerül a rendszerbe. Építettem ilyenből 1+PB-s tárolókat, és ha jól van méretezve, akkor eszeveszett sebességekre képes a cucc 🤭
Mindkettőnek megvan a maga helye és meg is lesz még jó darabig. Egyébként mi is szeretjük az ZFS-t mert ( bár sajnos jó néhány esetben nem lehet) de ha lehet legalább jó drágán lehet menteni. Persze a "sima" RAID sem olcsó de egyszerűbb, nagyobb az esély. Legyen biztonsági mentésed. 3,5PB adatmentése több 10 milliós nagyságrend lenne, gyaníthatóan hónapokig tartana. Még csak 1PB könyéki adatmentésünk sem volt 100TB nagyságrendű igen (hagyományos RAID) az is 3 millió Ft volt és nem volt benne hardware hibás disk, úgy még drágább lett volna. Vigyázzatok az adatokra!
Köszönjük a videót és a betinkintést!
Egyetlen kis észrevétel, a mikrofon elhelyezése lehetett volna szerencsésebb is, de majd legközelebb jobb lesz 😉😉
Nyílván voltak fontosabb és más szempontok, ami miatt így lett feltéve a port, nem kötözködésből írom, csak tanácsként, mert voltak jóval halkabb részek Tibi mondandójánál.
🙂
Én meg köszönöm a visszajelzést! Az elején belehallgattam ott még jó volt, aztán tény később nem ellenőriztem.
Királyság. Azt is megnézném, hogy hogyan, és milyen rendszer kerül rá.
Sajnos nem tudjuk, tippem szerint VmWare, átadás előtt teszteljük többek között VmWare-rel is a szerver.
Azt hiszem esxi, de ez nem biztos.
Amúgy teljesen igazad van!
Félig berúgni kidobott pénz! 💸
Vagy többet, vagy kevesebbet kellene inni!
Na ez is egy digitális probléma, 1, vagy 0 értékkel!
Kár hogy szoftveres támogatásuk nincs a PCIE X16-nak amit biztosan tud még VGA esetén is az a PCIE X8 + X1 = X16 / busz. Mivel CF / SLI driver tudná csak és kizárólag az X16 lehetőséget használni. Illetve néhány SATA / SCSI kártya (integrált két chipszet van egy CHIP tokozásban) megy M.2 átalakító (minden M.2.-nek van saját chipje amiről meghajtás megy) mivel ezekhez van támogatás. Még a dupla GPU VGA-ák kapnak ilyen támogatást hogy PCIE X16 viszont CF / SLI esetén HDMI hang le kell mondani mert vissza vált X8 + X1-be mert a VGA hangkártyája csak X1-ben aktiválható. Mérnöki sorscsapás a PCIE szabványok.
Hú, bakker, 55 percig nem pislogtam. 😁😁
Na, ebbe dugsz egy jó videókarit és máris kész az új vágó géped. Kicsit gyorsabb lesz, mint a mostani. ;)
Kicsomagolást soha nem csinálok az alaplap felett. Egyszer bele ejtettem egy hdd-t egy kurva drága szerverbe, amitől tönkrement az alaplap. De az az igazság, hogy beszélgetni sem szoktam, ha ilyen alkatrészekkel dolgozom. Félős vagyok. Ja és a paneleket soha nem érintem meg a lapjukon. Szikra okozta károm is volt már.
"A bátrak csak egyszer halnak meg, a félősek minden egyes nap." :D
@@kernel_panik : Az is igaz. De az a két hiba azt okozta nekem, hogy utána egy hónapig ingyen dolgoztam. :)
Asus "szerver"? Vettem én is hármat (az akkori társam unszolására) is 2005-ben. Eltettem örök mementónak, hogy ilyen baromságot ne csináljak az életben többet.
biztosan nem kkv-s környezetbe kerül.... nem gyenge... gondolom nem egy smb-t szuttyogtatnak rajt...hmmm...de megnézném, hogy hova kerül :)
Ilyen az álom munkahelyem...
A videó főszereplője nem is a szerver, hanem Lajos :XD
Fogadjunk, hogy ezt sem sorsolod ki😂😂
Fogadjunk, hogy tényleg nem. :D
@@kernel_panik És ha nyersz a lottón? XD