Нямам вземане даване с такива неща от години, та нещата сега сигурно са различни, но преди да си сменя попрището, имах доста вземане-даване с HA клъстери.
Това:
След като правих една гора калкулации, започнах да отхвърлям варианта с оптични връзки към SAN-а, защото Fibre Channel картите са над 2000 лв. и освен това повечето SAN-ове имат 4 FC порта, и без някакъв разширител ще си спрем възможностите за добавяне на съвъри.
Предполагам имаш предвид storage сървърите. Идеята не е да правиш 4 FC loop-а между сториджа и 4-те сървъра, това е малко...екзотична организация на нещата. Обикновено тези неща се решават със FC суичове, но пък те са скъпички. Иначе чувал съм че 10gbps етернета убивал FC в последно време.
1. Дали такъв тип връзка е достатъчна за работа с отдалечения storage - вероятно да, защото поне хипотетично скоростта е по-висока от тази на оптичните влакна, но са по-бавни по отношение на I/O. Би следвало обаче да няма проблем, при положение, че доста хора реализират подобни схеми и през гигабитови карти.
Мисля, че сравнително рядко ще ти се налага да удряш ограниченията на bandwidth-а така или иначе, така че това няма огромно значение. По мое време масово се ползваше 4gbps FC, сега май е масово 8gbps. Разликата не е чак толкова огромна предполагам (прецизни сметки обаче не съм правил, при етернет на физическия слой хартисват по-малко битове за error correction, отделно трябва да се направят сметките колко хартисва за протоколните хедъри, предполагам при варианта с iscsi, нещата позагрубяват, fcoe може би е далеч по-добре).
Тъй като SAN-овете имат 2 SFP 10Gbs, а аз мисля да включа първоначално 4 сървъра, ще са необходими и 10 гигабитови суичове. И понеже говорим за highavailability, очевидно че трябва да имам поне 2 суича. Тук пак става въпрос за цени. Дали ме устройва да ползвам неуправлявани 8 портови Realtek, които са на доста приемливи цени или трябва да се търси някакъв друг вариант.
Не, дай малко повече пари за умни суичове. Защото ще можеш да си правиш от "хубавия" ethernet bonding (802.3ad). Цицковските суичове имаха някаква наклонност да го позволяват да става между два отделни суича и така се постига оптимума - хем link aggregation, хем high-availability наклонности.
И още неясноти - SFP картите като обикновени мрежови карти ли се настройват и двата им порта да имат един и същи адрес, та ако ми се събори единия суич, системата да продължи да работи през другия - същото важи и за SAN-а.
Предполагам за MAC адрес иде реч - това зависи от bonding режима. При 802.3ad доколкото помня имаха един и същ MAC адрес (откъдето е важно суича да знае да говори протокола), но може и да греша. При FC, нещата са малко по-различни, там не може (или поне нямам спомени да може) да се агрегират интерфейси. Имаше няколко варианта за multipathing-а, но в общият случай най-често се виждат като различни пътища и като отпадне единия път, другия става активен, а device mapper-а се грижи това да става безболезнено (обаче никак не е безболезнено, о неееее, много често сме дебъгвали reset-и в loop-а и изпопадали пътища, бяха грозни работи).
Мисля, че софтуерната страна на нещата е къде по-комплексна в крайна сметка обаче.