1) Кол-во процов, которые можно впихнуть в мать, зависит в первую очередь от процов, точнее от количества ног #BR0,#BR1,#BR2 и т.д. Максимум - 4 (PeniumPro,P2Xeon,P3Xeon), 2 ноги - p2,p3,Cel (mendochino) начиная от копера и до тулика второй ноги пока не найдено.
2) В матери должна должна быть поддержка SMP, в частности, должен стоять IOAPIC контроллер, резведены линии от него к процам, связь ног #BRx между процами, электрическое согласование host-шины (AGTL+) и ессно, поддержка всего это бивисом.
3) Добавлю - ссылка там же на "одного специалиста из хард департамента Интела", по меньшей мере, неубедительна: повторю ZZmey'а, никто, начиная с Коппермайнов, не сумел разыскать BR#1 на Celeron'ах (или кто-то узнал, да молчит в тряпочку? Сами-то в это верите?).
4) Кроме того, для двухпроцессорной матери не только желательна, но и необходима "симметричность" используемых процессоров, иначе, как правильно писал там же Lanthan, система становится нестабильной.
А может стоит попробовать пойти другим путем?
В своих рассуждениях я отталкивался от практики создания кластеров, которым наплевать на SMP - хоть два, хоть двести процессоров могут разбивать между собой выполнение задачи, был бы понятный протокол общения между узлами + соответствующая скорость обмена информацией.
Теперь сама "безумная идея" - давайте попробуем представить себе не двухпроцессорную, а двух-(или более) материнскую машину, где непосредственно матери общаются друг с другом на уровне более низком, чем протокол, я имею в виду уровень драйверов. Предположим, что мы сумели создать аппаратный канал обмена необходимой для разделения задач информацией между самими матерями таким образом, что одна видит другую в качестве устройства; в этом случае нам совершенно все равно, есть ли BR#1, IOAPIC, AGTL+ и т.п. - нам нужен только драйвер устройства.
Как связать? Хорошо бы по System Bus..., но невозможно (мы же говорим о Celeron'ах, и пытаемся уйти от SMP); между мостами в случае i8xx, IMHO, "хабовость" не даст. А может быть попробовать по PCI (естественно, с каким-то устройством согласования, поскольку "распоряжаться" шиной устройства могут и должны в ограниченных пределах)? Доводы "за":
а) не самая стремительная, но высокая пропускная способность шины;
б) наличие процедур согласования в самом стандарте PCI;
в) возможность эмуляции устройства каждой из матерей по отношению к другой;
г) возможность уйти от процедур SMP, т.к. каждый из процессоров "обслуживается" своим северным мостом;
д) наличие в ОС (в Виндах, к примеру) драйвера устройства "Computer", который надо только доработать;
е) неплохих и недорогих б/у MB сейчас "выше крыши", Cel-Tual все еще продаются (правда, только старших моделей и на уровне $50-$60, однако, есть);
ж) и т.п.
Вероятно, также придется что-то дописывать в BIOS'ах матерей (или вшивать дополнительные исполняемые модули), делать какое-то согласование по SMBus, но, согласитесь, возможно, что это реалистичнее поиска мифической ноги, которой, по всей видимости, нет...
Может быть эти мысли пока недостаточно структурированы (хотя у них есть и продолжение), но все же...
Что думаете, коллеги?
Если не считаете все высказанное полным бредом - готов представить свои скромные возможности в качестве лабораторной базы (есть 2 пары одинаковых матерей с работающими Cel-Tual, на i810 и на BX).
PS: Все вышесказанное относится, IMHO, не только к Cel/PIII, но и к системам на Cel/PIV (не поддерживающим многопроцессорность по определению) и AMD (не Opteron/AMD64).
Гдето я уже видел подобный прикол, кажется на сайте PowerLeap или ixbt. Это была PCI плата с сокетом для процессора, гнёздами для DIMM и кажется с видео.
При таком подходе, интереснее IMHO связывать по eternet-y
100 мегабит может и не всегда хватит, но и гигабитный уже стоит не очень дорого. Если гигабитка от Интела стоит полтинник, значит реалтек (уже объявлен, хотя реально я его не встречал) 20-25 по началу и далее со всеми остановками. Плюс наличие вылизанного софта для такой кластеризации.
За несоответствие действительности Вашим о ней представлениям администрация форума ответственности не несет.
2Lanthan
То был другой прикол (я видел то, о чем ты говоришь, продукция PowerLeap в обзоре, вроде бы, на Ферре) - это была VLB-карта
2rgt
Гигабит - одно из стандартных кластерных решений, я говорю несколько о другом, как ты понимаешь...
К тому же, хотя пропускная способность гигабитки и PCI практически не отличаются, общение-то разное - сколько в гиге резервируется служебки (10-20%!), сколько тратится на протокол, и пр., т.о. если взять сухой остаток, то PCI будет чуть ли не вдвое-вчетверо быстрее...
IMHO, гигабит - перебор. Быстро, но комп становится несбалансированным. Гигабит съест всю пропускную способность PCI и всем остальным дивайсам просто не хватит. Сам сталкивался с аналогичным при юзании ISA'шного SCSI-адаптера. Сканнер(сказевый) работает - ИСАшный момед и звуковуху отдыхают Или еще один пример: кто не знает сколько тактов шины съедают видяхи nVidia?
Аццкий ромбовод {:€
Я пока не волшебник - я только учусь! :-P
Так а я о чем? Система-то должна быть сбалансированной, или тогда уж и вправду лучше "домашние кластеры" на 100Mbit мастерить... Или ногу BR#1 на Копперах/туалатинах искать...
ivp!
Мне тут друг рассказывал, как один чувак просверливал дырки в Коппере, чтобы разлочить множитель. Говорят получилось, но это делать весьма рискованно. А если там внутри BR#1? Может и его тоже можно разлочить? А Целки в принципе на мультипроцессорность не способны А так хотелось бы.
Цитата:
а 100Mbit мастерить
Мало. 2х100МБит - в самый раз.
В догонку:
у меня К6-2+ есть. На нем можно мультипроцессорность сделать? Вроде нет
Аццкий ромбовод {:€
Я пока не волшебник - я только учусь! :-P
А если там внутри BR#1? Может и его тоже можно разлочить?
Ну да... А еще там, под камушком, спрятался Hyper-Treading с мегабайтным кэшем
Однако, если серьезно - я о чем и толкую: хошь на Целероне, хошь на K6-2+... И вообще, для предлагаемой схемы (общение через BIOS + драйвер) вовсе не обязательны ни одинаковые матери, ни камни, ни производители... :idea:
2All В Windows Server есть служба кластеров. Попытка настроить её закончилась у меня на втором компе где винда начала требовать общее устроиство диск (Не просто зашареная папка а именно устроиство). В работе эту службу я не видел но вроде она должна распределять нагрузку между всеми узлами кластера.
2Lanthan
Во-первых, извини :oops: , RTFM - даже в справке Мастдая написано, что для того типа кластера, который ты создавал, необходимо общее хранилище - в примитивном случае общий SCSI-диск, ну или какое-то "более настоящее"...
Во-вторых, какой Srv ты имеешь в виду? Дело в том, что в W2K3 Enterprise (и DataCenter, конечно) появился новый вид кластера, в котором у узлов может и не быть общего хранилища - используются как единое хранилище синхронизируемые части хранилищ каждого из узлов, которые, как сам понимаешь, можно уже и не на SCSI...
Некоторая проблема в том, что в отличие от других, отказоустойчвость такого кластера (N-1)/2, т.е. кластер из 2-х узлов - уже, в общем-то и не кластер...
Я такой кластер собирал, кстати, как раз из 2-х машин , маленько погонял, собственно, какая-то часть моей идеи и основана на экзерсисах с оным "подопытным"...
2ivp Как выглядит VLB я знаю Ну да это не по теме.
Кластер строил я на Win 2003 Enterprise хотел их через SCSI шину связать только без общего SCSI диска (Ака FibreChannel ). Идея была дописать сетевой драйвер чтоб весь траффик меж компами гнать поверх SCSI (бысто и сердито получилось бы) а все остальные проблеммы по балансу нагрузки свалить на виндовс. Но если есть возможность без физически общего диска сделать кластер то я почитаю хелп винды и попробую ещё раз. Спасибо за помощь.
2Lanthan
Не стоит благодарности, всегда рад помочь: свои люди - сочтемся... Кстати (у ... мысли сходятся) - я тоже о соединении через SCSI думаю, но как об одном из вариантов своей идеи...
2ALL
Кажется, тема постепенно превращается в "Современные кластерные системы и перспективы их развития" - коллеги, давайте, все-таки, о том, что в топике, please...
Хочу уточнить один нюянс:
В процессе инициализации PCI во все мосты прописываются номера их собственной и следующих за ним шин. Можно ли северный мост заставить работать не как Host Bus с номером 0 а как обычный мост? Тогда можно будет соединить PCI-шины парочки мамок PCI-PCI мостом, а топология шин будет определятся одной из них.
Вот-вот, именно здесь-то собака и порылась - никак не могу разыскать, но помню, что натыкался где-то на подобную инфу: такое имеет право на существование!.. Почти ничего не помню, но применялась какая-то согласующая "зверушка", которая "обманывала" мосты, распоряжаясь ими "по щучьему веленью, по своему хотенью".
Такое применяется везде, где надо в один pci cслот воткнуть несколько разных с точки зрения Vendor ID/ Dev ID устройств.
Наиболее распространенный пример - SB Audigy c IEEE 1394 на борту
За несоответствие действительности Вашим о ней представлениям администрация форума ответственности не несет.
19 Фев 2004 - 14:25 Unknown BIOS
Также кажется PCI мёртв до тех пор пока BIOS через регистры северного моста не начнёт её инициализацию. Сам биос я практически никогда не раскапывал до такой степени и хочу у вас спросить действительно ли он перед тем как передать управление биосу видухи пишет чтото в мост?
2Lanthan
Дружище, как успехи в нелегком деле кластеризации постсоветского пространства?
Я тут что подумал - а даже при создании кластера по схеме с общим хранилищем Мастдая можно попробовать обмануть: берем два каких-нибудь наидешевейших SCSI-адаптера типа Tekram DC-315/315U, на ихние целых 25MB/s вешаем, например, CD-RW, который и объявляем благополучно общим хранилищем, а затем, если надо, реально через управляющую (вторую/закрытую/быструю) сеть запускаем репликацию дисков на узлах, как идея?
Я человека знаю, продающего адаптеры Adaptec 19160 по 600 руб. за штуку. Сам взял один адаптер. Рулеззззз. Текрам отдыахет. Скоротсь - до 160МБайт/сек, если не ошибаюсь.
Аццкий ромбовод {:€
Я пока не волшебник - я только учусь! :-P
Я человека знаю, продающего адаптеры Adaptec 19160 по 600 руб. за штуку. Сам взял один адаптер. Рулеззззз. Текрам отдыахет. Скоротсь - до 160МБайт/сек, если не ошибаюсь.
Млин, я бы знал такого человека - взял бы по такой-то цене для дела и не штуку...
Для начала хотелось бы определить существующее положение дел:
1. Цитата из ZZmey в rom.by/phpBB2/viewtopic.php?t=152&postdays=0&postorder=asc&sta...
3) Добавлю - ссылка там же на "одного специалиста из хард департамента Интела", по меньшей мере, неубедительна: повторю ZZmey'а, никто, начиная с Коппермайнов, не сумел разыскать BR#1 на Celeron'ах (или кто-то узнал, да молчит в тряпочку? Сами-то в это верите?).
4) Кроме того, для двухпроцессорной матери не только желательна, но и необходима "симметричность" используемых процессоров, иначе, как правильно писал там же Lanthan, система становится нестабильной.
А может стоит попробовать пойти другим путем?
В своих рассуждениях я отталкивался от практики создания кластеров, которым наплевать на SMP - хоть два, хоть двести процессоров могут разбивать между собой выполнение задачи, был бы понятный протокол общения между узлами + соответствующая скорость обмена информацией.
Теперь сама "безумная идея" - давайте попробуем представить себе не двухпроцессорную, а двух-(или более) материнскую машину, где непосредственно матери общаются друг с другом на уровне более низком, чем протокол, я имею в виду уровень драйверов. Предположим, что мы сумели создать аппаратный канал обмена необходимой для разделения задач информацией между самими матерями таким образом, что одна видит другую в качестве устройства; в этом случае нам совершенно все равно, есть ли BR#1, IOAPIC, AGTL+ и т.п. - нам нужен только драйвер устройства.
Как связать? Хорошо бы по System Bus..., но невозможно (мы же говорим о Celeron'ах, и пытаемся уйти от SMP); между мостами в случае i8xx, IMHO, "хабовость" не даст. А может быть попробовать по PCI (естественно, с каким-то устройством согласования, поскольку "распоряжаться" шиной устройства могут и должны в ограниченных пределах)? Доводы "за":
а) не самая стремительная, но высокая пропускная способность шины;
б) наличие процедур согласования в самом стандарте PCI;
в) возможность эмуляции устройства каждой из матерей по отношению к другой;
г) возможность уйти от процедур SMP, т.к. каждый из процессоров "обслуживается" своим северным мостом;
д) наличие в ОС (в Виндах, к примеру) драйвера устройства "Computer", который надо только доработать;
е) неплохих и недорогих б/у MB сейчас "выше крыши", Cel-Tual все еще продаются (правда, только старших моделей и на уровне $50-$60, однако, есть);
ж) и т.п.
Вероятно, также придется что-то дописывать в BIOS'ах матерей (или вшивать дополнительные исполняемые модули), делать какое-то согласование по SMBus, но, согласитесь, возможно, что это реалистичнее поиска мифической ноги, которой, по всей видимости, нет...
Может быть эти мысли пока недостаточно структурированы (хотя у них есть и продолжение), но все же...
Что думаете, коллеги?
Если не считаете все высказанное полным бредом - готов представить свои скромные возможности в качестве лабораторной базы (есть 2 пары одинаковых матерей с работающими Cel-Tual, на i810 и на BX).
PS: Все вышесказанное относится, IMHO, не только к Cel/PIII, но и к системам на Cel/PIV (не поддерживающим многопроцессорность по определению) и AMD (не Opteron/AMD64).
- Ситчик веселенький есть?..
- Приезжайте, обхохочетесь!..
Решил взять себе на убой двухпроцессорную мать (в течении 2х недель) ... буду мучать.
А то шибко интересно получается у вас тут
Так ведь с двухпроцессорными то у нас как раз пока ни фига не выходит
- Ситчик веселенький есть?..
- Приезжайте, обхохочетесь!..
Тогда просто прибью да и все .... просто охота приемистую машину
Хотел было ответить, да не успел... Ухожу из эфира... Всем bye!!!
- Ситчик веселенький есть?..
- Приезжайте, обхохочетесь!..
Гдето я уже видел подобный прикол, кажется на сайте PowerLeap или ixbt. Это была PCI плата с сокетом для процессора, гнёздами для DIMM и кажется с видео.
При таком подходе, интереснее IMHO связывать по eternet-y
100 мегабит может и не всегда хватит, но и гигабитный уже стоит не очень дорого. Если гигабитка от Интела стоит полтинник, значит реалтек (уже объявлен, хотя реально я его не встречал) 20-25 по началу и далее со всеми остановками. Плюс наличие вылизанного софта для такой кластеризации.
За несоответствие действительности Вашим о ней представлениям администрация форума ответственности не несет.
2Lanthan
То был другой прикол (я видел то, о чем ты говоришь, продукция PowerLeap в обзоре, вроде бы, на Ферре) - это была VLB-карта
2rgt
Гигабит - одно из стандартных кластерных решений, я говорю несколько о другом, как ты понимаешь...
К тому же, хотя пропускная способность гигабитки и PCI практически не отличаются, общение-то разное - сколько в гиге резервируется служебки (10-20%!), сколько тратится на протокол, и пр., т.о. если взять сухой остаток, то PCI будет чуть ли не вдвое-вчетверо быстрее...
- Ситчик веселенький есть?..
- Приезжайте, обхохочетесь!..
IMHO, гигабит - перебор. Быстро, но комп становится несбалансированным. Гигабит съест всю пропускную способность PCI и всем остальным дивайсам просто не хватит. Сам сталкивался с аналогичным при юзании ISA'шного SCSI-адаптера. Сканнер(сказевый) работает - ИСАшный момед и звуковуху отдыхают Или еще один пример: кто не знает сколько тактов шины съедают видяхи nVidia?
Аццкий ромбовод {:€
Я пока не волшебник - я только учусь! :-P
Так а я о чем? Система-то должна быть сбалансированной, или тогда уж и вправду лучше "домашние кластеры" на 100Mbit мастерить... Или ногу BR#1 на Копперах/туалатинах искать...
- Ситчик веселенький есть?..
- Приезжайте, обхохочетесь!..
ivp!
Мне тут друг рассказывал, как один чувак просверливал дырки в Коппере, чтобы разлочить множитель. Говорят получилось, но это делать весьма рискованно. А если там внутри BR#1? Может и его тоже можно разлочить? А Целки в принципе на мультипроцессорность не способны А так хотелось бы.
Мало. 2х100МБит - в самый раз.
В догонку:
у меня К6-2+ есть. На нем можно мультипроцессорность сделать? Вроде нет
Аццкий ромбовод {:€
Я пока не волшебник - я только учусь! :-P
Ну да... А еще там, под камушком, спрятался Hyper-Treading с мегабайтным кэшем
Однако, если серьезно - я о чем и толкую: хошь на Целероне, хошь на K6-2+... И вообще, для предлагаемой схемы (общение через BIOS + драйвер) вовсе не обязательны ни одинаковые матери, ни камни, ни производители... :idea:
- Ситчик веселенький есть?..
- Приезжайте, обхохочетесь!..
2ivp Хм может и VLB я уже и не помню
2All В Windows Server есть служба кластеров. Попытка настроить её закончилась у меня на втором компе где винда начала требовать общее устроиство диск (Не просто зашареная папка а именно устроиство). В работе эту службу я не видел но вроде она должна распределять нагрузку между всеми узлами кластера.
Да, он выглядит как ISA с куском PCI, обычно чуть покороче нормального PCI и коричневого цвета. Такое на 486 встречается.
Аццкий ромбовод {:€
Я пока не волшебник - я только учусь! :-P
2Lanthan
Во-первых, извини :oops: , RTFM - даже в справке Мастдая написано, что для того типа кластера, который ты создавал, необходимо общее хранилище - в примитивном случае общий SCSI-диск, ну или какое-то "более настоящее"...
Во-вторых, какой Srv ты имеешь в виду? Дело в том, что в W2K3 Enterprise (и DataCenter, конечно) появился новый вид кластера, в котором у узлов может и не быть общего хранилища - используются как единое хранилище синхронизируемые части хранилищ каждого из узлов, которые, как сам понимаешь, можно уже и не на SCSI...
Некоторая проблема в том, что в отличие от других, отказоустойчвость такого кластера (N-1)/2, т.е. кластер из 2-х узлов - уже, в общем-то и не кластер...
Я такой кластер собирал, кстати, как раз из 2-х машин , маленько погонял, собственно, какая-то часть моей идеи и основана на экзерсисах с оным "подопытным"...
- Ситчик веселенький есть?..
- Приезжайте, обхохочетесь!..
2ivp Как выглядит VLB я знаю Ну да это не по теме.
Кластер строил я на Win 2003 Enterprise хотел их через SCSI шину связать только без общего SCSI диска (Ака FibreChannel ). Идея была дописать сетевой драйвер чтоб весь траффик меж компами гнать поверх SCSI (бысто и сердито получилось бы) а все остальные проблеммы по балансу нагрузки свалить на виндовс. Но если есть возможность без физически общего диска сделать кластер то я почитаю хелп винды и попробую ещё раз. Спасибо за помощь.
2Lanthan
Не стоит благодарности, всегда рад помочь: свои люди - сочтемся... Кстати (у ... мысли сходятся) - я тоже о соединении через SCSI думаю, но как об одном из вариантов своей идеи...
2ALL
Кажется, тема постепенно превращается в "Современные кластерные системы и перспективы их развития" - коллеги, давайте, все-таки, о том, что в топике, please...
- Ситчик веселенький есть?..
- Приезжайте, обхохочетесь!..
Хочу уточнить один нюянс:
В процессе инициализации PCI во все мосты прописываются номера их собственной и следующих за ним шин. Можно ли северный мост заставить работать не как Host Bus с номером 0 а как обычный мост? Тогда можно будет соединить PCI-шины парочки мамок PCI-PCI мостом, а топология шин будет определятся одной из них.
Вот-вот, именно здесь-то собака и порылась - никак не могу разыскать, но помню, что натыкался где-то на подобную инфу: такое имеет право на существование!.. Почти ничего не помню, но применялась какая-то согласующая "зверушка", которая "обманывала" мосты, распоряжаясь ими "по щучьему веленью, по своему хотенью".
- Ситчик веселенький есть?..
- Приезжайте, обхохочетесь!..
Интересная мысль. Мне нравится.
А вот такое было в стыковочных станциях и серверах.
Аццкий ромбовод {:€
Я пока не волшебник - я только учусь! :-P
Такое применяется везде, где надо в один pci cслот воткнуть несколько разных с точки зрения Vendor ID/ Dev ID устройств.
Наиболее распространенный пример - SB Audigy c IEEE 1394 на борту
За несоответствие действительности Вашим о ней представлениям администрация форума ответственности не несет.
Также кажется PCI мёртв до тех пор пока BIOS через регистры северного моста не начнёт её инициализацию. Сам биос я практически никогда не раскапывал до такой степени и хочу у вас спросить действительно ли он перед тем как передать управление биосу видухи пишет чтото в мост?
ИМХО, нет. Ничего не пишет в мост.
Аццкий ромбовод {:€
Я пока не волшебник - я только учусь! :-P
2Lanthan
Дружище, как успехи в нелегком деле кластеризации постсоветского пространства?
Я тут что подумал - а даже при создании кластера по схеме с общим хранилищем Мастдая можно попробовать обмануть: берем два каких-нибудь наидешевейших SCSI-адаптера типа Tekram DC-315/315U, на ихние целых 25MB/s вешаем, например, CD-RW, который и объявляем благополучно общим хранилищем, а затем, если надо, реально через управляющую (вторую/закрытую/быструю) сеть запускаем репликацию дисков на узлах, как идея?
- Ситчик веселенький есть?..
- Приезжайте, обхохочетесь!..
Я человека знаю, продающего адаптеры Adaptec 19160 по 600 руб. за штуку. Сам взял один адаптер. Рулеззззз. Текрам отдыахет. Скоротсь - до 160МБайт/сек, если не ошибаюсь.
Аццкий ромбовод {:€
Я пока не волшебник - я только учусь! :-P
- Ситчик веселенький есть?..
- Приезжайте, обхохочетесь!..
drklord@yandex.ru
Darl_L0rd
Скажешь, что нужна скази. Откуда узнал? или оверклокерс.ру или all-designers.ru
Аццкий ромбовод {:€
Я пока не волшебник - я только учусь! :-P
Thanks! Уже намылил вопрос...
- Ситчик веселенький есть?..
- Приезжайте, обхохочетесь!..
А 2940 у него нету? Мне нужно в основном для NARROW устройств, и желательно именно его, чтобы с драйверами не заморачиваться.
За несоответствие действительности Вашим о ней представлениям администрация форума ответственности не несет.
rgt
19160 поддерживает Narrow-устройства. Посмотри на сайте Adaptec.
Аццкий ромбовод {:€
Я пока не волшебник - я только учусь! :-P