Объединить компьютеры лицея в многомашинный комплекс
#1
Опубликовано 11 Октябрь 2008 - 15:59
#2
Опубликовано 11 Октябрь 2008 - 17:07
Аве Диктаторе! Ртуте буде наше!
#3
Опубликовано 11 Октябрь 2008 - 17:41
blender не использует MPI, у него свои методы, насколько я знаю. В принципе организовать можно, но я этим заниматься не буду, по крайней мере в ближайшее время.Если я все првильно понял, то 105 это тоже очень пригодится если так, то рендерить 3d будет гораздо быстрее... Или я не в теме?
#4
Опубликовано 11 Октябрь 2008 - 19:30
Вторая проблема: многопроцессорный расчёт без эффективной поддержки MPI приведёт только к лишней трате электричества и заторможенности компьютеров в классах. Есть ли у нас программы, расчитанные на MPI? Есть ли способные такие программы писать (что, безусловно, порадовало бы)?
Третья проблема: объединять производительные процессоры надо при помощи скоростных каналов, Гбит/с в этом деле - ерунда. Опять прикинем: через процессор проходят десятки ГБайт/с, а траффик LAN - одна восьмая Гбайт/с. Ну и топология сети, коммутаторы... Такое годится только в случае модульного деления задачи или же при работе с долго считающими функциями, т.е. когда траффик данных небольшой.
Четвёртая проблема: как понимаю, для хорошей работы вычислительной сети нужно, чтобы системы были одинаковыми или просто подходящими друг для друга, т.е. мешать в ней разные процессоры и даже процессоры с разными частотами в общем случае плохо.
Пятая проблема: ECC не просто так придумали, те редкие ошибки в работе электроники, которые не мешают при работе с интернетом и мультимедиа, в иных вычислительных задачах приводят к развалу решения. Впрочем, для учебных целей персоналки сойдут, пересчитаем, если что.
Резюме: сделать можно, чтоб было для энтузиастов, но лучше ограничиться одинаковыми компьютерами 104-й и сервер с коммутаторами там же должны стоять, плюс ПО для программистов и объявление.
...Мм-м-м... не дадут ли мне в нос?..
P.S. Интересующимся: www.clearspeed.com, архитектура последовательная, увы, но всё-таки...
#5
Опубликовано 11 Октябрь 2008 - 20:57
Это не пиковая, я на тесте linpack. Хотя она не должна разительно отличаться. Возможно жело в том, что там ядро с кучей проверок на переполнение буферов и т.п. И потом я ограничил linpack всего 256 метрами оперативки. Не хочу перегружать сервер, который я использовал только потому, что могу управлять им удаленно.Лёш, у тебя явно что-то не так. Сам мало в этом понимаю, но, как читал, от не новейшего Оптерона можно ожидать до 7-8 ГФлопс. Причём, опять-таки как понимаю, устанавливается пиковая производительность очень просто: частота помноженная на кол-во FPU, а реальная может быть в 2-4 раза меньше.
Полностью соглсен. Но все таки речь не идет о промышленном применении. Прежде всего просто поиграться и пощупать. Если у кого-то будет хорошо распаралеливаемая программа - пусть считает.Вторая проблема: многопроцессорный расчёт без эффективной поддержки MPI приведёт только к лишней трате электричества и заторможенности компьютеров в классах. Есть ли у нас программы, расчитанные на MPI? Есть ли способные такие программы писать (что, безусловно, порадовало бы)?
Я не ставлю задачи собрать терафопный вычислитель. Только поиграться немного. Возможно один-два диплома вдруг смогут получить от использования этой фишки что-то. А потом, если вдруг присичит, это место, где программу можно отладить, чтобы потом запустить на счет на нормальном суперкомпьютере.Третья проблема: объединять производительные процессоры надо при помощи скоростных каналов, Гбит/с в этом деле - ерунда. Опять прикинем: через процессор проходят десятки ГБайт/с, а траффик LAN - одна восьмая Гбайт/с. Ну и топология сети, коммутаторы... Такое годится только в случае модульного деления задачи или же при работе с долго считающими функциями, т.е. когда траффик данных небольшой.
Четвёртая проблема: как понимаю, для хорошей работы вычислительной сети нужно, чтобы системы были одинаковыми или просто подходящими друг для друга, т.е. мешать в ней разные процессоры и даже процессоры с разными частотами в общем случае плохо.
Пятая проблема: ECC не просто так придумали, те редкие ошибки в работе электроники, которые не мешают при работе с интернетом и мультимедиа, в иных вычислительных задачах приводят к развалу решения. Впрочем, для учебных целей персоналки сойдут, пересчитаем, если что.
Резюме: сделать можно, чтоб было для энтузиастов, но лучше ограничиться одинаковыми компьютерами 104-й и сервер с коммутаторами там же должны стоять, плюс ПО для программистов и объявление.
...Мм-м-м... не дадут ли мне в нос?..
P.S. Интересующимся: www.clearspeed.com, архитектура последовательная, увы, но всё-таки...
А сеть пока всего сотня. :-)
#6
Опубликовано 11 Октябрь 2008 - 21:03
#7
Опубликовано 12 Октябрь 2008 - 7:05
Не сотня машин, а 100 мегабит. :-)Да, Лёш, я о той же цели. Поэтому и сотни не нужно, нужно десяток машинок, которые просто хорошо связали.
Хотя повесить на гигабитный свич можно, но я не уверен, что в компьютерах стоят гигабитные карточки.
#8
Опубликовано 13 Октябрь 2008 - 0:49
Изменено: Мишаня, 13 Октябрь 2008 - 4:43
#9
Опубликовано 13 Октябрь 2008 - 8:15
Если найдутся заинтересованные программисты -- безусловно имеет смысл.Это на полном серьёзе. В этом году вряд ли, а вот в следующем только так. Как думаешь, имеет смысл?
С нами сила Алхазашвили!
#10
Опубликовано 13 Октябрь 2008 - 9:25
Я в 11 уже поздно. И веду я у веберов. Да и рассказывать про MPI я пока не готов, сам не разобрался, только записался на спецкурс. Обещали, что дадут поковыряться на blue gene и на "Чебышеве".Ух какая интересная тема!
Лёш, а ты в 11м классе ведёшь? Там на поток найдётся 5 человек, которым было бы интересно про параллельные вычисления послушать?
Я, наверное, узкой компании заинтересованных лиц мог бы что-нибудь эдакое про MPI, MapReduce, Hadoop и т.п. рассказать. Заодно и кластер бы собрали простенький =)
Это на полном серьёзе. В этом году вряд ли, а вот в следующем только так. Как думаешь, имеет смысл?
И потом я пока не могу сказать, как оно будет работать в лицее, все, что я сделал - это набрал "emerge openmpi hpl", оно и поставилось. На одной машине работает. Я пока не знаю, как оно себя поведет на сети машин.
P.S. Если тут на форуме есть "заинтересованные личности", хотелось бы услышатьих мнение.
#11
Опубликовано 13 Октябрь 2008 - 9:32
Лица они, лица."заинтересованные личности"
#12
Опубликовано 13 Октябрь 2008 - 11:38
Мне кажется, ты меня не понял. Я говорю, что сам, наверное, мог бы подобный факультатив провести через годик, я в этом немного понимаю. Если рассказывать, то в 11м, т.е. первыми были бы сегодняшние десятиклассники. Вот мне и интересно, как там с народными настроениями.Я в 11 уже поздно. И веду я у веберов. Да и рассказывать про MPI я пока не готов, сам не разобрался, только записался на спецкурс. Обещали, что дадут поковыряться на blue gene и на "Чебышеве".
И потом я пока не могу сказать, как оно будет работать в лицее, все, что я сделал - это набрал "emerge openmpi hpl", оно и поставилось. На одной машине работает. Я пока не знаю, как оно себя поведет на сети машин.
P.S. Если тут на форуме есть "заинтересованные личности", хотелось бы услышатьих мнение.
#13
Опубликовано 14 Октябрь 2008 - 10:37
Изменено: Vas'ka, 14 Октябрь 2008 - 10:37
#14
Опубликовано 14 Октябрь 2008 - 16:05
Когда я в последний раз был в серверной, мне показалось, что 104ая подключена к 3com'овскому свичу, а HP был забит 105ой.Вся 104-я висит на backbone гигабитном свитче от HP, как и 105/106/204/205. Но только в 105/106 все компы имеют гигабитную сетевуху. На 104й 5-6 машин с сотками, отстальные 15 - гигабит
1 пользователей читают эту тему
0 пользователей, 1 гостей, 0 невидимых










