Перейти к содержимому


Фото

Объединить компьютеры лицея в многомашинный комплекс


  • Чтобы отвечать, сперва войдите на форум
13 ответов в теме

#1 KiberGus Опубликовано 11 Октябрь 2008 - 15:59

KiberGus
  • Genius loci
  • 6 561 Сообщений:
  • Алексей Гусейнов
Я поставил в дистрибутив gentoo, который можно загружать в лицее MPI. Правда пока не пробовал заставить несколько компьютеров работать вместе. На сервере, который поддерживает moodle (Intel® Pentium® 4 CPU 2.80GHz hardened gentoo, то есть настроенный на надежность за счет скорости) linpack выдал 0.5267 GFlops. Наверное можно выжать больше, я не пытался поиграться с настройками. Сюдя по гуглу, можно рассчитывать где-то на 1.2 гигафлопа на машину. Интересно, сколько получится, если усадить за счет всю 104ую. Кстати, может кто из нынешних 10х заитересуется, может у кого-то задача будет тяжелой в вычислительном плане.
Зато, обладая единственной в мире подводной орбитальной группировкой спутников глонасс...
gentoo.gif

#2 phoenix54 Опубликовано 11 Октябрь 2008 - 17:07

phoenix54

    Самый пафосне

  • Свои
  • 1 249 Сообщений:
  • Алексей Мирошников
Если я все првильно понял, то 105 это тоже очень пригодится если так, то рендерить 3d будет гораздо быстрее... Или я не в теме?
Adsumus! Adsumus!
Аве Диктаторе! Ртуте буде наше!

#3 KiberGus Опубликовано 11 Октябрь 2008 - 17:41

KiberGus
  • Genius loci
  • 6 561 Сообщений:
  • Алексей Гусейнов

Если я все првильно понял, то 105 это тоже очень пригодится если так, то рендерить 3d будет гораздо быстрее... Или я не в теме?

blender не использует MPI, у него свои методы, насколько я знаю. В принципе организовать можно, но я этим заниматься не буду, по крайней мере в ближайшее время.
Зато, обладая единственной в мире подводной орбитальной группировкой спутников глонасс...
gentoo.gif

#4 koraalex Опубликовано 11 Октябрь 2008 - 19:30

koraalex
  • Свои
  • 1 976 Сообщений:
  • Алексей Коробов
Лёш, у тебя явно что-то не так. Сам мало в этом понимаю, но, как читал, от не новейшего Оптерона можно ожидать до 7-8 ГФлопс. Причём, опять-таки как понимаю, устанавливается пиковая производительность очень просто: частота помноженная на кол-во FPU, а реальная может быть в 2-4 раза меньше.
Вторая проблема: многопроцессорный расчёт без эффективной поддержки MPI приведёт только к лишней трате электричества и заторможенности компьютеров в классах. Есть ли у нас программы, расчитанные на MPI? Есть ли способные такие программы писать (что, безусловно, порадовало бы)?
Третья проблема: объединять производительные процессоры надо при помощи скоростных каналов, Гбит/с в этом деле - ерунда. Опять прикинем: через процессор проходят десятки ГБайт/с, а траффик LAN - одна восьмая Гбайт/с. Ну и топология сети, коммутаторы... Такое годится только в случае модульного деления задачи или же при работе с долго считающими функциями, т.е. когда траффик данных небольшой.
Четвёртая проблема: как понимаю, для хорошей работы вычислительной сети нужно, чтобы системы были одинаковыми или просто подходящими друг для друга, т.е. мешать в ней разные процессоры и даже процессоры с разными частотами в общем случае плохо.
Пятая проблема: ECC не просто так придумали, те редкие ошибки в работе электроники, которые не мешают при работе с интернетом и мультимедиа, в иных вычислительных задачах приводят к развалу решения. Впрочем, для учебных целей персоналки сойдут, пересчитаем, если что.
Резюме: сделать можно, чтоб было для энтузиастов, но лучше ограничиться одинаковыми компьютерами 104-й и сервер с коммутаторами там же должны стоять, плюс ПО для программистов и объявление.
...Мм-м-м... не дадут ли мне в нос?..

P.S. Интересующимся: www.clearspeed.com, архитектура последовательная, увы, но всё-таки...

#5 KiberGus Опубликовано 11 Октябрь 2008 - 20:57

KiberGus
  • Genius loci
  • 6 561 Сообщений:
  • Алексей Гусейнов

Лёш, у тебя явно что-то не так. Сам мало в этом понимаю, но, как читал, от не новейшего Оптерона можно ожидать до 7-8 ГФлопс. Причём, опять-таки как понимаю, устанавливается пиковая производительность очень просто: частота помноженная на кол-во FPU, а реальная может быть в 2-4 раза меньше.

Это не пиковая, я на тесте linpack. Хотя она не должна разительно отличаться. Возможно жело в том, что там ядро с кучей проверок на переполнение буферов и т.п. И потом я ограничил linpack всего 256 метрами оперативки. Не хочу перегружать сервер, который я использовал только потому, что могу управлять им удаленно.

Вторая проблема: многопроцессорный расчёт без эффективной поддержки MPI приведёт только к лишней трате электричества и заторможенности компьютеров в классах. Есть ли у нас программы, расчитанные на MPI? Есть ли способные такие программы писать (что, безусловно, порадовало бы)?

Полностью соглсен. Но все таки речь не идет о промышленном применении. Прежде всего просто поиграться и пощупать. Если у кого-то будет хорошо распаралеливаемая программа - пусть считает.

Третья проблема: объединять производительные процессоры надо при помощи скоростных каналов, Гбит/с в этом деле - ерунда. Опять прикинем: через процессор проходят десятки ГБайт/с, а траффик LAN - одна восьмая Гбайт/с. Ну и топология сети, коммутаторы... Такое годится только в случае модульного деления задачи или же при работе с долго считающими функциями, т.е. когда траффик данных небольшой.
Четвёртая проблема: как понимаю, для хорошей работы вычислительной сети нужно, чтобы системы были одинаковыми или просто подходящими друг для друга, т.е. мешать в ней разные процессоры и даже процессоры с разными частотами в общем случае плохо.
Пятая проблема: ECC не просто так придумали, те редкие ошибки в работе электроники, которые не мешают при работе с интернетом и мультимедиа, в иных вычислительных задачах приводят к развалу решения. Впрочем, для учебных целей персоналки сойдут, пересчитаем, если что.
Резюме: сделать можно, чтоб было для энтузиастов, но лучше ограничиться одинаковыми компьютерами 104-й и сервер с коммутаторами там же должны стоять, плюс ПО для программистов и объявление.
...Мм-м-м... не дадут ли мне в нос?..

P.S. Интересующимся: www.clearspeed.com, архитектура последовательная, увы, но всё-таки...

Я не ставлю задачи собрать терафопный вычислитель. Только поиграться немного. Возможно один-два диплома вдруг смогут получить от использования этой фишки что-то. А потом, если вдруг присичит, это место, где программу можно отладить, чтобы потом запустить на счет на нормальном суперкомпьютере.
А сеть пока всего сотня. :-)
Зато, обладая единственной в мире подводной орбитальной группировкой спутников глонасс...
gentoo.gif

#6 koraalex Опубликовано 11 Октябрь 2008 - 21:03

koraalex
  • Свои
  • 1 976 Сообщений:
  • Алексей Коробов
Да, Лёш, я о той же цели. Поэтому и сотни не нужно, нужно десяток машинок, которые просто хорошо связали.

#7 KiberGus Опубликовано 12 Октябрь 2008 - 7:05

KiberGus
  • Genius loci
  • 6 561 Сообщений:
  • Алексей Гусейнов

Да, Лёш, я о той же цели. Поэтому и сотни не нужно, нужно десяток машинок, которые просто хорошо связали.

Не сотня машин, а 100 мегабит. :-)
Хотя повесить на гигабитный свич можно, но я не уверен, что в компьютерах стоят гигабитные карточки.
Зато, обладая единственной в мире подводной орбитальной группировкой спутников глонасс...
gentoo.gif

#8 Мишаня Опубликовано 13 Октябрь 2008 - 0:49

Мишаня
  • Свои
  • 1 978 Сообщений:
  • Михаил Лебедев
Ух какая интересная тема! Лёш, а ты в 11м классе ведёшь? Там на поток найдётся 5 человек, которым было бы интересно про параллельные вычисления послушать? Я, наверное, узкой компании заинтересованных лиц мог бы что-нибудь эдакое про MPI, MapReduce, Hadoop и т.п. рассказать. Заодно и кластер бы собрали простенький =) Это на полном серьёзе. В этом году вряд ли, а вот в следующем только так. Как думаешь, имеет смысл?

Изменено: Мишаня, 13 Октябрь 2008 - 4:43

Я спасу розовый попник!

#9 Syrano Опубликовано 13 Октябрь 2008 - 8:15

Syrano
  • Свои
  • 9 645 Сообщений:
  • Владимир Зайцев

Это на полном серьёзе. В этом году вряд ли, а вот в следующем только так. Как думаешь, имеет смысл?

Если найдутся заинтересованные программисты -- безусловно имеет смысл.

С нами сила Алхазашвили!


#10 KiberGus Опубликовано 13 Октябрь 2008 - 9:25

KiberGus
  • Genius loci
  • 6 561 Сообщений:
  • Алексей Гусейнов

Ух какая интересная тема!

Лёш, а ты в 11м классе ведёшь? Там на поток найдётся 5 человек, которым было бы интересно про параллельные вычисления послушать?
Я, наверное, узкой компании заинтересованных лиц мог бы что-нибудь эдакое про MPI, MapReduce, Hadoop и т.п. рассказать. Заодно и кластер бы собрали простенький =)

Это на полном серьёзе. В этом году вряд ли, а вот в следующем только так. Как думаешь, имеет смысл?

Я в 11 уже поздно. И веду я у веберов. Да и рассказывать про MPI я пока не готов, сам не разобрался, только записался на спецкурс. Обещали, что дадут поковыряться на blue gene и на "Чебышеве".
И потом я пока не могу сказать, как оно будет работать в лицее, все, что я сделал - это набрал "emerge openmpi hpl", оно и поставилось. На одной машине работает. Я пока не знаю, как оно себя поведет на сети машин.

P.S. Если тут на форуме есть "заинтересованные личности", хотелось бы услышатьих мнение.
Зато, обладая единственной в мире подводной орбитальной группировкой спутников глонасс...
gentoo.gif

#11 koraalex Опубликовано 13 Октябрь 2008 - 9:32

koraalex
  • Свои
  • 1 976 Сообщений:
  • Алексей Коробов

"заинтересованные личности"

Лица они, лица.

#12 Мишаня Опубликовано 13 Октябрь 2008 - 11:38

Мишаня
  • Свои
  • 1 978 Сообщений:
  • Михаил Лебедев

Я в 11 уже поздно. И веду я у веберов. Да и рассказывать про MPI я пока не готов, сам не разобрался, только записался на спецкурс. Обещали, что дадут поковыряться на blue gene и на "Чебышеве".
И потом я пока не могу сказать, как оно будет работать в лицее, все, что я сделал - это набрал "emerge openmpi hpl", оно и поставилось. На одной машине работает. Я пока не знаю, как оно себя поведет на сети машин.

P.S. Если тут на форуме есть "заинтересованные личности", хотелось бы услышатьих мнение.

Мне кажется, ты меня не понял. Я говорю, что сам, наверное, мог бы подобный факультатив провести через годик, я в этом немного понимаю. Если рассказывать, то в 11м, т.е. первыми были бы сегодняшние десятиклассники. Вот мне и интересно, как там с народными настроениями.
Я спасу розовый попник!

#13 Vas'ka Опубликовано 14 Октябрь 2008 - 10:37

Vas'ka
  • Свои
  • 57 Сообщений:
  • Василенко Алексей
Вся 104-я висит на backbone гигабитном свитче от HP, как и 105/106/204/205. Но только в 105/106 все компы имеют гигабитную сетевуху. На 104й 5-6 машин с сотками, отстальные 15 - гигабит

Изменено: Vas'ka, 14 Октябрь 2008 - 10:37


#14 KiberGus Опубликовано 14 Октябрь 2008 - 16:05

KiberGus
  • Genius loci
  • 6 561 Сообщений:
  • Алексей Гусейнов

Вся 104-я висит на backbone гигабитном свитче от HP, как и 105/106/204/205. Но только в 105/106 все компы имеют гигабитную сетевуху. На 104й 5-6 машин с сотками, отстальные 15 - гигабит

Когда я в последний раз был в серверной, мне показалось, что 104ая подключена к 3com'овскому свичу, а HP был забит 105ой.
Зато, обладая единственной в мире подводной орбитальной группировкой спутников глонасс...
gentoo.gif




1 пользователей читают эту тему

0 пользователей, 1 гостей, 0 невидимых