» » » » Коллектив Авторов - Цифровой журнал «Компьютерра» № 41


Авторские права

Коллектив Авторов - Цифровой журнал «Компьютерра» № 41

Здесь можно скачать бесплатно "Коллектив Авторов - Цифровой журнал «Компьютерра» № 41" в формате fb2, epub, txt, doc, pdf. Жанр: Прочая околокомпьтерная литература. Так же Вы можете читать книгу онлайн без регистрации и SMS на сайте LibFox.Ru (ЛибФокс) или прочесть описание и ознакомиться с отзывами.
Рейтинг:
Название:
Цифровой журнал «Компьютерра» № 41
Издательство:
неизвестно
Год:
неизвестен
ISBN:
нет данных
Скачать:

99Пожалуйста дождитесь своей очереди, идёт подготовка вашей ссылки для скачивания...

Скачивание начинается... Если скачивание не началось автоматически, пожалуйста нажмите на эту ссылку.

Вы автор?
Жалоба
Все книги на сайте размещаются его пользователями. Приносим свои глубочайшие извинения, если Ваша книга была опубликована без Вашего на то согласия.
Напишите нам, и мы в срочном порядке примем меры.

Как получить книгу?
Оплатили, но не знаете что делать дальше? Инструкция.

Описание книги "Цифровой журнал «Компьютерра» № 41"

Описание и краткое содержание "Цифровой журнал «Компьютерра» № 41" читать бесплатно онлайн.



ОглавлениеСтатьи

Чего стоит ждать от Windows 8 Автор: Андрей Письменный

Владимир Каширцев (ИНГиГ СО РАН) о том, закончится ли нефть Автор: Алла Аршинова

ARPAnet: начало и конец Автор: Юрий Ильин

Интервью

Елена Чуракова («Т-Платформы») о российских суперкомпьютерах Автор: Юрий Ильин

ABBYY помогает программистам с переводом Автор: Андрей Письменный

Терралаб

Чистое будущее с инновациями от Delta electronics Автор: Фёдор Кустов

Софт: Защищаем компьютер с помощью BitDisk Автор: Софья Скрылина

Колумнисты

Василий Щепетнёв: Идентификация И. Автор: Василий Щепетнев

Кафедра Ваннаха: Угрозы и технологии Автор: Ваннах Михаил

Анатолий Вассерман: Лицензии Microsoft Автор: Анатолий Вассерман

Василий Щепетнёв: Броня для "Я" Автор: Василий Щепетнев

Голубятня-Онлайн

Голубятня: Шершень-коматоз Автор: Сергей Голубицкий

Голубятня: Чертов тупичок Автор: Сергей Голубицкий

Ноутбуки

Тест ноутбука DELL  Latitude E6410 Автор: Евгений Крестников

Тест ноутбука ASUS U53Jc Автор: Ника Парамонова






Но это не вылилось в немедленные инвестиции государства в суперкомпьютинг. Да, они заинтересовались темой, для рынка это стало знаковым событием — в смысле, стало в каком-то смысле официально признано, что рынок суперкомпьютеров существует. Но пристальное внимание к этой отрасли начинается только сейчас.

В конце 2006 года мы впервые сделали собственную блейд-платорму. Почему? 1U-платформы — это, конечно, хорошо, но размер установки, которую можно собрать на U-платформах, конечно, очень ограничен, потому что это не слишком высокая плотность вычислений (количество терафлопс на место в стойке), это много проводов, много шкафов, а это высокое тепловыделение, и просто неоптимальная коммуникация между процессорами, большие задержки при обмене данными. Так что для HPC всё чаще стали применять блейды, хотя разрабатывались они изначально не для этого, а для энтерпрайза.

Первая наша блейд-система — это и первая российская блейд-система, до этого никто из наших интеграторов не пытался сделать что-то подобное. Это была первая серьёзная инженерная разработка на тот момент. Она была очень плотной, плотнее, чем у IBM и HP — то есть, на той же площади помещалось большее количество процессоров, чем у конкурентов. Но, это все еще были стандартные платы, стандартная память, стандартный интерконнект — просто всё это было грамотно скомпоновано и уложено. Под заказ были сделаны корпуса блейд-модулей и шасси, которые интегрировали компоненты в единое целое.

В 2008 году, в конце, мы представили новое поколение блейд-систем для HPC, где все платы были уже разработаны нами. Единственное, что было не нашим — микросхемы (процессор и контроллеры интерконнекта прежде всего). Даже модули памяти были наши собственные — то есть, сами чипы стандартные, иначе не было никакой возможности обеспечить совместимость с широким спектром приложений, если у вас собственные чипы памяти или, не дай бог, собственный процессор с другой архитектурой. Кто будет пользоваться этой машиной?

Те институты, которые разработали, скажем, на пару один большой программный пакет и работают только на нем, могут, конечно, позволить себе такие вещи как нестандартные процессоры и память, созданные специально под приложение — такие разработки были и до сих пор ведутся в единичных случаях. Бюджетирование таких организаций конечно взлетает к потолку. Но у нас-то такого нет. Поэтому, конечно, очень важно, чтобы память и процессоры были стандартными, что и осталось... И резисторы с транзисторами собственные разрабатывать никакого смысла конечно не было.

Но зато все электронные платы, которые обеспечили самую высокую на тот момент по отрасли плотность установки, были нашими разработками. И коммутаторы интерконнекта, которые были интегрированы в шасси, тоже были разработаны нами. В основе лежали технологии Mellanox, но платы были разработаны новые.

Высокую плотность удалось обеспечить во многом за счет эффективной системы охлаждения, которую мы разработали. Каждая плата выделяет около 570КВт тепла, и никто не пытался охлаждать такое решение воздухом. Люди экспериментировали и до сих пор экспериментируют с водой, но воздушное охлаждение с такой плотностью не проходило. А мы сделали радиатор, который полностью накрывает всю плату целиком, радиатор моделировали на суперкомпьютере.

Это действительно приходится моделировать, потому что непонятно, из какого материала и как он должен быть устроен, и какую конфигурацию он должен иметь, и в каком месте сколько и чего у него должно быть, чтобы нормально отводилось тепло, и при этом радиатор не был слишком тяжелым.

Мало кто задумывается о том, сколько весит вся эта установка, но если шасси слишком тяжелые — это не практично, потому что фальшполы приходится укреплять, в частности, очень сильно — это дополнительные расходы и не в каждом месте это вообще можно сделать. Поэтому, мы как могли старались сделать оптимальное соотношение между теплопроводимостью в нужных местах и весом.

И до сих пор эта разработка прекрасно нам служит, потому что и наше последнее гибридное решение на NVidia, которое мы показали буквально только что на GTC в Америке,использует тот же самый принцип — это тоже воздушноохлаждаемое шасси с подобным радиатором. Он модифицированный естественно, там другое расположение процессоров и других микросхем на плате, но принцип прекрасный, потому что получилось уместить 32 новейших процессора NVidia Tesla и 32 процессора Intel в шасси высотой 7U, что на GTC люди восприняли очень хорошо, потому что такого больше нет ни у кого. И при этом, воздушное охлаждение...

Следующая после 2006 года, наверное, самая мощная установка была уже в МГУ. Суперкомпьютер «Чебышев» –был создан в рамках программы «СКИФ ГРИД» . Собственно, это самая большая установка, которая была по этой программе создана – это «Чебышев» производительностью 60 терафлопс, который попал на 105е место в TOP-500. Мог стоять выше, но он попал в список только через полгода после установки.

Следующим этапом стал «Ломоносов». «Ломоносов» — это уже собственно приобретение МГУ, не связанное никак с Союзным Государством. Сейчас мы расширям его до 500 с лишним терафлопс, и уже объявлен конкурс на вторую очередь этой машины, где будет 800 терафлопс с гибридной архитектурой. Мы в ближайшее время подаем заявку на участие в нем с нашей новой системой на NVidia, которая называется TB2-TL. Обе очереди этой машины будут объединены единой системной сетью, и он сможет функционировать как единая система мощностью более петафлопса — это будет первая установка с такой производтельностью в России и одна из пока очень немногих в мире.

- А графические процессоры по сравнению с обычными, они какие преимущества имеют, в плане HPC?

- Один графический процессор дает примерно в 4 раза больше пиковой производительности на операциях с двойной точностью, чем обычный, потребляя не сильно больше электричества. В результате имеем в 4 раза более производительную систему с тем же энергопотреблением и примерно той же ценой — гораздо выгоднее для заказчика. Высокая энергоэффективность, то есть хорошее соотношение производительности на ватт потребляемой энергии, сейчас очень важна в отрасли, так как размер систем увеличивается быстро, а энергетические ресурсы в основном ограничены.

Графические процессоры не применялись для HPC изначально, так как раньше они обеспечивали высокую производительность только на операциях с одинарной точностью, которой достаточно, например, для обработки видео, но недостаточно для HPC, где требуется двойная точность и коррекция ошибок. Однако Nvidia его усовершенствовали, и теперь он дает больше пиковой производительности на операциях с двойной точностью чем процессоры с архитектурой x86. Из этого получается две вещи: во-первых, вы можете в один шкаф уместить больше терафлопсов, а во-вторых, вы получаете феноменальное соотношение производительности к энергопотреблению, которое напрямую зависит от плотности.

У нас в стойке с этим решением получается 105 Тфлопс пиковой производительности, тогда как для процессоров х86 это максимум 27Тфлопс. И энергоэффективность получается 1450 мегафлопс на ватт, что на данный момент почти вдвое лучше, чем у самой эффективной на данный момент системы в мире согласно списку Green500, где суперкомпьютеры рейтинга Тор500 ранжируются не по производительности, а по соотношению флопс на ватт.

Это не столько модная тема, сколько действительно технологическая необходимость по одной простой причине: дальнейшее расширение производительности систем, к которому все стремятся, невозможно без принципиально новых решений для улучшения энергоэффективности систем.

Сейчас бессмысленно пытаться строить суперкомпьютер мощностью в экзафлопс (в 1000 раз мощнее чем сейчас) не только потому, что к такой масштабируемости не готовы программные пакеты, но и потому, что такая машина будет иметь энергопотребление сравнимое с потреблением небольшого города.

Эксперты американского Министерства Энергетики, которое поддерживает разработки в области экзафлопс, поставили определенный предел энергопотребления для таких систем — 20 мегаватт. Но при тех технологиях, которые сейчас есть, с учетом их прогнозируемого развития, мы сильно не дотягиваем до этого порога. Экзафлопс будет потреблять на порядок больше, если не будет придумано что-то кардинально другое.

Поэтому, все разработки сейчас направлены на то, как снизить энергопотребление и увеличить вычислительную мощность, которую мы получаем за эту энергию.

Сейчас эффективность лучшей системы в мире — 773 Мегафлопс на ватт. Это система в Суперкомпьютерном центре Юлиха в Германии с очень специфической архитектурой на базе процессоров Cell, которые совместимы с довольно узким спектром приложений и на данный момент больше не выпускаются. Nvidia сейчас обходит всех по этому параметру, но его совместимость с существующими приложениями, конечно, тоже ограничена, хотя и не так сильно.


На Facebook В Твиттере В Instagram В Одноклассниках Мы Вконтакте
Подписывайтесь на наши страницы в социальных сетях.
Будьте в курсе последних книжных новинок, комментируйте, обсуждайте. Мы ждём Вас!

Похожие книги на "Цифровой журнал «Компьютерра» № 41"

Книги похожие на "Цифровой журнал «Компьютерра» № 41" читать онлайн или скачать бесплатно полные версии.


Понравилась книга? Оставьте Ваш комментарий, поделитесь впечатлениями или расскажите друзьям

Все книги автора Коллектив Авторов

Коллектив Авторов - все книги автора в одном месте на сайте онлайн библиотеки LibFox.

Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.

Отзывы о "Коллектив Авторов - Цифровой журнал «Компьютерра» № 41"

Отзывы читателей о книге "Цифровой журнал «Компьютерра» № 41", комментарии и мнения людей о произведении.

А что Вы думаете о книге? Оставьте Ваш отзыв.