Россия освобождает частоты военного назначения для сетей 3G

Вопросы получения радиочастот.
Радиоконтроль.
Радиочастотные органы.
Нормативные документы по теме.
5611
Форумчанин
 
Сообщения:
7444
Зарегистрирован:
11 ноя 2005
Откуда:
Ярцево

Благодарил (а): 0 раз.
Поблагодарили: 0 раз.

Россия освобождает частоты военного назначения для сетей 3G

Сообщение:#1  Сообщение 5611 » Ср 30 апр, 2008 11:28 »

25 апреля состоялось открытие первого в России и Восточной Европе центра компетенции по высокопроизводительным вычислениям. Вложения НИИР в этот проект составили 200 миллионов рублей. Основной задачей центра станут расчеты по конверсии радиочастотного спектра, в том числе по высвобождению частот военного назначения для сетей 3G и цифрового телевидения.

С открытием центра компетенций по высокопроизводительным вычислениям гендиректора «НИИ Радио» Валерия Бутенко (справа) поздравляет директор по маркетингу Sun Microsystems в России и СНГ Павел Анни
Открытие первого в России и Восточной Европе центра компетенции по высокопроизводительным вычислениям на базе оборудования компании Sun Microsystems состоялось 25 апреля во ФГУП «НИИ Радио», системном институте Мининформсвязи России в области создания систем радиосвязи, спутниковых и наземных систем телевизионного звукового вещания и развития радиотехнологий. Исполнитель проекта — системный интегратор «Инфосистемы Джет». Общая сумма инвестиций составила 200 млн рублей. Решение Sun было выбрано в результате проведенного Федеральным агентством связи (Россвязь) конкурса. «На наш взгляд, этот проект был наиболее адекватен выдвигаемым требованиям», — заявил заместитель руководителя Россвязи Сергей Мальянов. Он подчеркнул, что открытие центра полностью отвечает провозглашенной избранным президентом РФ Дмитрием Медведевым стратегии четырех "И": Институты, Инфраструктура, Инвестиции, Инновации.
По словам специалистов, в России уже создана хорошая техническая база: существует значительное количество вычислительных центров, широкое распространение получили волоконно-оптические линии связи, развито предоставление большого количества сетевых сервисов, активно используются методы дискретизации, алгоритмизации, распараллеливания и виртуализации вычислений. Но наращивать вычислительные мощности в одном центре дорого и труднореализуемо. Поэтому остро стоит задача перехода от создания вычислительных центров в интересах отдельных предприятий и организаций к построению национальной сети высокопроизводительных вычислений на основе географически-распределенного доступа (GRID-систем) и оказанию услуг на базе этой сети широкому кругу пользователей. Система GRID — это возможность обеспечить широкий круг пользователей специализированными услугами, позволяющими использовать распределенные высокопроизводительные информационно-вычислительные системы (ВИВС) за счет виртуализации данных. GRID — гибкое, безопасное, скоординированное разделение вычислительных ресурсов и ресурсов хранения информации в рамках виртуальной организации – сообщает портал cnews.ru.
Без применения ВИВС невозможно точное и достоверное инженерное и научное моделирование процессов и систем в ключевых отраслях, например, в структурах государственного управления для проведения долгосрочного прогнозирования экономического развития, для решения задач МЧС при проведении анализа развития событий в случае катастроф природного или техногенного характера, в машиностроении для определения оптимальных конструкторских и технологических решений и т.д.
"Открытие центра компетенций — это первый кирпичик в здание зарождающихся в России технологий высокопроизводительных вычислений, — отметил генеральный директор НИИР Валерий Бутенко. «Нынешняя ситуация напоминает ситуацию с интернетом 10–15 лет назад, — подчеркнул директор по развитию бизнеса компании „Инфосистемы Джет“ Илья Трифаленков. — Нас ждет еще один рывок — переход от глобального распределения данных к глобальному распределению вычислительных ресурсов». Центр компетенции НИИР позволит продвигать технологии высокопроизводительных вычислений, вести разработку ПО, работающего на базе систем высокопроизводительных вычислений, разрабатывать системы распределенных вычислений, организовывать взаимодействие с интеграторами и разработчиками, действующими в области высокопроизводительных систем и сетей. Кроме того, по словам директора по маркетингу компании Sun в СНГ Павла Анни, одной из основных задач центра станет передача опыта в области высокопроизводительных вычислений.
Валерий Бутенко рассказал, что центр компетенции по высокопроизводительным вычислениям открыт на базе современного вычислительного центра (начал работу в 2006 г.). В настоящее время вычислительный центр НИИР — это первый суперкомпьютер в области связи, входящий в десятку самых мощных суперкомпьютеров России. Его пиковая производительность — 3 Тфлопс. Поставщиком решения также выступала Sun. Планируется, что основным заказчиком центра компетенций будет Россвязь. Его главной функцией является научно-техническая и информационная поддержка решения государственных задач по использованию и конверсии радиочастотного спектра, среди которых — высвобождение частот военного назначения под 3G (на сегодня эта проблема остро стоит в Москве) и цифровое телевидение.http://www.treli.ru/newstext.mhtml?Part=7&PubID=16254

5611
Форумчанин
 
Сообщения:
7444
Зарегистрирован:
11 ноя 2005
Откуда:
Ярцево

Благодарил (а): 0 раз.
Поблагодарили: 0 раз.

Сообщение:#2  Сообщение 5611 » Ср 30 апр, 2008 12:17 »

Федеральное агентство связи объявило конкурс на выбор подрядчика по расчистке радиочастотного спектра.
Одним изучастников конкурса станет только что открывшийся при ФГУП "НИИ Радио" центр компетенции повысокопроизводительным вычислениям, сообщает ComNews. Однако участники рынка считают наиболее вероятным победителем ООО "Научно-производственная фирма "Гейзер".


Согласно конкурсной документации, торги впервом конкурсе будут проведены пошести лотам, вовтором— попяти. Заявки научастие Россвязь начала принимать 24 и 25апреля, азакончит 26 и 27мая. Победители станут известны 3 и 5июня.

Подрядчику предстоит разработать условия совместного использования вразличных диапазонах радиоэлектронных средств (втом числе итех, которые используются для создания WiMAX-сетей), провести исследования всфере использования частот для сотовой связи встандарте IMT, атакже разработать условия использования терминалов TETRA споддержкой системы ГЛОНАСС иподготовить предложения поконверсии частот после 2012г.Наэти цели, поусловиям конкурса, выделено 1,09млрд рубhttp://forum.sat-expert.com/obsujdenie-novostei-saita/8181-po-zakazu-fas-razberutsia-s-chastotami.html

5611
Форумчанин
 
Сообщения:
7444
Зарегистрирован:
11 ноя 2005
Откуда:
Ярцево

Благодарил (а): 0 раз.
Поблагодарили: 0 раз.

Сообщение:#3  Сообщение 5611 » Чт 17 июл, 2008 17:07 »

В Москве прошел семинар по высокопроизводительным вычислениям

Организаторы мероприятия – Sun Microsystems, Intel и OSP-Con – предоставили участникам возможность познакомиться не только с последними решениями для высокопроизводительных вычислений (HPC), но и взглянуть на этот сегмент ИТ-индустрии в целом. Правда, по словам Андрея Серегина, ведущего аналитика российского представительства IDC, рынка HPC в традиционном понимании этого слова не существует. Это связано как с разнородностью архитектур систем HPC, так и с тем фактом, что в рейтинге самых мощных высокопроизводительных систем (Top 500) заметную долю составляют нетиражируемые решения.

....
Несмотря на сохраняющиеся проблемы, высокопроизводительные вычисления продолжают развиваться. Участникам семинара были представлены современные решения Sun Microsystems в области HPC, включая Sun Constellation System, Sun Magnum InfiniBand Switch, Sun Blade 6000 и 6480, а также последние разработки Intel в области процессоров для кластерных архитектур. На семинаре обсуждались также конкретные проекты развертывания и эксплуатации HPC-систем в ЦЕРН, Техасском суперкомпьютерном центре, Токийском технологическом институте, Дальневосточном государственном университете, ТюменьНИИГипрогаз, Институте проблем управления РАН, НИИ радио и Вычислительном центре РАН.

http://www.osp.ru/news/articles/2008/28 ... eed=yandex

5611
Форумчанин
 
Сообщения:
7444
Зарегистрирован:
11 ноя 2005
Откуда:
Ярцево

Благодарил (а): 0 раз.
Поблагодарили: 0 раз.

Сообщение:#4  Сообщение 5611 » Пн 06 апр, 2009 15:58 »

...Валерий Бутенко, генеральный директор ФГУП НИИР, сообщил, что институт намерен подать заявку на участие в конкурсе. Он также рассказал, что новый центр компетенции будет решать задачи, связанные с коммерческими радиочастотами спектра и вопросами планирования радиочастот для внедрения на территории Российской Федерации цифрового теле- и радиовещания. «В России функционируют до полутора миллионов передатчиков, и в перспективе их число, как минимум, удвоится, — пояснил он. — Их надо правильно рассчитать, расставить, выбрать несущие частоты. Кроме того, предстоит достаточно большая работа по расчету электромагнитной совместимости с нашими соседями по всей границе».
Задачи для кластера
Необходимость в подобной вычислительной системе для нашей отрасли связи возникла еще в 2004 г. Тогда, в период проведения сессии Международного союза электросвязи (МСЭ) в рамках подготовки частотно-территориальных планов для внедрения систем цифрового теле- и радиовещания нужно было просчитать варианты планов цифрового национального телевидения и совместить их с международными планами (для РФ — с граничащими территориями). Полный расчетный цикл этой задачи на имевшихся в тот момент отечественных вычислительных мощностях занимал месяц, а при внесении множественных изменений получить оперативный ответ было невозможно. Расчеты гораздо более крупного объема, для региона Европы и Африки, включая Россию и СНГ, в швейцарском Церне выполнялись в течение двух недель (все моделируемые комбинации надо было многократно пересчитывать, чтобы выбрать частоту, оптимально совместимую с соседними зонами).
Как сообщил В. Бутенко, реальная загрузка комплекса в настоящее время составляет около 30%, однако все свободные ресурсы центра могут быть использованы и на коммерческой основе.
Вместе с построением технологической базы в центре компетенции организовано подразделение по разработке программных систем, специализирующееся на организации параллельных вычислений. Эта структура занимается переносом существующего и разработкой нового программного обеспечения путем анализа алгоритмов, выделения независимых частей и программирования их таким образом, чтобы они могли выполняться на параллельных процессорах.
Архитектура центра
Центральным компонентом вычислительного центра является распределенный вычислительный кластер. Сейчас в его составе функционируют 56 узлов Sun Fire X4100 и 50 узлов Sun Blade X8420 в пяти шасси Sun Blade 8000. Общее количество процессоров AMD Opteron, каждый из которых выполняет параллельно два потока, — 312, пиковая производительность кластера — 3 Tflop/s. Доступное поле оперативной памяти — 2 Тбайт. Серверы работают под управлением ОС Solaris и Linux.
Как и в большинстве суперкомпьютерных систем во всем мире, для взаимодействия узлов кластера ФГУП НИИР используется архитектура Infiniband. Центральный коммутатор Infiniband Voltaire Director обеспечивает полосу пропускания 20 Гбит/c с уровнем задержек примерно 4 мкс при передаче данных между независимыми вычислительными узлами.
Как пояснил начальник ВЦ НИИР Борис Тоботрас, выбранные для построения вычислительного кластера архитектурные и технологические решения позволяют при необходимости масштабировать систему до 1000 вычислительных узлов без снижения эффективности их взаимодействия.
Каждый сервер является независимой машиной с собственной копией операционной системы. Наличие кластерного коммутатора позволяет узлам разделять между собой задачи и эффективно взаимодействовать в процессе их решения. Помимо кластерного коммутатора все серверы вычислительного комплекса подключены к локальной вычислительной сети центра с пропускной способностью в 1 Гбит/c. К ней же подключаются и рабочие места, с которых необходим прямой доступ в ВЦ.
Для оперативного доступа к данным развернута сеть хранения Fibre Channel с общей емкостью дисковых подсистем 20 Тбайт. Система мониторинга и управления всего вычислительного центра построена на базе решения BMC Patrol.
В процессе построения комплекса проектировщикам центра пришлось решать и вспомогательные инженерные задачи. Для резервирования электропитания центра, который потребляет около 50–55 кВт, задействованы два независимых фидера с автоматическим переключением. Защиту компьютерного оборудования обеспечивает централизованная система бесперебойного электропитания Eaton Powerware общей мощностью 80 кВА. За поддержание микроклимата в помещении отвечает система прецизионного кондиционирования производительностью около 60 кВт. Внедрение обслуживающих подсистем потребовало усиления несущих конструкций перекрытий здания института, которое изначально не было рассчитано на установку оборудования такой массы...http://www.cio-world.ru/products/375559/

Intelligent Enterprise: Расскажите, какие задачи решает НИИР. И какова роль ИТ и высокопроизводительных систем в их решении?

Борис Тоботрас: НИИ радио — головной институт Министер­ства связи — основан в 1949 году. Всё, что имеет отношение к беспроводным технологиям в России, — родом отсюда. НИИР проектировал все советские спутники связи, и сейчас это направление возрождается. В последнее время одним из важных направлений деятельности института являются работы по научно-техническому обеспечению конверсии частотных диапазонов, передача под гражданские нужды тех из них, что были зарезервированы за военными.
Деятельность предприятия во многом связана с автоматизированным проектированием, и комплексы САПР весьма активно используются как в самом институте, так и в НТЦ информационных технологий. В НИИРе был создан вычислительный центр, в стенах которого впоследствии родился суперкомпьютер. Изначально предполагалось, что суперкомпьютер этот будет решать комплекс проблем, связанных с электромагнитной совместимостью.
Но впоследствии круг задач расширился, добавилось моделирование. А с этим так или иначе связана разработка всех технических решений, которыми занимается институт, будь то антенно-фидерные системы или радиоэлектронные устройства. В результате сейчас мы используем кластер в сквозном проектировании систем — задачи CAD/CAM/CAE требуют значительной вычислительной мощности.
Каковы были этапы в реализации проекта? Сколько человек участвовало в работе с каждой стороны?
Наш кластер строился в два этапа. Сначала была создана система производительностью порядка 1 Тфлопс/с, состоящая из 56 серверов SunFire X4100. На втором этапе создали систему в 3 Тфлопс/с из 50 серверов Sun Blade X8420. Все работы заняли чуть меньше года. Наиболее длительным был первый этап ввиду того, что пришлось решать задачи строительства инженерной инфраструктуры. Второй этап занял немного времени, поскольку дополнительные мощности устанавливались в уже подготовленную серверную комнату.
Учитывая, что это наш первый суперкомпьютер, этапность проекта помогла нам оценить потребности в его мощности. А часто бывает так, что из?за первоначальной недооценки потребностей впоследствии мощности приходится расширять, что на самом деле не так?то просто: нет помещений, нет возможности подвести электропитание требуемой мощности. Или наоборот — делают с чересчур большим запасом, затрачивая лишние материальные ресурсы. Нам удалось избежать и того и друго.
Со стороны исполнителя в работе принимала участие компания «Инфосистемы Джет». На стадии создания комплекса она была для нас системным интегратором-подрядчиком, на стадии эксплуатации — партнером, обеспечивающим техническую поддержку. А сегодня «Инфосистемы Джет» выступают в качестве консультанта при определении перспективных направлений развития комплекса. Со стороны вендоров проводилась экспертиза с целью определения, насколько оптимально применяются те или иные решения.
Поскольку проект долговременный, число участников с каждой стороны менялось в зависимости от его стадии. Сначала в нём участвовало порядка двадцати сотрудников компании «Инфосистемы Джет» — проектировщиков, инженеров, специалистов по внедрению ПО. Затем для поддержки комплекса осталась сервисная группа в составе трех человек. Со стороны НИИР участвовала группа управления проектом, затем были набраны специалисты по программированию и эксплуатации комплекса. На сегодняшний день комплекс обслуживают порядка двадцати сотрудников института.
Кластер НИИ радио не похож на другие. Он гетерогенный, на базе процессоров AMD, в нём используются четыре ОС. Чем это вызвано? Не страшно было делать не так, как все?
Я не согласен с тем, что наш кластер не похож на другие. Он построен по типовой схеме, по которой создается 98% всех таких систем. Это гетерогенная сеть из независимых компьютеров, каждый со своей копией операционной системы, и всё это связано кластерной сетью. Совершенно типовая архитектура.
Выбор процессоров AMD обусловлен наилучшим соотношением цены, производительности, энергопотребления и тепловыделения. И это был результат весьма тщательного расчета.
Другое дело, что у нас используется четыре операционные системы. Это связано с решаемыми задачами. Основная часть, отвечающая за вычисления, работает под управлением Sun Solaris. Для создания серверов баз данных ОС Linux подходит лучше, поэтому мы выбрали именно её. При этом мы используем две разные версии Linux, так что речь идет не об одной, а о двух системах. Впоследствии для решения определенных задач нам понадобилось часть отдать под управление Microsoft Windows. Но при этом система осталась гомогенной: каждый отдельный вычислительный кластер связывает системы на одной ОС.
Выбор Sun Solaris в качестве основной операционной системы тривиален: она просто была предустановлена. И мы ничего не стали менять, поскольку нас всё устраивало. Для нее есть неплохой набор библиотек, имеются все необходимые компиляторы, так что никаких неудобств сам факт использования этой системы не создавал. Ну а слухи о снижении быстродействия сильно преувеличены. Да, лет пятнадцать назад, в самом начале перехода от Sun OS к Sun Solaris, были некоторые проблемы, но сейчас всё уже далеко не так. Плюс ко всему быстродействие прикладной параллельной вычислительной задачи на 99% зависит от того, как ее запрограммировали, а от самой системы тут почти ничего не зависит.
Система мониторинга построена на базе продуктов семейства BMC Patrol — она устроила нас больше других решений, представленных на рынке.
Что было главным тормозом при строительстве кластера? Недостаток финансирования, необходимость переоборудования помещений, нехватка кадров или что?то еще?
Совсем непредвиденных обстоятельств не было. Все участники процесса обладали довольно большим опытом построения кластерных систем. Но проблем и сложностей было много. Приходилось строго выдерживать временной график проведения работ, что не всегда было просто. С тем, что связано с ИТ, никаких проблем не возникало. Решения типовые и хорошо отработанные.
Довольно много проблем доставили строительные работы. Здание старое, и перекрытия никак не выдержали бы веса стоек с оборудованием. Пришлось устанавливать фальшпол с перераспределением нагрузки на стены, усиливать перекрытия и прибегать к целому ряду других специальных мер. При этом нельзя было допустить перерасхода средств и требовалось уложиться в сроки.
Сложностью стало обеспечение резервным электропитанием. Получить дополнительные 90 кВт мощности почти в центре Москвы оказалось весьма нетривиальной задачей.
Безусловно, есть и кадровая проблема. Но у нас был запас примерно в год, в течение которого велись работы по строительству. За это время мы нашли инженерный персонал, знакомый с эксплуатацией и администрированием подобных систем. Были взяты на работу программисты, и они успели получить навыки разработки систем параллельных вычислений. Плюс обучение уже в процессе работы, так что опыт накоплен уже довольно приличный. В отличие от других бюджетных учреждений мы можем предложить адекватный уровень заработной платы. Другим в этом отношении может быть сложнее.
Как организована инженерная инфраструктура? Использовались ли какие?нибудь нестандартные и нетипичные решения?
Мы старались, чтобы решение было максимально стандартным. Использовались продукты лидеров рынка, хорошо себя показавшие. Так что ничего нетипичного мы не применяли. Главное было грамотно всё спроектировать, развернуть и добиться, чтобы это заработало.
Когда строилась серверная комната, было развернуто несколько инженерных систем. У нас две системы бесперебойного электропитания от компании Powerware, установленные на двух этажах. Одна предназначена для питания самого кластера, другая обслуживает систему кондиционирования. Обе они построены с небольшим запасом по мощности — около 25%. Подведено резервное питание. В принципе наш кластер рассчитан на весьма высокий уровень доступности, хотя на практике таких задач пока не возникало. Но тем не менее мы к этому готовы.
Система охлаждения также спроектирована с запасом по тепловой мощности. В основной серверной комнате расположены три кондиционирующих модуля. Причем один из них всегда можно вывести на регламентное обслуживание, двух оставшихся вполне достаточно для поддержания необходимого микроклимата. Использовалось оборудование компании Liebert.
Система охлаждения — чисто воздушная. Для имеющейся плотности упаковки ее оказалось вполне достаточно. Кстати, это еще один повод оценить преимущества систем на базе AMD Opteron. Хотя при выборе платформы это преимущество и не было решающим. Воздушная система, на наш взгляд, надежнее и проще в эксплуатации, а водяная намного тяжелее. А ведь даже для того, что есть, нам пришлось вести комплекс строительных работ.
Насколько сложен был процесс портирования приложений? И справедливо ли утверждение, что ПО для подобных систем проще переписать заново?
В основном мы используем ПО собственной разработки. Отчасти это то, что раньше использовалось на ПК, но потом было перенесено на кластер, отчасти — то, что разрабатывалось заново, с учетом работы на кластере. Сложности в процессе переноса ПО безусловно есть: требуются изменения в алгоритмах. Но с другой стороны, процесс переноса приложений понятен и неплохо отработан. «Белых пятен» нет, и заниматься научной работой программистам почти не приходится. Методика ясна, грубо говоря, она выглядит так: берется задача, в ней ищутся параллельные блоки, и пишется вариант этой самой задачи, адаптированный под модель параллельных вычислений.
Но с тем, что приходится писать заново, совсем не так. Основной объем работ приходится на алгоритмизацию, и заново их никто проделывать не будет. Никто не будет опять разрабатывать методики вычислений, менять интерфейсы и форматы данных. Проектировать заново придется лишь непосредственно вычислительную часть с учетом возможности распараллеливания процессов.
В целом мы используем то, что наработано в индустрии. Это стандарты протоколов, стандарты ПО, в том числе свободного, и всё, что наработано вокруг grid-технологий. Могу посоветовать осмотреться, поучиться у тех, кто начал раньше, и затем использовать на реальных задачах. Все это позволит действительно начать работать. Если бы нам пришлось придумывать всё с нуля, было бы очень тяжело.
Каковы перспективы и планы использования вычислительного центра НИИР?
Сегодня у нас существуют два перспективных направления развития центра. Первый из них связан с усилением его прикладной функциональности, с ее расширением на все области деятельности ФГУП НИИР, где такая система целесообразна. Это, во?первых, расчет объектовой электромагнитной совместимости — взаимного влияния электромагнитных полей различных излучающих и приемных устройств путем прямого решения уравнений электромагнитного поля. Во-вторых, расчет зон покрытия электромагнитного излучения диапазона 0,1—5 ГГц — условий приема сигналов от различных систем телекоммуникации (телевидение, Tetra, WiMAX, 3G—4G и др.) с целью оптимизации их размещения. В?третьих — поддержка процессов проектирования и оптимизации создания электронных приборов и их элементной базы, а также общетехническое конструирование устройств.
Кроме того, интересным является использование ресурсов ВЦ НИИР как экспериментальной площадки для создания элементов национальной grid-инфраструктуры. Речь идет о формировании комплекса мероприятий по её созданию, разработке целевых индикаторов и показателей, ресурсной оценке, разработке архитектуры, а также принципов и решений по построению высокоскоростной телекоммуникационной инфраструктуры для задач grid.
Наша задача — использовать комплекс высокопроизводительных вычислений с максимальной пользой не только в интересах самого ФГУП НИИР, но и с привлечением самых разных организаций. Технология grid имеет хорошие перспективы, и ФГУП НИИР стремится быть в числе лидеров ее развития в России.http://www.iemag.ru/interview/detail.php?ID=18116

Вернуться в Радиочастоты (РЭС)


Поделиться

Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 1