Отчет по междисциплинарному интеграционному проекту №113 со ран за 2010 год




Скачать 177.85 Kb.
НазваниеОтчет по междисциплинарному интеграционному проекту №113 со ран за 2010 год
Дата конвертации28.10.2012
Размер177.85 Kb.
ТипОтчет


РОССИЙСКАЯ АКАДЕМИЯ НАУК
СИБИРСКОЕ ОТДЕЛЕНИЕ


Отчет по междисциплинарному интеграционному
проекту № 113 СО РАН за 2010 год


Разработка вычислительных методов, алгоритмов
и аппаратурно-программного инструментария параллельного
моделирования природных процессов”


(промежуточный)


Исполнители:

  • Институт физики полупроводников (ИФП) СО РАН

  • Институт вычислительных технологий (ИВТ) СО РАН

  • Институт вычислительной математики и математической геофизики (ИВМиМГ) СО РАН

  • Институт теоретической и прикладной механики (ИТПМ) СО РАН

  • Институт ядерной физики (ИЯФ) СО РАН

  • Институт физики прочности и материаловедения (ИФПМ) СО РАН

  • Институт цитологии и генетики (ИЦиГ) СО РАН




Координатор проекта 

чл. корр. РАН


_____________________


В.Г. Хорошевский












Новосибирск
2010

ОТВЕТСТВЕННЫЕ ИСПОЛНИТЕЛИ ПРОЕКТА



Учёный секретарь проекта,
ответственный исполнитель от ИФП СО РАН

к.т.н.

___________

М.Г. Курносов










Ответственный исполнитель от ИВТ СО РАН

д.ф.-м.н.

___________

М.П. Федорук










Ответственный исполнитель от ИВМиМГ СО РАН
д.ф.-м.н.

___________

В.А. Вшивков










Ответственный исполнитель от ИТПМ СО РАН

д.ф.-м.н.

___________

И.В. Швейгерт










Ответственный исполнитель от ИЯФ СО РАН

д.ф.-м.н.

___________

А.В. Бурдаков










Ответственный исполнитель от ИФПМ СО РАН

к.ф.-м.н.

___________

А.Ю. Смолин










Ответственный исполнитель от ИЦиГ СО РАН

академик РАН

___________

Н.А. Колчанов



1. Аппаратурно-программный инструментарий параллельного моделирования
природных процессов


1.1. Развитие пространственно-распределенной мультикластерной ВС

Развита конфигурация пространственно-распределенной мультикластерной вычислительной системы (ВС). В состав сегмента F включено 8 вычислительных узлов на базе четырехъядерных процессоров Intel Xeon E5420 (рис. 1.1). Ресурсы мультикластерной ВС подключены к VPN-сети программы “Университетский кластер” (Институт системного программирования РАН). Текущая конфигурация системы включает больше 200 процессорных ядер и имеет производительность несколько TFLOPS.

Выполнена интеграция ресурсов системы средствами пакетов Globus Toolkit и GridWay. Последнее обеспечивает возможность безопасной передачи информации с единой точкой аутентификации между сегментами системы и предоставляет средства поиска вычислительных ресурсов для задач пользователей с учетом загрузки подсистем и каналов связи между ними.



Рис. 1.1. Конфигурация пространственно-распределенной мультикластерной
вычислительной системы (ноябрь 2010 года)


1.2. Алгоритмы реализации коллективных обменов информацией между ветвями параллельных программ в мультиархитектурных распределенных ВС

При разработке параллельных алгоритмов и программ используются алгоритмы коллективных обменов, при которых информация одновременно передается между несколькими параллельными ветвями (например, в стандарте MPI One-to-all Broadcast, All-to-One Reduce/Gather, All-to-All Broadcast). В ходе выполнения проекта разработан метод оптимизации алгоритмов коллективных обменов информацией, учитывающий мультиархитектурную организацию и иерархическую структуру современных распределенных ВС. В основе метода лежит процедура распределения параллельных ветвей программы, обменивающихся большими объемами данных при реализации коллективной операции заданным алгоритмом, на ЭМ одного вычислительного узла распределенной ВС. Это обеспечивает локализацию взаимодействий ветвей через каналы связи вычислительного узла и, как следствие, сокращение времени информационных обменов.

На рис. 1.2 показано применение описанного метода для алгоритма Дж. Брука (алгоритм реализации трансляционно-циклического обмена, All-to-All Broadcast – MPI_Allgather) на кластерной ВС с иерархической структурой.



а



б

Рис. 1.2. Пример оптимизации алгоритма Дж. Брука (n = 8): 
а – разбиение графа алгоритма Дж. Брука на два подмножества;
б – (суб)оптимальное перераспределение π(i) номеров ветвей между
процессорными ядрами кластера


Моделирование алгоритмов трансляционно-циклических обменов, созданных на основе предложенного метода, показало их превосходство во времени выполнения обменов в 1,1 – 4 раза по сравнению с известными алгоритмами. Предложенный метод реализован в свободно-распространяемой библиотеке коммуникационных функций TopoMPI.

Предложенный метод допускает эффективную параллельную реализацию и не предъявляет существенных требований к объему оперативной памяти, что обеспечивает возможность его применения в большемасштабных распределенных ВС.

1.3. Анализ эффективности функционирования распределенных ВС

При анализе эффективности функционирования распределенных вычислительных систем используются показатели осуществимости решения параллельных задач. В ходе выполнения проекта рассмотрены стохастические модели функционирования ВС: функционирование ВС
в режиме обслуживания потока задач без очередей и функционирование ВС в режиме обработки набора задач.

В рамках этих моделей предложен подход к нахождению показателей осуществимости параллельного решения задач на распределенных ВС. Решения представлены в аналитическом виде для переходного и стационарного режимов работы ВС. Их вывод основан на теории случайных процессов, развитых методах теории массового обслуживания, теории восстановления и аппарате производящих функций. Полученные формулы просты и применимы при экспресс-анализе функционирования распределенных ВС.

2. Параллельное моделирование метаматериалов

2.1. Моделирование оптической черной дыры

Оптическая черная дыра (ОЧД) является одним из приборов современной оптики,
который может быть изготовлен с использованием современных искусственных
материалов (метаматериалов).

Проведено моделирование ОЧД на основе метода конечных объемов для решения нестационарных уравнений Максвелла на неструктурированных сетках (рис. 2.1).



Рис. 2.1. Расчет амплитуды поля в ОЧД при падении гауссова пучка под углом 0º и 30º


Осуществлен анализ слоистой ОЧД, в которой каждый слой имеет постоянную диэлектрическую проницаемость и может быть изготовлен с использованием современных метаматерилов. Расчеты показывают, что, начиная с 17 слоев, эффективность поглощения прибора превышает 94% (рис. 2.2).




Рис. 2.2. Расчет амплитуды поля в ОЧД при падении плоской волны
и разном числе однородных слоев l:
a – эффективность поглощения 72%; b – эффективность поглощения 84%;

c – эффективность поглощения 90%; d – эффективность поглощения 94%;

e – эффективность поглощения 99%


Результаты моделирования согласуются с аналитической оценкой эффективности поглощения и могут быть использованы для проектирования и оптимизации реальных приборов.

2.1. Моделирование дисперсионного отклика металлических структур

Металлические структуры микроскопических размеров являются составными частями многих метаматериалов. Построение моделей металлических структур основывается на
уравнениях Максвелла.

Проведено моделирование дисперсионных свойств металлов методом конечных разностей и методом конечных объемов. Для эффективного достижения этой цели применен универсальный подход “обобщенных критических точек” (модель GCP – Generalized Critical Points), имеющий широкое применение в рамках задачи моделирования дисперсионных свойств металлов.

На основе методов конечных разностей и конечных объемов реализован алгоритм расчета вектора поляризации. Также, с учетом дисперсионного отклика металлов на основе GCP разработаны алгоритмы методов конечных разностей и конечных объемов имеющие второй порядок точности по временной и пространственной переменным.

3. Моделирование взаимодействия плазмы с мощным электронным пучком

На многопробочной магнитной ловушке ГОЛ-3 Института ядерной физики СО РАН наблюдается понижение электронной теплопроводности на 2-3 порядка по сравнению с классическим значением в результате релаксации в плазме мощного электронного пучка. Этот эффект представляет большой интерес с точки зрения построения энергетического термоядерного реактора, и на данный момент теоретическое описание его отсутствует. Интерес представляет воспроизведение при параллельном моделировании резонансного взаимодействия релятивистского электронного пучка с плазмой и моделирование возникающей
в дальнейшем турбулентности.

Проведено численное моделирование взаимодействия плазмы с электронным пучком при следующих начальных условиях: температура электронов Te = 1 кэВ, температура ионов Ti = 0, плотность плазмы n = 1017 см-3, отношение плотностей электронов пучка и электронов плазмы равна 10-3, энергия пучка равна 1 МэВ, размер сетки 512×64×64, 150 модельных частиц в ячейке.

Тестирование созданной модели проведено с помощью проверки выполнения законов сохранения энергии и импульса и проверки сходимости результатов при уменьшении шага сетки и увеличении числа модельных частиц. Исследована динамика обмена энергии между ионной и электронной компонентами плазмы в отсутствие пучка. Показано, что теплопроводность модельной плазмы в отсутствие пучка пропорциональна T5/2, что соответствует
классической зависимости.

В результате численного моделирования получена модуляция плотности плазмы с амплитудой равной 3 (относительно начальной плотности плазмы). Обнаружено рассеивание пучка, связанное с развитием неустойчивости, которая сопровождается формированием областей с пониженным коэффициентом теплопроводности. Вследствие релаксации пучка перенос тепла электронами плазмы также значительно уменьшается, и, соответственно, уменьшается коэффициент электронной плазменной теплопроводности.

Коэффициенты переноса в исследуемом процессе носят аномальный характер, и по сравнению с классическими коэффициентами оказываются на 2 порядка меньше. При этом частота столкновений для электронов равна инкременту неустойчивости, возникающей
в модельной плазме.

4. Параллельное моделирование кинетического тлеющего разряда

4.1. Кинетическое моделирование тлеющего разряда

Для решения уравнений Больцмана для электронов и ионов в низкотемпературной плазме тлеющего разряда при низком давлении газа широко используется метод частиц в ячейках с розыгрышем столкновений методом Монте-Карло. Однако, при повышении концентрации плазмы и увеличении размеров области занятой плазмой, расчет задачи с использованием стандартного метода становится затруднительным из-за большой разницы в характерных временах задачи.

Предложена упрощенная модель для кинетического моделирования тлеющего разряда вблизи поверхности, основанная на принципе раздельного рассмотрения термализованых и быстрых электронов (В.A. Швейгерт, И.В. Швейгерт, 1988). Результаты расчетов проведенных с использованием стандартного двухмерного метода частиц и предложенной модели показали применимость последней. Для апробации модели были проведены расчеты трастера, где тлеющий разряд горит в камере с полусферически катодом и цилиндрическим анодом с отверстием в центре. Время расчетов с применением предложенной модели сократилось в 20-30 раз. На рис. 4.1 и 4.2 показаны распределения потенциала и плотности ионов в трастере, полученные с использованием предложенной модели.

С использованием двухмерной гидродинамической модели показано, что при давлениях газа выше 0,2 Торр влияние внешней ионизации на горение разряда вблизи поверхности пренебрежимо мало и становится заметным только при экстремально высокой скорости внешней ионизации, порядка 1014 см-3/с. Программы параллельного моделирования методом частиц в ячейках разработаны с использованием стандартов OpenMP и MPI.





Рис. 4.1. Электрический потенциал:
Р = 1 Торр; j = 10 mA

Рис. 4.2. Плотность ионов:
Р = 1 Торр, j = 10 mA


5. Исследование электромагнитного излучения турбулентной плазмы

5.1. Эмиссия электромагнитных волн субтерагерцового диапазона в многопробочной
ловушке ГОЛ-3




Рис. 5.1. Осциллограммы
диодного напряжения, тока пучка, диамагнитного сигнала
и рентгеновского излучения (вверху)
и микроволновые сигналы
(плотность плазмы 2.51014-3)
Одной из ключевых задач исследования бесстолкновительного нагрева плазмы мощным релятивистским электронным пучком (РЭП) является изучение процессов накачки двухпотоковой неустойчивости пучком и передача энергии от ленгмюровской турбулентности (ЛТ) плазменным электронам. Для многопробочной открытой магнитной ловушки уже были проведены измерения функции распределения по энергии РЭП и нагретых плазменных электронов. Проведено исследование ленгмюровской турбулентности регистрацией электромагнитного (э.-м.) излучения из плазмы ГОЛ-3.

Одним из свойств ЛТ является излучение э.-м. волн на плазменной частоте p в результате конверсии плазмонов на флуктуациях плотности плазмы и на двойной плазменной частоте 2p из-за плазмон-плазмонного взаимодействия. Для его исследования при плотности плазмы 1014-1015 см-3 разработана многоканальная квазиоптическая радиометрическая спектральная диагностика на частотах 100-550 ГГц. Она включает быстрые диоды Шоттки с предусилителями с чувствительностью 1 мкВт – 10 мВт с разрешением 5 нс и использует набор квазиоптических селективных фильтров с полосой 20-60 ГГц на основе металлических сетчатых структур.

Проведено исследование 100-550 ГГц излучения из плотной плазмы ГОЛ-3 в условиях турбулентного нагрева сильноточным РЭП с энергией ~ 0.8 МэВ, током ~ 30 кА, плотностью тока ~ 2кА/см2, длительностью ~ 12 мкс и энергосодержанием ~ 130 кДж.

Эксперименты показали наличие значительного уровня излучения на расстоянии 2-3 м от плазмы длительностью 7-10 мкс. Наблюдается сильная корреляция спектра излучения с динамикой плотности плазмы и уширением спектра в сторону высоких частот во время инжекции РЭП. Результаты измерений спектра излучения сопоставляются с данными по энергетическим спектрам РЭП и лазерному рассеянию. На рис. 5.1 приведен характерный спектр э.-м. излучения из плазмы с пучком.

5.2. Трехмерное моделирование системы пучок-плазма

На многопробочной открытой ловушке ГОЛ-3 ведутся эксперименты по нагреву плазмы электронным пучком. В этих экспериментах было обнаружено явление турбулентного подавления продольной электронной теплопроводности при взаимодействии электронного пучка с плазмой и появление электромагнитных волн на двойной плазменной частоте. Проведено 3-мерное моделирования этих процессов. Численная модель содержит уравнения Власова для электронов и ионов и систему уравнений Максвелла. Уравнения Власова решаются методом частиц в ячейках.

Картина развития пучково-плазменной неустойчивости приводит к модуляции плотности плазмы большой амплитуды. Наблюдается также угловое рассеяние электронов пучка по скоростям. Развитие плазменной неустойчивости сопровождается уменьшением электронной теплопроводности по величине на порядки по сравнению с классическим значением.

Вычислены спектры колебаний плазмы и электромагнитного излучения из плазмы. Наблюдается излучение на двойной плазменной частоте, что соответствует экспериментальным данным (рис. 5.2).



Рис. 5.2. Динамика электромагнитного излучения из плазмы
на плазменной и двойной плазменной частотах


6. Параллельное моделирование методом подвижных клеточных автоматов

Выполнено исследование эффективности созданных параллельных MPI- и OpenMP-программ моделирования методом подвижных клеточных автоматов (ПКА) механического поведения сложных материалов и сред в условиях внешних воздействий.

Проведено параллельное моделирование трибоспектрального подхода к анализу дефектности поверхностных слоев твердых тел (рис. 6.1).




Рис. 6.1. Моделируемая система:
1 – контртело; 2 – керамическое покрытие; 3 – стальная подложка


Моделировался стальной образец с покрытием из керамики ZrO2. Толщина покрытия
H = 60 нм, длина образца L = 500 нм, ширина M = 125 нм, размер автомата d = 3 нм. Керамическое контртело имело форму конуса с диаметром основания 60 нм. Движение контртела моделировалось заданием автоматам его верхней поверхности постоянной скорости V = 5 м/с в горизонтальном направлении. При этом нижняя поверхность образца была неподвижной, а его боковые поверхности свободными. При движении контртела проводилась регистрация силы сопротивления его движению по поверхности, ассоциируемая с силой трения F. Для регистрируемых данных F(t) строилось дискретное преобразование Фурье и анализировались соответствующие спектры.

Поврежденность поверхностного слоя моделировалась заданием наноскописческих протяженных нарушений сплошности покрытия – нанопор. Рассматривалось их периодическое расположение с расстоянием P = 120 нм. Показно, что наличие периодически расположенных нанопор приводит к появлению выраженного низкочастотного пика на спектрах Фурье регистрации силы трения скольжения (рис. 6.2).



Рис. 6.2. Спектры Фурье для образов с нанопорами различной длины:
1 – длина нанопоры 48 нм; 2 – длина нанопоры 72 нм


Частота этого пика вычисляется по формуле V/P, где V – скорость движения индентора, а P – период следования нанопор (в нашем случае 0,15 ГГц). На спектрах можно выделить частоты (~0,07 ГГц и ~0,09 ГГц), отвечающие за размер нанодефектов (~48 нм и ~72 нм).


7. Инструментарий BioinfoWF параллельной обработки молекулярно-генетических данных

Разработан комплекс программ BioinfoWF конвейерной обработки данных для решения задач биоинформатики (рис. 7.1). Элементами конвейера являются программные модули и информационно-логические связи между ними. Система реализована, как клиент-серверное приложение, где клиентская часть реализована в виде Web-сервиса. Серверная часть позволяет запускать отдельные модули конвейера на распределенных вычислительных системах (через системы управления ресурсами Sun Grid Engine и Altair PBS Pro), что позволяет сократить время моделирования. Клиентская часть системы реализована в виде Web-приложения, интерфейс которого генерируется автоматически из XML-описаний программных модулей и конвейера.
В текущей версии клиентской части, возможна работа только с последовательными конвейерами. В будущем планируется разработка новой версии Web-интерфейса, который позволит конструировать конвейеры произвольных структур.



Рис. 7.1. Схема системы конвейерной обработки биоинформационных данных


Сформированы конвейеры для решения ряда задач биоинформатики, в частности конвейеры SAMEM (http://pixie.bionet.nsc.ru/samem) для анализа моделей молекулярной эволюции генов и белков. Созданный конвейер включает программные модули множественного выравнивание последовательностей генов; транслирования белковой последовательности по последовательности ДНК и др.

Создана кроссплатформенная библиотека, использующая для ускорения численных расчётов возможности графического процессора. Модули библиотеки используют различные шейдерные языки и ориентированы на графические подсистемы OpenGL и DirectX. С помощью разработанных программ проведено моделирование динамики модельных генных сетей.

Реализован алгоритм ассемблирования полногеномных последовательностей по результатам массированных экспериментов по секвенированию геномов прокариот и эукариот, получаемых с высокопроизводительных экспериментальных установок.

Разработаны методы поиска функциональных сигналов в промоторах коэкспрессирующихся генов с использованием аппаратурных графических ускорителей.


ПРИЛОЖЕНИЕ. Список публикаций


  1. Хорошевский В.Г. Распределенные вычислительные системы с программируемой структурой // Вестник СибГУТИ. – № 2(10). – 2010. – С. 3-41.

  2. Хорошевский В.Г., Курносов М.Г., Мамойленко С.Н., Поляков А.Ю. Архитектура и программное обеспечение пространственно-распределенных вычислительных систем // Вестник СибГУТИ. – 2010. – № 2 (10). – С. 112 122.

  3. Хорошевский В.Г., Курносов М.Г., Мамойленко С.Н. Пространственно-распределенная мультикластерная вычислительная система: архитектура и программное обеспечение // Вестник ТГУ. Управление, вычислительная техника и информатика (в печати).

  4. Курносов М.Г. Структурно-ориентированный метод оптимизации алгоритмов коллективных обменов в распределенных вычислительных системах // Вестник СибГУТИ. – 2010. – № 2 (10). – С. 54­ 65.

  5. Курносов М.Г. Структурно-ориентированные алгоритмы коллективных обменов в распределенных вычислительных системах // Материалы Международной научно-технической конференции “Суперкомпьютерные технологии: разработка, программирование, применение” (СКТ-2010). – Таганрог: НИИ МВС ЮФУ, 2010. – Т. 2 – С. 62 66.

  6. Курносов М.Г. Оптимизация алгоритмов коллективных обменов в иерархических распределенных вычислительных системах // Вестник ТГУ. Управление, вычислительная техника и информатика (в печати).

  7. Курносов М.Г. Алгоритмы трансляционно-циклических информационных обменов в иерархических распределенных вычислительных системах // Вестник компьютерных и информационных технологий (в печати).

  8. Павский В.А. Павский К.В. Анализ эффективности функционирования распределенных вычислительных систем. // Вестник СибГУТИ – Новосибирск – 2010. -№2(10) – C. 42-47.

  9. Павский В.А., Павский К.В. Математическая модель для расчета показателей функционирования вычислительных систем со структурной избыточностью // Суперкомпьютерные технологии. Разработка, программирование, применение: материалы международной научно-технической конференции. – Таганрог: ТТИ ЮФУ, 2010. – Т.2. – С. 71-73.

  10. Kildishev A.V., Prokopeva L.J., Narimanov E.E. Cylinder light concentrator and absorber: theoretical description. // Optics Express. – 2010. – Vol.18. – P.16646-16662.

  11. Shokin Yu. I., Shtyrina O.V., Fedoruk M.P. Mathematical modelling of nonlinear effects in optical fiber // Russian Journal of Numerical Analysis and Mathematical Modelling. – 2010. – Vol. 25, Issue 1. – P. 93–104.

  12. Kildishev A.V., Prokopeva L.J., Narimanov E.E. An Analysis and Performance Evaluation of the Optical Black Hole // SIAM Conference on Mathematical Aspects of Material, 2010 – Philadelphia, PA, USA. – P. 107.

  13. Kildishev A.V., Prokopeva L.J., Shtyrina O.V., Fedoruk M.P., Narimanov E.E. Optical Black Hole: Design and Performance. // Quantum Electronics and Laser Science Conference, San Jose, CA, USA.-19.05.2010. JWA10.

  14. Prokopeva L.J., Borneman J., Kildishev A.V. Time-domain modeling of metal-dielectric nanostructures characterized by a set of single-pole dispersion terms // 14th Biennial IEEE Conference on Electromagnetic Field Computation (CEFC), Chicago, IL, USA.–2010.–P.1-1.

  15. Снытников А.В. Сравнительный анализ производительности кластерных суперЭВМ на примере задачи о релаксации электронного пучка в высокотемпературной плазме // Вестник Нижегородского университета им. Н.И.Лобачевског (в печати).

  16. Вшивков В.А., Снытников А.В. Вычисление температуры при моделировании высокотемпературной плазмы методом частиц в ячейках на суперЭВМ // Вестник Новосибирского государственного технического университета (в печати).

  17. Snytnikov A.V. Supercomputer simulation of plasma electron heat conductivity decrease due to relativistic electron beam relaxation // Procedia Computer Science, Volume 1, Issue 1, May 2010, Pages 607-615.

  18. Александров А.Л. Моделирование горения поверхностного тлеющего разряда в сверхзвуковом потоке газа с учетом внешней ионизации // Физика плазмы. – 2010 (в печати).

  19. Арискин Д.А., Швейгерт И.В. Модификации метода PIC-MCC для моделирования многокомпонентной плазмы емкостного ВЧ разряда // Вычислительные технологии. - 2010 (в печати).

  20. Швейгерт И.В. Особенности горения тлеющего разряда у поверхности в сверхзвуковом потоке газа при низком давлении // ЖЭТФ. – Т. 137, выпуск 3, 565 (2010).

  21. Александров А.Л., Швейгерт И.В. Взаимодействие поверхностного тлеющего разряда с потоком газа // ЖЭТФ, том 137, выпуск 5, 966 (2010).

  22. Schweigert I.V. Properties of dc discharge near surface in supersonic gas flow at low gas pressure // 9th International Workshop on Magneto-Plasma Aerodynamics, 2010.

  23. Скляров В.Ф., Бурдаков А.В., Кузнецов С.А., и др. Исследование спектра эмиссии субмиллиметрового излучения при турбулентном нагреве плазмы на установке ГОЛ-3. // Тезисы докладов XXXVII Международной (Звенигородской) конференции по физике плазмы и УТС, Звенигород, 2010, С. 56.

  24. Arzhannikov A.V., Burdakov A.V., Kuznetsov S.A. et al. Subterahertz Emission at Strong REB-Plasma Interaction in Multimirror Trap GOL-3. // Abstracts of 8th Intern. Conf. on Open Magnetic Systems for Plasma Confinement, Novosibirsk, Russia, 2010, P.31.

  25. Burdakov A.V., Avrorov A.P., Arzhannikov A.V., et al. New Experiments on the GOL-3 Multiple Mirror Trap // Proceedings of 23rd IAEA Fusion Energy Conference, Daejon, Korea, 2010, EXC/P4-03.

  26. Arzhannikov A.V., Burdakov A.V., Kuznetsov S.A., et al. Generation of Submillimeter Radiation by Strong Plasma Turbulence at Electron Beam – Plasma Interaction // Conference Guide of 35th Int. Conf. on Infrared, Millimeter, and Terahertz Waves “IRMMW-THz 2010”, Italy, 2010. Paper Fr-E1.4.

  27. Kuznetsov S.A., Navarro-Cia M., Gelfand A.V., et al. Ultra-thin mm-wave absorbers based on high-impedance metasurfaces // Conference Guide of 35th Int. Conf. on Infrared, Millimeter, and Terahertz Waves “IRMMW-THz 2010”, Italy, 2010. Paper We-P.93.

  28. Arzhannikov A.V., Burdakov A.V., Kalinin P.V., et al. Subterahertz generation by strong Langmuir turbulence at two-stream instability of high-current 1-MeV REBs // Digest Resports of Int. Symposium “Terahertz Radiation: Generation and Application”, 2010, Novosibirsk, Russia, P. 42. Astrelin V.T, Burdakov, A.V., Vshivkov V.A., et al. 3D Particle-in-cell Simulation of the Beam-plasma System // Abstracts of 8th Intern. Conf. on Open Magnetic Systems for Plasma Confinement, Novosibirsk, Russia, 2010, P.109.

  29. Сергеев В.В., Смолин А.Ю., Добрынин С.А., Коростелев С.Ю., Псахье С.Г. Изучение возможности идентификации наноскопических пор на основе анализа силы трения // Вестник Томского государственного университета. Математика и механика. – 2011.
    (в печати).

  30. Smolin A.Yu., Roman N.V., Psakhie S.G. Description of rotation in the movable cellular automaton method // Discrete Element Method. Simulation of Discontinua: Theory and Applications. Proceedings of the Fifth International Conference on Discrete Element Method. – London: Queen Mary, University of London. – 2010. – P. 63-68.

  31. Psakhie S.G., Shilko E.V., Smolin A.Yu., Asrtafurov S.V., Panchenko A.Yu. Development of discrete element method for simulation of deformation and fracture of heterogeneous elastoplastic materials // Discrete Element Method. Simulation of Discontinua: Theory and Applications. Proceedings of the Fifth International Conference on Discrete Element Method. – London: Queen Mary, University of London. – 2010. – P. 250–255.

  32. Konovalenko Ig.S. Dmitriev A.I., Dobrynin S.A., Smolin A.Yu. Numerical study of the influence of parameters of defects on the strength properties of brittle coating // Proceedings of the XXXVII Summer School “Advanced problems in mechanics (APM’ 2010)”, St. Petersburg (Repino) 01–05 July, 2009; Editors: D.A. Indeitsev, A.M. Krivtsov – St. Petersburg: Institute for problems in mechanical engineering, 2010. – P. 339–345.

  33. Roman N.V., Smolin A.Yu., Konovalenko I.S., Psakhie S.G. Influence of porosity percolation on strength and elastic properties of ceramic materials. 3D simulation using movable cellular automata method // Proceedings of the XXXVII Summer School “Advanced problems in mechanics (APM’ 2010)”, St. Petersburg (Repino) 01–05 July, 2009; Editors: D.A. Indeitsev, A.M. Krivtsov – St. Petersburg: Institute for problems in mechanical engineering, 2010. –
    P. 575–580.

  34. Sergeev V.V., Smolin A.Yu., Korostelev S.Yu., Dobrinin S.A. Modeling tribospectroscopy using movable cellular automata // Proceedings of the XXXVII Summer School “Advanced problems in mechanics (APM’ 2010)”, St. Petersburg (Repino) 01–05 July, 2009; Editors: D.A. Indeitsev, A.M. Krivtsov – St. Petersburg: Institute for problems in mechanical engineering, 2010. –
    P. 603–608.

  35. Smolin A.Yu., Dmitriev A.I., Dobrynin S.A., Kolubaev E.A. Time-frequencies analysis of acoustic vibration in friction: comparison of experiment and simulation // Proceedings of the XXXVII Summer School “Advanced problems in mechanics (APM’ 2010)”, St. Petersburg (Repino) 01–05 July, 2009; Editors: D.A. Indeitsev, A.M. Krivtsov – St. Petersburg: Institute for problems in mechanical engineering, 2010. – P. 659–664.

  36. Сергеев В.В., Коростелев С.Ю., Смолин А.Ю., Псахье С.Г. Программный интерфейс для создания систем моделирования, основанных на дискретных методах // Труды XI международной научно-практической конференции «Современные информационные и электронные технологии», 24-28 мая 2010 г., Одесса, Украина. – 2010. С.181

  37. Рудниченко К.А., Куликов А.И., Титов И.И. 2010. Компьютерный анализ словарных сетей. Проблемы информатики, № 3(7), C. 81-88.

  38. Fomin E.S. Comparison of the Verlet Table and Cell-Linked List Algorithms on the Parallel Architecture // Вычислительные методы и программирование, Т.11, Раздел 1. C. 299-305.

  39. Фомин Э.С., Алемасов Н.А., Матвиенко С.А. Сравнительный анализ производительности процессоров PowerXCell8i и Intel X7560 на примере задач молекулярной динамики // Труды Х Международной конференции “Высокопроизводительные параллельные вычисления на кластерных системах” (HPC2010), 2010.

  40. Алемасов Н.А., Фомин Э.С. Эффективная реализация алгоритма расчёта
    ближних невалентных взаимодействий на процессоре PowerXCell8i // Вычислительные
    системы, 2010.



Добавить в свой блог или на сайт

Похожие:

Отчет по междисциплинарному интеграционному проекту №113 со ран за 2010 год iconРабочая программа по учебному курсу «Российская и всеобщая история» 7 класс Базовый уровень Учитель Халиуллин И. Ф. 2011- 2012 учебный год
Рао (от 07. 07. 2006) и ран (от 16. 10. 2006), заключения рао (от 03. 11. 2005) и ран (от 03. 10. 2005), заключения рао (от 06. 08....

Отчет по междисциплинарному интеграционному проекту №113 со ран за 2010 год iconОтчет по проекту №3703 «Античная демократия, ее сторонники и критики»
Аннотированный отчет по проекту №3703 «Античная демократия, ее сторонники и критики» аналитической ведомственной целевой программы...

Отчет по междисциплинарному интеграционному проекту №113 со ран за 2010 год iconИтоги за 2010 2011 учебный год Заведующий мдоу «Детский сад общеразвивающего вида №113»

Отчет по междисциплинарному интеграционному проекту №113 со ран за 2010 год iconОтчет по результатам работы за 2010 год
Представляя Вашему вниманию годовой отчет за 2010 год ОАО «дск№2», являющегося одним из лидирующих предприятий отрасли, хотел бы...

Отчет по междисциплинарному интеграционному проекту №113 со ран за 2010 год iconОтчет по целевой программе Президиума ран «Поддержка молодых ученых» за 2009 год
...

Отчет по междисциплинарному интеграционному проекту №113 со ран за 2010 год iconПубличный отчет 2010- 2011 учебный год
На основании анализа работы школы за 2009/2010 учебный год коллектив школы выдвинул на 2010/2011 учебный год следующие образовательные...

Отчет по междисциплинарному интеграционному проекту №113 со ран за 2010 год iconГодовой отчет Открытого акционерного общества «Карелэнергоремонт» по результатам работы за 2010 год
Позвольте мне довести до Вас основные итоги финансово-хозяйственной деятельности ОАО «Карелэнергоремонт» за 2010 год и кратко обозначить...

Отчет по междисциплинарному интеграционному проекту №113 со ран за 2010 год iconОтчет за 2009 год по проекту рффи 09-03-00493-а
Влияние реакционной среды на закономерности образования полимерных форм элементного фосфора

Отчет по междисциплинарному интеграционному проекту №113 со ран за 2010 год iconОтчет за 201 2 год по проекту рффи 11-04-97023-р поволжье а
Физиологические подходы к повышению засухоустойчивости зерновых культур и отбору засухоустойчивых форм

Отчет по междисциплинарному интеграционному проекту №113 со ран за 2010 год iconОтчет за 2012 год по проекту рффи 11-04-97023-р поволжье а
Физиологические подходы к повышению засухоустойчивости зерновых культур и отбору засухоустойчивых форм


Разместите кнопку на своём сайте:
lib.convdocs.org


База данных защищена авторским правом ©lib.convdocs.org 2012
обратиться к администрации
lib.convdocs.org
Главная страница