Химия - SLinCA@Home - Приложения

09 июня 2011


Оглавление:
1. SLinCA@Home
2. Текущий статус
3. Приложения
4. Партнеры



Проект SLinCA@Home был создан для поиска неизвестных ранее масштабно-инвариантных закономерностей по результатам экспериментов и моделирования в следующих научных приложениях

Scaling Laws in Cluster Aggregation

SLinCA является первым приложеним портированным на DG инфраструктуру лабораторией физики деформационных процессов ИМФ НАНУ. Ее целью является найти законы масштабной инвариантности в кинетическом сценарии агрегации мономера в кластерах различных видов и в различных научных областях.

Процессы агрегации кластеров исследуются во многих отраслях науки: агрегации дефектов в материаловедении, динамике популяций в биологии, росте и развитии городов в социологии, и т. д. Существующие экспериментальные данные свидетельствуют о наличии иерархической структуры на многих масштабных уровнях. Имеющиеся теории предлагают множество сценариев агрегации кластеров, формирования иерархических структур, и объяснения их масштабно-инвариантных свойств. Для их проверки необходимо использовать мощные вычислительные ресурсы для обработки огромных баз данных экспериментальных результатов. Обычное моделирование одного процесса агрегации кластеров с 10 мономерами занимает приблизительно 1-7 дней на одном современном процессоре, в зависимости от числа шагов в методе Монте-Карло. Выполнение SLinCA в Грид в инфраструктуре распределенных вычислений, позволяет использовать сотни машин с достаточной вычислительной мощностью для моделирования множества сценариев за гораздо более короткие сроки.

Типичные технические параметры для запуска ИРВ-версии приложения SLinCA в глобальной открытой инфраструктуре распределенных вычислений:

  • Текущие условия для 1 задачи на 1 ядро ЦПУ: время выполнения ~2-4 часа; ОЗУ<60 Мб; НЖМД<40 Мб.
  • Чекпойнтинг: н/д.
  • Хронометраж выполнения заданий: нелинейный.

Научные результаты

Предварительные результаты приложения SLinCA были получены на EGEE вычислительных ресурсах тестовых инфраструктур CETA-CIEMAT и XtremWeb-HEP LAL; опубликованы в 2009 в стендовом докладе 4th EDGeS training event and 3rd AlmereGrid Workshop, Алмере, Нидерланды.

Планы на будущее

Текущая версия приложения SLinCA будет обновлена для стабильности чекпоинтов, новой функциональности и поддержки NVIDIA GPU-расчетов для выполнения анализа быстрее. Дополнительная цель — это миграция на платформу OurGrid для тестирования и демонстрации потенциальных механизмов взаимодействия между мировими сообществами с различными парадигмами распределенных вычислений. SLinCA планируется портировать на платформу OurGrid, ориентированную на поддержку пиринговых настольных гридов, которые, по своей природе, очень отличаются от волонтерских распределенных вычислений на базе «Настольного Грида», как SZTAKI Desktop Grid.


Multiscale Image and Video Processing

Оптическая микроскопия обычно используется для анализа структурных характеристик материалов в узких диапазонах увеличения, небольшой исследуемой области, и в статическом режиме. Однако множество критических процессов, связанных с началом и динамическим распространением разрушения наблюдаются в широком временном диапазоне от 10 с до 10 с и на многих масштабних уровнях от 10 м до 10 м. Приложение Multiscale Image and Video Processing предназначено для обработки записанной эволюции материалов во время механической деформации на испытательной машине. Расчеты включают в себя множество параметров физического процесса и параметров обработки изображения. А потому расчеты очень трудоемки и выполняются очень медленно. Вот почему появилась крайняя необходимость использования более мощных вычислительных ресурсов. Выполнение этого приложения в инфраструктуре распределенных вычислений, позволяет использовать сотни машин с достаточной вычислительной мощностью для обработки изображений и видео в более широком диапазоне масштабов и за гораздо более короткие сроки.

Типичные технические параметры для запуска ИРВ-версии приложения MultiScaleIVideoP на закрытом локальном Настольном Гриде ИМФ:

  • Текущие условия для 1 задачи на 1 ядро ЦПУ: время выполнения ~20-30 мин; ОЗУ<200 Мб; НЖМД<500 Мб.
  • Чекпойнтинг: н/д.
  • Хронометраж выполнения заданий: линейный.

Научные результаты

Предварительные результаты приложения MultiScaleIVideoP были получены на EGEE вычислительных ресурсах тестовых инфраструктур CETA-CIEMAT и XtremWeb-HEP LAL; опубликованы в 2009 в стендовом докладе 4th EDGeS training event and 3rd AlmereGrid Workshop, Алмере, Нидерланды.

В январе, 2011 были получены и опубликованы дальнейшие результаты обработки данных видеонаблюдения в ходе экспериментов с циклическим стесненным нагружением алюминиевой фольги.

Планы на будущее

Текущая версия приложения MultiScaleIVideoP будет обновлена для стабильности чекпоинтов, новой функциональности и поддержки NVIDIA GPU-расчетов для выполнения анализа быстрее.

City Population Dynamics and Sustainable Growth

Известно, что рост городов объясняется миграцией, слиянием, ростом населения и т. д. Так замечено, что распределение городов по их размерам во многих странах подчиняется степенному закону. Эта зависимость подтверждается данными для популяций в различных городах в период их начальной истории. Население во всех крупных городах растет гораздо быстрее, чем страна в целом за значительный диапазон времени. Однако, как и в городах достигших зрелости, их рост может замедлиться или количество населения может даже снизиться по причинам, не связанным с миграцией в еще большие города. Различные теории дают темпы роста, асимптотики, и распределения таких групп населения. Важной особенностью приложения является сравнение имеющихся теорий с данными наблюдений и прогнозирования сценариев динамики устойчивого роста населения для различных национальных и международных регионов. Приложение City Population Dynamics and Sustainable Growth позволяет исследовать связь между огромным объемом экспериментальных данных и найти качественное соответствие между предсказаниями разных моделей и имеющимися историческими данными.

Типичные технические параметры для запуска ИРВ-версии приложения CPDynSG на закрытом локальном Настольном Гриде ИМФ инфраструктуры:

  • Текущие условия для 1 задачи на 1 ядро ЦПУ: время выполнения ~20-30 мин; ОЗУ<20 Мб; НЖМД<50 Мб.
  • Чекпойнтинг: н/д.
  • Хронометраж выполнения заданий: линейный.


Научные результаты

В июне-сентябре 2010 года были получены результаты в отношении концепции, результатов портирования ИРВ-версии приложения CPDynSG на базе платформы Berkeley Open Infrastructure for Network Computing, платформу SZTAKI Desktop Grid, и API для распределенных вычислений от SZTAKI, а также предварительные результаты для распределения размеров городов в нескольких странах Центральной и Восточной Европы. Отмечена характерная изоляция распределения размеров городов в Венгрии, а также jбнаружена очень похожая эволюция распределения по размерам городов в Украине и Польше. Эти результаты были представлены на Cracow Grid Workshop’10 в устном и стендовом докладах. Представленный стенд был отмечен наградой «За лучший стендовый доклад Cracow Grid Workshop’09».

Планы на будущее

Текущая версия приложения CPDynSG будет обновлена для стабильности чекпоинтов, новой функциональности и поддержки NVIDIA GPU-расчетов для выполнения анализа быстрее.

Large-scale Atomic/Molecular Massively Parallel Simulator в инфраструктуре распределенных вычислений

Поиск новых наноразмерных функциональных устройств стал настоящим «Эльдорадо» современной науки и он стимулирует «Золотую лихорадку» в современном материаловедении. Но контролируемое производство наноразмерных функциональных устройств требует тщательного выбора и настройки критических параметров атомной самоорганизации в разрабатываемых моделях и структурах для наномасштабных функциональных устройств. Вот почему молекулярно-динамическое моделирование процессов нанопроизводства с декомпозицией физических параметров и перебором параметров методом «грубой силы» является весьма перспективным. Для этой цели был выбран очень популярный некоммерческий пакет с открытым кодом LAMMPS «Large-scale Atomic/Molecular Massively Parallel Simulator» от Sandia National Laboratories как кандидат для портирования в инфраструктуру распределенных вычислений на основе платформы Berkeley Open Infrastructure for Network Computing, SZTAKI Desktop Grid, и API для распределенных вычислений от SZTAKI. Как правило, для такого моделирования нанообъектов со многими параметрами требуется чрезвычайно много вычислительных ресурсов. Типичное моделирование исследуемых наноструктур для одной конфигурации физических параметров — например, для моделирования физических процессов в течение 1-10 пикосекунд металлических монокристаллов с 10 атомов — требуется приблизительно 1-7 дней на одном современном ЦПУ. Выполнение LAMMPS в Грид в инфраструктуре распределенных вычислений позволяет использовать сотни машин одновременно и получить огромное количество вычислительных ресурсов для проведения моделирования в широком диапазоне физических параметров и в гораздо более короткие сроки.

Типичные технические параметры для запуска ИРВ-версии приложения MultiScaleIVideoP на закрытом локальном Настольном Гриде ИМФ:

  • Текущие условия для 1 задачи на 1 ядро ЦПУ: время выполнения ~2-48 часов; ОЗУ<500 Мб; НЖМД<1 Гб.
  • Чекпойнтинг: н/д.
  • Хронометраж выполнения заданий: линейный.

Научные результаты

В сентябре-октябре 2010 полученные предварительные результаты были представлены в устной презентации на Международной Конференции «Наноструктурные материалы-2010», Киев, Украина

Планы на будущее

Текущаяя версия LAMMPS с применением ИРП приложения будет обновлена для стабильности чекпоинтов, новой функциональности и поддержки NVIDIA GPU-расчетов для выполнения анализа быстрее.



Просмотров: 3701


<<< Nanometer.ru
Термогравиметрия >>>