Вопросы по теме 'supercomputers'

Практично ли это на маленьком суперкомпьютере?
Я изучаю WEP и в рамках этого экспериментирую с алгоритмом RC4. Я пытаюсь решить, можно ли написать обратную таблицу (хотя и большая... У меня нет места, и я не собираюсь ее писать). Для этого я решил проверить, сколько совпадающих выходов есть в...
852 просмотров
schedule 19.03.2023

Можно ли использовать WebWorkers в качестве суперкомпьютеров?
На самом деле это общий вопрос, не уверен, что это место для него (он может быть удален как довольно общий), поэтому, пожалуйста, не перебивайте (мне просто любопытно). Я читал об API WebWorkers и подумал. WebWorkers можно ограничить...
867 просмотров
schedule 15.06.2023

Наивное распараллеливание в файле .pbs
Можно ли распараллелить цикл for в файле PBS? Ниже приведен файл моей попытки.pbs. Я хотел бы выделить 4 узла и одновременно выделить 16 процессов на узел. Я успешно сделал это, но теперь у меня есть 4 задания, и я хотел бы отправить по одному...
131 просмотров

Что такое Rmax/RPeak (Ratio) с точки зрения суперкомпьютера?
Я работаю над базой данных суперкомпьютера top500.( http://www.top500.org/ ) Rmax is maximum performance RPeak is theorotical maximum performance. Соотношение Rmax к RPeak приводит к чему-то? Например, эффективность? или что-нибудь,...
3338 просмотров
schedule 13.07.2023

параллельная обработка: файл класса имеет неправильную версию 49.0, должна быть 48.0
Я запускаю свой код на суперкомпьютере с помощью используемого терминала. У меня есть 2 вида кода: 1-последовательный и параллельный (общая память) последовательный работает правильно, но когда я запускаю SM, у меня возникает эта ошибка, когда я...
62 просмотров

Производительность MPI_Reduce по сравнению с (MPI_Gather + Reduction на корне)
Суперкомпьютер CRAY с использованием библиотеки MPICH2. Каждый узел имеет 32 процессора. У меня есть один поплавок для N разных рангов MPI, где каждый из этих рангов находится на другом узле. Мне нужно выполнить операцию сокращения для этой...
1207 просмотров
schedule 11.04.2022

SLURM Удивительно параллельное подчинение, требующее слишком много ресурсов
поэтому у меня есть следующий сценарий отправки: #!/bin/bash # #SBATCH --job-name=P6 #SBATCH --output=P6.txt #SBATCH --partition=workq #SBATCH --ntasks=512 #SBATCH --time=18:00:00 #SBATCH --mem-per-cpu=2500 #SBATCH --cpus-per-task=1 #SBATCH...
168 просмотров