Вопросы по теме 'supercomputers'
Практично ли это на маленьком суперкомпьютере?
Я изучаю WEP и в рамках этого экспериментирую с алгоритмом RC4. Я пытаюсь решить, можно ли написать обратную таблицу (хотя и большая... У меня нет места, и я не собираюсь ее писать). Для этого я решил проверить, сколько совпадающих выходов есть в...
852 просмотров
schedule
19.03.2023
Можно ли использовать WebWorkers в качестве суперкомпьютеров?
На самом деле это общий вопрос, не уверен, что это место для него (он может быть удален как довольно общий), поэтому, пожалуйста, не перебивайте (мне просто любопытно).
Я читал об API WebWorkers и подумал.
WebWorkers можно ограничить...
867 просмотров
schedule
15.06.2023
Наивное распараллеливание в файле .pbs
Можно ли распараллелить цикл for в файле PBS?
Ниже приведен файл моей попытки.pbs. Я хотел бы выделить 4 узла и одновременно выделить 16 процессов на узел. Я успешно сделал это, но теперь у меня есть 4 задания, и я хотел бы отправить по одному...
131 просмотров
schedule
30.03.2023
Что такое Rmax/RPeak (Ratio) с точки зрения суперкомпьютера?
Я работаю над базой данных суперкомпьютера top500.( http://www.top500.org/ )
Rmax is maximum performance
RPeak is theorotical maximum performance.
Соотношение Rmax к RPeak приводит к чему-то? Например, эффективность? или что-нибудь,...
3338 просмотров
schedule
13.07.2023
параллельная обработка: файл класса имеет неправильную версию 49.0, должна быть 48.0
Я запускаю свой код на суперкомпьютере с помощью используемого терминала.
У меня есть 2 вида кода: 1-последовательный и параллельный (общая память)
последовательный работает правильно, но когда я запускаю SM, у меня возникает эта ошибка, когда я...
62 просмотров
schedule
21.10.2022
Производительность MPI_Reduce по сравнению с (MPI_Gather + Reduction на корне)
Суперкомпьютер CRAY с использованием библиотеки MPICH2. Каждый узел имеет 32 процессора.
У меня есть один поплавок для N разных рангов MPI, где каждый из этих рангов находится на другом узле. Мне нужно выполнить операцию сокращения для этой...
1207 просмотров
schedule
11.04.2022
SLURM Удивительно параллельное подчинение, требующее слишком много ресурсов
поэтому у меня есть следующий сценарий отправки:
#!/bin/bash
#
#SBATCH --job-name=P6
#SBATCH --output=P6.txt
#SBATCH --partition=workq
#SBATCH --ntasks=512
#SBATCH --time=18:00:00
#SBATCH --mem-per-cpu=2500
#SBATCH --cpus-per-task=1
#SBATCH...
168 просмотров
schedule
26.07.2023