тлдр; Импортируйте правильный путь кондора в ваш скрипт отправки Python вверху.
Я действительно не понимаю, как работает кондор, но кажется, что как только я указал правильный путь к python вверху для текущей среды, он начал работать. Итак, проверьте, где находится ваша команда Python:
(automl-meta-learning) miranda9~/automl-meta-learning $ which python
~/miniconda3/envs/automl-meta-learning/bin/python
затем скопируйте и вставьте это в начало вашего скрипта отправки Python:
#!/home/miranda9/miniconda3/envs/automl-meta-learning/bin/python
Я хотел бы включить все это в файл job.sub
. Если вы знаете, как, пожалуйста, дайте мне знать.
Если мой скрипт отправки вам полезен:
####################
#
# Experiments script
# Simple HTCondor submit description file
#
# reference: https://gitlab.engr.illinois.edu/Vision/vision-gpu-servers/-/wikis/HTCondor-user-guide#submit-jobs
#
# chmod a+x test_condor.py
# chmod a+x experiments_meta_model_optimization.py
# chmod a+x meta_learning_experiments_submission.py
# chmod a+x download_miniImagenet.py
#
# condor_submit -i
# condor_submit job.sub
#
####################
# Executable = meta_learning_experiments_submission.py
# Executable = automl-proj/experiments/meta_learning/meta_learning_experiments_submission.py
# Executable = ~/automl-meta-learning/automl-proj/experiments/meta_learning/meta_learning_experiments_submission.py
Executable = /home/miranda9/automl-meta-learning/automl-proj/experiments/meta_learning/meta_learning_experiments_submission.py
## Output Files
Log = condor_job.$(CLUSTER).log.out
Output = condor_job.$(CLUSTER).stdout.out
Error = condor_job.$(CLUSTER).err.out
# Use this to make sure 1 gpu is available. The key words are case insensitive.
REquest_gpus = 1
# requirements = ((CUDADeviceName = "Tesla K40m")) && (TARGET.Arch == "X86_64") && (TARGET.OpSys == "LINUX") && (TARGET.Disk >= RequestDisk) && (TARGET.Memory >= RequestMemory) && (TARGET.Cpus >= RequestCpus) && (TARGET.gpus >= Requestgpus) && ((TARGET.FileSystemDomain == MY.FileSystemDomain) || (TARGET.HasFileTransfer))
# requirements = (CUDADeviceName == "Tesla K40m")
# requirements = (CUDADeviceName == "Quadro RTX 6000")
requirements = (CUDADeviceName != "Tesla K40m")
# Note: to use multiple CPUs instead of the default (one CPU), use request_cpus as well
Request_cpus = 8
# E-mail option
Notify_user = [email protected]
Notification = always
Environment = MY_CONDOR_JOB_ID= $(CLUSTER)
# "Queue" means add the setup until this line to the queue (needs to be at the end of script).
Queue
Я сказал, что использую скрипт отправки Python, поэтому позвольте мне скопировать его верхнюю часть:
#!/home/miranda9/miniconda3/envs/automl-meta-learning/bin/python
import torch
import torch.nn as nn
import torch.optim as optim
# import torch.functional as F
from torch.utils.tensorboard import SummaryWriter
Я не отправляю скрипт bash с аргументами, аргументы находятся внутри моего скрипта python. Я не знаю, как использовать bash, так что это работает лучше для меня.
Эталонное решение: https://stackoverflow.com/a/64484025/1601580
person
Charlie Parker
schedule
22.10.2020