记录一下常用的指令
module avail #查看所有可用模块
Lsf文件例子
#BSUB -q e5v4p100ib
#BSUB -J train
#BSUB -gpu num=2
#BSUB -o out.txt
#BSUB -e error.txt
module load anaconda/3 cuda/10.0.130
source activate Kevinpro
./run.sh
查看作业
查看自己已提交或正在运行,但尚未结束的作业:bjobs
查看上述中某个特定作业的的详细信息:bjob -l JOBID
查看历史作业:bhist
查看正在运行作业的输出:bpeek JOBID
终止作业:bkill JOBID
设置作业最先运行:btop JOBID
设置作业最后运行:bbot JOBID
仅能对自己提交的作业进行排序
查看节点当前负载信息:lsload
查看节点配置和资源:lshosts
查看所有节点作业状态:bhosts
查看队列
使用bqueues -l可以查看每个队列的相信信息
QUEUE_NAME:队列名称
PRIO:队列优先级,越大优先级越高
STATUS:队列状态。Open/Closed表示是否可以提交,即用户是否可以提交作业到该队列;Active/Inact表示否可以派发,即该队列的作业是否会被分发到计算节点运行。Open:Active表示可提交可派发,Open:Inact表示可提交但是不派发。
NJOBS:排队、运行和挂起的作业所占总CPU核数
PEND:排队中的作业所需总CPU核数
RUN:运行中的作业所占总CPU核数
SUSP:挂起的作业所占总CPU核数
GPU队列
常用队列
6148v100ib队列计算节点(10.072 TFLOPS):
购置者:赵宇心100%
1*Lenovo ThinkSystem SR650
Hostname: x003
CPU: 2*Intel Xeon Gold 6148 (20 Cores, 27.5MB Cache, 2.40 GHz)
RAM: 192 GB, 6 Channels, DDR4-2666 ECC RDIMM, Bandwidth: 255.6 GB/s
GPU: NVIDIA Tesla V100 PCIe 16GB (5120 CUDA Cores 1246MHz, 16GB HBM2 876MHz 4096-bit 900 GB/s, PCIe 3.0 x16)
SSD: LITEON, 128GB, M.2 SATA 6Gb/s
Network: Gigabit Ethernet, 56 Gbit/s FDR InfiniBand
62v100ib队列计算节点(65.6 TFLOPS):
购置者:公共共享100%
1*Inspur NF5468M5-S
Hostname: n002
CPU: 2*Intel Xeon Gold 6248 (20 Cores, 27.5MB Cache, 2.50 GHz)
RAM: 768 GB, 6 Channels, DDR4-2933 ECC RDIMM, Bandwidth: 281.6 GB/s
GPU: 8*NVIDIA Tesla V100 SXM2 32GB (5120 CUDA Cores 1290MHz, 32GB HBM2 876MHz 4096-bit 900 GB/s, NVLink, PCIe 3.0 x16)
SSD: 2*Samsung Enterprise SSD PM883, 32-layer TLC, 480GB 683TBW, 2.5-inch SATA 6Gb/s, RAID1
Cache: 4*Intel SSD DC P4510, 64-Layer TLC 3D NAND, 2TB 2.61PBW, U.2 15mm, PCIe 3.1 x4 NVMe
Network: 10 Gigabit Ethernet, 100 Gbit/s EDR InfiniBand
https://hpc.nju.edu.cn/zh/resource/127-%E8%AE%A1%E7%AE%97%E8%B5%84%E6%BA%90
查看GPU
查看节点GPU配置和拓扑结构:lshosts -gpu
查看节点GPU整体负载:lsload -gpu
查看节点每个GPU负载:lsload -gpuload
提交作业时使用 -gpu 选项申请所需的GPU资源,计算进程只可见作业调度系统分配的GPU。CPU核自动按照申请节点GPU的比例分配,如一节点8个GPU和40个CPU核,申请2个GPU则分配10个CPU核。
-gpu的各个参数用:分隔,常用参数如下
num=number:每台主机需要GPU的数量
mode=shared | exclusive_process:GPU运行模式,shared对应NVIDIA DEFAULT、exclusive_process对应NVIDIA EXCLUSIVE_PROCESS
aff=yes | no:是否进行GPU-CPU亲和性绑定
例:提交一个需要1个GPU的作业到e5v4p100ib队列
bsub -q e5v4p100ib -gpu num=1 ./gpu_app
例:提交一个需要4个GPU的作业到62v100ib队列,进行GPU-CPU绑定
bsub -q 62v100ib -gpu "num=4:aff=yes" ./gpu_app
查看GPU
查看节点GPU配置和拓扑结构:lshosts -gpu
查看节点GPU整体负载:lsload -gpu
查看节点每个GPU负载:lsload -gpuload
参考文件
module用法
https://blog.mrzhenggang.com/supercomputer-courses-module/#%E6%BA%90%E7%A0%81%E5%AE%89%E8%A3%85