@sonvs一个ai小白想请教8b模型的训练问题 中发帖

我租了一个8卡的服务器,我以为微调8b模型应该很快的,t4性能也不算差吧,为什么感觉训练过程很慢,比如sft要两三天才能完成,这个正常吗? 
当前流程: 

底座模型:Qwen3-8B
第一阶段:SFT 已完成
当前阶段:在合并后的 SFT 模型上继续做 ORPO 偏好训练

硬件: 

8 x Tesla T4
每张 16GB 显存
总显存约 120GB+

训练设置: 

4bit + LoRA
per_device_train_batch_size=1
gradient_accumulation_steps=4
optimizer=paged_adamw_8bit
device_map=auto
多卡训练,但还没上 FSDP / ZeRO

偏好数据规模: 

train: 6497
val: 797
总 preference pairs: 7294

序列长度分布(截断前): 

p...
 
 
Back to Top