commit
df16aad012
@ -2,13 +2,13 @@ export WANDB_DISABLED=true
|
||||
wandb offline
|
||||
CUDA_VISIBLE_DEVICES=0 nohup python finetune_kopa.py \
|
||||
--base_model 'YOUR LLM PATH' \
|
||||
--data_path 'data/UMLS-train.json' \
|
||||
--data_path 'data/CoDeX-S-train.json' \
|
||||
--output_dir 'YOUR SAVE PATH' \
|
||||
--num_epochs 3 \
|
||||
--lora_r 32 \
|
||||
--lora_r 64 \
|
||||
--learning_rate 3e-4 \
|
||||
--batch_size 12 \
|
||||
--micro_batch_size 12 \
|
||||
--num_prefix 1 \
|
||||
--kge_model 'data/UMLS-rotate.pth' \
|
||||
--kge_model 'data/CoDeX-S-rotate.pth' \
|
||||
--lora_target_modules='[q_proj,k_proj,v_proj,o_proj]' > log.txt &
|
@ -1,13 +1,14 @@
|
||||
export WANDB_DISABLED=true
|
||||
wandb offline
|
||||
CUDA_VISIBLE_DEVICES=1 nohup python finetune.py \
|
||||
CUDA_VISIBLE_DEVICES=0 nohup python finetune_kopa.py \
|
||||
--base_model 'YOUR LLM PATH' \
|
||||
--data_path 'preprocess/UMLS-train.json' \
|
||||
--data_path 'data/FB15K-237N-train.json' \
|
||||
--output_dir 'YOUR SAVE PATH' \
|
||||
--num_epochs 3 \
|
||||
--lora_r 64 \
|
||||
--learning_rate 3e-4 \
|
||||
--batch_size 12 \
|
||||
--micro_batch_size 12 \
|
||||
--lora_r 32 \
|
||||
--learning_rate 3e-4 \
|
||||
--num_prefix 1 \
|
||||
--kge_model 'data/FB15K-237N-rotate.pth' \
|
||||
--lora_target_modules='[q_proj,k_proj,v_proj,o_proj]' > log.txt &
|
||||
|
Loading…
Reference in New Issue
Block a user