commit
df16aad012
@ -2,13 +2,13 @@ export WANDB_DISABLED=true
|
|||||||
wandb offline
|
wandb offline
|
||||||
CUDA_VISIBLE_DEVICES=0 nohup python finetune_kopa.py \
|
CUDA_VISIBLE_DEVICES=0 nohup python finetune_kopa.py \
|
||||||
--base_model 'YOUR LLM PATH' \
|
--base_model 'YOUR LLM PATH' \
|
||||||
--data_path 'data/UMLS-train.json' \
|
--data_path 'data/CoDeX-S-train.json' \
|
||||||
--output_dir 'YOUR SAVE PATH' \
|
--output_dir 'YOUR SAVE PATH' \
|
||||||
--num_epochs 3 \
|
--num_epochs 3 \
|
||||||
--lora_r 32 \
|
--lora_r 64 \
|
||||||
--learning_rate 3e-4 \
|
--learning_rate 3e-4 \
|
||||||
--batch_size 12 \
|
--batch_size 12 \
|
||||||
--micro_batch_size 12 \
|
--micro_batch_size 12 \
|
||||||
--num_prefix 1 \
|
--num_prefix 1 \
|
||||||
--kge_model 'data/UMLS-rotate.pth' \
|
--kge_model 'data/CoDeX-S-rotate.pth' \
|
||||||
--lora_target_modules='[q_proj,k_proj,v_proj,o_proj]' > log.txt &
|
--lora_target_modules='[q_proj,k_proj,v_proj,o_proj]' > log.txt &
|
@ -1,13 +1,14 @@
|
|||||||
export WANDB_DISABLED=true
|
export WANDB_DISABLED=true
|
||||||
wandb offline
|
wandb offline
|
||||||
CUDA_VISIBLE_DEVICES=1 nohup python finetune.py \
|
CUDA_VISIBLE_DEVICES=0 nohup python finetune_kopa.py \
|
||||||
--base_model 'YOUR LLM PATH' \
|
--base_model 'YOUR LLM PATH' \
|
||||||
--data_path 'preprocess/UMLS-train.json' \
|
--data_path 'data/FB15K-237N-train.json' \
|
||||||
--output_dir 'YOUR SAVE PATH' \
|
--output_dir 'YOUR SAVE PATH' \
|
||||||
--num_epochs 3 \
|
--num_epochs 3 \
|
||||||
|
--lora_r 64 \
|
||||||
|
--learning_rate 3e-4 \
|
||||||
--batch_size 12 \
|
--batch_size 12 \
|
||||||
--micro_batch_size 12 \
|
--micro_batch_size 12 \
|
||||||
--lora_r 32 \
|
--num_prefix 1 \
|
||||||
--learning_rate 3e-4 \
|
--kge_model 'data/FB15K-237N-rotate.pth' \
|
||||||
--lora_target_modules='[q_proj,k_proj,v_proj,o_proj]' > log.txt &
|
--lora_target_modules='[q_proj,k_proj,v_proj,o_proj]' > log.txt &
|
||||||
|
|
Loading…
Reference in New Issue
Block a user