作者您好,想请教一下在使用merge_peft_adapter.py代码合并预训练模型7b和训练好的lora模型时,参数--model_type、--tokenizer_path和--resize_emb应该怎样设置才正确,谢谢您! 