-
Notifications
You must be signed in to change notification settings - Fork 4
Open
Description
您好,感谢你们杰出的工作。
我在复现这篇工作的时候遇见了一些问题,在llm_cls的阶段,我使用同样的模型(和本文一样都是llama-7b)和同样的训练参数情况下,仅改变了训练的命名进行了两组实验,实验结果却出现了较大的差距(如PRAUC,一组可以达到0.8045,而另一组仅有0.7462),并且第二次进行类似的实验时也出现了这样的现象。我想问下作者在训练时是否有出现类似的情况?如果这属于常见现象,我觉得这个结果波动得有点大。另外,我将两组实验的training_args.bin打印出来,发现seed都是42,不知道是否存在哪里的随机性没有固定下来导致了这种现象呢?
期待您的回复,谢谢☀
Metadata
Metadata
Assignees
Labels
No labels