Skip to content

随机性问题 #15

@fyz0501

Description

@fyz0501

您好,感谢你们杰出的工作。
我在复现这篇工作的时候遇见了一些问题,在llm_cls的阶段,我使用同样的模型(和本文一样都是llama-7b)和同样的训练参数情况下,仅改变了训练的命名进行了两组实验,实验结果却出现了较大的差距(如PRAUC,一组可以达到0.8045,而另一组仅有0.7462),并且第二次进行类似的实验时也出现了这样的现象。我想问下作者在训练时是否有出现类似的情况?如果这属于常见现象,我觉得这个结果波动得有点大。另外,我将两组实验的training_args.bin打印出来,发现seed都是42,不知道是否存在哪里的随机性没有固定下来导致了这种现象呢?
期待您的回复,谢谢☀

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions