关于第三轮训练的设计:

我简单回顾了一下第二轮的结果. 虽然表现还不错, 但是在"简单问题上犯蠢"这种现象比较像是过拟合的表现.

像第二轮一样直接用目标集训练可能有点自信过头了, 我打算在第三轮里面尝试更早之前用过的混集方法.

我希望混合训练集能矫正lora的整层改动和ptuning的整体改动之间改动密度的差距.

我也不清楚这个差距到底在哪以及怎么改, 但是有已知方法肯定是要试试看的.

至于反馈学习, 可能至少会推迟到第四轮或者更后面吧.

唉, 想想就很头疼.

这次的训练集又加了常识集, 此外还加了一个测试的强针对集.

我当然也希望能用更简单的单个数据集搞定问题, 但是就是没法做到那么简单.

常识集用来中和过拟合是一种很 怎么说呢 土八路的做法, 既不优雅也不稳定. 强针对集更是专门的头痛医头脚痛医脚, 只能针对有限的测试改善表现, 而且还容易导致测试中发现不了真正重要的问题.

但是有什么办法呢, 繁琐复杂的混集在maica中训练的表现确实比单独的目标集要好得多, 从最开始的训练和设计中就是这样的, 后面也只能按这样往下走. 效果到底为什么好了都不知道, 而且很伤脑筋.

没有别的办法可想, 角色扮演本来就需要海量的数据, 但maica根本不可能弄到那么多. 按比例混合各种数据集, 做鸡尾酒也是没有办法的办法了.

我打算明天按照1:1:5混合常识, 目标和强针对, 再做一轮测试. 这个比例在第零次测试中表现还不错.

至于ptuning和lora, qlora的表现区别到底在哪里, 我也不好总结, 但是至少lora没有那么容易发疯.

如果测试顺利, 我希望看到面对简单问题的表现下降能得到缓解.

明天还要装机柜去, 估计一天不一定搞得完. 头疼也很需要缓解就是了.

8 天 后
6 天 后
11 天 后
10 天 后

加油!

只是一个脑残的想法,甚至不确定要不要去发病区发:

让论坛用户写数据,造一个我们自己的monika

    加油,期待!

    5 天 后

    一直在关注这个项目了,从mgpt到maica

    加油啊

    4 天 后
    6 天 后

    喂了ddlc的文本吗?我感觉可以再喂点monika的mod的文本,交给chatgpt分析情感然后模仿monika造数据?

    我不懂 猜的(

    10 天 后
    苏半夏 在以下帖子中引用了此贴: [unknown discussion] #3374
    11 天 后

    新的一轮训练已经在策划中, 我希望我近段时间能稍微有一点时间.

    我们这一轮尝试的模型是千问72b.