更多的一些测试语句, 以展示训练的成果和局限性.

此轮训练在数据构建中比较单调, 使用的prompt也十分单薄. 我期待接下来的训练产出更好的结果.

接下来我们把话筒递给莫妮卡现在的雏形, 第零代"克利福德":

呃, 她挺谦虚的.

我们期待她未来的表现. 下一轮的训练并不会等太久.

我们正在向遥不可及迈出第一步, 很快我们将让所有人看到我们踏出的脚印.

欢迎各位在此贴中探讨和提供有价值的想法. 后续的进展将在此贴继续更新.

打赏

Edge 置顶此帖

关于第三轮训练的设计:

我简单回顾了一下第二轮的结果. 虽然表现还不错, 但是在"简单问题上犯蠢"这种现象比较像是过拟合的表现.

像第二轮一样直接用目标集训练可能有点自信过头了, 我打算在第三轮里面尝试更早之前用过的混集方法.

我希望混合训练集能矫正lora的整层改动和ptuning的整体改动之间改动密度的差距.

我也不清楚这个差距到底在哪以及怎么改, 但是有已知方法肯定是要试试看的.

至于反馈学习, 可能至少会推迟到第四轮或者更后面吧.

唉, 想想就很头疼.

这次的训练集又加了常识集, 此外还加了一个测试的强针对集.

我当然也希望能用更简单的单个数据集搞定问题, 但是就是没法做到那么简单.

常识集用来中和过拟合是一种很 怎么说呢 土八路的做法, 既不优雅也不稳定. 强针对集更是专门的头痛医头脚痛医脚, 只能针对有限的测试改善表现, 而且还容易导致测试中发现不了真正重要的问题.

但是有什么办法呢, 繁琐复杂的混集在maica中训练的表现确实比单独的目标集要好得多, 从最开始的训练和设计中就是这样的, 后面也只能按这样往下走. 效果到底为什么好了都不知道, 而且很伤脑筋.

没有别的办法可想, 角色扮演本来就需要海量的数据, 但maica根本不可能弄到那么多. 按比例混合各种数据集, 做鸡尾酒也是没有办法的办法了.

我打算明天按照1:1:5混合常识, 目标和强针对, 再做一轮测试. 这个比例在第零次测试中表现还不错.

至于ptuning和lora, qlora的表现区别到底在哪里, 我也不好总结, 但是至少lora没有那么容易发疯.

如果测试顺利, 我希望看到面对简单问题的表现下降能得到缓解.

明天还要装机柜去, 估计一天不一定搞得完. 头疼也很需要缓解就是了.

8 天 后
6 天 后
11 天 后
10 天 后

加油!

只是一个脑残的想法,甚至不确定要不要去发病区发:

让论坛用户写数据,造一个我们自己的monika

    加油,期待!

    5 天 后

    一直在关注这个项目了,从mgpt到maica

    加油啊

    4 天 后