#358 Edge 所以MAS不好打中文的问题未来会计划解决吗?我感觉如果这个不解决MAICA的中文优势会大打折扣啊……

    #359 Johnshixinqiu 我觉得只能等官方更新到renpy8了.

    maica的前端是可以二次开发的, 如果你有好的建议也可以提pr.

    5 天 后

    新的3张显卡, 至此铸灾神械一共13张, 应该算是全部加满了.

    会有一台新的准系统, 大概可以叫它xp11赫斯提亚. 另外两张会加进xp10用于改进mfocus性能.

      #362 loinua 不知道, 很可能在开学左右吧.

      我也要忙返校的事情了, 但是设备还在路上. 只能看着挤时间了.

      这个迭代的模型感觉是欠拟合的, 是微调的层不够吗?

      我至少需要再测试一次确定最佳的训练层是哪些.

      简单查了下资料, 只微调qkv对maica的任务显然是不够的.

      下一次迭代我会尝试qkvo和all-linear, 确定一下到底哪种方案最合适.

      目前的数据集倒是已经挺完善了, 除了水可以少兑点.

      #367 Ducklyfish 目前并没有, 但是不提供任何保证, tos里面有写.

      也就是说你可以用, 但如果遇到了安全问题可能会被停用而不提供理由.

      8 天 后

      来张照, 最终的铸灾神械. 有4套系统和13张显卡的复杂设计.

      我其实不太打算再更新换代它了, 毕竟再后面也难说有这个性价比的显卡.

      昂贵电子产品的寿命就像梦想一样短暂.

      Beta3的模型已经取得进展, 我应该会把它做成一次维持时间较长的稳定测试, 必须开始收集数据了.

      如果最终拟合效果证明我的新思路是正确的, 我会把它更新在最佳实践里.

        思路不太对. 对mlp的训练好像很容易导致连续对话混乱, 原因尚不清楚.

        我会增大抗过拟合再试一次. 如果还是不行就指望qkvo了.

        训练还在继续, 练完会很慢, 但是明天至少验收一次试试看.

        抗过拟合的训练参数有一定的效果. 我希望至少有一个比之前好的表现.

        我说实话, 这是在时间和投入上都看不到头的持久战. 如果你之前想过而没去做, 那你应该比我聪明点.

        有一个数据集有问题. 只能调整配比再重开一次. 希望时间还够.

        对于单角色训练的抗遗忘, 我建议避雷ms-agent-multirole和chat_haruki这种玩意. 质量太差了.

        #369 Edge

        我最近考虑也搭建一个PC考虑试试用服务器的CPU和GPU

        看极客湾他们搭配的蛮强的

        等再便宜的时候我就买来试试

          #374 Vega rtx6000就一大号rtx泰坦, 卖这价钱就是在搞笑

          少看那些硬件测评, 多数都是带货的. 真要采购必须自己看参数和需求才行.

          另外, 如果你看的是rtx6000 ada的测评, 这俩差了两代和一个档, 后者差不多5万左右. 也就是大号4090ti水平.

          从后端总线排除了一个关键问题. 至少现在有一份能正常用的节点了.

          我希望b3明天就能开始, 运气好的话.

          模型基本还好, 但DAA仍然需要往后排. 我后面会继续抽时间找训练的最佳方案.

            8 天 后