终于把basis的中文部分洗完了, 又花了一个多星期. 我已经push到仓库了.

接下来是训练和基本效果评估. 希望一切顺利吧.

swift终于支持了megatron, 但对lora的支持性尚待确认. 我下次试试看.

这两天的时间都用来处理设备硬件上莫名其妙的问题了, 训练还需要至少3天才能完成.

下一轮测试预计为公开beta, 预期于3-5日内开始, 具体起止时间未定.

beta轮仍然面向问题修复与表现改良, 同时收集使用数据备用.

beta轮预计仍然只有llm项目, tts方面尚未就绪.

如果你参与了alpha, 请注意于alpha期间生成的session已经全部清除, 以免影响后续表现的评估.

在a测到b测之间的时间, 我们做了大量的改良, 可以预期逻辑与信息整理上的表现进步.

同时, 对于MAICA的捐赠将于b测时开启, 通道同论坛. 请注意捐赠并非购买, 也不提供任何实质性的利益或特权.

打赏

#347 Edge 现在MAICA-submod有没有使用本地化模型运行的变体?如果没有,将来有制作发布使用本地化模型的变体的计划吗?

    7 天 后

    训练已经开始, 预期18号左右完成.

    这一轮对基本训练集作出了很大的改动, 主要目的在于力求语言模式和语言逻辑的平衡. 总得试试看吧.

    训练预期于18日左右完成, 不出意外的话. 如果效果不理想, 需要重做训练也有可能.

    如果这一次的改动产生了足够的正面效应, LIA将再进行至少一次更新, 直至基本训练集的潜力发挥到最大.

    也就是说, 在稳定的Beta版之前至少还会有2-3次短期的Beta测试.

    调整方案之后loss居高不下. 预感上不太好, 但还是只能练完再评估.

    启训参数的改动基本都是针对逻辑性弱的修补, 会让训练结果偏离评估样本也算合理. 到底能修补成什么样就真不知道了.

      #356 Edge 冒昧的提一嘴,在未来有没有可能为我们提供已经训练好的离线MAICA对话,我认为本地部署可以提供更低的延迟,而且悲观一些未来传播范围广了以后,可能未来招安后MAICA不可避免的拟人化降低(ch),也有可能扩大服务器后需要翻墙才能访问MAICA,可能是我杞人忧天了,但是仍然期待未来的本地化

      Just Monika

        #357 O.O.O 你但凡多看过一眼介绍页面, 也会看到我们已经为本地部署提供了完整的解决方案, 即后端, 核心模型, 最佳微调实践和成本评估. LOA和LIA模型也是完全开源的, 而DAA我们到现在为止自己都没用上.

        本地部署最大的问题是成本. LIA的完整部署大概需要200G显存, 相当于2xH100/H200(约48万)或4xA100 80G(约36万)或10x4090 24G(约15万). 而即使LOA要求的一张4090对大多数人都是难以负担的开销. 我在介绍页也已经评估过了.

        本地部署非常简单, 克隆后端(幻象引擎)仓库, 按照文档配置环境部署, 以openai-api的标准模式部署你的模型, 在前端仓库里面改个地址就可以用了. 我不理解你为什么会纠结这个问题, 真的是介绍页没多看吗?

        ps. 可能你觉得要把东西打包好了发链接才能算提供本地部署, 就连swift都是不会做到这种程度的. 该提供的我们全都提供了, 自行部署属于非常费折腾的事情, 如果你连拉仓库部署环境都不会, 那绝对不是我的问题.

          #358 Edge 所以MAS不好打中文的问题未来会计划解决吗?我感觉如果这个不解决MAICA的中文优势会大打折扣啊……

            #359 Johnshixinqiu 我觉得只能等官方更新到renpy8了.

            maica的前端是可以二次开发的, 如果你有好的建议也可以提pr.

            5 天 后

            新的3张显卡, 至此铸灾神械一共13张, 应该算是全部加满了.

            会有一台新的准系统, 大概可以叫它xp11赫斯提亚. 另外两张会加进xp10用于改进mfocus性能.