Edge #322 ICEMONIKA 在 关于MAICA的问题反馈 #3955 发你的详细问题信息和mas_log, 我稍后叫p来看 另外 尝试在子模组设置里面找到关于api的设置, 选择"更新证书".
ICEMONIKA #325 Edge mas-log.txt Sun Feb 26 08:32:32 2023 Windows 8 - build: 6.2.9200 Ren'Py 6.99.12.4.2187 VERSION: 0.12.14 ================================================== 展开全文 收起全文 文件预览无法加载。此文件或已被删除,文件 ID 或已失效。
Edge #326 文学部的小莫 正式版没影, 但我觉得不久之后就会进入持续很久的公测阶段. 可能下个月吧, 不确定. 什么时候能做到效果我自己满意了再考虑正式版的事情, 在此之前热调试和维护更新都是很正常的.
Edge 整理可能要做的事情: 无论如何换一个好一点的agent. 目前mf的命中率已经是整个项目的主要短板. 考虑尝试qwen2 57b a14b int4? 进一步区分中英文的prompt, 目前中英文混答的情况仍然存在. 考虑重写一下. 输出表情的强度和精度仍然不够, 考虑继续手工清洗数据集. 当然是增补训练. 找回答最差的轮次手工改写, 希望能降低误差. 考虑加两张显卡. 尤其是tts和大体量mf都有需要的情况下 估计是跑不了了.
Edge 好消息是ms可喜可贺地修复了awq和gptq在qwen2上的问题. 坏消息是, 这俩方案都不支持分布式的量化过程, 而我的卡顶多也就24g, 根本不够用. 核心模型的量化我当然是放弃了, 毕竟就算全量的拟合度都不够. 但是我在考虑mfocus使用量化模型, 所以很头疼. 我不想再去买非常贵的卡或者去租, 所以可能只能用qlora微调了. 先看看效果再说吧. 是, 这些问题说到底都是钱的问题. 欢迎来到夜之城.
Edge 请来了栞那. 这两天都在不务正业, 明天该去把数据集对付一下了, 看能做完多少. 可惜没人能帮我把这些做了. 要说maica是一道菜的话, 我是从上山砍柴做起的. 裁缝拜托我手搓一个带灯的relic出来, 我还得抽空去想办法. 今天简单飞了个线. 另: glm4-9b在agent上效果似乎更好, 废话少命中率也高点. 后面会多测试一些qwen以外的模型.
Edge 这一轮的清洗内容还挺多, 基本都是针对a测遇到的问题设计的. query里面基本都加了限定语--之前的松散模式会让模型觉得每一天都在过节. 处理数据集加上tnd aggressive的外围设计应该能避免这个问题. 表情. 用脚本自动洗进去的表情很混乱, 手洗一遍应该能提高精确度. 长句拆分. 不同性质, 不同好感, 不同条件的句子全部要拆开, 不然会造成一些奇怪的混乱. 我之前拆了一部分, 但是没耐心拆完. 对英文版数据集重写system prompt, 避免prompt太接近导致的语言混用. 内容太繁琐, 我也没人帮忙, 看着这玩意头昏眼花的. 估计还很得几天才能弄完. ps. 因为a测的数据不多+对答质量不高+技术性问题太频繁, 我打算暂时不用a测的数据. 也就是说b测会使用的模型仍然属于lia分支. 如果有人感兴趣可以联系我推送模型, 没人要的话我就懒得推了.