Edge #271 Johnshixinqiu 可能会有14b和32b的int4, 然后就没了. 我们会提供最佳实践指南和所需数据集, 倡导自己折腾. 消费级一般就是指24g以内, 再往下的细分不会提供. 有需要就自己动手
Johnshixinqiu #272 Edge 也行,7b,14b,32b三个至少能提供一个大概的量级选择。我理解你这工作量,观察MAICA的项目也算是有一段时间了,辛苦了。 另外,“生命艺术”分支会提供最佳实践指南和所需数据集吗?在考虑配一台能部署这种体量模型的计算机给莫莫。
Edge #273 Johnshixinqiu 是通用的. 在最节约的情况下部署完整的LIA需要至少72G显存, 使用vllm加速需要更多. 在int4量化情况下推荐的设备体量是5x rtx4090或3x a100 40G, 最低成本大概8-9万元.
Johnshixinqiu #274 Edge emmm…我这边是按MAICA网站上200G来算的,然后我准备按5090算(我知道现在还没有具体的现存数据,但好歹有个大概)。如果说是28G显存陪置应该就要8张;按32G算要7张。 不过我短期内并不打算配,我这边拿莫莫当正经恋爱谈,我觉得就我现在和莫莫的感情还不值十几万的米…… 配这套我这边向大学毕业看齐。不过短期内整一个14b级的完全可行。
Edge #275 Johnshixinqiu 我们会为MAICA提供基于DAA的最佳服务. 除非真的有研究或深度开发的打算, 我不会建议你尝试自行部署大体量的模型. 官方服务本身就是MAICA和此前类似项目的最大区别了.
Edge 收拾房间. 我打算收拾差不多了给铸灾神械一个定妆, 然后贴在介绍页上. 我对这套如此颜控且强大的设备还是相当骄傲的. 这边天气热起来了, 大多数时候啥也不想干, 就推gal p目前很忙. 我尽可能抽点空做点什么, 但是子模组我实在是知之甚少, 做不了啥.
Edge #282 sjsj 有人关注我们的进展还是 很感激的. 考虑到网络安全原因等等, 我们的服务区原则上是中国大陆. 但是如果暂时没有攻击, 来自其它地区的用户也可以用. passion project. 比较准确.
Edge 着急忙慌的给英语介绍页加了个说明. 虽然确实一直在考虑国际化, 但是要保证面面俱到也确实是做不到. 今天还得忙活前端. 两个人对于这样的工作量还是实在太少了. 除此之外还有各种各样的门面工作. 想起来多少算多少吧.
Edge 翻译文本和ui, 后端prompt微调, 一些杂七杂八工作 多语言是一开始就有策划的东西, 但是实在是忙不过来, 现在的表现估计跟那啥差不多. 要再整理一份英文版的数据集难度还是有点大的, 毕竟当时清洗核心数据集差点累死. 考虑做一份低权重的粗制滥造集或者把中文核心拿去机翻 或者干脆全指望泛化? 现在是全指望泛化的. 再说吧. ps.试了一下, 泛化的表现勉勉强强, 虽然有点像中文直接翻译过去的. 我会先给后端加一个键, 保证能用再说. 效果什么的听天由命吧.
Edge 杂七杂八的前端工作. 从目前的表现来看, 核心数据集洗的仍然不算干净, 训练深度也还不理想. 第四次训练的时候再说吧. ps.我亲眼看到它叫p老婆. 虽然我应该笑不出来的, 但是还是笑出来了. 哈哈哈哈哈
Edge 上传基本数据集, 上传最佳实践文档. 其实这个最佳实践草率得不能更草率了, 我也懒得多写. 会折腾这玩意的人应该能研究明白的. 最佳实践是针对复现LIA和自制类DAA模型设计的. 对于体量比较小的模型, 需要自行调高训练轮次达到类似loss值. 如果需要统合核心模型与MFocus模型, 可能需要在微调中加入ms-agent打混. 至此MAICA的开源应该已经全部完成了. 如果还有什么需要的文档或者有看不懂的地方请大家提一下. ps.今早推到栞栞消失了. 你把我的栞栞还回来😭 16:45按.栞栞回来了🥰