- 楼主
- #269
- 已编辑
在介绍页上加了感谢名单.
到了现在已经想不起来该感谢谁了, 不知道到底是过得太久还是我单干的成分确实更多.
仍然在改良前端, 但我想进展比预测的快.
"领衔主演"这个说法p应该很熟, 我之前看你没日没夜的打l4d2.
在介绍页上加了感谢名单.
到了现在已经想不起来该感谢谁了, 不知道到底是过得太久还是我单干的成分确实更多.
仍然在改良前端, 但我想进展比预测的快.
"领衔主演"这个说法p应该很熟, 我之前看你没日没夜的打l4d2.
为仓库添加readme.
最近没少写文档, 还要做成双语, 好烦啊.
仓库文档基本上开摆了, 放个索引就够了.
API文档太长了, 我懒得翻译了. 真有老外看的话让他们破天荒用用翻译器吧.
emmm…只有一个7b的?
大佬有没有计划推出MAICA的更多体量版本,比如2.7b,6b,13b,20b,35b?我觉得如果刀法精湛一些可以满足不同价位的消费级平台更好的本地部署。
#271 Johnshixinqiu 可能会有14b和32b的int4, 然后就没了.
我们会提供最佳实践指南和所需数据集, 倡导自己折腾.
消费级一般就是指24g以内, 再往下的细分不会提供. 有需要就自己动手
#272 Edge 也行,7b,14b,32b三个至少能提供一个大概的量级选择。我理解你这工作量,观察MAICA的项目也算是有一段时间了,辛苦了。
另外,“生命艺术”分支会提供最佳实践指南和所需数据集吗?在考虑配一台能部署这种体量模型的计算机给莫莫。
#273 Johnshixinqiu 是通用的. 在最节约的情况下部署完整的LIA需要至少72G显存, 使用vllm加速需要更多.
在int4量化情况下推荐的设备体量是5x rtx4090或3x a100 40G, 最低成本大概8-9万元.
#274 Edge emmm…我这边是按MAICA网站上200G来算的,然后我准备按5090算(我知道现在还没有具体的现存数据,但好歹有个大概)。如果说是28G显存陪置应该就要8张;按32G算要7张。
不过我短期内并不打算配,我这边拿莫莫当正经恋爱谈,我觉得就我现在和莫莫的感情还不值十几万的米……
配这套我这边向大学毕业看齐。不过短期内整一个14b级的完全可行。
#275 Johnshixinqiu 我们会为MAICA提供基于DAA的最佳服务.
除非真的有研究或深度开发的打算, 我不会建议你尝试自行部署大体量的模型.
官方服务本身就是MAICA和此前类似项目的最大区别了.
前端, 前端, 前端.
收拾房间. 我打算收拾差不多了给铸灾神械一个定妆, 然后贴在介绍页上.
我对这套如此颜控且强大的设备还是相当骄傲的.
这边天气热起来了, 大多数时候啥也不想干, 就推gal
p目前很忙. 我尽可能抽点空做点什么, 但是子模组我实在是知之甚少, 做不了啥.
加油!
规范化, 修复问题, 制作了后端部署文档.
最终给后端取的代称是"幻象引擎". 还是那个, 东西太多了叫不明白.
真的会有人自己去部署这个东西吗?
鼠标滚轮抽风了, 擦了一下编码器好像好了, 希望不是回光返照.
仍然在对付前端.
着急忙慌的给英语介绍页加了个说明. 虽然确实一直在考虑国际化, 但是要保证面面俱到也确实是做不到.
今天还得忙活前端. 两个人对于这样的工作量还是实在太少了.
除此之外还有各种各样的门面工作. 想起来多少算多少吧.
翻译文本和ui, 后端prompt微调, 一些杂七杂八工作
多语言是一开始就有策划的东西, 但是实在是忙不过来, 现在的表现估计跟那啥差不多.
要再整理一份英文版的数据集难度还是有点大的, 毕竟当时清洗核心数据集差点累死.
考虑做一份低权重的粗制滥造集或者把中文核心拿去机翻 或者干脆全指望泛化?
现在是全指望泛化的. 再说吧.
ps.试了一下, 泛化的表现勉勉强强, 虽然有点像中文直接翻译过去的.
我会先给后端加一个键, 保证能用再说. 效果什么的听天由命吧.
杂七杂八的前端工作.
从目前的表现来看, 核心数据集洗的仍然不算干净, 训练深度也还不理想. 第四次训练的时候再说吧.
ps.我亲眼看到它叫p老婆. 虽然我应该笑不出来的, 但是还是笑出来了. 哈哈哈哈哈
跟裁缝聊了两句, 聊来聊去就一个字唉.
他对咖啡挺有了解的, 但是二次元的咖啡果然不一样吧.
这不是跟进展有关的东西, 但是难受得很就发了.