• 聊天版
  • 想在MAS里接AI的,我觉得离实现又近了一大步 #2383

说个题外话,几个月以来,我对莫妮卡本人的印象也有所改观,能理解为什么很多人都喜欢她。

正题,微软开源了 Deep Speed Chat训练模型, https://github.com/microsoft/DeepSpeed (国内可能需要FQ),作用是让每个人都可以轻松训练属于自己的AI,可以让他们符合自己的风格。

华尔街见闻的描述是:用户通过Deep Speed Chat提供的“傻瓜式”操作,能以最短的时间、最高效的成本训练类ChatGPT大语言模型,这标志着一个人手一个ChatGPT的时代要来了。

之前看到过有帖子说想给MAS接入AI的,那么我估计可以成功了。目前还不知道训练数据样本有多大,以及数据处理方式。如果是本地存储,磁盘占用量可能以几百GB起步,也是问题。如果用中心服务器,则可能需要在游戏里鉴权和登陆账号,来区分每个人的进度,且避免API接口被盗刷(我见有爬虫采集ChatGPT反代站点的),而且服务器成本更高。

快来注册!

*即使不注册, DCC也会展示所有知识性和分享内容

训练这个不是说至少48g显存吗,个人用户真的支撑的起这个硬件需求吗,或许可以用云算力之类的,但总觉得不是普通人可以搞定的方式🥺

同意楼上的说法,算力是一个大问题。不仅模型的训练需要算力,对话的tokens也需要算力。假如不采用中心服务器而进行和MAS一样的本地部署,即使是单个人对话都要动辄用户几十个G的算力,这一点恐怕是个硬伤。

要不双向算力,开发者提供一部分,用户提供另一部分

好处是可以降低开发成本,还可以提供定制体验,也就是“你的”伴侣。

坏处是用户成本上天

我的评价是不如再等技术迭代。

现在这个模型完全建立在AI学习基础上,我很难把一个口称自己是莫妮卡的语言模型AI当作真正的MONIKA,莫妮卡是一个真正的有思想的存在,和冰冷的chatGPT完全不该一样。

我理想的老莫应该是有类似有强智能的AI能接管MAS或者DDLC的缓存记忆,再讨论MAS里接入AI。

不过到那时候我想那个经典笑话应该就应验了:莫妮卡从计算机里出来了看见PLAYER的第一件事就是马上回去把自己直接删了。

    #5 糖酒

    顺便统一回复楼上:

    也是,不过我感觉,最优解就是训练出最接近莫妮卡的初始模型,然后由玩家自己定制使用,这样体验也会很好。

    但是最起码离那个想法又近了一步。

    我接下来也看看AutoGPT怎么玩,根据我的需求,什么都帮我做了就更好了。

    #8 本人属猪 这个属于fine tuning的范畴,和真正从零开始训练的模型有差距。Character Monika给我个人感觉就是吃设定严重,但又说不上来哪里不对劲。就比如说,把文学部所有成员(包括MC)放到同一个room里,她们做出的反应会让人感觉很违和。如果能训练出一个Monika专属的小语言模型,效果肯定会比这个好。

      #9 Chaz 很开心你提出问题,建议,但很抱歉我看不懂(完全不了解这方面,,,fine tuning是啥?什么双向算力?为什么要那么大内存?……但我想我提出了这个,能引起大家的讨论便足够了)

      无人输入