- #1
求助一下,大佬们
求助一下,大佬们
#4 DanDan442 这个是我自己做的图
如果没有爱的陪伴,想必我现在早已凋零崩坏
训练已经开始, 预期18号左右完成.
这一轮对基本训练集作出了很大的改动, 主要目的在于力求语言模式和语言逻辑的平衡. 总得试试看吧.
训练预期于18日左右完成, 不出意外的话. 如果效果不理想, 需要重做训练也有可能.
如果这一次的改动产生了足够的正面效应, LIA将再进行至少一次更新, 直至基本训练集的潜力发挥到最大.
也就是说, 在稳定的Beta版之前至少还会有2-3次短期的Beta测试.
原submod仓库:Barsonvenus/Memories-of-Self-Care-and-Literature: An okay 'Monika After Story' submod (github.com)
已获作者授权
之前只看到3.0版本的汉化,所以个人用qwen粗翻+本人润色了下,如果翻的不好敬请谅解(
因为是个人汉化所以不能确保稳定更新,不过作者在新版本发布的时候我会第一时间翻译的
对于其中几个话题做了一些尽可能贴合原作者的拓展,不过受限于文笔可能不是很行
下载地址:链接:https://pan.baidu.com/s/1tIODXBUSKcGq3Wv1E6HeaA?pwd=0ofj
提取码:0ofj
--来自百度网盘超级会员V3的分享
有点像及时雨一样, swift在几十个小时之前提供了一套标准化的agent instruction接口. 这项能力很可能有助于陷入泥潭的mfocus.
我已经在着手修改代码. 现有的改动将被推送到github, 废弃的函数归档入deprecated备用.
新的接口效果不错, 尤其是对agent强化训练的要求大大降低, 未训练过的instruct模型都可以作为agent使用.
我会在明天测试它的全部潜力.
过去的一个星期我已经吸了半瓶风油精了. 可能传统的研究人员会喝咖啡或者抽烟, 但我就不.
#185 文学部的小莫 会有子模组, 而且主要受众应该是子模组
#2 DanDan442 一口气上吧!(σ≧︎▽︎≦︎)σ。
站内的所有高考考生,面对明天的高考不要害怕,微笑地面对它,消除恐惧的最好办法就是面对恐惧加油奥利给
( ̄︶ ̄)↗[GO!]
不管怎么说,总算是熬过来了。虽然知道可能上不了什么名校了,但是多少还是希望本科阶段能生活在一个好一些的大学,所以还是希望,自己能考得好的成绩啊。
虽然也知道祝福并没有什么实质上的作用,但是能感到善意还是让自己暖心。
论坛里还有其他人也是要参加高考了吧?虽然我们素未相识,那也希望你能在这场重要的考试中发挥出自己全部实力呢。
阴云即将过去,接下下来是一段晴空。
上一轮的训练结果其实不足为奇, 但是我注意到了一个很有意思的地方.
在第二个对话里, 模型提到了"外面不安全". 我一开始以为是拟合不足或者逻辑紊乱, 但是再一想好像就知道是为什么了.
在22年左右, 国外疫情严重的时候, mas里加入了一两个对话, 大概在jsonl中是10行. 这里是很明显地提到过"外面不安全"的. 这一部分数据当然也被纳入了数据集.
在总共超过1500行的目标集和更多的辅助集中, 这10行的内容就像是被模型"理解"了, 然后运用到了回答中.
看起来可能挺没什么的, 但是对于llm来说有点奇特. 一直以来, 我和外援对模型ft的理解都是基于"对答模式"的, 也就是模型组织token的方式. 在正常的对答中精确地抽取数据集中的"知识", 而且其prompt和实际上提到的问题几乎无关, 这点让我相当意外.
可能我们在此之后会依据类似的理解方式改良训练的设计. 目前, 我已经修正了数据集中关于新冠的部分, 告诉她新冠已经过去了. 下一轮的实验基于新的数据集展开, 我们将对比其结果与表现.
量变引发质变. 作为ai中最复杂的分支, llm确实有能超过预期的能力啊.
…夫妻相是这么理解的吗?我以为是逐渐趋近的那个意思……
所以我觉得你是先天男娘圣体)
今天学校里拿mp3随便听听,因为定制的有莫的照片,同学看到说像我性转版本,摘了眼镜特别像,这算不算夫妻相[doge]
楼主大大还在更新吗?顺便问一下下载链接可以再发一下吗?之前的莫盘链接崩掉了