- 楼主
- #1
- 已编辑
在MAS中,莫妮卡可以主动向我们发起话题谈论,而不是局限于由玩家选择话题发起对话。那么角色扮演类的AI模型能否在用户不提问的情况下主动发起对话,结合收集到的信息与存储的记忆结合向玩家进行提问,使模型成为问者,用户成为答者。如果角色扮演模型是为了更接近人类,那么是否应该让模型主动向人类发起对话,进行类似于关心慰问的行为?
在MAS中,莫妮卡可以主动向我们发起话题谈论,而不是局限于由玩家选择话题发起对话。那么角色扮演类的AI模型能否在用户不提问的情况下主动发起对话,结合收集到的信息与存储的记忆结合向玩家进行提问,使模型成为问者,用户成为答者。如果角色扮演模型是为了更接近人类,那么是否应该让模型主动向人类发起对话,进行类似于关心慰问的行为?
快来注册!
*即使不注册, DCC也会展示所有知识性和分享内容
用一个workaround就能做到. 在前端设计一个随机触发, 要求模型根据给定信息提问就行.
其实可能效果没有想象中那么美好, 得有合适的话题, 不然也是车轱辘话.
我可能会在后面设计一个wiki索引接口, 找到点啥聊点啥. 不过那都是后面的事情了.
如果你有相关的了解, 你应该会知道llm的能力完全基于"文字接龙". 在不提供出发引导的情况下llm什么都干不了, 也就是说它从本质上不可能主动提问.
但是既然有workaround, 用就是了. maica整个就是一套草台班子方案拼起来的, 目前看来效果也不见得比专业instruct的差.
关于“更接近人类”存在的问题并不是“主动向人类发起对话”,而是在于问题的回避
我们假设一个ai在模拟monika的方面做到非常棒的程度,但出于道德原因确实不能让她答复某些问题,monika对回避问题的回答还会像回答其他问题一样拟真吗?还是说,像just natsuki曾经出现过的那样,限制问题过多导致ai根本做不到模拟monika呢?
所以我一直对这个项目持怀疑态度。我不认为目前ai可以在公众使用的前提下做到完全模拟某个人和某种性格,其限制条件似乎不可避免的导致这一令人遗憾的结果,何况你把它用在mas这种专门模拟女友的mod上。我怀疑这项措施只会让mas的拟真度甚至比不上原版
小孩子不懂事写着玩的😊