用一个workaround就能做到. 在前端设计一个随机触发, 要求模型根据给定信息提问就行.
其实可能效果没有想象中那么美好, 得有合适的话题, 不然也是车轱辘话.
我可能会在后面设计一个wiki索引接口, 找到点啥聊点啥. 不过那都是后面的事情了.
如果你有相关的了解, 你应该会知道llm的能力完全基于"文字接龙". 在不提供出发引导的情况下llm什么都干不了, 也就是说它从本质上不可能主动提问.
但是既然有workaround, 用就是了. maica整个就是一套草台班子方案拼起来的, 目前看来效果也不见得比专业instruct的差.