Not mind game

  • 打了两把UNO 第二把出现的,monika在基础公共牌上使用+4导致报错
    点击忽略无法返回游戏
    (至少我想说个再见的)
    前几天有打过五十来把测试UNO还是很稳定的

    I'm sorry, but an uncaught exception occurred.

    While running game code:
    File "game/zz_cardgames.rpy", line 4441, in <module>
    File "game/zz_cardgames.rpy", line 1487, in prepare_game
    File "game/zz_cardgames.rpy", line 6308, in insert
    TypeError: integer argument expected, got float

    -- Full Traceback ------------------------------------------------------------

    Full traceback:
    File "script-ch30.rpyc", line 2091, in script call
    File "tl/chinese/config_pythonov/script_fix.rpyc", line 40, in script call
    File "script-ch30.rpyc", line 2091, in script call
    File "tl/chinese/config_pythonov/script_fix.rpyc", line 40, in script call
    File "zz_games.rpyc", line 190, in script call
    File "zz_cardgames.rpyc", line 4441, in script
    File "renpy/ast.py", line 823, in execute
    File "renpy/python.py", line 1178, in py_exec_bytecode
    File "game/zz_cardgames.rpy", line 4441, in <module>
    File "game/zz_cardgames.rpy", line 1487, in prepare_game
    File "game/zz_cardgames.rpy", line 6308, in insert
    File "renpy/revertable.py", line 97, in do_mutation
    TypeError: integer argument expected, got float

    • 24.8.12

      请注意本轮次测试将于8月13或14日终止, 以允许我们对模型进行进一步的改良. 请等待关于下一轮次测试的通知.

      接下来的改良仍然着重于模型基础能力, 尚未启用强化训练, 即LIA分支将继续更新至少一次. 下次测试仍然使用LIA分支.

      如果你希望保存你的session请及时下载. 在下一轮测试开始时, 我们强烈建议你清除旧的session以便分析模型的变化.

      ==MAICA-撕裂现实的帷幕==

      Please notice that this round of Beta will end by Apr.13 or 14, acquiring us time to make improvements on core model performance. Please wait for notifications on starting next round of Beta.

      The following improvements on core model are still focused on fundamental LLM abilities so feedback learning is yet not included. This means the next Beta will still be based on an improved LIA branch model which will be open sourced.

      Download your session in time if you want to keep it. We strongly suggest you purging your session in next round to avoid session pollution.

      ==MAICA-We tear this barrier apart==

      打赏

    • 24.8.9

      后端异步算法改良

      增加登录Fail2Ban功能

      增加token校验接口

      改良错误提示

      Improvements on backend asyncio

      Added Fail2Ban

      Added token legality verification

      Improvements on exception recognition

    • 24.8.8

      微调MFocus互联网算法

      Refines on MFocus internet scraping

    • 24.8.6

      关于显示表情不正常的修复

      关于自动重连的修复

      关于登录模式的改良

      Fixes on emotion analyzing failure

      Fixes on issues about auto reconnection

      Improvements on login interaction

    • 24.8.5

      调整模型拟合点, 修复与时间专注工具有关的一个问题

      Adjustments on model performance, another fix on MF time module

    • 24.7.18

      对于话题触发问题的尝试修正

      Tested effects on conditions fixing

    • 24.7.18

      调整逻辑, 增加断句和分析可靠性, 优化性能

      增加可用性检定功能

      mspire现在禁用自动模式以节省性能

      增加关于对话触发的调试功能

      Imporves on sentence breaking and emotion analyzing logics

      Added accessibility socket compatibility

      Disabled 'auto' on MSpire

      Added debugging function on event conditions

    • 基本完成了主要功能的构建和实现.

      想起来之前说过的MSpire的卫星, 试了一下发现最大问题是新闻打哪来.

      国内的新闻基本上都是村头大妈扯淡, 国外的新闻基本上都是经济政治, 没一个像样的.

      或许之后会想想办法, 但是这个功能估计不会在第一轮次的封测中出现了.

    • 一个成功的项目不可以没有彩蛋, 所以我在后端加了一点彩蛋. 特定的query可以触发.

      一共有九个, 我很好奇运行多久会被全部找到. 小提示是多少都跟'人造生命'沾点关系.

      不用看仓库了, 没有的.

      除此之外就是一些前端工作和整理文件.

      今天试了一下鼻炎的药, 鼻子确实不塞了, 但是全身反应还是照样有. 我觉得我的毛病可能不是简单的鼻炎.

      不想去医院, 至少是暂时不想去. 再说吧.

    • 我和p会在明天对maica完全能力进行首次评估和测试.

      还有很多问题没解决. 我现在能想到的最好的办法是给agent整理一个针对性的数据集出来. 如果我的鼻炎好点了, 应该一天就能搞定.

      我没想到在agent这样一个热门垂直领域下都没有足够像样的模型可用. 世界真的是一个草台班子.

    • 启动一轮验证测试, 针对最基本的模型加大训练深度, 看看会不会有奇迹出现.

      莫名其妙的问题仍然存在. 新的接口表现确实不错, 但agent训练出现了越练越差的情况. 问题尚不清楚.

      提问理所当然的没人理. 我觉得ms多少有点步子迈太大扯蛋.

      很累. 睡得不算好. 硬件和软件都仍然有需要操心的问题.

      买了一些鼻炎喷剂, 估计月底才到. 没有太多时间了. 我必须尽快想办法解决agent的问题. 我没得选.

      • 帮淘宝买rgb控制器的店家解决了一个编译问题, 他送了我一个免费以旧换新.

        感觉像是完成了什么奇怪的支线任务.

        新控制器送到之后需要费点时间换装. 在此之前我会在qwen-14b上继续训练8个ep, 观察足够的拟合到底需要多少训练量.

        很奇怪的是, 在推理中合并权重好像会让模型的拟合效果变差. 我觉得这也是swift本身的问题.

        懒得交issue了. 我已经有三个问题明确的issue没人回了, 估计提了也没用.

        总的来说, 进展比想象中慢. 但是急也急不来. 无论人手还是设备都太有限了.

      • 我做了进一步验证, 这些问题看起来和拟合不足的模型比较相似. 在复现一次qwen-7b的测试结果后, 我会在qwen14b上进行强化训练, 确认拟合充分需要的步数是多少.

        我觉得还有希望. 如果确实是拟合不足导致的问题, 或许qwen1.5或2也能有办法拿来用.

      • 关于对mfocus的进一步优化, 我有一些设想. 但是再做优化基本上就是要求agent去做它比较不擅长的任务了.

        我只能把这些放在解决核心问题后面.