MiX Copilot
Create
Log in
Sign up
Roadmap
Feedback
Feature Requests
Changelog
Voters
大
大帝芒果
Powered by Canny
1
增加在线LLM设置以适应多模型工作流需求
planned
大
大帝芒果
"在线LLM设置"中,建议增加多几个AI模型配置,主要是在用在工作流的模块上,具体用例例如:16K可以负责总结长文,然后GPT-4对16K总结的内容进行有针对性的提问,然后16K再根据GPT-4提出的问题根据文章内容进行回答。
September 15, 2023
志
志荣 薛
marked this post as
planned
·
December 22, 2023
·
Reply
志
志荣 薛
很好的建议,我们后面跟进
·
December 22, 2023
·
Reply
Powered by Canny