让DeepSeek(以下可能简称DS)分别不依据和依据决策树判决一个案例并对比判决结果生成表格
graph LR
classDef process fill:#E5F6FF,stroke:#73A6FF,stroke-width:2px;
A(上传案例文件):::process --> B(DS初步分析):::process
B --> C(给DS决策树并让它再次分析):::process
C --> D{纠正DS错误}:::process
D --> |是| E(错误纠正对话):::process
D --> |否| F(生成使用决策树前后的结果对比表):::process
E --> F
case/{文件md5}
下)安装所需包
pip install requests
pip install flask
pip install watchdog
pip install pytz
如果你只上传.txt
格式的案例(最好utf-8编码),那么你可以跳过这一步了。
如果你还想上传.docx
格式的案例,你需要在电脑上安装pandoc
并加入环境变量,并执行:
pip install pypandoc
如果你还想上传.doc
格式的案例,你还需要:
如果你是苹果用户/Linux用户
你需要安装libreoffice并添加到环境变量,并执行:
pip install unoconv
如果你是Windows用户
pip install win32
在硅基流动或腾讯lkeap注册API,在main.py
同级目录下新建文件password
,并输入你的api。
默认调用的是腾讯lkeap的Deepseek-R1模型,如果你使用其他api或者添加其他对话配置,更改源码中的api地址和模型名称即可。
多次对话修改API或其他配置:
单次对话(/singleChat
页面)修改API或其他配置:
一些常见模型对话服务提供商的文档/API接口管理页面请见附录。
使用example可见OpenAI示例。
原神·启动!
python main.py
之后你就可以上传案例,进行分析并统筹分析进度了。
SyntheticHybridYardstick.demo.flv
/chat
页面支持流式对话,实时显示大模型响应case
文件夹下某config.json
更新时增量
发送;某进度新完成时前端实时响应case/{md5}
整个文件夹并重启程序)API提供商 | API管理地址 | 文档地址 | 并发限制(RPM: Request/min,TPM:Token/min) |
---|---|---|---|
DeepSeek | 点我 | 点我 | 不限制用户并发量,尽力保证请求的服务质量。 |
硅基流动 | 点我 | 点我 | 使用本模型时 RPM 为 1,000;TPM 为 10,000。 |
腾讯lkeap | 点我 | 点我 | 文档显示单账号最大并发为5,实际体验为1。 |
百度千帆 | 点我 | 点我 | 不详。 |
阿里百炼 | 点我 | 点我 | RPM 15,000,TPM 1,000,000。 |
个人觉得其中DeepSeek和硅基流动的文档质量是最好的,然后是阿里。