大家有没有好奇过:平时我们用的大模型是怎么思考的?它是如何推理得出结论的?
今天我在 GitHub 上发现一款开源的大模型推理过程可视化工具:ReasonGraph。
它能直观展示和分析多种推理方法的执行过程,让模型推理变得透明可解释。
GitHub: https://github.com/ZongqianLi/ReasonGraph
除此之外,还支持 DeepSeek、Anthropic、OpenAI、Google 等超过 50 种主流大模型,集成了链式思考、自我改进等各类推理方法。
同时提供了简单易用的 UI 界面和标准化 API,只需配置相应 API 密钥,通过单行命令即可运行使用。