
大家好,我是 Ai 学习的老章
之前推荐过 N 多读论文神器,比如可以用大模型下载论文、总结论文,效率飞起的 ArXiv MCP 服务器、整篇翻译并保留样式的看论文神器,一键翻译,体验很爽、还有最近刚刚分享的斯坦福学生搞出的论文神器太逆天!秒搜热门论文,3分钟搞定论文总结、翻译,效率飙升100倍!的 AlphaXiv
今天再推荐一个更强大的,可以复现机器学习论文代码的工具——Paper2Code
开源代码不支持 DeepSeek ,稍作修改就可以使用 DeepSeek API 了
https://arxiv.org/pdf/2504.17192
一句话总结,PaperCoder 旨在通过利用大型语言模型(LLM)在多代理系统中直接从机器学习研究论文中生成完整的、可执行的代码库。
PaperCoder 框架的三阶段方法,展示了它如何通过规划、分析和编码阶段将研究论文转换为代码库
"尽管机器学习研究快速增长,相应的代码实现通常不可用,使研究人员复现结果和基于先前工作构建变得缓慢且劳动密集。"
顶级机器学习会议的分析表明,只有一小部分被接受的论文提供了相应的代码:
在 ICLR 2024 上接受的论文中只有 21.2%,在 NeurIPS 2024 上接受的论文中只有 10.9%,在 ICML 2024 上接受的论文中只有 31.6% 提供了公开发布的代码
PaperCoder 通过将研究库生成形式化为软件开发问题来解决可重复性挑战。
该框架可以表示为 M(R) = C,其中:
该系统采用三阶段方法,该方法反映了人类的软件开发过程:
每个阶段都使用专门的 LLM 代理来实现,这些代理协同工作以完成任务,这使得 PaperCoder 成为一个复杂的多代理系统。
效果怎么样呢?
PaperCoder 的性能优于软件开发工作基线,如 ChatDev 和 MetaGPT,表明其专门设计的有效性。
作者与专家(包括原始论文作者)进行了评估,以评估生成代码的质量。结果显示:
如何使用呢?
安装
pip install openai
export OPENAI_API_KEY="<OPENAI_API_KEY>"
git clone https://github.com/going-doer/Paper2Code
cd Paper2Code
git clone https://github.com/allenai/s2orc-doc2json.git
cd scripts
bash run.sh
输出结果如下
outputs
├── Transformer
│ ├── analyzing_artifacts
│ ├── coding_artifacts
│ └── planning_artifacts
└── Transformer_repo # Final output repository
系统的工作流程是:
不过这个项目是默认 OpenAI 的 api,本地运行也只支持 vllm 拉起的模型。
我看了一下,其实该起来也非常简单
比如把 OpenAI 切换为 DeepSeek,需要修改的脚本不多
修改 API 客户端初始化和调用:
codes/1_planning.py - 规划生成组件 1_planning.py:1-16codes/2_analyzing.py - 逻辑分析组件 2_analyzing.py:1-20codes/3_coding.py - 代码生成组件 3_coding.py:1-19把
client = OpenAI(api_key = os.environ["OPENAI_API_KEY"])
修改为下面即可
client = OpenAI(api_key = os.environ["OPENAI_API_KEY"],base_url="https://api.siliconflow.cn/v1")
如果你用的是 DeepSeek 官方 API,base_url 改为 https://api.deepseek.com_/v1
其他类似
然后修改scripts/run.sh中的环境变量设置: run.sh:1-3
export OPENAI_API_KEY="sk-XXXXXX"
GPT_VERSION="deepseek-ai/DeepSeek-R1"
然后就全部 ok
最后推荐一个我正在学习的Cusor快速入门与实战