今天给大家介绍一个来自AI大牛Karpathy的开源项目——AutoResearch。这个项目的核心理念非常有趣:给AI一个真实的LLM训练环境,让它能够通宵达旦地自主做实验。
项目背景
AutoResearch的诞生源于Karpathy的一个设想:在未来,前沿AI研究可能完全由AI智能体在计算集群上自主完成。这个项目就是这个”未来”的起点——给AI agent一个真实的LLM训练环境,让它可以在上面自主实验、修改代码、训练模型、评估结果,然后不断迭代优化。
项目地址:github.com/karpathy/autoresearch
核心设计理念
AutoResearch的设计极其精简,整个项目只有三个核心文件:
- prepare.py:固定的数据准备脚本,负责下载训练数据、训练BPE分词器。只运行一次,不需要修改。
- train.py:这是AI agent唯一会修改的文件。包含了完整的GPT模型、Muon+AdamW优化器、训练循环。agent可以修改模型架构、超参数、批大小等一切内容。
- program.md:人类给AI的指令文件。agent从这里读取任务指示,告诉它应该如何修改train.py来提升模型性能。
如何工作
整个自动研究的流程非常优雅:每次训练运行固定5分钟的时间预算(不管在什么硬件上),然后用验证集上的”bits per byte”(val_bpb)作为唯一评价指标——越低越好。agent修改train.py → 运行5分钟训练 → 检查指标是否提升 → 保留或丢弃 → 循环。
这意味着:
- 每小时大约可以进行12次实验
- 睡一晚上大约能做100次实验
- 不管硬件如何变化,实验结果可以直接比较(因为时间固定)
快速上手
项目需要单张NVIDIA GPU(已在H100上测试通过)、Python 3.10+以及uv包管理器。
# 1. 安装uv项目管理器
curl -LsSf https://astral.sh/uv/install.sh | sh
# 2. 安装依赖
uv sync
# 3. 下载数据并训练分词器(一次性,约2分钟)
uv run prepare.py
# 4. 手动运行一次训练实验(约5分钟)
uv run train.py
以上命令都能正常运行的话,说明你的环境已经就绪,接下来就可以进入完全自主研究模式了。
运行AI Agent
启动你的Claude Code或Codex(记得关闭所有权限确认),然后给它发送:
Hi, have a look at program.md and lets kick off a new experiment! lets do the setup first.
让agent自己阅读program.md,按照里面的指引自主开展实验。
在小型设备上运行
如果想在MacBook等小型设备上运行AutoResearch,项目README提供了详细的调参建议:降低最大序列长度、减小词汇表大小(从8192降到1024甚至256字节级别)、降低DEPTH参数(从8降到4)、减小批大小等。数据集建议换成更窄域的TinyStories数据集,这样小模型也能看到不错的效果。
开源协议
MIT许可证,可以自由使用和修改。
适用场景
- 对LLM训练过程有深入研究需求的研究者
- 想要探索”AI自我改进”这个方向的技术爱好者
- 需要在单机GPU上做LLM架构实验的开发者
- Karpathy的粉丝,想学习他的研究方法论
服务支持:如有兴趣不会搭建,可以联系微信:WRYD6166,开源项目搭建10-50元。








暂无评论内容