每次实验的预算被固定为5分钟,无论使用何种GPU,AI如何修改代码,每次实验都能在相同时间内完成。这样的设计不仅确保了实验的可比性,还让不同的模型、batch size和优化器之间的效果一目了然。
高德纳此前已经解决了 m=3 的基础情况,并将其作为书中的一道练习题。他的朋友 Filip Stappers 随后通过实验发现了 4≦ m≦16 的解,这使得所需分解法存在的可能性极高。为了寻找通解,Stappers 将这个问题原封不动地交给了 Claude 处理。
但这就是 Andrej Karpathy 今天凌晨开源的新项目 autoresearch 所做的事。项目上线不到几个小时,他在 X(原 Twitter)上的发布帖浏览量突破百万,GitHub 仓库迅速收获超过 2,500 ...
如果你有一块 NVIDIA GPU,睡前启动一个脚本,第二天早上醒来就能收获一百次 LLM 训练实验的结果,其中一部分还确实比你手动调参调得更好,是不是听起来有些难以置信?但这就是 Andrej Karpathy 今天凌晨开源的新项目 ...
在12小时不间断运行中,AI代理完成了110次代码提交,将模型验证损失从0.862降至0.858。这个看似微小的进步背后,是系统严格执行的优化规则:任何改进必须同时满足损失降低或训练加速的条件。某次提交虽成功降低损失,但因训练时间延长0.7秒被自动回滚,彰显出AI代理对优化目标的精准把控。
编辑|冷猫前沿 AI 研究曾经是由「肉身计算机」完成的:人们在吃饭、睡觉、娱乐之间抽时间做研究,并且偶尔通过一种名为「组会」的仪式,用声波互联(也就是交谈)来同步信息。那个时代已经一去不复返了。如今,研究已经完全成为运行在天空中巨型计算集群上的自治 ...
先不论这个未来是光明还是危险,智能体自动化研究的能力已经逐渐走向了成熟。春节期间,一个名为 FARS 的自动化研究系统,每隔约 2 小时就有一篇论文产出,共生成 244 个研究假设,「肝」出了 100 篇短论文。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果