OPENAI o1模型发布后,有人花50美元重现了可能价值百万美元的实验结果。
OpenAI最近发布了o1模型家族,并公布了一张展示测试时计算量缩放规律的图表。这张图表引发了研究人员的极大兴趣,因为它揭示了模型性能如何随测试时计算量的增加而提升。
然而,不知是有意还是刻意还是无意,OpenAI并没有标注x轴!
这留下了一个巨大的悬念。
就像给了大家一张藏宝图,却不告诉你起点在哪里。
50美元的复刻之旅
此时,主打一个不服 Hugh Zhang 跳了出来,他决定接受这个挑战!
并且他最终只用了公开的o1-mini API,就尝试重现出了这个图表。
左边是OpenAI的原图,右边是Hugh的复刻版。
算得上惊人的相似,对吧?
但是,怎么做到的呢?这就要说到token控制的艺术了。
token控制:让AI"按量思考"
Hugh发现,o1-mini API并不允许直接控制测试时使用的token数量。但他想出了一个巧妙的方法:告诉模型你希望它思考多长时间。
这张图展示了请求的token数量与实际使用的token数量之间的关系。有趣的是,在2^4到2^11的范围内,模型似乎能较好地"听话"。
而其他的请求token 数量下,o1 就不搭理他了。
但是,Hugh还发现了一个有趣的现象:
在这个范围内,o1-mini实际使用的token数量总是比请求的多约8倍!这就像你点了一份饭,餐厅总是给你上8份。
可能是新融资让OpenAI 太有钱了吧!
突破限制:自一致性方法来救场
但是,仅靠这种方法,Hugh最多只能让模型使用到2^14(约16K)个token。为了进一步扩展,他借鉴了自一致性论文中的方法:多次采样,然后进行多数投票。
这个方法确实带来了一些初步的收益,但很快就遇到了瓶颈。
廉价重现昂贵实验
在这个过程中,Hugh发现了一件令人兴奋的事:重现这个图表的成本出奇地低。
对于最大规模的推理运行,每个问题使用2^17个token,乘以30个2024年AIME问题,总共约400万个token。按照每100万输出token 12美元的价格,最大规模的运行只花费了约50美元!
就这样,原本可能需要耗费数百万美元的实验,现在只需要50美元就能重现关键结果。
实验的局限
然而,Hugh的实验也揭示了一些局限性:
如图所示,自一致性方法似乎在达到约70%的准确率后就停止了增长,这与OpenAI原图的结果非常接近。
这个结果与过去的研究一致,表明多数投票法在某个点会达到饱和。这意味着,如果我们想要进一步提升模型性能,可能需要探索其他方法。
Hugh推测,强制模型在token空间中思考更长时间可能比重复采样和多数投票更有效。
考虑到重现实验的低成本,这可能是一个值得进一步探索的方向。
本文链接:https://lipu365.com/gpt4_gpt5_172.html
chatgpt4.0账号购买chatgpt4.0使用chatgpt4应用chatgpt4.0付费版chatgpt要会员吗chatgpt会员支付支持哪些信用卡ChatGPTOpenAIGPT Builder创建ChatGPT的自定义版本