就在刚刚,来自斯坦福、UC伯克利、华盛顿大学等机构联手发布了一款SOTA级推理模型——OpenThinker-32B,并同时开源了高达114k的训练数据。
OpenThinker-32B采用大规模数据验证和模型规模扩展,仅用少量数据便达到SOTA级别,为AI社区提供宝贵资源和启示。其开源行为引发社区关注和讨论,为强化学习研究提供新思路。在性能评估中表现出色,有望推动深度学习新篇章。
就在刚刚,来自斯坦福、UC 伯克利、华盛顿大学等机构联手发布了一款 SOTA 级推理模型 —— OpenThinker-32B ,并同时开源了高达 114k 的训练数据。 由此得到的 OpenThinker-32B,在数学、代码和科学等多个基准测试中 ...