就在刚刚,来自斯坦福、UC 伯克利、华盛顿大学等机构联手发布了一款 SOTA 级推理模型 —— OpenThinker-32B ,并同时开源了高达 114k 的训练数据。 由此得到的 OpenThinker-32B,在数学、代码和科学等多个基准测试中 ...
目前,OpenThinker-32B已在多个公开评估框架中展现出卓越性能,其开源数据集和模型代码已吸引了全球AI研究者的广泛关注。这一成果不仅为开源推理模型的发展提供了新思路,也为AI技术的广泛应用奠定了坚实基础。
【导读】 近日,斯坦福、UC伯克利等多机构联手发布了开源推理新SOTA——OpenThinker-32B,性能直逼DeepSeek-R1-32B。其成功秘诀在于数据规模化、严格验证和模型扩展。
在技术进步飞速发展的今天,人工智能领域迎来了一个引人瞩目的新突破。最近,UC伯克利的研究团队利用仅仅4500美元的低成本,成功复刻了DeepSeek,并且还创造出一个全新的15亿参数模型——DeepScaleR-1.5B-Preview。这一成果不仅在技术上取得了显著的突破,更是在AIME2024基准测试中,以高达43.1%的Pass@1准确率,超越了OpenAI的o1-preview,震撼了整个 ...
斯坦福的S1和伯克利的TinyZero是研究人员越来越多地使用阿里巴巴技术降低AI训练成本的两个例子。随着美国计算机科学家(包括著名的华裔“AI教母”李飞飞)利用阿里巴巴的开源Qwen2.5模型,以不到50美元的成本训练出一种新的推理模型,在中国De ...
证明AI研究不再是高成本领域 ...
OpenThinker-32B采用大规模数据验证和模型规模扩展,仅用少量数据便达到SOTA级别,为AI社区提供宝贵资源和启示。其开源行为引发社区关注和讨论,为强化学习研究提供新思路。在性能评估中表现出色,有望推动深度学习新篇章。
加州大学伯克利分校是一所公立的研究型大学,也是美国最声誉卓著的州立大学之一。作为加州大学体系的一部分,该校成立于1868年。 伯克利分校的创建源自加州宪法中的一个意愿,加州宪法认为,一所大学“要比加州金矿更能促进后世子孙的光荣与幸福”。
总之,UC伯克利的动作Tokenizer无疑是一个令人振奋的技术进步。它不仅提升了动作识别的效率,还为未来的智能交互提供了新的可能性。在这个大流行后,AI技术的发展应以人为本,努力平衡技术进步与社会和谐的关系。未来的挑战是如何在不断追求效率和创新的同时,确保这些技术服务于人类社会的全局利益。让我们共同期待这个新工具能够带来更丰富、更多样化的创作体验与留白思考。
2025-01-22 14:50发布于北京新智元官方账号 【新智元导读】研究者提出了FAST,一种高效的动作Tokenizer。通过结合离散余弦变换(DCT)和字节对编码(BPE),FAST显著缩短了训练时间,并且能高效地学习和执行复杂任务,标志着机器人自回归Transformer训练的一个重要突破。 来自π,伯克利和斯坦福的研究者近期提出了FAST,一种为VLA模型设计的高效动作Tokenize ...
36氪获悉,阿里巴巴的开源Qwen2.5模型助力低成本AI训练,近期斯坦福大学与伯克利大学的研究人员利用这一技术成功开发出低于50美元的AI推理模型。斯坦福的S1推理模型和伯克利的TinyZero模型,均通过阿里巴巴的Qwen2.5-32b-Instruct模型训练而成。