就在刚刚,来自斯坦福、UC 伯克利、华盛顿大学等机构联手发布了一款 SOTA 级推理模型 —— OpenThinker-32B ,并同时开源了高达 114k 的训练数据。 由此得到的 OpenThinker-32B,在数学、代码和科学等多个基准测试中 ...
【导读】 近日,斯坦福、UC伯克利等多机构联手发布了开源推理新SOTA——OpenThinker-32B,性能直逼DeepSeek-R1-32B。其成功秘诀在于数据规模化、严格验证和模型扩展。
OpenThinker-32B采用大规模数据验证和模型规模扩展,仅用少量数据便达到SOTA级别,为AI社区提供宝贵资源和启示。其开源行为引发社区关注和讨论,为强化学习研究提供新思路。在性能评估中表现出色,有望推动深度学习新篇章。
在技术进步飞速发展的今天,人工智能领域迎来了一个引人瞩目的新突破。最近,UC伯克利的研究团队利用仅仅4500美元的低成本,成功复刻了DeepSeek,并且还创造出一个全新的15亿参数模型——DeepScaleR-1.5B-Preview。这一成果不仅在技术上取得了显著的突破,更是在AIME2024基准测试中,以高达43.1%的Pass@1准确率,超越了OpenAI的o1-preview,震撼了整个 ...
编辑:编辑部 【新智元导读】只用4500美元成本,就能成功复现DeepSeek?就在刚刚,UC伯克利团队只用简单的RL微调,就训出了DeepScaleR-1.5B-Preview,15亿参数模型直接吊打o1-preview,震撼业内。 强化学习迎来重大突破!
总之,UC伯克利的动作Tokenizer无疑是一个令人振奋的技术进步。它不仅提升了动作识别的效率,还为未来的智能交互提供了新的可能性。在这个大流行后,AI技术的发展应以人为本,努力平衡技术进步与社会和谐的关系。未来的挑战是如何在不断追求效率和创新的同时,确保这些技术服务于人类社会的全局利益。让我们共同期待这个新工具能够带来更丰富、更多样化的创作体验与留白思考。
2025-01-22 14:50发布于北京新智元官方账号 【新智元导读】研究者提出了FAST,一种高效的动作Tokenizer。通过结合离散余弦变换(DCT)和字节对编码(BPE),FAST显著缩短了训练时间,并且能高效地学习和执行复杂任务,标志着机器人自回归Transformer训练的一个重要突破。 来自π,伯克利和斯坦福的研究者近期提出了FAST,一种为VLA模型设计的高效动作Tokenize ...
随着人们越来越依赖大模型,本文最初描述的基于大模型出考试题,将会在未来变得越来越普遍,进而潜移默化地影响人类学生的思考模式,也许会让我们的下一代变得啰啰嗦嗦,或者看文章时只关注特定细节,尤其是头尾部的(考核中的重点)。
【新智元导读】就在刚刚,网上已经出现了一波复现DeepSeek的狂潮。UC伯克利、港科大、HuggingFace等纷纷成功复现,只用强化学习,没有监督微调,30美元就能见证「啊哈时刻」!全球AI大模型,或许正在进入下一分水岭。 这些天,硅谷彻底处于中国公司带来的大地震余波中。 全美都在恐慌:是否全球人工智能的中心已经转移到了中国? 就在这当口,全球复现DeepSeek的一波狂潮也来了。 诚如LeC ...
来自π,伯克利和斯坦福的研究者近期提出了FAST,一种为VLA模型设计的高效动作Tokenizer。 FAST旨在解决传统动作Tokenization方法在处理精细任务时面临 ...
最近,加州大学伯克利分校、沙特阿拉伯阿卜杜拉国王科技城(KACST)和华盛顿大学的研究人员发表了一项研究,首次系统评价了大模型提问的能力 ...
最近,加州大学伯克利分校、沙特阿拉伯阿卜杜拉国王科技城(KACST)和华盛顿大学的研究人员发表了一项研究,首次系统评价了大模型提问的能力,并指出大模型和人类的提问模式存在显著差异。 这项研究基于维基百科的文本,将文本拆分为 86 万个段落,之后通过亚马逊 Mechanical Turk 众包平台,由人类参与者为每个段落撰写对应的题目及答案,人类给出的文本将作为评估大模型的基准。