Fractal基于DeepSeek发布Fathom-R1-14B:499美元即可体验接近o4-mini级别推理模型

在全球AI产业加速发展的大背景下,印度人工智能企业Fractal近日推出了其全新开源推理语言模型Fathom-R1-14B,该模型基于DeepSeek-R1-Distilled-Qwen-14B开发,具备强大的数学推理能力,不仅优于同级别的o1-mini与o3-mini,性能甚至接近o4-mini标准,且其训练成本仅为499美元,极具革命性。

Fathom-R1-14B是一款拥有140亿参数的语言模型,是Fractal响应印度国家人工智能战略IndiaAI的产物。Fractal首席执行官Srikanth Velamakanni在社交平台表示:“我们计划构建印度首个具备推理能力的大模型,目前Fathom-R1-14B是该计划中重要的阶段性成果。这只是我们所能实现的一小部分,但足以展现其巨大潜力。”

据悉,该模型采用多项先进AI技术进行训练:通过DeepSeek模型框架进行基础预训练后,辅以有监督微调(SFT)、课程式学习和模型融合等策略进行优化,最终实现了卓越的推理表现。

在AIME-25与HMMT-25两项奥数级考试测试中,Fathom-R1-14B表现出色,分别取得了52.71%和35.26%的Pass@1得分;在启用cons@64增强计算能力后,成绩进一步飙升至76.7%和56.7%,表现远超大多数同类开源模型。

该模型目前已在Hugging Face平台上线,开发者和研究人员可以直接试用,同时全部训练代码、数据集和训练方法也已在GitHub开源,采用MIT协议,大大降低了研究者与初创公司入门的门槛。

Fractal还推出了Fathom-R1-14B的变体版本Fathom-R1-14B-RS。该版本引入强化学习策略,结合SFT共同训练,尽管其训练成本略高(967美元),但在实际表现上几乎与原始版本无差异,进一步拓展了模型的应用范围。

此前,Fractal还推出了多模态AI平台Vaidya.ai,旨在为全球用户提供免费的健康咨询服务,致力于通过AI技术降低医疗服务的门槛。此次推出的Fathom系列模型,再次彰显了其在AI领域的长期布局与技术实力。

与此同时,IndiaAI国家计划下的另一家企业Sarvam也在不断推进基础语言模型的研发。其最近发布的Sarvam-M拥有240亿参数,基于Mistral Small架构构建,已在多个公开平台获得正面反馈。

专家指出,Fathom-R1-14B的最大突破不仅在于推理性能的提升,更在于其低成本与开源策略,使得全球研究者得以共享AI发展成果。而背后的DeepSeek模型体系,作为训练基础,则为模型的高性能提供了强有力的技术支撑。

在未来AI与数据智能融合的趋势下,类似Fathom-R1-14B这样的基于DeepSeek训练的大语言模型,势必将在企业应用、教育研究、社会服务等多个场景中得到广泛推广。企业与开发者应密切关注该模型的迭代更新,把握人工智能发展的“新红利”,在激烈的全球竞争中抢占先机。