中国社交媒体平台Rednote(也称为Xiaohongshu)上周五发布了首个开源大语模型(LLM)。该新模型称为“ Dots.llm1”,总共包含1420亿个参数,但据称对每个响应都只能激活140亿个参数。
根据《南中国晨报》的亚洲新闻媒体,这种建筑可以帮助LLM的平衡Chatgpt等竞争对手的竞争对手提供成本效益,同时减少培训和推理的费用。
Rednote的内部人道情报实验室开发了LLM或“ HI Lab”,该实验室从公司以前的人工智能团队演变而来。 Rednote表示,其模型在中文理解方面优于其他开源系统,超过了阿里巴巴的QWEN2.5-72B教学和DeepSeek-V3。
Rednote发表了一份声明,以解释其LLM培训背后的标准。与市场上的其他一些型号不同,该公司断言在审议过程中没有使用合成数据。
开发人员坚持认为dots.llm1在11.2万亿代币的非合成数据上进行了训练,一种方法是,Rednote表示,该模型必须实现更高的忠诚度和更可靠的结果。
该公司还开始在其平台上试用名为Diandian的AI研究助理。通过应用程序中的对话框启动的黛安迪安(Diandian)具有“深入研究”功能,并由Rednote的内部模型之一提供支持。尽管如此,该公司尚未确认该助手是否基于DOTS.LLM1。
Rednote的开源AI宣布是在该公司在香港开设新办公室的前一天,这是它在中国大陆以外的第一个。新地点位于堤道湾的商业区时代广场。
“ Rednote的存在将改善本地内容创建者,品牌和组织之间的互动,并在香港,大陆和全球市场之间促进西方 - 西方文化交流和内容营销发展。
Rednote总部位于上海,是中国使用最广泛的社交媒体平台之一,每月有3亿个活跃用户。根据公司官员的规模,扩张是增加Rednote海外覆盖范围的计划的一部分,为美国潜在的Tiktok
Rednote加入了中国公司的名单,这些公司已朝着使大型语言模型更加开源的AI。越来越多的公司试图反映出低成本高性能模型的成功,例如初创公司DeepSeek发布的模型。
今年早些时候, DeepSeek推出了其开源R1型号,该模型在几家应用商店中的下载量最高,以交付S tron G结果,这是与Western LLMS相关的成本的一小部分。
科技巨头阿里巴巴,腾讯和野兽已经对AI基础设施进行了大量投资。例如,阿里巴巴(Alibaba)已发布了QWEN系列的一部分,其中包括最新的QWEN3嵌入式模型。这些支持代码和语言检索的100多种语言。
阿里巴巴说,QWEN3模型在嵌入和重读系统中的效率和性能提高了。今年早些时候,阿里巴巴云的创始人王·简(Wang Jian)声称,大语言模型的进步超出了预期,并将继续这样做。
王提到像DeepSeek这样的初创公司是年轻创新者如何通过创造性方法解决问题的例子。
根据王的说法,阿里巴巴的Zerosearch展示了创新如何显着降低发展成本。 ZeroSearch于5月展示,旨在模拟培训期间搜索引擎行为,而无需进行实际的API呼叫。该公司声称这可以将培训成本降低多达90%。
加密大都会学院:想在2025年养活您的钱吗?在即将到来的WebClass中DeFi进行操作保存您的位置