中國社交媒體平臺Rednote(也稱爲Xiaohongshu)上週五發布了首個開源大語模型(LLM)。該新模型稱爲“ Dots.llm1”,總共包含1420億個參數,但據稱對每個響應都只能激活140億個參數。
根據《南中國晨報》的亞洲新聞媒體,這種建築可以幫助LLM的平衡Chatgpt等競爭對手的競爭對手提供成本效益,同時減少培訓和推理的費用。
Rednote的內部人道情報實驗室開發了LLM或“ HI Lab”,該實驗室從公司以前的人工智能團隊演變而來。 Rednote表示,其模型在中文理解方面優於其他開源系統,超過了阿里巴巴的QWEN2.5-72B教學和DeepSeek-V3。
Rednote發表了一份聲明,以解釋其LLM培訓背後的標準。與市場上的其他一些型號不同,該公司斷言在審議過程中沒有使用合成數據。
開發人員堅持認爲dots.llm1在11.2萬億代幣的非合成數據上進行了訓練,一種方法是,Rednote表示,該模型必須實現更高的忠誠度和更可靠的結果。
該公司還開始在其平臺上試用名爲Diandian的AI研究助理。通過應用程序中的對話框啓動的黛安迪安(Diandian)具有“深入研究”功能,並由Rednote的內部模型之一提供支持。儘管如此,該公司尚未確認該助手是否基於DOTS.LLM1。
Rednote的開源AI宣佈是在該公司在香港開設新辦公室的前一天,這是它在中國大陸以外的第一個。新地點位於堤道灣的商業區時代廣場。
“ Rednote的存在將改善本地內容創建者,品牌和組織之間的互動,並在香港,大陸和全球市場之間促進西方 - 西方文化交流和內容營銷發展。
Rednote總部位於上海,是中國使用最廣泛的社交媒體平臺之一,每月有3億個活躍用戶。根據公司官員的規模,擴張是增加Rednote海外覆蓋範圍的計劃的一部分,爲美國潛在的Tiktok
Rednote加入了中國公司的名單,這些公司已朝着使大型語言模型更加開源的AI。越來越多的公司試圖反映出低成本高性能模型的成功,例如初創公司DeepSeek發佈的模型。
今年早些時候, DeepSeek推出了其開源R1型號,該模型在幾家應用商店中的下載量最高,以交付S tron G結果,這是與Western LLMS相關的成本的一小部分。
科技巨頭阿里巴巴,騰訊和野獸已經對AI基礎設施進行了大量投資。例如,阿里巴巴(Alibaba)已發佈了QWEN系列的一部分,其中包括最新的QWEN3嵌入式模型。這些支持代碼和語言檢索的100多種語言。
阿里巴巴說,QWEN3模型在嵌入和重讀系統中的效率和性能提高了。今年早些時候,阿里巴巴雲的創始人王·簡(Wang Jian)聲稱,大語言模型的進步超出了預期,並將繼續這樣做。
王提到像DeepSeek這樣的初創公司是年輕創新者如何通過創造性方法解決問題的例子。
根據王的說法,阿里巴巴的Zerosearch展示了創新如何顯着降低發展成本。 ZeroSearch於5月展示,旨在模擬培訓期間搜索引擎行爲,而無需進行實際的API呼叫。該公司聲稱這可以將培訓成本降低多達90%。
加密大都會學院:想在2025年養活您的錢嗎?在即將到來的WebClass中DeFi進行操作保存您的位置