La plataforma de redes sociales chinas Rednote, también conocida a nivel nacional como Xiaohongshu, lanzó su primer modelo de lenguaje grande (LLM) de código abierto (LLM) el viernes pasado. El nuevo modelo, denominado "dots.llm1", contiene 142 mil millones de parámetros en total, pero solo se activan solo 14 mil millones para cada respuesta.
Según el medio de noticias asiático, South China Morning Post, esta arquitectura podría ayudar a la LLM equilibrar el rendimiento con una rentabilidad de competidores rivales como el chatGPT , al tiempo que reduce el gasto de capacitación e inferencia.
El laboratorio interno de inteligencia humana de Rednote desarrolló el LLM, o "Hi Lab", que evolucionó del anterior equipo de inteligencia artificial de la compañía. Rednote dijo que su modelo supera a otros sistemas de código abierto en la comprensión del idioma chino, superando el instrucciones QWEN2.5-72B de Alibaba y Deepseek-V3.
Rednote emitió una declaración para explicar los estándares detrás de la capacitación de su LLM. A diferencia de otros modelos en el mercado, la compañía afirmó que no se utilizaron datos sintéticos durante el pretratamiento.
Los desarrolladores insistieron en que DOTS.LLM1 fue entrenado en 11.2 billones de tokens de datos no sintéticos, según un enfoque que Rednote es imprescindible que el modelo alcance una mayor fidelidad y resultados más confiables.
La compañía también ha comenzado a probar un asistente de investigación de IA llamado Diandian en su plataforma. Diandian, lanzado a través de un cuadro de diálogo dentro de la aplicación, presenta una función de "investigación profunda" y funciona con uno de los modelos internos de Rednote. Aún así, la compañía aún no ha confirmado si este asistente se basa en dots.llm1.
El anuncio de IA de código abierto de Rednote se produjo solo un día antes de la apertura de la compañía de una nueva oficina en Hong Kong, su primera fuera de China continental. La nueva ubicación está situada en Times Square, un área comercial en Causeway Bay.
" La presencia de Rednote mejorará las interacciones entre los creadores de contenido locales, las marcas y las organizaciones, y promoverá intercambios culturales del este-oeste y el desarrollo de marketing de contenido entre Hong Kong, el continente y los mercados globales", dijo el director general de promoción de inversiones de Invernhk, Alpha Lau, a los perseguidores durante una conferencia de prensa el último sábado.
Rednote, con sede en Shanghai, es una de las plataformas de redes sociales más utilizadas de China, con 300 millones de usuarios activos mensuales. Según los funcionarios de la compañía, la expansión es parte de los planes para aumentar el alcance en el extranjero de Rednote, en preparación para una posible de Tiktok en los Estados Unidos.
Rednote se une a la lista de empresas chinas que se han movido para hacer que sus modelos de idiomas grandes sean más IA de código abierto. Más empresas están tratando de reflejar el éxito de los modelos de bajo costo y de alto rendimiento como los lanzados por la startup Deepseek.
A principios de este año, Deepseek lanzó su modelo R1 de código abierto, que encabezó las descargas en varias tiendas de aplicaciones para entregar resultados de tron G a una fracción del costo asociado con Western LLMS.
Los gigantes tecnológicos Alibaba, Tencent y Bytedance han realizado importantes inversiones en infraestructura de IA. Alibaba, por ejemplo, ha lanzado varios nuevos LLM como parte de su serie QWEN, incluidos los últimos QWEN3 . Estos admiten más de 100 idiomas capaces de recuperación de código y idioma.
Alibaba dijo que los modelos QWEN3 han mejorado la eficiencia y el rendimiento en los sistemas de incrustación y remitente. Hablando a principios de este año, Wang Jian, fundador de Alibaba Cloud, afirmó que el progreso de los modelos de idiomas grandes está excediendo las expectativas y continuará haciéndolo.
Wang mencionó a las nuevas empresas como Deepseek como ejemplos de cómo los innovadores jóvenes resuelven problemas con los enfoques creativos.
Según Wang, Zerosearch de Alibaba demuestra cómo la innovación puede reducir significativamente los costos de desarrollo. Zerosearch, exhibido en mayo, está diseñado para simular el comportamiento del motor de búsqueda durante el entrenamiento sin hacer llamadas de API reales. La compañía afirma que esto puede reducir los costos de capacitación hasta en un 90%.
Academia Cryptopolitan: ¿Quieres hacer crecer tu dinero en 2025? Aprenda cómo hacerlo con DeFi en nuestra próxima clase web. Guarda tu lugar