腾讯AI Lab与香港中文大学(深圳)合作开展了一项新研究,提出了这样一种名为 无监督前缀微调 (UPFT)的方法。 团队研究发现,关键的正确推理信号,全都藏在模型的“前几步”里,将这种现象称为“推理前序自一致性”。
红板报 on MSN18 小时
从零复现,全面开源:360 Light-R1-14B/7B带来端侧AI平权时刻性能领先、开源普惠、国产易获取的三重势能,造就了年初DeepSeek的技术平权狂热,掀起AI普惠浪潮。
近期,上海交通大学与清华大学、上海体育大学等国内外联合团队系统性评估了大语言模型在糖尿病专业考试的表现,并验证了这些模型作为基层医生和保健护理人员糖尿病培训辅助工具的潜力。研究人员选取了 10 种在英语和中文领域具有代表性的模型,包括 GPT-3.5 ...
1 天
什么值得买社区频道 on MSN轻松部署本地DeepSeek,一台酷睿Ultra 200H的笔记本就够了DeepSeek横空出世,一下子让更多的小伙伴有机会接触到高规格的人工智能助手,但也体验到了无数次“服务器繁忙,请稍后再试”的无奈等待。既然现在AI ...
人工智能技术的发展主要依赖于深度学习、神经网络等先进算法。中科软的7B和32B模型正是在此基础上进行设计和优化的。这些模型不仅支持广泛的开源架构,还通过整合多领域的数据集进行训练,从而确保高效的文本生成和语音识别。具体来说,7B模型拥有70亿个参数,而32B模型的参数量则达到320亿,在提升语义理解深度的同时,实现了更高的生成质量。这一技术特性使得中科软的产品在激烈的市场竞争中脱颖而出,成为众多企 ...
在OpenAI连续12天的技术发布会上,一项名为RFT(Reinforcement-basedFine-Tuning,基于强化学习的微调)的新型训练方法引发全球关注。该方法通过结合强化学习与监督微调,仅需少量标注数据即可显著提升模型在特定场景下的 ...
在OpenAI连续12天的技术发布会上,一项名为RFT (Reinforcement-based ...
红板报 on MSN1 天
AI能自主出“竞赛题”了!港大&蚂蚁让大模型学会生成难题,水平已 ...赵学亮 投稿量子位 | 公众号 QbitAI 大模型架构研究进展太快,数据却快要不够用了,其中问题数据又尤其缺乏。 为此,港大和蚂蚁的研究人员反向利用思维链,提出了PromptCoT方法,并基于Llama3.1-8B训练了一个问题生成模型。 实验结果表明,合成的问题难度较开源数据和已有算法有显著提升,接近了AIME水平。 研究团队利用问题生成模型构造了400k SFT数据。 基于这份数据,团队训练 ...
十轮网科技资讯 on MSN2 天
微软优化AI模型,让Copilot+ PC本机端可执行DeepSeek-R1 7B和14B模型Microsoft积极推动AI于本机上运行,近日宣布,将针对Copilot+ PC推出“NPU优化”的DeepSeek-R1 AI模型,并率先支持在高通Snapdragon X设备,随后扩展至搭载Intel Core Ultra 200V与AMD Ryzen AI ...
IT之家2 月 18 日消息,国家超算互联网平台今晚宣布,正式上线 DeepSeek-R1-Distill-Qwen-7B / 14B API 接口服务,免费提供额度 100 万 Tokens 额度。 此前超算互联网平台已上线 DeepSeek 多款大模型以及 DeepSeek 满血版的模型镜像,并为有需求的企业免费开放 3 个月 DeepSeek API ...
我们在涵盖图像、视频和音频等方面的完整全模态基准测试下,Ola 作为一个仅含有 7B 参数的全模态模型,实现了对主流专有模型的超越。 图 1 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果