ITBEAR科技资讯
网站首页 科技资讯 财经资讯 分享好友

英伟达开源新大模型Nemotron,仅次于GPT-4?

时间:2024-10-17 09:01:11来源:ITBEAR编辑:瑞雪

英伟达,全球AI技术的领头羊,近期宣布开源其最新研发的超强模型——Llama-3.1-Nemotron-70B-Instruct。据测试数据揭示,此模型在性能上已成功超越GPT-4o、GPT-4turbo、Gemma-2等140多个开源及闭源模型,其表现仅次于OpenAI最新发布的o1模型。

Nemotron的基础架构源自Llama-3.1-70B,但其独特之处在于采用了一种创新的混合训练方法,该方法融合了Bradley-Terry与Regression两种策略,用于训练奖励模型,显著提升了模型效果。

业界观察家指出,英伟达频繁开源先进模型,不仅得益于其雄厚的科研资金支持,更深层次的目的在于推动GPU销售与开发生态的繁荣。相比之下,meta凭借其社交帝国的商业化和资金优势,亦在AI领域占据一席之地。然而,这一趋势对于大模型初创企业而言,无疑构成了巨大挑战,它们在资金、商业化及知名度方面均面临严峻考验。

Nemotron的成功,部分归功于其创新的混合训练方法。该方法旨在优化奖励模型,使其更精准地理解并执行用户指令,无论是翻译、文本生成还是问答任务。Bradley-Terry与Regression的结合,既考虑了用户偏好,又兼顾了响应质量的细致评估,从而克服了单一方法的局限性。

为了实施这一混合方法,英伟达开发了包含评分和偏好注释的HELPSTEER2-PREFERENCE数据集,通过严格的注释和预处理步骤,确保了数据的质量和一致性。测试结果显示,使用该数据集训练的模型在RewardBench评测中取得了94.1的高分,表现出色。

一位高级AI用户分享了使用Nemotron模型的心得,表示在商业写作方面,该模型相较于Claude3和ChatGPT展现出更高的智能水平,尽管仍会犯一些错误,但整体表现更为出色。

英伟达的创新混合训练方法不仅体现在技术层面的突破,更在数据集的构建上展现了独到之处。HELPSTEER2-PREFERENCE数据集的多元化注释过程,不仅增强了数据的透明度,也为后续分析提供了丰富的背景信息。

英伟达以极低的成本实现了这一技术飞跃,若其愿意,将难以有竞争对手匹敌。这一创新不仅推动了AI技术的进步,也为行业树立了新的标杆。

总体而言,AI领域的竞争正以惊人的速度推动着行业的进步,而英伟达的这一开源举措无疑为这一进程注入了新的活力。

更多热门内容
9月工业生产明显回升,工业经济高质量发展如何扎实推进?
全国规模以上工业生产延续去年四季度以来较快增长态势,工业品出口逐季加快,企业利润保持增长,制造业高端化、智能化、绿色化发展稳步推进,工业企业对未来经营状况预期改善,信心有所增强。挖掘铲土运输机械、包装专用设备…

2024-10-18

胡汉舟谈能源:前三季供应充足,非化石占比持续升
供给方面,前三季度,化石能源生产和进口稳定增加,非化石能源发电量高速增长,有力保障能源高质量供给。 前三季度,各类能源保供稳价措施持续发力,能源安全稳定供应形势良好,规模以上工业原煤、原油、天然气、电力生产增…

2024-10-18

港珠澳大桥:大湾区发展的强劲“纽带”力量!
旅游度假、休闲购物、探亲访友……港珠澳大桥“一桥连三地”的交通优势,叠加一系列出入境便利政策落地,让珠三角城市群联系更加紧密,粤港澳大湾区“1小时生活圈”逐步从愿景化作现实,区域融合发展迸发新活力。港珠澳大…

2024-10-18

故宫装扮争议:是游客标新立异,还是文化尊严受损?
但评价穿着与装扮,肯定不只有“自由”这把尺子,更有对公共秩序的遵守、对文化礼仪的尊重、对他人感受的关照。就这件事情来说,显然不是这几位的穿衣自由不被尊重,反而是其不尊重中国的历史文化,没有入乡随俗那根弦,“秀…

2024-10-18