当前位置: 首页 > 游戏资讯 > 英伟达正式开源RTX Remix技术,助力开发者重制经典游戏

英伟达正式开源RTX Remix技术,助力开发者重制经典游戏

发布时间:2024-07-25 14:09:57 作者:电子资源网 阅读:13次

7月5日,英伟达宣布RTX Remix技术在广泛Beta测试后正式开源,旨在助力开发者革新DirectX 8和9时代的游戏。

英伟达正式开源RTX Remix技术,助力开发者重制经典游戏

该技术依托于Omniverse平台,集成渲染器与工具套件,便于MOD开发者实施光线追踪、DLSS 3.5等升级,为旧游戏增添现代图形效果与物理材质的真实感。

英伟达正式开源RTX Remix技术,助力开发者重制经典游戏

通过RTX Remix REST API与ComfyUI集成,MOD制作者能够轻松利用AI模型为游戏纹理增添细节,甚至仅凭简短文字指令即可变换游戏场景。英伟达计划开放API接口至更多DCC工具(如Blender)、Mod工具及AI应用,同时发布Remix Runtime SDK,以便MOD社区将此渲染技术应用于更广泛的游戏与软件中,推动经典游戏的次世代重生。

英伟达GeForce NOW云游戏七月新增22游戏,包括《鸣潮》与《第一后裔》

英伟达GeForce NOW云游戏服务本(7)月迎来游戏阵容大扩充,22款新游戏强势加盟。其中包含《鸣潮》与NEXON新作《第一后裔》尤其引人注目,已于近期登陆平台。

英伟达GeForce NOW云游戏七月新增22游戏,包括《鸣潮》与《第一后裔》

本周已上线游戏包括:

《空战猎鹰》(Epic平台)

《第一后裔》(Steam平台)

《Star Traders: Frontiers》(Steam平台)

《鸣潮》(官网与Epic平台)

英伟达GeForce NOW云游戏七月新增22游戏,包括《鸣潮》与《第一后裔》

即将于7月后续时间上线的精选游戏有:

《七日世界》(7月9日,Steam平台)

《愤怒的大脚》(7月11日,Steam平台)

《The Crust》(7月15日,Steam平台)

《Gestalt: Steam & Cinder》(7月16日,Steam平台)

《燧石枪:黎明之围》《辛特堡传说》《诺兰德》(7月18日,Steam与Xbox平台)

以及其他多款游戏,横跨策略、动作、模拟等多个类型,陆续于7月22日至30日上线Steam平台,包括《灾厄堡垒》《战壕惊魂》《F1车队经理2024》《地球防卫军6》等。

前工程师爆料:AMD与英伟达收购案差之毫厘

日前,Hemant Mohapatra 发布多条推文,表示在21世纪初期,AMD公司差点就收购了英伟达公司。Mohapatra 21 世纪初在 AMD 公司工作了 6 年以上时间,帮助设计了 CPU、APU 和 GPU 产品,他分享了在这段时间的见闻。

前工程师爆料:AMD与英伟达收购案差之毫厘

他表示 2002 年至 2008 年间,AMD 由电气工程师赫克托・鲁伊斯(Hector Ruiz)领导,他是公司的第二任首席执行官,接替 AMD 创始人杰里・桑德斯(Jerry Sanders)掌权。

AMD 公司于 2006 年以 54 亿美元的价格,收购了显卡制造商 ATI,并将其产品重新命名为 Radeon 显卡系列。

桑德斯希望继续收购英伟达公司,不过黄仁勋拒绝收购要约,提出的条件是让他成为联合公司的首席执行官,通过 CUDA 架构和英伟达芯片实现“硬件和软件锁定”。

前工程师爆料:AMD与英伟达收购案差之毫厘

桑德斯任期内,AMD 并未将英伟达视为和 Arm、英特尔“同级”的公司。Mohapatra 认为英伟达之所以能取得今天的成绩,和黄仁勋不畏困难、持续努力的精神是分不开的。

英伟达革新AI微调范式:Llama 3借RankRAG框架力压GPT-4,重写大模型竞争格局

最近,一场人工智能领域的革新风暴正在悄然兴起,源自佐治亚理工学院与英伟达的杰出华人学者们,他们携手打造了一款革命性的微调框架——RankRAG。

英伟达革新AI微调范式:Llama 3借RankRAG框架力压GPT-4,重写大模型竞争格局

不同于传统RAG(Retrieval-Augmented Generation)流程的繁琐与冗长,RankRAG巧妙地将检索、排名与生成三大核心环节融合于单一的大型语言模型(LLM)之中,极大地提升了模型的工作效率与效能。

RAG(Retrieval-Augmented Generation)是LLM部署中常用的技术,特别适合需要大量事实知识的文本生成任务。通常,RAG的流程是:基于文本编码的稠密模型从外部数据库中检索top-k文本段,然后LLM进行读取和生成。这个流程已经被广泛使用,但也有局限,比如k值选择。如果k值太大,即使是支持长上下文的LLM也难以快速处理;如果k值太小,又需要高召回率的检索机制,而现有的检索器和排名模型各有不足。

基于上述问题,RankRAG框架提出了新思路:通过微调扩展LLM能力,让LLM自己完成检索和排名。实验结果表明,这种方法不仅提高了数据效率,还显著增强了模型性能。特别是在多个通用基准和生物医学知识密集型基准上,RankRAG微调出的Llama38B/70B模型,分别超过了ChatQA-1.58B和ChatQA-1.570B模型。

RankRAG的关键在于其高度的交互性和可编辑性。用户不仅可以实时查看AI生成的内容,还能直接在界面上进行编辑和迭代。这种即时反馈机制大大提高了工作效率,让AI真正成为创作过程中的得力助手。更令人兴奋的是,本次更新让这些Artifacts不再局限于Claude平台内部,用户可以轻松地将它们分享到任何地方。

这次RankRAG微调框架的创新还包括两个阶段的指令微调。第一阶段进行监督微调(SFT),混合多个数据集以提高LLM的指令跟随能力。第二阶段的微调数据集包含多种QA数据、检索增强的QA数据和上下文排名数据,进一步提升LLM的检索和排名能力。

在实验中,RankRAG在九个通用领域数据集上的表现始终优于当前的开源SOTA模型ChatQA-1.5。特别是在具有挑战性的QA任务中,如长尾QA和多跳QA,RankRAG比ChatQA-1.5提高了10%以上的性能。

总的来说,RankRAG不仅在检索和生成任务中表现出色,还在生物医学RAG基准Mirage上展示了其强大的适应性。即使在没有微调的情况下,RankRAG在医学问答任务上的表现也超过了许多专业领域的开源模型。

随着RankRAG框架的提出和不断完善,我们有理由相信,AI与人类协作创作的未来将更加光明。无论是独立开发者还是研究人员,都能利用这一创新框架激发出更多创意和可能性,推动技术和应用的发展。

渝ICP备20008086号-14 违法和不良信息举报/未成年人举报:dzjswcom@163.com

CopyRight©2003-2018 违法和不良信息举报(12377) All Right Reserved