近年来大模型所具备的智能涌现和泛化能力,将创造出千千万万甚至数以百万计的AI原生应用,重构产业架构和底层基座。随着AI原生时代的到来,人机交互方式、编程范式、内核复杂性等的变化,正在催生服务器操作系统的深层变革。
由此,AI原生化应用对系统软件提出了更高要求。龙蜥社区副理事长张东近日在参加2024龙蜥操作系统大会时提出了服务器操作系统社区的三大发展建议。
龙蜥社区副理事长张东近日在京发表演讲。主办方供图。
一是“AI原生First”,全面优先拥抱AI,深度融合AI能力,打造上游芯片到算法应用开发厂商的最优基础软件,实现AI能力的快速价值转化。
二是坚持应用导向,强调社区技术创新与应用场景紧密结合,创新基础软件与硬件、应用之间的协同模式,打造面向领域垂直场景的最优解决方案。
三是强化开放中立,社区撕掉单一厂商标签,强调共治共建共享,建立开放标准,积极与国际领先的社区接轨,保持同步发展,形成繁荣的生态系统。
中新网记者在会上也了解到,作为国内领先的开源操作系统根社区,龙蜥社区基于“云+AI”创新,发布“Anolis OS23生态衍生计划”“CentOS替代计划”“AI应用推广计划”等三大计划,推动开源操作系统实现商业化的良性循环发展。
作为龙蜥社区副理事长单位,浪潮信息自2022年加入社区以来,积极投入社区建设,依托浪潮信息龙蜥联合实验室,在技术创新、标准制定、生态建设、运营推广等多个维度推动社区建设。
例如,针对开源服务器操作系统CentOS于今年6月30日的全面停服,浪潮信息早在6月就已联合龙蜥社区推出“停更无忧”行动计划,提供漏洞及Bug修复、故障定位与解决、安全加固等服务,有效防范CentOS停服后可能出现的新型漏洞、恶意代码引发的信息泄露、业务中断以及勒索攻击等严重风险。
张东强调说,操作系统是软硬协同设计与优化的核心,我们将坚持“以应用为导向,以系统为核心”,真正发挥系统厂商的优势,通过整机带动,更好地实现软硬协同的系统设计,加快技术创新,确保龙蜥操作系统持续迭代进化。
张东在接受中新网记者采访时也直言,这一波AI的技术浪潮来得非常快,快到对算力、存储、数据等方面都提出了挑战,这就拉扯着做操作系统的人要不停地整合资源向前跑,“追上”AI的发展速度。
有观点提出,未来的开发者可以直接使用自然语言进行开发,操作系统不仅需要支持新的编程范式,还需要在用户界面和用户体验上做出相应改进,以适应AI原生时代的需求。
同时,在AI原生的趋势下,操作系统的“内核层”变得更加复杂,底层硬件需要提供更复杂的计算资源,包括多元化的通用处理器与AI加速芯片、更高效的内存、网络等,要求操作系统能够有效管理和分配上述资源,确保AI应用的高效运行。
NP3020G7是新一代入门级单路塔式服务器,专为远程办公环境、邮件以及打印服务等整体解决方案提供可靠的硬件基础
提供丰富的存储矩阵,最大程度满足扩展性及网络均衡性需求,同时在1U机型首次导入风冷、冷板液冷、浸没液冷多维散热方案,满足更多高密数据中心低PUE诉求。
2U双路存储优化服务器,采用创新三层存储架构,在高存储密度、超强算力、高网络带宽、智能管理等方面得到大幅提高,适用于大数据、CDN、超融合、分布式存储等业务场景。
在计算性能、存储性能及可扩展性方面均实现极致设计;支持前、后IO维护等多元部署方式,打破传统数据中心运维瓶颈;融合诸多业界先进技术,导入液冷、EVAC等高效散热模式
4U双路存储优化服务器,兼顾高存储容量、强大计算性能和极致IO扩展能力,非常适用于温/冷数据存储、视频存储、大数据 存储、云存储池搭建等应用场景。
是一款高端四路机架式服务器。产品以强劲的计算性能,模块化的灵活设计,卓越的扩展性,更优的可靠性和安全特性,为客户数据密集型关键业务而优化
NF5280R6保持一贯的高品质、高可靠的表现,该产品以强劲的计算性能及灵活百变的配置变换满足不同复杂工作负载
搭配高效算力及极致扩展实现整机性能最佳平衡,满足轻量化负载需求,适配云计算、虚拟化等主流计算场景,同时满足高密数据中心部署。
该产品具备多核心、高主频、大缓存、高扩展性的特性,使单处理器性能得到最大发挥,2U空间实现存储、扩展最大化设计
满足客户对高计算性能、大内存容量的要求,同时对密度及存储有一定要求的客户提供了很好的解决方案,适用于对服务器有高密要求的虚拟化、数据库、SAP HANA等应用场景。
具备多核心、高主频、大缓存的特性,1U高密空间提供极致计算性能,均衡网络及扩展特性,节省机房空间,适用于分布式全闪、裸金属云服务、视频编解码、网络游戏/数据处理等应用场景。
是具备卓越多元算力性能、极致弹性架构扩展的全新一代人工智能服务器,4U空间内部署8颗最高性能GPU,可根据应用场景实现拓扑切换
NF5688G7是基于浪潮信息全新一代AI超融合架构平台,面向超大规模数据中心的强劲性能、极致扩展人工智能服务器
具有高性能、高扩展性、高能效、多元兼容、生态开放等特点,适用于大模型训练、自然语言处理、语音识别、图像处理、推荐等典型的AI应用场景。
在降低机柜空间、能耗和部署成本的同时,还能提供灵活的存储方案,十分适用于容器、虚拟化以及其它计算密集型应用场景。