2024 世界人工智能大会:摩尔线程携全栈 AI 产品首次亮相

7月4日至7日,2024世界人工智能大会(WAIC)在上海举行,本届WAIC除了AI大模型外,还有一个亮点来自硬件。

国产GPU厂商摩尔线程以”全栈AI 为美好世界加速”为主题,携全栈AI产品和万卡集群解决方案首次亮相WAIC,展示了包括计算加速卡、服务器、超融合一体机、万卡集群方案和AIGC应用在内的摩尔线程全栈AI产品,以及携手众多行业合作伙伴联合展示基于夸娥智算集群的丰富行业大模型与应用方案。

一、全栈AI产品线首次出展

成立仅三年半,摩尔线程已经建立了从芯片、加速卡、服务器、集群到软件的全栈AI智算产品线。

其中全功能GPU芯片更是采用先进MUSA架构,具备集成AI计算加速、图形渲染、视频编解码、物理仿真和科学计算等四大功能。

本次展会上,公司展出了以下重磅产品:

大模型智算加速卡MTT S4000:专为大模型打造,单卡支持48GB显存;

AI大模型训推一体机MCCX D800:双路8卡GPU服务器;

AI超融合一体机KUAE FUSION:灵活部署的推理、训练、微调一体化解决方案;

夸娥(KUAE)万卡智算集群:可扩展至万卡规模的大模型训练平台;

二、软硬同时发力,从基础算力到AIGC应用

摩尔线程的展台分为三大板块 ——

夸娥平台:万卡AI算力底座;

AIGC:加速释放创作生产力;

AI+产业数智化升级;

1)夸娥平台:万卡AI算力底座

“夸娥平台”是一个覆盖AI全栈的解决方案,作为AI算力底座,展示了强大的性能和广泛的兼容性。包含夸娥集群管理平台、夸娥模型服务平台和夸娥大模型推理平台三大核心产品:

夸娥集群管理平台:实现智算中心运维自动化;

夸娥模型服务平台:提供大模型生命周期管理;

夸娥大模型推理平台:支持主流推理框架;

夸娥集群管理平台(KUAE Platform)实现了多数据中心、多集群算力资源的灵活管理,集成了多维度运维监控、告警和日志系统,助力智算中心实现运维自动化。

夸娥模型服务平台(KUAE ModelStudio)覆盖了大模型预训练、微调和推理全流程,支持所有主流开源大模型,并通过MUSIFY代码移植工具实现了对CUDA应用生态的良好兼容。

夸娥大模型推理平台基于高效的MT Transformer引擎,支持业内主流vLLM推理框架和MUSA Serving自研推理框架,实现了对长文本推理、动态连续Batch、MoE等热点技术的支持。

2)AIGC:加速释放创作生产力

在AIGC创意工具方面,摩尔线程也展示了内容创作、图像生成等产品。

“摩笔马良”是一个AIGC内容创作平台,集成了自研大语言模型和先进的图像生成技术。该平台以夸娥智算集群为算力底座,成功部署了MUSAChat自研大语言模型,能够补足Prompt工程,润色和翻译用户输入文本。该平台可灵活调用SDXL和SD1.5两代模型能力,生成细节丰富的图像。

“创意人像”功能能够快速生成个性化肖像。基于SDXL模型并结合多种IP-Adapter、ControlNet技术,用户只需上传一张照片并描述目标风格,即可在1分钟内获得个性化人像。

“摩笔天书”则提供了全自动的绘本生成解决方案。通过输入标题和简要故事大纲,一键生成完整故事、绘本图片、旁白、字幕和背景音乐。

此外,摩尔线程还开发了MT AIReality渲染平台,旨在革新影视、动画等领域的资产制作流程,用更低的成本完成高质量的实时渲染。值得一提的是,摩尔线程还参与了Open Sora Plan,利用其夸娥智算集群为AI视频生成提供强大的算力支持,旨在集结开源社区力量完成对Sora文生视频的复现。

3)AI+产业数智化升级

在产业应用方面,摩尔线程展示了交通、金融、安防等多个行业落地方案。

与上海人工智能实验室合作的”书生·风乌”大模型实现了全球10天以上天气的10公里级建模与预报,并在24小时内完成从CUDA到MUSA的快速生态迁移。

在智慧交通领域,摩尔线程与佳都科技合作的全息路口解决方案以三维高精地图为底座,结合佳都自研知行大模型,实现了实时交通信息传递与智能化处理。

在金融服务方面,摩尔线程为Reportify提供的高效、稳定的大模型在线服务,经受住了高流量业务冲击,大幅提升了数据处理效率。

此外,摩尔线程还展示了在智慧安防、AI辅助决策等领域的应用。公司的全功能GPU在人工智能、视频编解码等方面的多元算力支持,满足了智慧安防系统对多种模态数据输入的需求。与中科闻歌合作的雅意大模型则在政策解读、舆情感知、政务治理、金融分析等领域展现出低延迟、高精度的特性。

© 版权声明
THE END
喜欢就支持一下吧
点赞93 分享