AI智能入驻爱驰汽车,浪潮信息AIStation倾情加盟

2020-07-18 16:08:49

AI智能化发展覆盖各个行业,爱驰汽车为了给用户提供千人前面的出行体验,将个性AI助手等功能的开发提上日程。与浪潮公司携手合作,使用AIStation人工智能开发平台减少了运维人员一半的工作量,还将AI计算资源利用率提高到了百分之九十以上。缩短了模型开发的周期,开发人员的每天训练任务数量也增加了原来的百分之七十。有了浪潮的技术支持,使得爱驰汽车的个性化驾驶AI助手应用实现快速落地的目标。

爱驰U5实现AI个性化驾驶

作为我国智能电动汽车冲出的一匹黑马,爱驰汽车正在将AI技术应用于车载个性化助手、车载智能语音交互、车载机器人、车载驾驶员和乘员检测关怀等系统和功能中,并在量产车上落地应用,为用户提供体贴入微的个性化关怀。爱驰U5是业内首款已量产的搭载了个性化AI助手的智能电动汽车,实现了车载助手“个人千面”。用户只需上传任意一张亲友的照片和一段语音,就能定制一个与其外形相似、可进行个性化语音播报和语音对话的专属虚拟伙伴,在车内也能拥有亲友陪伴在身边的温暖体验。

爱驰助手实现人机交互成为有温度的感情陪伴者

在汽车行驶过程中,爱驰AI助手会持续提供贴心关怀,当驾驶员出现不规范驾驶、疲劳驾驶、分神等行为时,TA会发出语音警示进行提醒;当车内有儿童哭闹,TA能够立刻辨别表情和声音,及时播放孩子喜欢的音乐、故事,甚至他自己大笑的声音来进行安抚。

爱驰汽车AI助手开发面临计算力挑战以有温度的感情陪伴助手为目标,爱驰AI团队在与用户关联最紧密的人机交互上开展深入的研究和技术探索,包括语音识别、人机对话、个性化推荐等。训练相关的深度学习模型不仅需要海量数据,还需要高性能的计算资源。以语音识别模型为例,至少需要1000个小时以上的训练数据,如果按每条数据平均4秒时长计算,数据量在90万条以上,需要4张V100 GPU卡训练一个星期。

 

image.png

 

计算资源不足所面临的困境

为了满足AI研发创新对计算力的需求,爱驰汽车采用了浪潮AGX-2训练服务器集群,提供给数百人的人工智能开发团队使用,进行图像、NLP、语音、AR/VR等领域的研发。AGX-2在2U空间内高速互联集成8颗最高性能V100 GPU加速器,是业界计算密度最强的AI服务器。通过GPU加速,工作效率有了很大的提升。

但是随着业务需求和开发任务的增加,资源不足的矛盾逐渐凸显。计算资源依靠管理员手工标记GPU使用情况,无法及时了解资源的利用率,运维成本很高。尤其是开发人员提交并行任务时需要协调资源,更增加了系统管理员的工作难度。

此外,分散式的数据管理影响工作效率,不同业务开发人员开发所需要数据集不同,存在数据冲突和数据安全问题。音频和图像等数据集一般都有几百GB,处理起来费时费力。同时单台机器创建多个AI框架,开发环境相互影响,GPU卡多人同时使用导致相互抢占资源。

AIStation提爱驰汽车AI助手开发速度

浪潮AIStation是面向AI企业开发场景的人工智能资源平台,通过整合计算资源、数据资源以及AI开发环境,实现了AI 计算资源统一分配调度、训练数据集中管理与加速、AI模型流程化开发训练,为爱驰汽车的AI开发团队构建了敏捷高效的一体化开发平台。

 

image.png

 

AIStation提供资源统一管理、监控和运维。

AIStation提供资源统一管理、监控和运维。将计算资源全部集中池化管理,系统管理员通过可视化界面统一监控计算资源,实时了解CPU/GPU/存储的使用情况、利用率情况和性能表现,以及用户的训练任务规模和数量,降低了运维难度和工作量。

AIStation支持数据协同管理

AIStation支持数据协同管理。一方面可帮助开发人员精细化地管理数据,让开发人员根据业务需求对数据进行保密或共享,在保护数据安全性的同时也能实现协作开发。另一方面,缓存策略可加快训练速度,数据集可提前预加载到本地计算节点中,减少网络IO对训练速度的影响。

AIStation满足客户所需,提高资源利用率

不同的用户在软件的使用上会有不同的习惯,浪潮提供的AIStation平台会根据用户的使用习惯来提供开发环境共享可见,并提供资源利用率。开发人员通过内置TensorFlow、PyTorch、MxNet、Caffe等AI软件栈以及兼容ngc、dockerhub等开源镜像,用最快的时间完成开发环境的创建。同时内置的开发工具可以满足不同人员的使用习惯。同业务组人员可以将组内人员创建的开发环境设置成相互可见,可以方便共同协作。在开发环境中提交训练任务可以减少资源相互占用,使利用率得到很大的提升。

image.png

 

收藏 举报

延伸 · 阅读