查看原文
其他

EDA云实证Vol.1:从30天到17小时,如何让HSPICE仿真效率提升42倍?

灵魂工作室 速石科技 2020-12-18


作为最早的电子设计自动化软件,我们的EDA云实证系列从SPICE开始,再合适不过。

在它出现之前,人们分析电路,用的是纸笔或者搭电路板。随着电路规模增大,手工明显跟不上。

 

于是,1971年,SPICE诞生了。全称“Simulation Program with Integrates Circuit Emphasis"。

H-SPICE是随着产业环境及电路设计技术的发展与升级,以“SPICE2”为基础加以改进而成的商业软件产品,现在属于Synopsys。

 

既然有了新的计算机辅助工具,那问题就来了:

怎么才能跑得更快一点?

怎么才能运行更大规模的集成电路?

 

第一个答案是算法改进。这属于数学领域,很难。

 

第二个答案是摩尔定律。从上世纪70年代初到如今,SPICE从只能仿真十几个元器件到今天可以仿真上千万个元器件的电路。但已经几十年没有太大的变化了。

 

第三个答案是计算架构升级,从单核到多核,单线程到多线程。

 

第四个答案是Cloud HPC云端高性能计算谈概念过于抽象,我们今天拿实证说话。


实证背景信息


用户需求

作为一家纯IC设计公司,C社成立已超过十年。

公司在本地部署了由十多台机器组成的计算集群,但目前面临的最大问题依然是算力不足。特别是面对每年十次左右的算力高峰期时,基本上没有太好的办法

 

对云的认知

C社相关负责人表示:算力不足是目前IC设计行业普遍面临的问题。对于EDA上云,公司之前没有尝试过,对云模式和架构也并不了解,在数据安全性方面也存在一定的顾虑。

不过该负责人对于EDA上云早有耳闻,也颇感兴趣,愿意进行一定的尝试。毕竟上云若真的能够加快运算速度,就意味着可以更早展开研究,从而提升项目的整体进度。


实证目标


1、HSPICE任务能否在云端运行?

2、云端资源是否能适配HSPICE任务需求?

3、fastone平台能否有效解决目前业务问题?

4、相比传统手动模式,云端计算集群的自动化部署,有哪些好处?


实证参数

 

平台:

fastone企业版产品

 

应用:

HSPICE

 

适用场景:

仿真模拟电路、混合信号电路、精确数字电路、建立SoC的时序及功耗单元库、分析系统级的信号完整性等


技术架构图:

用户登录VDI,使用fastone算力运营平台根据实际计算需求自动创建、销毁集群,完成计算任务。

 

License配置:

EDA License Server设置在本地

 

步骤一:硬件选择

选择适合HSPICE应用的配置


云端可以选择的机型有几百种,配置、价格差异极大。

我们首先需要挑选出既能满足HSPICE应用需求,又具备性价比的机型。


已知用户的本地硬件配置:

Xeon(R) Gold 6244 CPU @ 3.60GHz,512GB Memory

本地配置不仅主频高,内存也相当大。


我们推荐的云端硬件配置:

96 vCPU, 3.6GHz, 2nd Gen Intel Xeon Platinum 8275CL, 192 GiB Memory

推荐理由:

1、该应用对CPU主频要求较高,但内存要求并不大;

2、我们选择了计算优化型云端实例即具备高性价比的高主频机器


C社的本地硬件在HSPICE以外,还需处理一些需要大内存的后端任务,所以需要在配置上兼顾各种资源需求,在当前项目不可避免会造成一定的资源浪费


步骤二:云端部署手动模式 VS 自动部署


我们先看手动模式:


  第一步:不管你需要用哪朵云,你都得先熟悉那家云的操作界面,掌握正确的使用方法;

第二步:构建大规模算力集群:

  • 配置计算节点,存储节点,VPC,安全组等等

  • 安装应用,把HSPICE安装在集群环境

  • 配置集群调度器,比如slurm

第三步:上传任务数据,开启计算;

第四步:任务完成后及时下载结果并关机。

不要笑,这一点很重要。我们在切换七种视角,我们给各位CXO大佬算算上云这笔账有讲到原因。


此外,还有一个需要考虑的点,时间。

第一步,需要多少时间说不好;

第二步,大概需要专业IT人员平均3-5天

第三步/第四步,如果数据量较大,需要考虑断点续传和自动重传

第四步,任务完成时间很可能难以预测。

即使是可测的,我们可以想象一个场景——有个任务预计在凌晨跑完,用户此时有两个选择:

1、调一个闹钟,半夜起来关机——有人遭罪

2、睡到自然醒,次日上班关机——成本浪费


在手动模式下,通常都是先构建一个固定规模的集群,然后提交任务,全部任务结束后,关闭集群。

想一下一个几千core的集群拉起来之后,第二、三、四步手动配置的时间里,所有机器一直都是开启状态,也就是说,烧钱中。


再看看我们的自动化部署:


  第一步,不需要;

第二步,只需要点击几个按钮,5-10分钟即可开启集群;

第三步,我们有Auto-Scale功能,自动开关机。

另外,我们还自带资源的管理和监控功能。


fastone的Auto-Scale功能可以自动监控用户提交的任务数量和资源的需求,动态按需地开启所需算力资源,在提升效率的同时有效降低成本。

  • 所有操作都是自动化完成,无需用户干预;

  • 在实际开机过程中,可能遇到云在某个可用区资源不足的情况,fastone会自动尝试从别的区域开启资源;

  • 如果需要的资源确实不够,又急需算力完成任务,用户还可以从fastone界面选择配置接近的实例类型来补充。

跨区域,跨机型使用,在本次实证场景没有用到。

我们还可以根据GPU的需求来实现自动伸缩,下次单独聊。


实证场景一:云端验证

 本地40核 VS 云端40核 VS 云端80核 


结论:

1、当计算资源与任务拆分方式均为5*8核时,本地和云端的计算周期基本一致;

2、在云端将任务拆分为10*4核后,比5*8核的拆分方式计算周期减少三分之一; 

3、当任务拆分方式不变,计算资源从40核增加到80核,计算周期减半;

4、当计算资源翻倍,且任务拆分方式从5*8核变更为20*4核后,计算周期减少三分之二;

5、fastone自动化部署可大幅节省用户的时间和人力成本。


 

实证过程:

1、本地使用40核计算资源,拆分为5*8核,运行编号为1的HSPICE任务,耗时42小时

2、云端调度40核计算资源,拆分为5*8核,运行编号为1的HSPICE任务,耗时42小时

3、云端调度40核计算资源,拆分为10*4核,运行编号为1的HSPICE任务,耗时28小时;

4、云端调度80核计算资源,拆分为10*8核,运行编号为1的HSPICE任务,耗时21小时

5、云端调度80核计算资源,拆分为20*4核,运行编号为1的HSPICE任务,耗时14小时


实证场景二:大规模业务验证

超大规模计算任务


结论:

1、增加计算资源并优化任务拆分方式后,云端调度1920核计算资源,将一组超大规模计算任务(共计24个HSPICE任务)的计算周期从原有的30天缩短至17小时即可完成,云端最优计算周期与本地计算周期相比,效率提升42倍;

2、由fastone平台自研的Auto-Scale功能,使平台可根据HSPICE任务状态在云端自动化构建计算集群,并根据实际需求自动伸缩,计算完成后自动销毁,在提升效率的同时有效降低成本;

3、随着计算周期的缩短,设备断电、应用崩溃等风险也相应降低,作业中断的风险也大大降低。在本实例中未发生作业中断。

 

实证过程:

1、本地使用40核计算资源,拆分为5*8核,运行编号从0到23共计24个HSPICE任务,耗时约30天;

2、云端调度1920核计算资源,拆分为24组,每组为20*4核,运行编号从0到23共计24个HSPICE任务,耗时17个小时

 

实证小结


我们回顾一下实证目标:

1、HSPICE任务在云端能高效运行;

2、异构的云端资源能更好适配HSPICE任务需求,避免资源浪费;

3、fastone平台有效解决了算力不足问题,效率提升42倍;

4、相比手动模式,fastone平台自研的Auto-Scale功能,既能有效提升部署效率,降低部署门槛,又能大大缩短整个计算周期资源占用率,节约成本。

至于本次实证场景没用到的跨区域,跨机型使用,还有根据GPU的需求来实现自动伸缩,我们下次再聊。



本次半导体行业Cloud HPC实证系列Vol.1就到这里了。

 

在下一期的实证中,我们最多调用了5000核的云资源来执行OPC任务,并且充分评估了License在本地和云端的性能差异。

 

未来我们还会带给大家更多领域的用云“真香”实证,请保持关注哦!


 END -

2分钟自动开通,即刻获得TOP500超级算力

扫码进入,【在线体验版】入口

《半导体行业云解决方案白皮书》

有兴趣可以扫码添加小F微信(ID: imfastone)获取


你也许想再了解一下:

全球半导体行业上云格局一览和十个上云实践问题解答
【2020新版】六家云厂商价格比较:AWS/阿里云/Azure/Google Cloud/华为云/腾讯云
帮助CXO解惑上云成本的迷思,看这篇就够了
花费4小时5500美元,速石科技跻身全球超算TOP500
灵魂画师,在线科普多云平台/CMP云管平台/中间件/虚拟化/容器是个啥


Modified on

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存