首页 > 站长学院 > 人物访谈 >

清华大学副教授都志辉讲座笔记——数据移植过程

2018-04-21

第一版中,讲MPI并行代码直接用cuda重写,一个月完成,发现有大量计算错误,并且不能排查。(结果不一样原因就是移植的代码错了,因为移植过程不可能完全想明白程序逻辑,总会有各种各样的问题出来,这也是大型应用程序移植的难点)。

\

第一版中,讲MPI并行代码直接用cuda重写,一个月完成,发现有大量计算错误,并且不能排查。(结果不一样原因就是移植的代码错了,因为移植过程不可能完全想明白程序逻辑,总会有各种各样的问题出来,这也是大型应用程序移植的难点)

第二版中的解决方法就是要做单元拆分。并且一直的时候分析代码并重写,写成适合cuda计算的数据结构。

在能提升性能地方的代码用cuda一直,没有什么提升余地的地方用OpenACC。即使有些代码在一直到GPU上提升不大也要移植,因为这样需要CPU和GPU之间进行数据交换,这个数据交换的开销非常大。nvlink在数据交换的时候性能提升非常大。

对于大型程序来说,找到真正能提升性能的地方是非常难的。

大部分时候,CPU代码在移植到GPU上的时候都要进行数据结构的重组,不然会对性能有负影响。

性能优化的三个方面:应用、算法、硬件体系结构。

对写论文吧来说:在优化之前或者优化过程中提很多问题,把这些问题弄明白以后,有了优化结果,就容易找到创新点。他们之前也容易犯一种错误:一上来有一个任务就搞,搞快一点就可以了,虽然最后搞出来。但没有反思这么做有什么好处,为什么这么做,有没有什么别的更好的方法,这个方法的瓶颈和极限在哪里。

相关文章
最新文章
热点推荐