下载此文档

MPI并行程序设计自学教程.ppt


文档分类:IT计算机 | 页数:约52页 举报非法文档有奖
1/52
下载提示
  • 1.该资料是网友上传的,本站提供全文预览,预览什么样,下载就什么样。
  • 2.下载该文档所得收入归上传者、原创者。
  • 3.下载的文档,不会出现我们的网址水印。
1/52 下载此文档
文档列表 文档介绍
七月 18
1/55
并行程序设计简介
曙光信息产业(北京)有限公司
七月 18
2/55
讲座内容提示
基本概念
基本的MPI
点到点通信(Point to point)
MPI中API的主要内容,为MPI最基本,最重要的内容
MPI程序的编译和运行
实例
七月 18
3/55
参考文献
MPI--plete reference. Marc Snir, MIT Press, 1998. ISBN 0262692155, 0262692163.
Using MPI : portable parallel programming with the message-passing interface, William Gropp, MIT Press, 1999. 2nd edition. ISBN 0262571323.
Using MPI-2 : advanced features of the message-passing interface. William Gropp, MIT Press, 1999. ISBN 0262571331.
高性能计算并行编程技术-MPI并行程序设计,都志辉,清华大学出版社, 2001年8月。
七月 18
4/55
多线程库标准
– Win32 API.
– POSIX threads.
编译制导标准
– OpenMP –可移植共享存储并行编程标准.
消息传递库标准
– MPI
– PVM
并行编程标准
本讨论的重点
七月 18
5/55
消息传递并行程序设计
消息传递并行程序设计
指用户必须通过显式地发送和接收消息来实现处理机间的数据交换。
在这种并行编程中,每个并行进程均有自己独立的地址空间,相互之间访问不能直接进行,必须通过显式的消息传递来实现。
这种编程方式是大规模并行处理机(MPP)和机群(Cluster)采用的主要编程方式。
并行计算粒度大,特别适合于大规模可扩展并行算法
由于消息传递程序设计要求用户很好地分解问题,组织不同进程间的数据交换,并行计算粒度大,特别适合于大规模可扩展并行算法.
消息传递是当前并行计算领域的一个非常重要的并行程序设计方式
七月 18
6/55
什么是MPI?
Massage Passing Interface:是消息传递函数库的标准规范,由MPI论坛开发,支持Fortran和C
一种新的库描述,不是一种语言。共有上百个函数调用接口,在Fortran和C语言中可以直接对这些函数进行调用
MPI是一种标准或规范的代表,而不是特指某一个对它的具体实现
MPI是一种消息传递编程模型,并成为这种编程模型的代表和事实上的标准
七月 18
7/55
MPI的发展过程
发展的两个阶段
MPI : 1995
MPICH:是MPI最流行的非专利实现,由Argonne国家实验室和密西西比州立大学联合开发,具有更好的可移植性.
MPI ~:动态进程, 并行 I/O, 远程存储访问、支持F90和C++(1997).
七月 18
8/55
为什么要用MPI?
高可移植性
MPI已在IBM PC机上、MS Windows上、所有主要的Unix工作站上和所有主流的并行机上得到实现。使用MPI作消息传递的C或Fortran并行程序可不加改变地运行在IBM PC、MS Windows、Unix工作站、以及各种并行机上。
七月 18
9/55
:从简单入手 —Init和Finalize
下面我们首先分别以C语言和Fortran语言的形式给出一个最简单的MPI并行程序Hello (下页).
该程序在终端打印出Hello World!字样.
“Hello World”:一声来自新生儿的问候.
七月 18
10/55
Hello world(C)
#include <>
#include "“
main(
int argc,
char *argv[] )
{
MPI_Init( &argc, &argv );
printf( "Hello, world!\n" );
MPI_Finalize();
}

MPI并行程序设计自学教程 来自淘豆网www.taodocs.com转载请标明出处.

相关文档 更多>>
非法内容举报中心
文档信息
  • 页数52
  • 收藏数0 收藏
  • 顶次数0
  • 上传人s1188831
  • 文件大小571 KB
  • 时间2018-07-03