GPU上的显著性区域检测并行方法的开题报告.docx
上传人:王子****青蛙 上传时间:2024-09-13 格式:DOCX 页数:3 大小:11KB 金币:10 举报 版权申诉
预览加载中,请您耐心等待几秒...

GPU上的显著性区域检测并行方法的开题报告.docx

GPU上的显著性区域检测并行方法的开题报告.docx

预览

在线预览结束,喜欢就下载吧,查找使用更方便

10 金币

下载此文档

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

GPU上的显著性区域检测并行方法的开题报告一、研究背景因为人类视觉系统对于显著性区域有很强的关注能力和感知能力,因此,模拟人类视觉系统通过计算机自动提取显著性区域已经成为了一项研究热点。而随着计算机硬件性能的提升,GPU并行计算方案正在成为显著性区域检测中的研究重点之一。显著性区域检测旨在自动在图像中定位并标记出视觉上突出的区域。目前存在的显著性区域检测方法大致分为两类,一类是基于全图像素分析的方法,如基于对比度、局部对比度、图像信息熵、频谱分析等的方法;另一类是基于区域分析的方法,如超像素分割、图像分割等的方法。二、研究内容本文旨在研究GPU上的显著性区域检测并行方法,具体研究内容包括:1.对现有GPU并行计算框架进行分析和比较,选取适合显著性区域检测的框架。2.对于基于全图像素分析的方法和基于区域分析的方法,分别探究适合GPU并行计算的实现方法。3.将不同的显著性区域检测方法在GPU上实现并进行性能比较,得出不同方法在计算速度和准确度上的优劣势。三、研究方法本文将采用实验和理论相结合的方法,主要研究步骤包括:1.对现有GPU并行计算框架进行分析和比较,选取适合显著性区域检测的框架。2.对于基于全图像素分析的方法和基于区域分析的方法,分别进行GPU并行计算代码编写,并对编写的代码进行测试和优化。3.在选择的GPU并行计算框架上,将不同的显著性区域检测方法在GPU上实现并进行性能比较,得出不同方法在计算速度和准确度上的优劣势。四、研究意义本文的主要研究意义在于:1.探究GPU在显著性区域检测中的应用,为显著性区域检测领域提供一种全新的并行计算方案。2.分析不同的GPU并行计算框架和显著性区域检测方法之间的适用性关系,为后续的研究提供指导和参考。3.对于基于GPU并行计算的显著性区域检测方法的优化,可大大提高其计算效率,具有广泛的应用前景。五、参考文献[1]AchantaR,ShajiA,SmithK,LucchiA,FuaP,SüsstrunkS.SLICsuperpixelscomparedtostate-of-the-artsuperpixelmethods.IEEETransactionsonPatternAnalysisandMachineIntelligence,2012,34(11):2274-2282.[2]DongNN,WangY,ZhangL.Automaticsalientobjectsegmentationbasedoncontextandguidance[J].JournalofElectronicImaging,2018,27(4):043006.[3]HouX,LiuC.Astatisticallearningapproachtonon-parametricobjectrecognition[C]//EuropeanConferenceonComputerVision.Springer,2012:732-745.[4]YangY,ZhangY,ChenJ,etal.Classifyingobjectproposalsusingregressiontrees[C]//ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.2013:3406-3413.[5]RenJ,YuanJ,CaiJ,etal.Learningtoshare:Simultaneousparametertyingandsparsificationindeeplearning[C]//ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.2016:6051-6059.[6]ChenC,XingJ,ZhongB,etal.Adaptiveobjectproposalswithdeeplearningandcompositionalsampling[C]//ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.2015:1358-1366.