一、基于旋律的音乐检索研究——旋律特征的匹配检索(论文文献综述)
高子静[1](2021)在《面向Scratch平台的音乐智能处理系统的研究与实现》文中研究表明随着计算机技术快速发展,人工智能技术已经在各行各业中应用。在信息科学教育领域,基于块的编程语言受到了越来越多学生和老师的关注。Scratch是一种基于块的可视化在线编程语言,用类似儿童积木来形象地表示代码模块,其低门槛和易于上手的特性使得其受到越来越多学生和老师的欢迎。Scratch工具中的音乐模块使得Scratch作品更加多元化,且具有艺术性。作品中音乐可以很好地表达出作者的情感。但是目前的Scratch平台上,没有提供一个能够识别音乐情感的工具,使用者无法了解自己制作的Scratch音乐的情感;同时,Scratch平台也没有提供音乐库,供用户根据自己的需求检索相关音乐为其作品配乐。因此在Scratch平台中,利用人工智能技术进行音乐智能处理系统的设计与实现,不仅可以让学生创作更加丰富的作品,还可以直观体验和理解人工智能技术。面向Scratch平台研究和实现音乐智能处理系统,需要对音乐情感识别和音乐生成等问题展开研究,构建Scratch音乐情感识别模型和Scratch音乐生成模型。在Scratch音乐情感识别模型中,通过分析Scratch音乐与传统音乐的差异性,构造了 Scratch音乐情感识别数据集,进而从Scratch音乐的音频底层特征和时序特征两个方面学习其与情感概念之间的联系,并引入注意力机制提高识别率。在Scratch音乐生成模型中,通过基于情感、时间结构的生成式对抗网络,构造了能够生成Pianoroll格式音乐的Scratch音乐生成模型,并且在生成器和判别器中使用卷积神经网络提升训练速度。两个算法模型通过多组对比实验和算法有效性实验,验证了模型的有效性和实用性。最后,设计并实现了面向Scratch平台的音乐智能处理系统。通过将Scratch音乐情感识别模型和Scratch音乐生成模型融入系统中,实现了 Scratch音乐情感识别和Scratch音乐检索等相关功能。丰富了Scratch平台中与音乐相关的模块,提高了平台的趣味性,帮助用户更好地创作作品学习编程,让青少年在使用Scratch平台的音乐相关功能时能够对人工智能有一个亲身体验,将会提高青少年学习编程的兴趣。
金文清[2](2021)在《音乐主旋律提取算法研究及应用》文中指出主旋律提取是音乐信息检索领域的一个热点和难点任务,旋律作为音乐的元素,在理解音乐语义和在区分不同的音乐作品中起着重要的作用。主旋律提取的对象是多音音乐,其主要任务是在音乐信号中生成与歌声音高相对应的基频序列,这段序列就是旋律线。多数人能辨别出歌唱声或者主要乐器声而不受伴奏的影响,甚至能够记住该段旋律并哼唱出来,然而计算机很难在多声源音乐中识别主旋律。本文以主旋律提取任务做研究,提出了基于CNN-CRF和谐波增强的主旋律提取算法和基于顶层反馈和联合检测的主旋律提取算法,本文的主要工作和创新点如下:(1)基于CNN-CRF和谐波增强的主旋律提取算法对于现有的方法,由于音乐信号的谐波特性极易造成八度错误,和复调音乐中不同声源相互影响导致主旋律音高序列的不连续,使旋律原始音高准确率降低的问题,本文提出了增强音高显着性特征的模型。1.提出了在SF-NMF模型的基础上,用增强的谐波信息来强化音高显着性特征;2.引入带有谐波空间信息的谐波-CQT变换来代替CQT变换,以弥补CQT中缺失的奇数倍频的谐波信息;3.利用CNN来学习增强显着性特征,并利用CRF在全局学习音高的局部特征,最后使用维特比算法选择最佳的旋律线输出。实验证明了本文算法相较于其他算法有较高的音高准确率,也验证了丰富的结构化谐波信息能加强显着性表示并弥补SF-NMF对音高的误判。此部分的创新点是:1.将源分离模型用作预训练,降低主旋律提取的难度;2.模型通过学习增强的谐波信息来强化音高显着性特征;3.利用CRF学习音高的平滑约束和显着性,来追踪最佳的旋律线。(2)基于顶层反馈和联合检测的主旋律提取算法针对CNN-CRF模型中存在人声虚警率较高,导致总体正确率降低的问题,本文提出了增强歌声检测的模型。1.通过建立主旋律提取网络和歌声检测网络,在联合检测框架下提高主旋律提取任务中的歌声识别能力;2.本文在网络顶层加入双向反馈模块:一是将旋律特征中的非旋律信息添加到辅助网络中来增强歌声检测的性能;二是在利用歌声检测的结果,增强或减弱旋律音高显着性。实验证明了联合检测对增强旋律歌声检测的有效性,还有顶层反馈对强化音高识别能力的作用。此部分的创新是:1.本文考虑语音检测和音高分类之间的抽象级别差异,采取联合检测的方案来解决语音检测和音高分类双目标问题;2.在网络顶层加入双向反馈模块,来强化主辅网络间的联系和学习不同特征间的差异,通过在主辅网络间传递各自的非歌声信息,来强化各自的任务。(3)基于主旋律提取算法的音乐喷泉动作模拟现有的音乐喷泉系统,大多都需要对不同的音乐单独设计水型,这需要大量人工操作,费时费力。针对这问题,本文基于主旋律提取技术设计了音乐喷泉的动态水型动作,在少量的基础水型下,实现多样化的水型效果。一方面根据不同音乐风格,设计了一些基础水型,其中本文通过特征融合的方式,利用在巨量数据集中训练过的模型实现了较高的音乐分类效果;另一方面利用主旋律特征设计动作策略来动态改变水型,并基于Open GL和QT实现了音乐喷泉动作模拟。总之,本文针对主旋律提取任务中存在的问题提出了两种改进模型,实验结果表明本文提出的方法具有较好性能。最后基于主旋律提取技术设计了音乐喷泉的动态水型动作。
程粹茹[3](2020)在《基于深度学习的歌曲相似麽对比研究》文中提出近几年各大音乐平台内优秀原创歌曲不断涌现,歌曲之间的相似性与抄袭的争议也引起了越来越多的关注。对于歌曲相似性的研究可以为抄袭的判定提供参考依据,也可以避免创作者的作品与现有歌曲产生相似的情况,具有重要的研究意义。目前在歌曲相似度方面的研究中,人们运用多种方式对歌曲进行特征提取,得到不同种类的特征,并运用多种算法对特征进行对比。结合机器学习技术对数据强大的特征提取能力,在歌曲的相似度对比如听歌识曲、哼唱检索等方面已经取得了很好的成绩。但目前的研究多是针对整首歌曲,对于歌曲中主要的片段之间的相似度对比仍留有很大的研究空间。本文针对歌曲片段进行了融合特征相似度对比研究,主要的工作及成果如下:1.构建了一个对歌曲片段的融合特征进行相似度对比的模型CDmaxSVM。在模型中引入余弦距离(Cosine Distance,CD)和用于翻唱识别的Dmax算法,对测试歌曲样本与曲库中的歌曲提取基于瞬时频率的音级轮廓特征(Pitch Class Profile,PCP)和梅尔频率倒谱系数(Mel-Frequency Cepstral Coefficients,MFCC)两种特征,计算两首歌曲之间每种特征的Dmax值和余弦距离,得到四个相似度值,将其组成四维融合特征向量输入支持向量机(Support Vector Machine,SVM),选取线性核函数判断特征向量对应的两首歌曲是否相似。2.通过剪辑歌曲片段获得相似与不相似组合,提取组合间歌曲的特征向量,构建训练集和测试集来验证模型的性能,并将Dmax与余弦距离分别与SVM构成DmaxSVM和CDSVM,与CDmaxSVM进行性能对比。从整体结果趋势上看,CDmaxSVM模型的训练准确率在90.1%~92.3%范围内波动,测试准确率在87.6%~93.3%范围内波动,略好于DmaxSVM和CDSVM,证明了 CDmaxSVM模型的有效性。<sub>3.使用covers80数据集进行相似歌曲查找实验,并与Dmax排序和余弦距离排序的结果进行对比。剪辑原唱歌曲片段作为测试样本,将翻唱歌曲的对应片段与之前使用过的歌曲片段组成测试曲库。将CDmaxSVM得到的相似歌曲查找结果以PCP特征算出的Dmax值的大小进行排序,与依据PCP特征算出的Dmax和余弦距离的排序结果进行比较,CDmaxSVM结合Dmax排序的TOP-3指标为42,Dmax排序的TOP-3指标为38,余弦距离排序的TOP-3指标为12,进一步证明了 CDmaxSVM模型在相似歌曲查找方面的准确性略好于Dmax和余弦距离。
王一凡[4](2020)在《基于多模态模型的曲谱对齐算法研究与实现》文中认为在大数据时代,音乐行业借助于强大的计算系统与多种储存技术在不断的变化与革新。其中,数字音乐成为一种主流。面对海量音乐数据,同一首音乐作品可能存在多种储存形式,如视频,音频,歌词和五线谱等。在此背景下,对具有相同语义的音乐作品进行对齐越来越重要。曲谱对齐一般是指通过生成特征序列的方式,对相同语义的音乐进行时间维度的对齐。同时,曲谱对齐对音乐信息检索是重要的补充并且具有重要的意义。然而传统的曲谱对齐技术仍存在一定的局限性,如仅仅依赖手工设计的特征带来的非最优化与鲁棒性问题。更为关键的是,传统的曲谱对齐技术无法直接解决多种模态数据存在的“语义鸿沟”问题。近年来,深度学习技术在图像、语音领域相关任务上得到了有效性验证,一些基于深度学习的多模态模型很好地解决了不同模态数据间的语义鸿沟问题。因此基于多模态模型的曲谱对齐技术成为了研究重点。本文主要研究的是基于多模态模型的曲谱对齐技术。在多模态数据形式上,主要选取了音频与MIDI两种储存形式。首先,使用音频信号处理技术与深度学习技术,依次提取浅层与高层特征序列;最后,借助于序列对齐算法完成两种模态数据的对齐。基于上述流程,本文研究了初级特征提取、特征提取网络以及特征转化空间对音乐对齐效果的影响·,同时,针对音乐信号设计了新的损失函数训练多模态模型。本文的主要工作内容有:1.初级特征提取的研究。该部分对初级特征的研究分为音频与MIDI两部分。针对音频数据,分别选取了特殊设计的STFT、MFCC以及CQT作为音频特征,分析得出多分辨率的音频特征可以提升曲谱对齐效果;针对MIDI数据,对88维音高特征、12维色度特征和12维色度的Onset特征进行组合,对比实验结果表明Onset信息对音乐信号对齐十分关键。2.特征提取网络的研究。该部分使用了几种流行的卷积神经网络结构提取高层特征。结合实验结果以及网络的结构参数,分析并选择了最优的网络结构。3.特征转化空间的研究。该部分选取了欧式空间、曼哈顿空间以及余弦空间分别作为高层特征的转化空间。分析比较了几种特征空间对音乐对齐的影响,实验结果显示欧式空间是最优的特征转化空间。4.损失函数的设计。基于初级特征提取的研究成果,该部分在损失函数中设计了 Overlapping关联对,这一关联对能够使模型在训练过程中学习到音乐的Onset信息。与目前较为先进的曲谱对齐算法进行对比实验,实验结果表明本文提出的模型对曲谱对齐有一定的提升。5.音乐数据库检索。该部分将本文提出的算法模型运用于实际的音乐数据库检索任务上,并且针对检索任务进行了一定的优化设计,最后在片段检索与音乐识别任务上进行了验证。
严洁杰[5](2020)在《音乐情感识别模型研究》文中认为音乐作为人类生活的重要组成部分,可以传达情感和调节听众的情绪。情感是音乐的本质特征,而音乐与情感之间的关系已成为许多学术研究的主题。该研究涉及许多不同的领域,包括哲学、音乐学、心理学、生物学、人类学和社会学。当下,随着信息技术和人工智能的飞速发展,音乐情感识别研究进展迅速,成为数字音乐领域的重要研究方向之一。本文对音乐情感识别模型的构建和应用进行研究,其主要研究工作如下:(1)音乐特征分析技术的研究:通过分析MIDI文件的结构组成,提出基于音频特征改进的轮廓线算法识别乐曲的主旋律,并在此基础上提取出乐曲的情感特征并进行标准化处理,作为分类模型的输入。(2)音乐情感识别模型的建立:根据数据规模建立情感心理模型,使用四类基本情感作为音乐情感分类的结果。选用支持向量机分类器机构建情感多分类模型,并用粒子群算法对模型参数进行优化。(3)音乐情感识别模型的应用:研究基于情感识别的舞台控制方法。通过乐段情感划分技术,将乐曲分成数个乐段,并对乐段的情感进行识别,最后使识别结果与设计好的灯光方案一一匹配,将情感识别技术应用于舞台灯光控制。论文收集了231个音乐片段,并进行人工标注训练分类器;在主旋律提取、音乐情感特征分析基础上改进了分类模型,并将识别模型应用于舞台灯光控制,取得了良好的仿真效果。对比实验和舞台灯光控制应用结果表明,所建立的识别模型在分类精度和测试时间上均有较好的表现,能为舞台灯光设计提供有效参考。
何吴涛[6](2020)在《基于哼唱的音乐检索系统的研究与实现》文中提出伴随着互联网与软硬件的快速发展,音乐的制作和传播变得越发高效和便捷,导致音乐数量呈爆炸性增长。音乐数量的快速增加,促进了对更多样、更高效的音乐检索方式的需求。基于哼唱的音乐检索是一种新型的音乐检索方式,它属于基于内容的音乐检索方式。本文研究的哼唱检索系统的哼唱音频是WAV格式,数据库中歌曲是MIDI格式。哼唱旋律提取、哼唱位置确定和旋律匹配是哼唱检索过程中最重要的三个环节。本文围绕评测准确度指标MRR(Mean Reciprocal Rank)展开,并在IOACAS哼唱数据集与10000首MIDI歌曲组成的数据集中测试。在哼唱旋律提取和旋律匹配方面,本文的主要研究工作和创新点如下:(1)在哼唱旋律提取部分,提出一种基于多个概率分布的方法计算PYIN(Probabilistic YIN)算法中的观察概率。该方法对周期稳定性不同的音频使用不同的概率分布计算观察概率,降低了PYIN基频提取算法将倍频错识别为基频的概率,并提高了对噪声的鲁棒性,使MRR指标从64.2%提高到67.5%。(2)在旋律匹配部分,提出一种基于切割点对齐的旋律匹配算法。该算法采用音符切割点对齐规则并利用动态规划算法求解最优对齐路径,充分地利用了每个切割点的信息,对音符的误切和漏切问题具有很好的鲁棒性,可以更好地利用旋律的节奏信息和有效地提高旋律匹配的区分能力,使MRR指标进一步提高到78.9%。(3)在旋律匹配部分,首先提出一种改进DTW算法,改进后的DTW算法增加了每个点对齐次数的约束,可以在不约束横轴的情况下避免过度扭曲的现象发生。然后提出一种基于改进DTW算法获取候选旋律的方法,该方法利用改进DTW算法查找候选旋律的起止点,可以更准确的找出候选旋律,使MRR指标进一步提高到80.2%。
孔晨晨[7](2019)在《基于内容的哼唱音乐检索系统研究》文中研究说明在计算机多媒体技术高速发展的当今时代,音乐数据库的歌曲数量急剧增长。如何从庞大的音乐数据库中快速准确地找到需要的音乐数据已成为现代信息检索领域的一个热门的研究课题。传统的基于文本的音乐检索系统依靠输入歌曲名称、歌手名或歌曲相关文本信息的方式进行检索,无法满足人们对音乐检索的实际需求,因此基于内容的哼唱音乐检索系统是目前的主要研究方向。本文设计了基于DTW(动态时间规整)算法的哼唱音乐检索系统,该系统主要包括预处理模块、旋律表达模块和匹配模块三个部分。对于哼唱音乐数据和音乐库中的数据,本文采用两种不同的方法进行特征提取。本文提出了基于双门限端点检测和基频曲线起伏的二级音符切分方法,音符正确切分率为90%,并以音高差和音长比来表示哼唱音乐信号音符之间的音高和节奏的关系,以此对音乐进行旋律表达。采用HPSS(谐波乐器/打击乐器声音分离)方法对音乐库中的音乐数据进行滤波预处理,将谐波乐器分量从混合音乐信号中分离出来,只留下人声和打击乐器分量的混合信号。采用一种基于听觉场景分析的主旋律基频提取算法对音乐库中音乐数据进行提取人声主旋律,并对其进行旋律表达。本文对DTW算法进行优化,有效提高检索效率。提出采用综合考虑音高相似度和节奏相似度结合的方法得到哼唱输入的相似度,以此作为哼唱音乐检索系统评价标准。实验所用的哼唱音乐数据由苏州大学语音技术研究室采用ProTools音频录音设备在标准录音室录制。不同性别的10位实验者每人哼唱20段,平均每段8s;音乐库包含长度8s的网上自行下载的流行音乐800首。实验测试表明,与已有的传统哼唱音乐检索系统相比检索正确率提高了 5%,检索时间减少了 9.5%。
商迎新[8](2019)在《基于深度学习的哼唱检索研究》文中指出哼唱检索作为音频检索研究领域的基础核心任务,是目前热门的音频研究方向之一。对于哼唱检索系统的构建,有一些本质的难点需要解决,即哼唱特征的不稳定性。因此本文主要从解决哼唱特征不稳定性出发,利用深度学习技术提取音乐旋律本身具有的深层次非线性特征,弱化人为提取旋律特征带来的影响,提升了哼唱检索性能。本文的主要研究结果如下:一、搭建了基于三元组学习的特征学习网络采取先对旋律进行分段,弱化由于哼唱速率不一致引起的误差。针对分段后的旋律无标签问题,利用三元组的学习策略,并探究了原始音高输入与统计特征输入的优缺点,把三元组之间的相似性/非相似性作为网络学习的标签,得到旋律更深层次特征;另外分析了音高序列本身具有的局部特征增强性质,利用卷积神经网络与原始网络进行对比,最终试验了三元组网络学习的有效性与可行性。二、研究了两种基于深度哈希的哼唱检索算法框架在基于三元组特征学习的基线网络框架上,结合深度哈希的思想,对比两种学习哈希码的算法框架。一种是将三元组卷积神经网络学习到的旋律特征通过稀疏自编码器来学习二进制哈希码,简称SAH哈希算法。在损失函数中加入稀疏性和量化误差的约束条件以得到更准确的二进制哈希码;第二种是基于端到端的哈希学习策略。在基于三元组卷积神经网络中引入哈希层,其中哈希层包括全连接层、分片层、激活层和合并层,可以将特征值映射为连续的编码,用于生成独立的哈希函数,并且将连续值化为二进制哈希码时产生的量化误差加入到优化目标函数,最后得到了具有更强表达能力的哈希码。最终通过实验验证了两种算法的检索率均优于传统的哼唱检索基线系统。
张维维[9](2019)在《音乐主旋律提取与多音高估计方法研究》文中认为音乐信息检索包括音乐内容分析、音乐风格分类、哼唱识别、音乐推荐等内容,近年来在网络音乐、移动终端、消费电子、游戏娱乐等领域得到了广泛应用。主旋律提取与多音高估计是音乐信息检索领域的重要课题,国内外对此进行了研究,取得了重要成果,但在性能上还无法满足实际需要,有许多问题有待深入研究解决。本文应用欧几里得算法、贝叶斯滤波、动态规划、时频分析等技术,对主旋律提取和多音高估计方法进行了深入研究,所做的主要创新工作如下:(1)低音伴奏、特殊歌唱技巧以及某些乐器的固有特性会导致基频丢失,此时难以用基频跟踪技术提取音乐主旋律。为此,本文将计算两个自然数最大公约数的欧几里得算法推广到浮点数域,提出了改进欧几里得算法。然后,将其用于旋律音高候选估计,提出了基于改进欧几里得算法的主旋律提取方法。该方法用短时傅里叶变换和瞬时频率进行音乐混合信号正弦估计,并基于谱峰频率对,用改进欧几里得算法计算每帧的多个候选音高估计,再根据音高轮廓时长和连续性特征得到旋律音高序列。该方法不依赖于基频分量就能进行音高估计。进一步,针对同一音符持续时间内音高估计值有时剧烈跳变的问题,提出了改进欧几里得算法和动态规划相结合的主旋律提取方法。该方法用改进欧几里得算法估计每帧多个候选音高,用动态规划算法迭代求解描述主旋律音高的目标函数,以获得平滑的旋律音高轮廓,大幅度减少旋律轮廓的短时剧烈跳变。实验结果表明,该方法在基频丢失时能有效地估计主旋律音高,且避免了旋律音高序列的短时剧烈跳变。(2)鉴于随时间演进的主旋律音高具有时序相关性,本文用贝叶斯理论对音乐主旋律提取建模,并用粒子滤波获得其有效近似解,提出了基于粒子滤波和动态规划的主旋律提取方法。该方法在粒子滤波阶段,用Logistic分布描述音高转移概率,基于音高显着性、谱平滑性和音色相似性构建似然函数,用粒子滤波递推估计旋律音高序列的后验概率密度,以获得旋律轮廓粗估计。在动态规划阶段,先对旋律轮廓粗估计结果进行平滑,得到帧级旋律音高动态范围,然后用动态规划算法迭代求解描述主旋律音高的目标函数,从而得到最终的旋律音高序列。该方法不需要先验信息,两阶段策略既缩小了旋律音高搜索范围,又大幅度降低了动态规划计算量。实验结果表明,该方法具有较高的旋律提取准确率。(3)音乐信号中部分乐音分量存在谐波重叠,导致多音高估计时常产生漏检和误检问题。为此,本文定义了伪二维谱,推导出相关性质,在此基础上,提出一种基于伪二维谱的多音高估计方法。该方法用伪二维变换,将一维音乐信号映射到二维频率平面上;然后,计算伪二维幅度谱与二维谐波模板的互相关函数,实现二维模式匹配,得到音高初估计;最后,借助邻近帧估计结果去除异常值,并用音高直方图对剩余音高进行筛选和补充,从而得到精确的帧级多音高估计结果。该方法能有效地区分和声导致的重叠谐波分量,且计算量较小。实验结果表明,与现有方法相比,该方法的音高估计精确率与召回率较高。
路丽菲[10](2019)在《基于乐谱生成的音乐分析与检索平台研究与实现》文中研究指明随着大数据技术的应用,大量的音乐作品产生,传统的依赖于专家进行人工标注的音乐分析方式,已逐渐不能适应作品快速迭代更新的现状。考虑到音乐分析需要的领域知识,音乐自动化分析及应用过程中存在如下问题:就音乐表述而言,将音频信号进行乐谱类型的符号化表示,可以更直观地分析乐曲的旋律,但是,由于乐曲信号成分的复杂性,人声伴奏混合,乐器种类多样,和弦组成丰富,乐谱的提取十分困难。就音乐分析而言,对乐曲包含音频、乐谱、歌词在内的多种类型数据进行分析,可以更加全面地理解乐曲,由于不同类型数据的表现力不同,构建融合多种类型数据的分析模型,有助于音乐相似度分析与计算。就音乐检索而言,现有的主流检索方法需要依赖于标注文本进行检索,而基于音频内容的检索方法依赖特征提取和模板匹配,音乐检索亟待效率的提高和模式的创新。针对上述问题,本文详细阐述了基于乐谱生成的音乐分析与检索平台研究与实现过程。首先,在音乐表述上,提出基于音频信号的乐谱数据生成方法,将音频信号转换为符号化的乐谱表述形式。其次,在音乐分析上,提出以乐谱数据为主的结合多种数据类型的音乐分析模型,并进行相似度计算方法的研究。最后,在音乐检索上,利用音乐分析模型改进基于内容的音乐检索方式。本文的主要研究内容如下:(1)提出基于乐谱生成的音乐分析与检索平台的总体研究框架。本文提出了基于乐谱生成的音乐分析与检索平台的总体研究框架,旨在对音乐内容自动化分析基础上进行音乐检索。框架基于音乐数据处理流程构建,围绕音乐数据采集层、处理层、应用层三方面进行相关方法的研究,解决音乐分析及检索过程中的问题。(2)基于音频信号分析的乐谱自动化生成方法。本文提出了基于音频信号分析的乐谱自动化生成方法。方法针对乐曲复杂的音频成分,解决人声伴奏分离,单音识别,和弦识别,音符序列提取等方面的问题。(3)融合乐谱音频歌词的音乐分析模型构建。基于乐谱生成方法,本文构建了音乐分析模型。模型考虑到音乐数据类型多样,包括音频、乐谱、歌词等类型,融合多种数据类型来完整性表征乐曲。随后研究模型相似度的分析方法。(4)基于音乐分析模型的音乐检索。结合音乐分析模型,本文进行基于内容的音乐检索研究。在现有的音乐检索模式上进行改进,提出了基于音符序列的音乐检索方式,基于音乐分析模型相似度计算改善音乐检索效率。(5)构建基于乐谱生成的音乐分析与检索平台的原型系统。根据本文提出的方法框架和研究方法,本文实现了基于乐谱生成的音乐分析与检索平台的原型系统,提供乐谱生成、音乐分析、音乐检索等服务。同时将本文平台与已有的平台进行对比,证明本文方法的有效性及本文研究的实用性。
二、基于旋律的音乐检索研究——旋律特征的匹配检索(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、基于旋律的音乐检索研究——旋律特征的匹配检索(论文提纲范文)
(1)面向Scratch平台的音乐智能处理系统的研究与实现(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景和研究意义 |
1.2 国内外研究现状 |
1.3 论文工作内容 |
1.4 论文内容安排 |
第二章 相关技术综述 |
2.1 Scratch音乐综述 |
2.2 音乐智能处理 |
2.3 音乐情感识别相关技术 |
2.3.1 音乐情感模型 |
2.3.2 相关研究现状 |
2.4 音乐生成相关技术 |
2.4.1 音乐表示形式 |
2.4.2 相关研究内容 |
2.5 深度学习相关技术 |
2.6 相关开发技术介绍 |
2.7 本章小结 |
第三章 Scratch音乐情感识别的研究与设计 |
3.1 Scratch音乐情感识别数据集 |
3.1.1 基于shazam算法的Scratch音乐数据集构造 |
3.1.2 基于V-A情感模型的数据打标 |
3.1.3 音频底层特征提取 |
3.2 Scratch音乐情感识别模型 |
3.2.1 卷积神经网络层 |
3.2.2 Attention层 |
3.2.3 门控循环单元层 |
3.2.4 模型训练 |
3.3 实验与分析 |
3.3.1 实验准备 |
3.3.2 模型合理性对照实验 |
3.3.3 Scratch音乐数据集合理性对比实验 |
3.4 本章小结 |
第四章 Scratch音乐生成的研究与设计 |
4.1 Scratch音乐生成的分析 |
4.2 基于GAN的Scratch音乐生成模型 |
4.2.1 基于情感的GAN音乐生成模型 |
4.2.2 基于时间结构的GAN音乐生成模型 |
4.2.3 结果离散化处理 |
4.2.4 GAN网络内部架构 |
4.2.5 模型训练 |
4.3 实验与分析 |
4.3.1 实验准备 |
4.3.2 实验结果 |
4.3.3 模型有效性实验 |
4.4 本章小结 |
第五章 Scratch音乐智能处理系统的设计与实现 |
5.1 系统设计 |
5.1.1 系统需求分析 |
5.1.2 系统的架构设计 |
5.1.3 系统的模块设计 |
5.1.4 系统的数据库设计 |
5.2 系统实现 |
5.2.1 系统架构实现 |
5.2.2 系统模块实现 |
5.3 本章小结 |
第六章 系统验证与性能测试 |
6.1 测试环境及工具 |
6.2 系统功能测试 |
6.2.1 音乐情感识别模块功能测试 |
6.2.2 音乐检索模块功能测试 |
6.2.3 音乐管理模块功能测试 |
6.3 系统性能测试 |
6.3.1 综合负载性能测试 |
6.3.2 异步Scratch音乐情感识别性能测试 |
6.4 本章小结 |
第七章 总结与展望 |
7.1 论文工作总结 |
7.2 展望 |
参考文献 |
致谢 |
攻读硕士期间发表的学术论文和专利 |
(2)音乐主旋律提取算法研究及应用(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状及问题 |
1.2.1 基于显着性的提取方法 |
1.2.2 基于源分离的提取方法 |
1.2.3 基于机器学习的提取方法 |
1.3 本文研究内容 |
1.4 章节安排 |
第二章 音乐主旋律提取概述 |
2.1 基本乐理知识 |
2.1.1 音乐的基本特征 |
2.1.2 音高的度量方法与频率特性 |
2.2 常Q变换 |
2.3 线性链条件随机场 |
2.4 深度学习简介 |
2.5 主旋律提取问题分析及实验准备 |
2.5.1 主旋律提取问题分析 |
2.5.2 实验测试数据集 |
2.5.3 主旋律提取性能测试指标 |
2.6 本章小结 |
第三章 基于CNN-CRF和谐波增强的主旋律提取算法 |
3.1 引言 |
3.2 SF-NMF预训练 |
3.3 CNN-CRF模型 |
3.3.1 结构化的谐波能量谱密度 |
3.3.2 CNN-CRF网络 |
3.3.3 CRF解码过程——维特比算法 |
3.4 主旋律提取实验结果与分析 |
3.5 本章小结 |
第四章 基于顶层反馈和联合检测的主旋律提取算法 |
4.1 引言 |
4.2 联合检测框架 |
4.2.1 主旋律提取主网络模块 |
4.2.2 歌声检测辅助网络模块 |
4.3 顶层反馈机制 |
4.4 实验结果与分析 |
4.5 本章小结 |
第五章 主旋律提取在音乐喷泉模拟系统上的应用 |
5.1 引言 |
5.2 音乐喷泉模拟系统设计 |
5.3 算法模块的实现 |
5.3.1 主旋律提取模块的实现 |
5.3.2 音乐分类模块的实现 |
5.4 音乐喷泉的水型动作设计实现 |
5.4.1 基础水型设计 |
5.4.2 动作控制策略 |
5.5 音乐喷泉模拟系统的实现 |
5.5.1 用户交互模块 |
5.5.2 音乐喷泉展示 |
5.6 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
攻读硕士期间研究成果 |
(3)基于深度学习的歌曲相似麽对比研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及研究意义 |
1.1.1 研究背景 |
1.1.2 研究意义 |
1.2 国内外研究现状 |
1.2.1 MIR领域研究现状 |
1.2.2 音频相似度对比研究现状 |
1.3 论文主要研究内容 |
1.4 论文的结构安排 |
第二章 相关技术基础 |
2.1 神经网络 |
2.1.1 人工神经网络 |
2.1.2 反向传播神经网络 |
2.2 深度学习 |
2.2.1 深度学习神经网络模型 |
2.2.2 深度学习分类 |
2.2.3 常见的分类器 |
2.3 卷积神经网络 |
2.3.1 卷积神经网络介绍 |
2.3.2 卷积神经网络训练过程 |
2.4 MFCC特征提取 |
2.4.1 音频信号预处理 |
2.4.2 MFCC特征提取 |
2.5 本章小结 |
第三章 卷积神经网络模型搭建与优化 |
3.1 卷积神经网络模型搭建 |
3.1.1 卷积神经网络模型基本结构 |
3.1.2 激活函数的选择 |
3.1.3 Dropout算法 |
3.1.4 其它训练过程优化方法 |
3.2 实验条件及参数 |
3.2.1 实验条件及评价标准 |
3.2.2 参数设定 |
3.3 实验结果及分析 |
3.4 卷积神经网络模型优化 |
3.4.1 残差网络 |
3.4.2 卷积神经网络结构改进 |
3.4.3 实验参数设定 |
3.4.4 实验结果分析 |
3.5 本章小结 |
第四章 CDmax_SVM模型 |
4.1 音级轮廓特征提取 |
4.1.1 PCP特征原理 |
4.1.2 IFPCP特征提取 |
4.1.3 节拍同步和基调移位 |
4.2 Dmax算法 |
4.2.1 交叉递归图 |
4.2.2 Qmax算法 |
4.2.3 Dmax算法 |
4.3 余弦距离 |
4.4 支持向量机 |
4.5 CDmax_SVM模型理论框架 |
4.6 本章小结 |
第五章 歌曲相似度对比 |
5.1 构建数据集 |
5.1.1 实验条件 |
5.1.2 数据集构建 |
5.1.3 模型性能评价标准 |
5.2 参数设定与模型训练 |
5.2.1 特征提取参数设定 |
5.2.2 相似度计算参数设定 |
5.2.3 SVM模型训练 |
5.3 实验结果与分析 |
5.3.1 模型性能验证 |
5.3.2 相似歌曲片段查找 |
5.3.3 模型性能对比 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 工作总结 |
6.2 工作展望 |
参考文献 |
致谢 |
(4)基于多模态模型的曲谱对齐算法研究与实现(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.3 主要贡献与创新 |
1.4 论文结构 |
第二章 曲谱对齐 |
2.1 音乐基本知识 |
2.1.1 音乐的基本属性 |
2.1.2 音乐的表现形式 |
2.2 常见音频特征表示 |
2.2.1 短时傅里叶变换 |
2.2.2 梅尔倒谱系数 |
2.2.3 常数Q变换 |
2.3 深度学习及多模态模型 |
2.3.1 人工神经网络 |
2.3.2 卷积神经网络 |
2.3.3 训练与优化过程 |
2.4 序列对齐算法 |
2.5 曲谱对齐数据集及评价标准 |
2.5.1 音乐数据集 |
2.5.2 评价指标 |
第三章 基于多模态模型的曲谱对齐算法研究 |
3.1 算法总体框架 |
3.2 特征输入研究 |
3.2.1 音频特征输入 |
3.2.2 MIDI特征输入 |
3.3 特征提取网络研究 |
3.3.1 AlexNet |
3.3.2 VGGNet |
3.3.3 ResNe(X)t |
3.3.4 ShuffleNet |
3.4 特征映射空间研究 |
3.5 实验结果及分析 |
3.5.1 基本实验设置 |
3.5.2 输入特征对比实验 |
3.5.3 网络结构对比试验 |
3.5.4 特征空间对比试验 |
第四章 基于改进损失函数的曲谱对齐研究与应用 |
4.1 基于Onset的损失函数 |
4.1.1 设计过程 |
4.1.2 关联对选择策略 |
4.1.3 对比算法 |
4.1.4 实验结果与分析 |
4.2 音乐检索应用 |
4.2.1 音频-MIDI的检索系统 |
4.2.2 检索评价准则 |
4.2.3 实验结果与分析 |
第五章 总结与展望 |
5.1 论文工作总结 |
5.2 未来研究展望 |
参考文献 |
致谢 |
攻读学位期间取得的研究成果 |
(5)音乐情感识别模型研究(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 研究背景和研究意义 |
1.2 国内外研究现状 |
1.3 主要研究内容 |
1.4 组织结构 |
2 数字音乐信息基础 |
2.1 数字音乐的简介 |
2.2 音乐格式选取 |
2.3 MIDI音乐的基础 |
2.4 本章小结 |
3 音乐特征分析模型 |
3.1 主旋律提取模型 |
3.1.1 预操作 |
3.1.2 基本轮廓线算法 |
3.1.3 基于音轨特征改进的轮廓线算法 |
3.2 情感特征分析技术 |
3.3 实验结果分析 |
3.3.1 主旋律提取实验 |
3.3.2 情感特征分析实验 |
3.4 本章小结 |
4 音乐情感识别模型 |
4.1 音乐情感心理模型 |
4.1.1 常用情感模型 |
4.1.2 基础情感模型 |
4.2 音乐情感分类模型 |
4.2.1 支持向量机算法 |
4.2.2 基于支持向量机的音乐情感多分类模型 |
4.3 基于粒子群优化支持向量机的音乐情感分类模型 |
4.3.1 粒子群优化算法 |
4.3.2 基于粒子群算法优化的分类算法 |
4.4 实验结果分析 |
4.4.1 基于支持向量机的音乐情感分类实验 |
4.4.2 常见的多分类模型对比实验 |
4.5 本章小结 |
5 音乐情感识别模型的应用 |
5.1 基于音乐情感识别的舞台灯光控制方法 |
5.2 舞台灯光情感匹配模块 |
5.2.1 乐段情感划分 |
5.2.3 乐段情感与灯光方案匹配 |
5.3 舞台灯光控制模块 |
5.4 实验结果分析 |
5.4.1 搭建模拟舞台 |
5.4.2 灯光动作设计 |
5.4.3 舞台应用实验 |
5.5 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
攻读硕士期间发表的学术论文及成果 |
(6)基于哼唱的音乐检索系统的研究与实现(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景和意义 |
1.2 基于哼唱的音乐检索系统 |
1.3 哼唱检索技术的研究现状 |
1.4 论文主要工作 |
1.5 论文章节安排 |
第二章 基础概述 |
2.1 音乐特征概述 |
2.1.1 声音的理论概述 |
2.1.2 声音的物理特征 |
2.1.3 乐理基础介绍 |
2.2 音频文件格式 |
2.2.1 WAV格式 |
2.2.2 MIDI格式 |
2.3 哼唱检索系统基础 |
2.3.1 旋律表示 |
2.3.2 MIDI文件旋律提取 |
2.3.3 WAV文件旋律提取 |
2.3.4 建立音高片段索引 |
2.3.5 旋律匹配 |
2.4 本章小结 |
第三章 WAV文件旋律提取研究 |
3.1 音频预处理 |
3.2 基频提取 |
3.2.1 PYIN算法 |
3.2.2 PYIN算法的不足 |
3.2.3 改进的PYIN算法 |
3.3 音符切分 |
3.3.1 基于能量切分 |
3.3.2 基于音高切分 |
3.3.3 获得音符序列 |
3.4 本章小结 |
第四章 旋律匹配研究 |
4.1 基于改进DTW算法获取候选旋律 |
4.1.1 改进DTW算法 |
4.1.2 获取候选音高序列左右端点 |
4.2 基于切割点对齐的旋律匹配算法 |
4.2.1 算法描述 |
4.2.2 算法实现 |
4.3 本章小结 |
第五章 系统实现与性能分析 |
5.1 系统设计与实现 |
5.1.1 系统结构 |
5.1.2 系统重要模块实现 |
5.1.3 系统演示 |
5.2 实验和结果分析 |
5.2.1 实验数据与实验平台 |
5.2.2 系统性能评价标准 |
5.2.3 实验与结果分析 |
5.3 本章小结 |
总结与展望 |
论文总结 |
研究展望 |
参考文献 |
攻读硕士学位期间取得的研究成果 |
致谢 |
附件 |
(7)基于内容的哼唱音乐检索系统研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 基于内容的哼唱音乐检索系统概述 |
1.2 研究背景和意义 |
1.3 课题研究现状 |
1.4 课题主要目标及研究内容 |
1.5 论文章节安排 |
第2章 哼唱检索系统理论基础 |
2.1 音乐的感知 |
2.1.1 音乐听觉系统 |
2.1.2 听觉特性 |
2.2 音乐基础知识介绍 |
2.2.1 音乐乐理基础知识介绍 |
2.2.2 音乐信号的基本要素 |
2.3 音乐信号的数字存储 |
2.3.1 WAV格式 |
2.3.2 MIDI格式 |
2.3.3 其他存储格式 |
2.4 音乐信号分析 |
2.4.1 音乐信号的数字化和预处理 |
2.4.2 音乐信号的短时傅里叶变换 |
2.4.3 音乐信号的基频及谐波 |
2.4.4 音乐信号的端点检测 |
2.4.5 语谱图 |
2.5 本章小结 |
第3章 音频信号特征提取与表达 |
3.1 哼唱音乐片段数据的特征提取与旋律表达 |
3.1.1 传统音符切分方法 |
3.1.2 基于双门限端点检测和基频曲线起伏的二级音符切分方法 |
3.1.3 音符切分方法性能比较 |
3.2 音乐库音乐片段数据的特征提取与旋律表达 |
3.2.1 预处理过程(HPSS) |
3.2.2 听觉外围处理和特征提取 |
3.2.2.1 听觉外围处理 |
3.2.2.2 跨通道相关 |
3.2.2.3 开始和截至 |
3.2.3 听觉分割与听觉组合 |
3.2.4 主基频提取 |
3.3 本章小结 |
第4章 基于内容的哼唱检索系统的设计与实现 |
4.1 哼唱检索系统结构 |
4.2 检索匹配算法 |
4.2.1 引言 |
4.2.2 常用检索匹配算法 |
4.2.3 DTW算法 |
4.2.4 DTW算法优化 |
4.3 实验与分析 |
4.3.1 实验数据说明 |
4.3.2 检索识别情况 |
4.4 本章小结 |
第5章 总结与展望 |
5.1 总结 |
5.2 研究展望 |
参考文献 |
缩略语对照表 |
攻读硕士学位期间科研情况 |
致谢 |
(8)基于深度学习的哼唱检索研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题研究背景与意义 |
1.2 哼唱检索中的关键技术 |
1.3 国内外研究现状 |
1.4 主要贡献和创新点 |
1.5 论文结构安排 |
第二章 哼唱检索基础理论技术概述 |
2.1 传统系统框架介绍 |
2.2 理论基础 |
2.2.1 音乐乐理知识 |
2.2.2 MIDI数据库介绍 |
2.2.3 旋律特征提取 |
2.2.4 数据预处理 |
2.2.5 旋律匹配 |
2.3 深度学习理论 |
2.3.1 深度学习技术 |
2.3.2 激活函数 |
2.3.3 神经网络优化算法 |
2.4 哈希学习 |
2.4.1 数据无关的方法 |
2.4.2 数据依赖的方法 |
2.4.3 深度哈希方法 |
2.5 本章小结 |
第三章 基于三元组的特征学习方法 |
3.1 核心算法思路分析 |
3.1.1 人声个性化因素探讨及分析 |
3.1.2 三元组介绍 |
3.1.3 算法理论可行性 |
3.1.4 基础算法框架 |
3.2 特征数据预处理 |
3.2.1 候选样本的生成 |
3.2.2 原始音高序列 |
3.2.3 传统统计特征 |
3.2.4 二维特征提取 |
3.3 网络框架设计 |
3.3.1 深度神经网络 |
3.3.2 卷积神经网络 |
3.3.3 模型目标函数 |
3.4 样本挑选 |
3.4.1 样本筛选准则分析 |
3.4.2 hard triplets策略 |
3.4.3 数据组合实验 |
3.5 实验设置及结果分析 |
3.5.1 段内样本长度调节实验 |
3.5.2 深度神经网络实验结果分析 |
3.5.3 卷积神经网络实验结果分析 |
3.5.4 加入“hard triplets”策略实验对比 |
3.5.5 总体实验结果对比 |
3.6 本章小结 |
第四章 基于哈希学习的索引算法 |
4.1 引言 |
4.2 基于稀疏自编码器的哈希编码 |
4.2.1 自编码器 |
4.2.2 稀疏自编码器 |
4.2.3 优化损失函数 |
4.2.4 阈值化方法 |
4.2.5 实验流程 |
4.3 基于端到端的哈希编码网络 |
4.3.1 算法框架 |
4.3.2 哈希编码层 |
4.3.3 优化模型目标 |
4.4 实验设置结果分析 |
4.4.1 网络特征学习部分 |
4.4.2 基于稀疏自编码器哈希编码的实验结果分析 |
4.4.3 基于端到端的哈希编码实验结果分析 |
4.4.4 与传统局部敏感哈希对比实验结果 |
4.5 本章小结 |
第五章 总结与展望 |
5.1 论文总结 |
5.2 论文展望 |
参考文献 |
致谢 |
攻读硕士期间发表论文 |
(9)音乐主旋律提取与多音高估计方法研究(论文提纲范文)
摘要 |
ABSTRACT |
1 绪论 |
1.1 研究背景与意义 |
1.1.1 主旋律提取 |
1.1.2 多音高估计 |
1.2 国内外相关工作研究进展 |
1.2.1 主旋律提取 |
1.2.2 多音高估计 |
1.3 论文主要研究内容与结构安排 |
2 主旋律提取与多音高估计相关背景知识 |
2.1 相关基本乐理知识 |
2.2 问题描述 |
2.2.1 主旋律提取 |
2.2.2 多音高估计 |
2.3 实验测试数据库 |
2.3.1 主旋律提取 |
2.3.2 多音高估计 |
2.4 性能测试指标 |
2.4.1 主旋律提取 |
2.4.2 多音高估计 |
2.5 音高估计 |
2.5.1 自相关函数法 |
2.5.2 YIN音高估计器 |
2.5.3 参数法基频估计 |
2.6 常Q变换 |
2.7 高阶统计量基础 |
2.7.1 矩与累积量 |
2.7.2 高阶谱 |
2.8 动态规划 |
2.8.1 动态规划的基本概念 |
2.8.2 动态规划模型的建立 |
2.9 贝叶斯滤波 |
2.9.1 概率状态空间模型 |
2.9.2 贝叶斯滤波方程 |
2.10 本章小结 |
3 基于改进欧几里得算法的主旋律提取方法 |
3.1 引言 |
3.2 改进欧几里得算法 |
3.3 基于改进欧几里得算法的主旋律提取 |
3.3.1 正弦估计 |
3.3.2 多音高估计 |
3.3.3 旋律音高轨迹跟踪 |
3.3.4 计算复杂度和存储空间要求 |
3.4 基于改进欧几里得算法的主旋律提取方法实验结果与分析 |
3.4.1 基于改进欧几里得算法的音高估计有效性验证 |
3.4.2 音高估计在实际音乐上的性能 |
3.4.3 轮廓补充对于音高估计性能的提升 |
3.4.4 基于改进欧几里得算法的主旋律里提取方法性能 |
3.5 基于改进欧几里得算法和动态规划的主旋律提取方法 |
3.5.1 基于改进欧几里得算法旋律提取方法中存在的问题与改进措施 |
3.5.2 基于动态规划的旋律轮廓跟踪 |
3.6 基于改进欧几里得算法和动态规划的主旋律提取方法实验结果与分析 |
3.6.1 实验参数设置 |
3.6.2 实验结果与讨论 |
3.7 本章小结 |
4 基于粒子滤波和动态规划的主旋律提取方法 |
4.1 引言 |
4.2 粒子滤波 |
4.2.1 粒子滤波原理 |
4.2.2 粒子退化问题 |
4.3 基于粒子滤波和动态规划的主旋律提取方法 |
4.3.1 音乐信号数学模型 |
4.3.2 贝叶斯框架下的主旋律提取 |
4.3.3 音高转移概率和似然函数定义 |
4.3.4 基于粒子滤波的旋律音高轨迹粗估计 |
4.3.5 基于动态规划的旋律音高轨迹跟踪 |
4.3.6 计算复杂度分析 |
4.4 实验结果与分析 |
4.4.1 实验参数设置 |
4.4.2 音高转移概率密度拟合 |
4.4.3 基于粒子滤波和动态规划的主旋律提取方法的性能评估 |
4.5 本章小结 |
5 基于伪二维谱的多音高估计方法 |
5.1 引言 |
5.2 伪二维谱 |
5.2.1 伪二维谱定义及性质 |
5.2.2 谐波信号的伪二维谱 |
5.3 基于伪二维谱的多音高估计 |
5.3.1 音乐信号伪二维谱构建 |
5.3.2 二维模式匹配 |
5.3.3 后处理 |
5.3.4 计算复杂度分析 |
5.4 实验结果与分析 |
5.4.1 实验设置 |
5.4.2 实验结果与讨论 |
5.5 本章小结 |
6 总结与展望 |
6.1 论文总结 |
6.2 创新点摘要 |
6.3 研究展望 |
参考文献 |
攻读博士学位期间科研项目及科研成果 |
致谢 |
作者简介 |
(10)基于乐谱生成的音乐分析与检索平台研究与实现(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 乐谱提取方法研究现状 |
1.2.2 音乐数据分析研究现状 |
1.2.3 音乐检索研究现状 |
1.2.4 国内外研究现状小结 |
1.3 研究内容 |
1.4 论文组织结构 |
第2章 音乐分析与检索平台总体框架 |
2.1 音乐分析与检索平台的应用场景 |
2.2 音乐分析与检索平台研究的方法框架 |
2.3 本章小结 |
第3章 基于音频信号分析的乐谱自动生成 |
3.1 基于深度学习的人声伴奏信号分离 |
3.2 单音识别算法 |
3.2.1 基于SVM的乐器种类识别 |
3.2.2 基于信号衰减规律的时值计算 |
3.2.3 基于时频转换的音高获取 |
3.3 和弦识别方法 |
3.3.1 基于节拍追踪的EPCP特征提取 |
3.3.2 基于Viterbi算法的和弦识别 |
3.4 音符序列提取方法 |
3.4.1 基于HMM-GMM的模型原理 |
3.4.2 基于HMM-GMM的模型训练 |
3.4.3 基于HMM-GMM的模型识别 |
3.5 本章小结 |
第4章 基于音乐内容的音乐检索 |
4.1 音乐分析模型提出 |
4.1.1 音乐分析模型定义 |
4.1.2 音乐数据分析方法 |
4.2 音乐分析模型构建与分析 |
4.2.1 音乐分析模型构建过程 |
4.2.2 音乐分析模型相似度计算 |
4.3 基于音乐分析模型的音乐检索 |
4.3.1 音乐检索引擎构建 |
4.3.2 基于音符序列的索引构建过程 |
4.3.3 不同检索方式对比 |
4.4 本章小结 |
第5章 原型系统的实现与讨论 |
5.1 平台应用背景 |
5.2 原型系统架构 |
5.2.1 应用层 |
5.2.2 控制层 |
5.2.3 存储层 |
5.3 原型系统详细设计 |
5.3.1 存储层 |
5.3.2 控制层 |
5.3.3 应用层 |
5.4 原型系统验证及展示 |
5.5 系统对比与讨论 |
5.6 本章小结 |
第6章 总结与展望 |
6.1 本文总结 |
6.2 未来展望 |
参考文献 |
致谢 |
攻读学位期间发表的学术论文 |
四、基于旋律的音乐检索研究——旋律特征的匹配检索(论文参考文献)
- [1]面向Scratch平台的音乐智能处理系统的研究与实现[D]. 高子静. 北京邮电大学, 2021(01)
- [2]音乐主旋律提取算法研究及应用[D]. 金文清. 东华大学, 2021(01)
- [3]基于深度学习的歌曲相似麽对比研究[D]. 程粹茹. 北京邮电大学, 2020(05)
- [4]基于多模态模型的曲谱对齐算法研究与实现[D]. 王一凡. 北京邮电大学, 2020(01)
- [5]音乐情感识别模型研究[D]. 严洁杰. 西安建筑科技大学, 2020(01)
- [6]基于哼唱的音乐检索系统的研究与实现[D]. 何吴涛. 华南理工大学, 2020(02)
- [7]基于内容的哼唱音乐检索系统研究[D]. 孔晨晨. 苏州大学, 2019(04)
- [8]基于深度学习的哼唱检索研究[D]. 商迎新. 北京邮电大学, 2019(08)
- [9]音乐主旋律提取与多音高估计方法研究[D]. 张维维. 大连理工大学, 2019(01)
- [10]基于乐谱生成的音乐分析与检索平台研究与实现[D]. 路丽菲. 上海交通大学, 2019(06)