上面图示深度学习是机器学习分支的概念非常重要,它继承了机器学习依赖模型自身获得参数的优点,同时它又超越了传统机器学习人工提取特征的限制,能够在大数据中进行自学习提取特征。但它同所有机器学习一样受限于训练数据和输入数据不同的问题。
本文要用到的卷积神经网络(ConvolutionalNeural Network,CNN),主要包含卷积技术以及深度神经网络。区别传统的机器学习, 卷积神经网络将特征提取器与机器学习有机的结合了起来。
卷积神经网络处理的数据形式,具有局部与整体的关系,并且由低层次特征组合可以形成高层次的特征,还能得到不同特征间的空间相关性。图像信息具有典型性,因此当前的卷积神经网络技术主要应用在机器视觉领域。其实, 这种局部与整体的关系也可以看作是不同的频率信息构建的特征,许多序列信号也具有这样的特征,以人体信号为例,处于不同频段和幅度的PQRST波构成了ECG信号,而波形的变化也与对应的病征具有很强的关联性。因此,使用CNN对以ECG为代表的时序信号进行处理也是可行的。
有关CNN的原理、特点以及在机器视觉领域的应用已经有非常多的资料可查,这里就不展开叙述了。本文旨在通过对ECG信号的四类目标正常(N),室性早搏(V),右束支阻滞(R),左束支阻滞(L)进行分类,其中的数据样本来源请参阅论坛
www.52matlab.com。下面直接通过源码来说明CNN分类过程。
Step1: 加载数据,数据以.mat存放在Data文件夹,其中四个.mat文件的文件名对应目标分类值;
%% 加载数据;
fprintf('Loadingdata...\n');
tic;
load('Data\N_dat.mat');
load('Data\L_dat.mat');
load('Data\R_dat.mat');
load('Data\V_dat.mat');
fprintf('Finished!\n');
Step2: 加标签值,给对应的数据加上分类标签,其中的标签用元胞数组表示;
%% 控制使用数据量,每一类5000,并生成标签,用1 2 3 4表示
fprintf('Datapreprocessing...\n');
tic;
Nb =Nb(1:5000,: );
Label1 =repmat({'N'},1,5000);
Vb =Vb(1:5000,: );
Label2 =repmat({'V'},1,5000);
Rb =Rb(1:5000,: );
Label3 =repmat({'R'},1,5000);
Lb =Lb(1:5000,: );
Label4 =repmat({'L'},1,5000);
Data =[Nb;Vb;Rb;Lb];
Label =[Label1,Label2,Label3,Label4];
clear Nb;clearLabel1;%定向清除内存
clear Rb;clearLabel2;
clear Lb;clearLabel3;
clear Vb;clearLabel4;
fprintf('Finished!\n');
toc;
Step3: 对数据进行归一化操作,这部分程序直接放在函数CNNModeTrainFunc.m当中调用,对数据归一化主要有两种,一种是最大最小法,对应Matlab库函数mapminmax,一种是平均数方差法,对应Matlab库函数mapstd,归一化的目的主要是消除不同数据采集设备的数量级差别,当然在数据样本较少的情形下也可以认为起到有效特征提取的作用;
function [X,Y] =getCNNDataFunc(x,y)
Y = categorical(y);
for k = 1:length(y)
X(1,:,1,k) = mapstd(x(k,: )); %等价于 X(1,:,1,k) = (x(k,: ) -mean(x(k,: ))) / std(x(k,: ));
end
Step4: 结构层设计,Matlab自带的库函数是处理图像的,因此输入层也是图片的输入格式,但是序列信号可以看作图像信息的特例,将其中的过程矩阵用行向量取代,本文介绍的CNN实例,包含四个卷积层,三个池化层,两个全连接层(即BP网络中的隐藏层),使用的激活函数为ReLU,全连接层的权系数节点丢弃率为0.2,同时设计softmax的多分类;
layers = [
imageInputLayer([inputSize 250 1]) %输入数据1*250*1
convolution2dLayer([1,11],4,'Padding','same')%滤波器长度为11,个数为4,输出的数据跟输入维度相同
batchNormalizationLayer
reluLayer%激活函数
averagePooling2dLayer([1,3],'Stride',[1,2])%平均池化函数,三点平均,滑窗长度为2
convolution2dLayer([1,13],16,'Padding','same')
batchNormalizationLayer
reluLayer
averagePooling2dLayer([1,3],'Stride',[1,2])
convolution2dLayer([1,15],32,'Padding','same')
batchNormalizationLayer
reluLayer
averagePooling2dLayer([1,3],'Stride',[1,2])
convolution2dLayer([1,17],64,'Padding','same')
batchNormalizationLayer
reluLayer
dropoutLayer(0.2)%权系数节点丢弃率
fullyConnectedLayer(numClasses)
softmaxLayer
classificationLayer];
Step5: CNN训练参数的设定,其中的训练方法为’sgdm’ ,即动量驱动的随机梯度下降法,使用验证数据在训练过程中进行实施验证,其中的小批量尺寸设置为120;
options =trainingOptions('sgdm',...%动量法驱动的随机梯度下降
'MiniBatchSize',miniBatchSize,...%小批量尺寸大小
'MaxEpochs',9,...%轮数
'InitialLearnRate',1e-3,...%初始学习率
'LearnRateSchedule','piecewise',...
'LearnRateDropFactor',0.1,...
'LearnRateDropPeriod',20,...
'Shuffle','every-epoch',...
'ValidationData',{XValidation,YValidation},...%验证数据
'ValidationFrequency',validationFrequency,...%验证频率
'ValidationPatience',Inf,...
'Plots','training-progress',...
'Verbose',false);
Step6: 训练CNN网络;
net =trainNetwork(XTrain,YTrain,layers,options);