ng体育自媒体

-ng体育自媒体
首页/ng体育/ 正文

在生活中学习知识的作文,有哪些有利于学习的历史故事书电视剧电影或者记录片等推荐

admin2023-12-12ng体育22 ℃0 评论

在生活中学习知识的作文,有哪些有利于学习的历史故事书电视剧电影或者记录片等推荐?

这些是历史剧,题主可以在空闲的时间考虑刷下,但电视剧跟电影终究不是纪实作品,如果真的想学史实,建议去看历史著作和一些关于历史的纪录片。

接下来是历史书,这些书有些难啃,题主如果不愿意看这些书,那么接着往下看,我来给题主推荐几部纪录片。

纪录片是一个挺不错的选择的,我推荐的有:

《中国通史》b站上可以看,一百多集原始社会讲到近代中华人民共和国建立和发展,值得去刷。

《我在故宫修文物》 前二年大火的纪录片,关于历史文物的,如果你对博物馆的那些文物有兴趣并且想了解他们是如何被修复的,建议去看这个。

《国家宝藏》这个纪录片有点长,建议倍速观看,不过这个纪录片里面的情景再现能够很好的帮助我们去理解当时的历史背景。

《敦煌》季羡林先生是文化指导,当时看的我是心情激荡,优雅的配乐跟良好的节奏把控,让人在大漠孤烟中感受不一样的历史遗迹。

《河西走廊》这个纪录片也是我要强烈推荐的,虽然只有短短几集,但是每一集都是经典。叙事节奏紧凑,适合空闲时间观看。

看书学习的意义究竟是什么?

说到读书的意义,就想起小学语文老师经常对我们说过的一句话:“读书百遍,其义自现”,但那时候的我们根本无法理解这句话的意思,直到我大学毕业后出社会了才明白。读书可修以素养,读书可以求道解惑,读书可以知圣所思,抑或用粗陋的言语来表达,读书可以用来吹牛(和别人找共同话题)等等。每一次读书都有不同的感受,哪怕一本相同的书籍随着不同时间段阅读,也会有不同的所得。

图片来源于网络

读书可以修君子之道,渎小人之行为反思律己,修以素养。

“三人行必有我师焉,择其善者而从之,其不善者而改之”就是这个道理。如果不读书,我们或许只知道择其善者而从之吧,毕竟每一个人都是趋利的,想到的都是从别人身上获取,甚至和心胸狭隘之人,争论喋喋不休,最终也让自己变得与之同行。我有一个朋友十六岁就辍学,外出打工,最后跟着父母做布艺生意的,记得有一次客户在店消费之后,要求朋友送一个沙发背景墙的壁画(价值四十块左右),但朋友就是始终不给,好说歹说和客户争论了半个小时,本来客户定金已经交了,最后闹的不欢而散,生意也没做成。后来我问朋友这单生意如果做成的话可以赚一千多的,但最后一分钱没有赚到,反而还失去了更多的资源。如果我这个朋友平时多读一点修人心胸之书,读一点经商之术,也不至于如此。

图片来源于网络

读书可以知圣人知思,以先贤圣人之举,增益自我思维体系,求业问道解惑。

小时候看了倩女幽魂时,听到说过一句话话:“道可道,非常道”,但听之后非常不能理解这句话的意思。后来粗看《道德经》的时候,第一章就讲述:“道可道,非常道。名可名,非常名”这句话。经过查阅这句话的意思就是:道若可以言说,就不是永恒常在之道;道可以言说,不是人间常俗之道;道可以言说,道非恒常不变之道,那“名”也是如此。这句话虽然说的简单,但浓缩了先贤的思考和哲学逻辑。如果自己不读书,是不会了解这些的。“道生一,一生二,二生三,三生万物”这也是出至《道德经》,但不同的人有不同的理解,有的人理解为:“道是独一无二的,道本身包含阴阳二气,阴阳二气相交而形成一种适匀的状态,万物在这种状态中产生。万物背阴而向阳,并且在阴阳二气的互相激荡而成新的和谐体。”但浅略的拜读了《易经》和《道德经》结合一些专家的书籍后,对这句话的理解是道可谓为无极,无极生一,一者为有极而已(即是两爻),有极生阴阳,阴阳树三才即为天人地。三才阴阳演变生四象,四象演绎八卦,八卦生生不息,相生相克。之所以知道这么多也全靠自己拜读了这类书籍(希望没有借先人圣言,漏了自我痞性)。所以读书自当知圣人所思,解惑求精,问道以树业。

图片来源于网络

读书可以吹牛(聊天),并且吹牛吹的有涵养。

前些日子在某音上听到一句话:不要不看新闻,不看报就出门。这句话的意思是我们不了解当时时政新闻,走出去别人说什么都不知道;相反如果知道任何时候发生了什么事情,再加上自己的一些想法,和别人聊天一定很愉快,同时可能别人会许赞你很有涵养,知识很渊博;同理,读书也如此。

说了那么多废话,总的来说多读书只有好处,没有坏处(当然是指的有文学艺术涵养之类书籍,不是淫意乱象之书)。或许这些道理大家都懂,但就是读了很多书,还是没有用,或者说,读了就忘了,所以针对这种情况,我个人建议:

学会使用思维导图。把自己所看的书通过思维导图来把整本书的逻辑梳理出来,这样你就非常清晰的知道书的逻辑,走向等。学会做笔记。把自己认为好的段落或者句子记录下来,日积月累,迟早你会感谢自己所为。看完一本书后,写写自己的读后感,这样不仅可以加深自己读书籍的理解还可以锻炼自己的逻辑思维,写作能力等。将自己的读后感,发表于网上,接受公众的指点,这样广大聪明的网友会给你意想不到的惊喜。

图片来源于网络

以上,望能坚持读书,大的方向不说,就是平时生活闲趣之时,读几篇美雅散文,写几篇会飞的诗,看看李白的剑,喝喝青梅煮的酒,那也是乐兴之至呀。

学习静不下心怎么办?

非常喜欢莫言的这段话:当你的才华还撑不起你的野心的时候,你就应该静下心来学习;当你的能力还驾驭不了你的目标时,就应该沉下心来,历练;梦想,不是浮躁,而是沉淀和积累,只有拼出来的美丽,没有等出来的辉煌,机会永远是留给最渴望的那个人,学会与内心深处的你对话,问问自己,想要怎样的人生,静心学习,耐心沉淀。要提高学习的自觉性,要做好以下几点:

一:不要把学习当作一种任务和负担,要出自兴趣和需要而学。如果把学习看成是任务负担,就会感到学习是迫不得已而学的,你就会处于消极被动状态。要想提高学习自觉性,就要培养对学习的兴趣。

二:加强自我管理、自我约束的能力。你首先要明确学习目的,把学习作为自我修养,提高自身素质的一个重要手段。然后制订出周详的计划,实行自我管理,并且要约束自己,严格地执行学习计划,以提高学习的自觉性。

三:保证良好的学习环境,排除外界干扰,抵制各种诱惑。学习环境要保持安静、整洁,这样就可以减少各种外界干扰,使你集中注意力学习。对于各种不利于按计划学习的诱惑,你要勇于抑制自己的欲望。

四:防止惰性的侵扰。人总是有惰性的,你稍不注意,惰性便会发作,使你无法再坚持学习。所以你要时刻提防惰性的侵人,否则,你就会越来越懒散,以致最终放弃学习。

读书真的可以学到很多知识吗?

读书当然会学到很多知识,我们从出生就在妈妈怀里学说话,到了八岁左右,我们就开始上学了,我们都是通过老师讲课,读书学习到我们还没认识到的知识,我们从小学到上大学,我们头脑里会不断地积累我们认识不到的知识,读书可以让我们,知道什么是善良,读书会让我们怎么做个好人,读书让我们知道未来是多么美好,读书让我们认识宇宙,让我们不断的探索更高的科技,我们要学习很多东西都是通过读书学到的,所以不仅我要读书,大家也要多读书,我们要做国家有用的栋梁,来建设我们美好的中国……

怎么学习深度学习?

深度学习,就是深层神经网络,仅此而已罢了,直接给你个基于深度学习的心音信号分类的例子。心音信号(PCG)是人体重要的生理信号,携带大量生理特征,但这些微弱信号的提取极易受到外界的干扰,关于心音信号处理相关的文章,可参考下面几篇博士论文,讲的非常详细,因此,不再赘述。

在生活中学习知识的作文,有哪些有利于学习的历史故事书电视剧电影或者记录片等推荐

[1]陈尧. 心音心电信号处理的神经网络方法[D].四川大学,2021.

[2]李婷. 基于循环平稳信号理论的心音信号处理方法研究[D].大连理工大学,2015.

[3]韩威. 小样本心音分类方法研究[D].广东工业大学,2020.

首先进行心音信号2分类,即正常与异常分类,首先看一下本次试验用的GoogLeNet网络结构信息

看一下Layers结构

看下输入层信息

看一下两类PCG样本的时域波形

然后定义连续小波变换的滤波器组

fb = cwtfilterbank('SignalLength',signalLength,'VoicesPerOctave',12)

将生成的时频图像导入数据文件夹中

allImages = imageDatastore(fullfile(tempdir,dataDir),... 'IncludeSubfolders',true,'LabelSource','foldernames');

80%的样本用于训练,20%的样本用于测试

rng default [imgsTrain,imgsValidation] = splitEachLabel(allImages,0.8,'randomized'); disp(['Number of training images: ',num2str(numel(imgsTrain.Files))]); disp(['Number of validation images: ',num2str(numel(imgsValidation.Files))]);

Number of training images: 1673

Number of validation images: 419

看一下PCG信号CWT时频谱图的样子,首先看一下异常样本

再看一下正常常样本

设置GoogleNet网络的训练参数,采用sgdm优化算法,小批量尺寸MiniBatchSize=15,最大迭代次数MaxEpochs=20,初始学习率InitialLearnRate=1e-4。

options = trainingOptions('sgdm',... 'MiniBatchSize',15,... 'MaxEpochs',20,... 'InitialLearnRate',1e-4,... 'ValidationData',imgsValidation,... 'ValidationFrequency',10,... 'Verbose',false,... 'ExecutionEnvironment','gpu',... 'Plots','training-progress');

开始训练网络

trainedGN = trainNetwork(imgsTrain,lgraph_2,options);

进行网络测试

[YPred,probs] = classify(trainedGN,imgsValidation); accuracy = mean(YPred==imgsValidation.Labels); display(['GoogLeNet Accuracy: ',num2str(accuracy)])

GoogLeNet Accuracy: 0.89948,GoogLeNet的准确率达到了90%左右,不是很高,因为样本并不是很多。

看一下混淆矩阵

计算一下各个类别的分类指标

%"异常”类别分类指标 RecallAbnormal = Matrice_confusione.NormalizedValues(1,1)/sum(Matrice_confusione.NormalizedValues(1,:)); PrecisionAbnormal = Matrice_confusione.NormalizedValues(1,1)/sum(Matrice_confusione.NormalizedValues(:,1)); F1Abnormal = harmmean([RecallAbnormal PrecisionAbnormal]); fprintf('RecallAbnormal = %2.3f\nPrecisionAbnormal = %2.3f\nF1Abnormal = %2.3f\n',100*RecallAbnormal,100*PrecisionAbnormal,100*F1Abnormal); %"正常"类别分类指标 RecallNormal = Matrice_confusione.NormalizedValues(2,2)/sum(Matrice_confusione.NormalizedValues(2,:)); PrecisionNormal = Matrice_confusione.NormalizedValues(2,2)/sum(Matrice_confusione.NormalizedValues(:,2)); F1Normal = harmmean([RecallNormal PrecisionNormal]); fprintf('RecallNormal = %2.3f\nPrecisionNormal = %2.3f\nF1Normal = %2.3f\n',100*RecallNormal,100*PrecisionNormal,100*F1Normal);

RecallAbnormal = 82.470 PrecisionAbnormal = 86.250 F1Abnormal = 84.318 RecallNormal = 93.592 PrecisionNormal = 91.635 F1Normal = 92.603

因为本例只是个示范,所用的样本相对于GoogleNet结构并不多,所以分类准确率并不高。

下面进行心音信号5分类,即正常normal,主动脉瓣反流 AR,主动脉瓣狭窄AS,二尖瓣反流MR,二尖瓣狭窄MS五类,同样本例只是个示范,所用的样本较少,所以分类准确率并不高。看一下5类PCG样本的时域波形

然后定义连续小波变换的滤波器组

fb = cwtfilterbank('SignalLength',signalLength,'VoicesPerOctave',12)

看一下生成的CWT时频谱图

将生成的时频图像导入数据文件夹中

allImages = imageDatastore(fullfile(tempdir,dataDir),... 'IncludeSubfolders',true,'LabelSource','foldernames');

70%的样本用于训练,30%的样本用于测试

rng default [imgsTrain,imgsValidation] = splitEachLabel(allImages,0.7,'randomized'); disp(['Number of training images: ',num2str(numel(imgsTrain.Files))]); disp(['Number of validation images: ',num2str(numel(imgsValidation.Files))]);

设置GoogleNet网络的训练参数

options = trainingOptions('sgdm',... 'MiniBatchSize',15,... 'MaxEpochs',20,... 'InitialLearnRate',1e-4,... 'ValidationData',imgsValidation,... 'ValidationFrequency',10,... 'Verbose',false,... 'ExecutionEnvironment','gpu',... 'Plots','training-progress');

开始训练

trainedGN = trainNetwork(imgsTrain,lgraph_2,options);

进行图像样本分类

[YPred,probs] = classify(trainedGN,imgsValidation); accuracy = mean(YPred==imgsValidation.Labels); display(['GoogLeNet Accuracy: ',num2str(accuracy)])

GoogLeNet Accuracy: 0.9

看一下各类别的分类指标

%"normal" 类别分类指标 RecallNormal = Matrice_confusione.NormalizedValues(5,5)/sum(Matrice_confusione.NormalizedValues(5,:)); PrecisionNormal = Matrice_confusione.NormalizedValues(5,5)/sum(Matrice_confusione.NormalizedValues(:,5)); F1Normal = harmmean([RecallNormal PrecisionNormal]); fprintf('RecallNormal = %2.3f\nPrecisionNormal = %2.3f\nF1Normal = %2.3f\n',100*RecallNormal,100*PrecisionNormal,100*F1Normal); %"AR"类别分类指标 RecallAR = Matrice_confusione.NormalizedValues(1,1)/sum(Matrice_confusione.NormalizedValues(1,:)); PrecisionAR = Matrice_confusione.NormalizedValues(1,1)/sum(Matrice_confusione.NormalizedValues(:,1)); F1AR = harmmean([RecallAR PrecisionAR]); fprintf('RecallAR = %2.3f\nPrecisionAR = %2.3f\nF1AR = %2.3f\n',100*RecallAR,100*PrecisionAR,100*F1AR); % "AS"类别分类指标 RecallAS = Matrice_confusione.NormalizedValues(2,2)/sum(Matrice_confusione.NormalizedValues(2,:)); PrecisionAS = Matrice_confusione.NormalizedValues(2,2)/sum(Matrice_confusione.NormalizedValues(:,2)); F1AS = harmmean([RecallAS PrecisionAS]); fprintf('RecallAS = %2.3f\nPrecisionAS = %2.3f\nF1AS = %2.3f\n',100*RecallAS,100*PrecisionAS,100*F1AS); %"MR"类别分类指标 RecallMR = Matrice_confusione.NormalizedValues(3,3)/sum(Matrice_confusione.NormalizedValues(3,:)); PrecisionMR = Matrice_confusione.NormalizedValues(3,3)/sum(Matrice_confusione.NormalizedValues(:,3)); F1MR = harmmean([RecallMR PrecisionMR]); fprintf('RecallMR = %2.3f\nPrecisionMR = %2.3f\nF1MR = %2.3f\n',100*RecallMR,100*PrecisionMR,100*F1MR); %"MS"类别分类指标 RecallMS = Matrice_confusione.NormalizedValues(4,4)/sum(Matrice_confusione.NormalizedValues(4,:)); PrecisionMS = Matrice_confusione.NormalizedValues(4,4)/sum(Matrice_confusione.NormalizedValues(:,4)); F1MS = harmmean([RecallMS PrecisionMS]); fprintf('RecallMS = %2.3f\nPrecisionMS = %2.3f\nF1MS = %2.3f\n',100*RecallMS,100*PrecisionMS,100*F1MS);

RecallNormal = 100.000 PrecisionNormal = 100.000 F1Normal = 100.000 RecallAR = 100.000 PrecisionAR = 75.000 F1AR = 85.714 RecallAS = 83.333 PrecisionAS = 100.000 F1AS = 90.909 RecallMR = 80.000 PrecisionMR = 100.000 F1MR = 88.889 RecallMS = 83.333 PrecisionMS = 83.333 F1MS = 83.333

由于小样本原因,准确率不是很高。重点来了,更重要的是看看如何进行改进

改进方向:信号前处理

1.可以使用合适的信号降噪方法,移不变小波去噪方法对于PCG,ECG等信号来说还是不错的

基于Cycle Spinning的移不变小波去噪 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/539089086

2.根据PCG信号的波形,可以自适应的构造更合适的小波

利用机器学习模型设计正交小波滤波器 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/537254014

为连续小波变换CWT构造新小波 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/534682868

3.使用时频谱图更加集中的同步压缩变换

同步压缩变换初探 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/543569766

高阶同步压缩变换--占坑 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/544716722

在网络选取方面

GoogLeNet相对于本文样本来说太大了,同时我并不推荐迁移学习和样本生成方法,不要问我为什么

基于小波时间散射网络的ECG 信号分类 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/539001673

基于小波散射算法的空气压缩机异常噪声诊断 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/531077421

码字不易,且行且珍惜

额 本文暂时没人评论 来添加一个吧

发表评论