专注力阈值:关于孩子专注力这个事情,就看这一篇,我都给你总结好了

2021/09/13 08:56 · 提高专注力训练 ·  · 专注力阈值:关于孩子专注力这个事情,就看这一篇,我都给你总结好了已关闭评论
专注力注意力训练提升
摘要:

专注力阈值:关于孩子专注力这个事情,就看这一篇,我都给你总结好了原标题:关于孩子专注力这个事情,就看这一篇,我都给你总结好了昨天韬韬爸爸给大家介绍了4个可以提高专注力的小游戏,不少宝爸宝妈们反馈都很喜欢,也有人问到,除了玩这些游戏,想要提高孩子的专注力,还有什么方法或者需要注意的事情呢?看得出来当爸妈的都特别关心这个事

专注力阈值:关于孩子专注力这个事情,就看这一篇,我都给你总结好了  第1张

专注力阈值:关于孩子专注力这个事情,就看这一篇,我都给你总结好了

原标题:关于孩子专注力这个事情,就看这一篇,我都给你总结好了

昨天韬韬爸爸给大家介绍了4个可以提高专注力的小游戏,不少宝爸宝妈们反馈都很喜欢,也有人问到,除了玩这些游戏,想要提高孩子的专注力,还有什么方法或者需要注意的事情呢?

看得出来当爸妈的都特别关心这个事,毕竟要是能养成好的专注力对孩子一辈子都受益无穷。

所以今天韬韬爸爸花了几个小时的时间,专门给大家写了这篇文章。关于孩子专注力提高这件事,看这一篇相信就能帮到你。

1.孩子的专注和我们是不一样的

我们首先要认识一点,孩子的专注和我们是不一样的。

很多人以为专注是一个性格或者心理层面的能力,其实生理上的发育对专注力的影响也是非常大的!尤其是大脑皮层前额叶的发育是直接影响专注力的,因此,孩子的专注力是无法和大脑发育成熟的成年人相比的,家长不能过分要求孩子。

具体来说,孩子专注力的特点可以概括为:持续短,易打断,拉不回。

比如从房间出去客厅拿杯水喝这么简单的一件事,对于我们来说是轻而易举的,但对于年龄比较小的孩子,就在一小段路上,那些对我们而言早已熟悉的不得了大脑会自动忽略的东西和事物,可能却对孩子来说都是新奇有趣充满吸引力的,所以他的注意力被打断了是毫不奇怪的。

一花一世界,对于孩子来说,真的就是如此。

2.专注是可以传染的

就像置身于一个每个人都埋头用功的环境,再散漫的人也会不自然地更努力一些。

因此,我们的表现其实也是会大大影响到孩子的。我相信很多家长都有这种经历,自己坐在孩子身边,却不由自主地时不时拿起手机看一会,哪怕打开手机根本没事情做。

这个时候你们发现了吗?孩子不管多沉迷手上的事情,也会时不时回头看我们一眼,甚至会要求我们一起玩或者互动。

其实,在这个过程中我们已经不知不觉地伤害了孩子的专注,不仅做了一个错误的示范给孩子,更重要的是会让孩子逐渐形成一个坏习惯,无论做什么,都会时不时回头看一下身边的人。

所以,韬韬爸爸给大家的建议是,陪伴的时候尽你所能地专注和投入到和孩子的事情之中,如果你确实有事或者无聊忍不住了,你可以离开让孩子独自玩一会,但不要在和陪孩子玩或者做别的东西的时候,又心不在焉地做自己的事情。

3.不打扰是我们的温柔

很多人看了上面这条,或者不求甚解地看了一些关于高质量陪伴的文章,然后在陪伴孩子的时候就非常积极地和孩子互动,不停动手帮忙或者提出意见。

又或者是另一个常见的场景:孩子自己在那边玩,家长时不时就过来递一下水啦,让孩子吃点水果啦,拿个别的玩具挑逗一下孩子啦之类的。其实这些都是会影响孩子专注的。

对于陪伴孩子这件事,不打扰是我们的温柔。

马修·艾德伦博士就提出过,人在专注进程中频繁被干扰,会造成一些难以发现的负面影响,这个影响对孩子来说则更加大。

所以,从现在开始我们要记住,陪伴孩子的时候我们是观察者,是帮助者,但不是主角。我们不需要去表现自己,只需要耐心地看着,在孩子需要帮助的时候伸出手来,在孩子需要认同的时候适当夸奖鼓励就可以了。

至于喝水吃东西什么的,有的是时间,不要破坏孩子好不容易专注下来的这么一小会了。

4.快感阈值是人生的秘诀

很多人有一种错误认知,那些成功的人总是可以坚持奋战在那些枯燥艰苦却又伟大的事业中,失败的人却只会沉迷享乐不知进取。他们认为这是天生的,是成功的人特别有毅力有能力。

其实,真正产生这种差别的,是他们的快感阈值不同。

什么是快感阈值,通俗地说就是“什么样的事情能让我感到爽”。

其实每个人天生的快感阈值都是差不多的,高阈值是后天一步一步提高的,而且极难逆转。

玩过更好玩的东西,没那么好玩的东西就显得无趣了。就像在生活中取得了成功的人一般不会沉迷在游戏里面,因为相比起来游戏里面那点虚假的成功感太弱小了,而生活中得不到认同的人就只能不停在虚拟世界中获得快感。

对于自控力更差的孩子来说,更是如此。越早尝试到那些高级的玩乐之中,孩子就越会觉得平时的玩乐无趣,而学习做作业这些事情就更是枯燥无比难以忍受。

所以,如果你希望孩子能沉下心来做一些有意义的事情,就要尽可能把控他的享乐世界,不要过早接触电视甚至电子游戏这些东西。

5.不要做全能的父母

麻省理工学院的研究人员曾做过一项实验,把一批一岁半孩子分成两组,然后让他们看父母做一些事情,比如把一个玩具从一个小罐子里取出来,或者把钥匙从门上拔出来。

第一组孩子看到的父母都是轻而易举地完成了,第二组孩子看到的则是父母一开始并不成功,换了几种方法尝试后才成功。

看完之后,每个孩子会拿到一个音乐玩具,上面有一个假的按钮,按了不会发出音乐,真的按钮隐藏在玩具底部。

这时候,第二组孩子尝试按假开关的次数比第一组孩子高出了1倍,他们会花更长的时间去研究手上的玩具,并且第二组孩子最终比第一组孩子更多找出了真正的按钮。

看完这个实验大家明白了吗?对于孩子而言,我们其实不是要做全能的父母,我们不仅仅是帮孩子解决问题的,我们更重要的是给孩子做榜样的!

在生活中更多地给他们展现我们是怎样一步一步努力研究尝试最终解决问题的,孩子才能养成这种专注下来认真研究从而达到目的的习惯。

6.创建独立空间

家里面给孩子创作一个独立安心的空间也非常重要,我不是说一定要一个房间之类的,可以只是一张游戏桌,或者一个游戏叠。

告诉孩子,当你在这里玩或者做事情的时候爸爸妈妈会尽量不打扰你,你可以尽情专心做你的事情。

创立这个空间的好处不仅仅是可以让孩子避免被打扰,更重要的是,给孩子传递出一个心理暗示,当你在这个空间的时候,你应该是专注地做一些事情,不要被外界的信息影响,这同样对孩子锻炼专注力有很大的好处。

以上就是发展孩子专注力家长需要注意的地方啦!希望能够对大家有所帮助。我是韬韬爸爸,专门给大家分享实用的可操作性强的育儿知识,下次见!

韬韬爸爸的育儿圣经

关注我,育儿路上不迷茫

求关注!求点赞!求转发!返回搜狐,查看更多

责任编辑:
专注力阈值:关于孩子专注力这个事情,就看这一篇,我都给你总结好了  第2张

专注力阈值:如何培养孩子的专注力,这个原理你得明白!

你怕痒吗?想一想,为什么你不会感觉到自己所穿的衣服,但别人轻轻地碰你,你会有感觉?为什么别人碰触你的敏感部位会产生麻痒的感觉,而自己碰触却没有?为什么有人作势要呵痒时,你已经产生麻痒的感觉?为什么这个过程的时间越久越痒?如果你不怕痒,当我没说。
1、基本概念
估计大家都听说过有个名词叫感觉统合(Sensory integration, SI),是大脑协调所有来自感官的信息和执行恰当反应的过程。每一种感觉都有阈值,超过阈值的感觉会被感知,低于阈值的感觉会被忽略。人体会主动调节每一种感觉的阈值。比如穿上衣服时身体有感觉,当这个感觉持续存在时,身体会自动上调阈值,忽略这种轻微的感觉。
对于强烈的感觉刺激,人体会下调阈值,会增强这种刺激的感受。所以越呵越痒,甚至还没有碰到都会感觉很痒。被火烫过后,你的手指会很怕接近火苗。
怎么消除这种强烈的刺激呢(自己碰触为何不痒呢)?
人的大脑有个功能,叫正向模拟(Forward Modeling)。当大脑有意识地触碰某物体时,会产生一个预计的感觉(以前曾经发生过的记忆)。这个预先发送的感觉与真实的感受拟合时,在实际发生时会抑制真实感觉的强度。因此,我们不能给自己呵痒。
2、理解这些概念在专注力培养中的作用
学习与感觉有密切的联系。前面提到过,在学习上有人是视觉敏感,有人是听觉敏感,有人是触觉敏感。所谓专注力,是感觉的注意力都放在某件事情上,忽略其他的感觉。根据上面的概念,我们希望学习时产生的感觉是低阈值,而让孩子分心的感觉是高阈值。
但事与愿违,孩子在看课外书(玩游戏、看电视等等)时非常专注(低阈值),甚至不会发现你站在ta后面(自动调高阈值);学习时总是东摸摸西看看,一会玩玩小车,一会摆弄铅笔盒,有人敲门就立马去看看,唯独没有专注于学习(高阈值)。多么想ta看电视的劲头用在学习上啊!
3、唤醒对学习的专注
一个孩子兴奋地与同伴在玩,爸爸说:到时间回家做作业了。孩子从低阈值的游戏感觉转换到高阈值的学习状态,失败的概率非常高。因此,没有人能突然作出转变,需要培养这种专注力。下面几个步骤供大家参考。
第一步:无论是与同伴玩耍、玩游戏、看电视或者其他活动,都需要预设时间。并在时间到达前设置一个缓冲和提醒,以提高其阈值,降低这种感觉输入的兴奋度。爸爸妈妈也要有时间管理,并把这个时间管理传递给孩子。时间管理需要长时间培养,但是可以培养的。省心的父母通常孩子有自主的良好时间管理,不省心的父母通常孩子时间管理非常紊乱甚至没有。
第二步:引导进入学习状态(降低学习的阈值)。有的孩子不需要引导,会自动切换。有的孩子非常困难。注意,引导进入学习状态,并不是反复叮嘱孩子要专心。而是需要耐心观察孩子的状态,如果孩子是觉得枯燥,试试采用一些有趣的方法吸引注意力。试着观察孩子属于哪一类,找到适宜的方法(此前的文章介绍过了)。我没有现成的适合所有孩子的方法,需要父母去发现。
第三步:唤醒学习的专注力。呵痒为啥越来越痒?因为你预测到了即将到来的动作,但不能预知它的感觉和强弱。对于进入状态很慢的孩子,要像呵痒一样,用个什么方法激一下。这个激,不是呵斥ta说:再不做作业,别想出去玩。而是用学习相关的内容激发ta,引起兴趣,引起共鸣,唤醒学习的欲望,降低学习时对产生感觉的阈值。
这个唤醒的过程可能非常长,也可能非常短。父母要有耐心,要付出时间,要一以贯之。一旦完成了这个过程,剩下的就是孩子主动的求知了。做不到这一点,孩子的学习将是一个被动接受的艰难的过程。
第四步:维持专注力。当孩子逐步进入学习状态时,需要维持好学习的专注力。试想一下,为什么那些游戏和电视那么吸引人,而学习却没有任何吸引力呢?
通常情况下,学习是一个单一感官刺激,身体很容易失去兴奋并快速调高阈值,钝化这种刺激。而游戏和电视通常是多感官刺激,在不断变换的多重刺激中保持兴奋度和低阈值。如果孩子的专注力不足以维持到完成学习目标,可以尝试对学习的内容进行调整,将学习产生的感官刺激变成多个感官参与的方式。
这种多重感官刺激的协同作用容易保持兴奋度,同时缓解单一感官持久刺激带来的压力。另一方面,需要观察孩子是哪一种感官刺激敏感的学习者,通过发挥敏感的感官来维持更久的专注。
举报/反馈专注力阈值:关于孩子专注力这个事情,就看这一篇,我都给你总结好了  第3张

专注力阈值:提升压力阈值、思考力和专注度最简单的方法

积极运动对提升认知力、思维能力、抗衰老、降低各类慢性病、重疾发生率具有显著影响。
韩寒18分钟完成5公里,平均配速3.4一时间刷屏,大家惊叹于近40的韩寒可以达到如此高超的水平的同时,好像并没有意识到跑步背后的意义和对自己的影响。
近些年,健康生活、劳逸结合被越来越多的企业写进了员工守则里,成为企业文化一部分,比如规定员工每个月步行公里数达到多少,万科的“长跑文化”,金蝶的“划船运动”等等,但真正能够坚持下去的又有多少人呢?
运动被证明可以减轻身体的压力,释放内啡肽,通常被称为“奔跑的愉悦”。
有些人可能可以坚持运动个把星期,就会因为各种原因比如压力大,为了争取时间等等,将每周跑步的时间预算全部砍掉。
停掉运动后,就能意识到自己微妙的改变:
首先,最明显的征兆是,专注力显著下降。
其次,心态变得越来越保守,不愿尝试新事物,避重就轻,愤世嫉俗,晚熬夜,早赖床,管不住嘴,下不了床。
恢复运动后,奇妙的事情发生了:
专注力显著提升,又恢复了“能随时切换心态进入工作”。晚上不再想熬夜,不再乱吃垃圾食品。运动时,更倾向于挑战自己的身体上限……跑步会上瘾这件事是真的。
运动提升了思考力跟专注力,恢复了大脑弹性
随着损耗的神经元数量超过新生的数量,此时就开始发生认知衰退。同时,负责给大脑输送的毛细血管也开始萎缩,导致血量整体减少,意味着能量、氧气、各类营养因子、修复因子也变少,恶性循环开始……当重要的神经元逐渐萎缩断掉之后,我们就开始出现遗忘、认知技能丢失等各种思维衰老症。
我们从40岁开始,平均每10年会损失平均5%的脑容量,70岁之后,任何疾病都会加速这个过程。
如果想抵御衰老,我们需要:保证大脑能量供应、确保能量科学分配、促进神经细胞的修复、促进大脑活动。
显然,运动能同时满足上述需求:
1.运动强健心脑血管。
2.运动能提高非常
{!-- PGC_COLUMN --}重要的脑源性神经营养因子(BDNF)的释放量。
3.运动能抵抗慢性压力、改善情绪、提升免疫力
运动能提升你的压力阈值
运动不仅是“为了防止老人病”,对年轻人,包括儿童、学生、成年人,运动都能大幅度提升理性思维能力、认知思维能力,对成年人的致命病——焦虑、压力的伤害也能最大限度消除。
我们可以从有氧能力、力量、平衡能力以及柔韧性制定运动计划。
1.有氧能力。每周锻炼4天,时间在30分钟到1小时之间,保持最大心率的60%~65%。对于缺乏运动的人,只需快走或慢跑即可达到这个心率。
2.力量。
每周进行两次举重或阻力器械锻炼。做3组举重器械练习,每组重复10到15次。除此之外,需要弹跳或跳跃的运动也有助于你增强骨骼,跳舞、有氧操、跳绳、篮球等等,这些对预防和减少骨质疏松症非常关键。
3.平衡能力和柔韧性。
每周进行两次30分钟左右的平衡和柔韧性锻炼。瑜伽、太极拳、格斗术和跳舞,所有这些需要技巧的运动对保持身体的灵活性都很重要。
根据美国成年人的代表性样本研究,每天增加步行步数可以显著降低全因死亡风险。
成年人一整天应该多动少坐。进行任何形式的体育锻炼,对于成年人来说都会获得一些健康益处。同时,这一研究也表明,我们没有必要热衷于高强度的锻炼,即使每天简单的散步也能显著降低我们的全因死亡风险。
现已年近90岁高龄的巴菲特,在2020年伯克希尔年度股东大会上,花了近5个小时回答了投资者数十个问题,其体力和精神状态都令人惊叹。众所周知,巴菲特热爱汉堡、薯条和樱桃可乐等垃圾食品,但从64岁到现在,巴菲特一直都坚持跑步,从未放弃过。 他还因此得出了自己的投资信念:(投资跟长跑一样)过程并不会一直愉悦,有肉体的痛苦也有精神上的枯燥。
伯克希尔公司的股东大会还曾举行了一场名为“投资于自己”5公里长跑比赛。运动不就是投资于自己吗?
股神巴菲特
举报/反馈专注力阈值:关于孩子专注力这个事情,就看这一篇,我都给你总结好了  第4张

专注力阈值:注意力机制+软阈值化=深度残差收缩网络(深度学习)

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
"""
Created on Sat Dec 28 23:24:05 2019
Implemented using TensorFlow 1.0.1 and Keras 2.2.1

M. Zhao, S. Zhong, X. Fu, et al., Deep Residual Shrinkage Networks for Fault Diagnosis,
IEEE Transactions on Industrial Informatics, 2019, DOI: 10.1109/TII.2019.
@author: super_9527
"""
from __future__ import print_function
import keras
import numpy as np
from keras.datasets import mnist
from keras.layers import Dense, Conv2D, BatchNormalization, Activation
from keras.layers import AveragePooling2D, Input, GlobalAveragePooling2D
from keras.optimizers import Adam
from keras.regularizers import l2
from keras import backend as K
from keras.models import Model
from keras.layers.core import Lambda
K.set_learning_phase(1)
# Input image dimensions
img_rows, img_cols=28, 28
# The data, split between train and test sets
(x_train, y_train), (x_test, y_test)= mnist.load_data()
if K.image_data_format()=='channels_first':
x_train =x_train.reshape(x_train.shape[0], 1, img_rows, img_cols)
x_test =x_test.reshape(x_test.shape[0], 1, img_rows, img_cols)
input_shape =(1, img_rows, img_cols)
else:
x_train =x_train.reshape(x_train.shape[0], img_rows, img_cols, 1)
x_test =x_test.reshape(x_test.shape[0], img_rows, img_cols, 1)
input_shape =(img_rows, img_cols, 1)
# Noised data
x_train=x_train.astype('float32') / 255. + 0.5*np.random.random([x_train.shape[0], img_rows, img_cols, 1])
x_test =x_test.astype('float32') / 255. + 0.5*np.random.random([x_test.shape[0], img_rows, img_cols, 1])
print('x_train shape:', x_train.shape)
print(x_train.shape[0], 'train samples')
print(x_test.shape[0], 'test samples')
# convert class vectors to binary class matrices
y_train=keras.utils.to_categorical(y_train, 10)
y_test =keras.utils.to_categorical(y_test, 10)
def abs_backend(inputs):
return K.abs(inputs)
def expand_dim_backend(inputs):
return K.expand_dims(K.expand_dims(inputs,1),1)
def sign_backend(inputs):
return K.sign(inputs)
def pad_backend(inputs, in_channels, out_channels):
pad_dim =(out_channels - in_channels)//2
inputs =K.expand_dims(inputs,-1)
inputs =K.spatial_3d_padding(inputs, ((0,0),(0,0),(pad_dim,pad_dim)), 'channels_last')
return K.squeeze(inputs, -1)
# Residual Shrinakge Block
def residual_shrinkage_block(incoming, nb_blocks, out_channels, downsample=False,
downsample_strides=2):

residual = incoming
in_channels =incoming.get_shape().as_list()[-1]

for i in range(nb_blocks):

identity = residual

if not downsample:
downsample_strides =1

residual = BatchNormalization()(residual)
residual =Activation('relu')(residual)
residual =Conv2D(out_channels, 3, strides=(downsample_strides, downsample_strides),
padding='same', kernel_initializer='he_normal',
kernel_regularizer=l2(1e-4))(residual)

residual = BatchNormalization()(residual)
residual =Activation('relu')(residual)
residual =Conv2D(out_channels, 3, padding='same', kernel_initializer='he_normal',
kernel_regularizer=l2(1e-4))(residual)

# Calculate global means
residual_abs= Lambda(abs_backend)(residual)
abs_mean = GlobalAveragePooling2D()(residual_abs)

# Calculate scaling coefficients
scales=Dense(out_channels, activation=None, kernel_initializer='he_normal',
kernel_regularizer=l2(1e-4))(abs_mean)
scales = BatchNormalization()(scales)
scales =Activation('relu')(scales)
scales =Dense(out_channels, activation='sigmoid', kernel_regularizer=l2(1e-4))(scales)
scales = Lambda(expand_dim_backend)(scales)

# Calculate thresholds
thres= keras.layers.multiply([abs_mean, scales])

# Soft thresholding
sub= keras.layers.subtract([residual_abs, thres])
zeros = keras.layers.subtract([sub, sub])
n_sub = keras.layers.maximum([sub, zeros])
residual = keras.layers.multiply([Lambda(sign_backend)(residual), n_sub])

# Downsampling (it is important to use the pooL-size of (1, 1))
if downsample_strides > 1:
identity =AveragePooling2D(pool_size=(1,1), strides=(2,2))(identity)

# Zero_padding to match channels (it is important to use zero padding rather than 1by1 convolution)
if in_channels != out_channels:
identity =Lambda(pad_backend, arguments={'in_channels':in_channels,'out_channels':out_channels})(identity)

residual = keras.layers.add([residual, identity])

return residual
# define and train a model
inputs=Input(shape=input_shape)
net =Conv2D(8, 3, padding='same', kernel_initializer='he_normal', kernel_regularizer=l2(1e-4))(inputs)
net =residual_shrinkage_block(net, 1, 8, downsample=True)
net = BatchNormalization()(net)
net =Activation('relu')(net)
net = GlobalAveragePooling2D()(net)
outputs =Dense(10, activation='softmax', kernel_initializer='he_normal', kernel_regularizer=l2(1e-4))(net)
model =Model(inputs=inputs, outputs=outputs)
model.compile(loss='categorical_crossentropy', optimizer=Adam(), metrics=['accuracy'])
model.fit(x_train, y_train, batch_size=100, epochs=5, verbose=1, validation_data=(x_test, y_test))
# get results
K.set_learning_phase(0)
DRSN_train_score =model.evaluate(x_train, y_train, batch_size=100, verbose=0)
print('Train loss:', DRSN_train_score[0])
print('Train accuracy:', DRSN_train_score[1])
DRSN_test_score =model.evaluate(x_test, y_test, batch_size=100, verbose=0)
print('Test loss:', DRSN_test_score[0])
print('Test accuracy:', DRSN_test_score[1])

专注力阈值:深度残差收缩网络(四)注意力机制下的阈值设置

对于基于深度学习的分类算法,其关键不仅在于提取与标签相关的目标信息,剔除无关的信息也是非常重要的,所以要在深度神经网络中引入软阈值化。阈值的自动设置,是深度残差收缩网络的核心贡献。需要注意的是,软阈值化中的阈值,需要满足一定的条件。这篇文章中的阈值设置,事实上,是在注意力机制下进行的。下面分别介绍阈值需要满足的条件、注意力机制以及具体的阈值设置方法。
在软阈值化中,阈值的取值有一定的要求:首先,阈值必须是正数;其次,阈值不能太大,否则输出会全部为零。
更重要的是,每个样本,应该有不同的阈值。这是因为,许多样本所含的噪声量经常是不同的。
例如,样本A所含噪声较少,样本B所含噪声较多。那么,在降噪算法里面,样本A的阈值就应该大一点,样本B的阈值就应该小一些。在深度学习算法里,由于这些特征没有明确的物理意义,阈值的大小也无法得到解释。但是道理是相通的,即每个样本应该有不同的阈值。
注意力机制可以从视觉的角度进行解释。人类能够通过快速扫描图像,发现目标物体,进而将更多的注意力集中在目标物体上,以捕获更多细节,同时抑制其他区域的无关信息。
Squeeze-and-Excitation Network(SENet)是一种典型的带有注意力机制的深度学习方法。对于不同的样本,不同通道上的特征,在分类任务中的重要程度,经常是不同的。SENet可以学习一组权重,自动地调整不同通道的特征的大小。这个过程,就相当于施加不同的注意力在各个通道的特征上(见下图)。
需要注意的是,每个样本,都有自己独特的一组权重。任意两个样本,它们的这些权重,都是不同的。在SENet中,具体的网络结构如下图所示。学习权重的路径就是,全局池化→全连接层→ReLU→全连接层→Sigmoid。
深度残差收缩网络采用了一个子网络来自动地设置阈值。这个子网络的结构,就借鉴了上述的SENet。
首先来看“通道之间共享阈值的深度残差收缩网络(Deep Residual Shrinkage Networks with Channel-shared Thresholds,简称DRSN-CS)”。我们可以看到,在红色虚线框里的子网络,学习得到了一个阈值,应用在特征图的所有通道上。
在这个子网络中,首先对输入特征图内的所有元素,取绝对值。然后经过全局均值池化(Global Average Pooling, GAP)和求平均(Average),就得到了一个特征。为了方便描述,将这个特征记为A。在另一条路径中,全局均值池化之后的特征,输入到一个小型的全连接网络之中。这个全连接网络以一个Sigmoid激活函数作为最后一步,其目的在于将输出调整到0和1之间,记为α。最终的阈值就是α×A。这样的话,阈值就是,一个0和1之间的数字×特征图的绝对值的平均值。通过这种方式,保证了阈值不仅为正数,而且不会太大。
然后再看“逐通道不同阈值的深度残差收缩网络(Deep Residual Shrinkage Networks with Channel-wise Thresholds,简称DRSN-CW)”。与上述的DRSN-CS相似,在红色虚线框里的子网络,学习得到了一组阈值。以相同的方式,确保了阈值有着合适的取值范围。
值得指出的是,通过这种方式,不同的样本就有了不同的阈值。在一定程度上,也可以理解为一种注意力机制:注意到不重要的特征,将它们剔除掉;或者说,注意到重要的特征,将它们保留下来。另外,虽然跨层的恒等路径(Identity shortcut)将不重要的特征也传递到了高层特征中,但是通过很多残差模块的堆叠,这些不重要的特征所占的比重越来越低,最终实现不重要特征的消除。
深度残差收缩网络:(一)背景知识 https://www.cnblogs.com/yc-9527/p/.html
深度残差收缩网络:(二)整体思路 https://www.cnblogs.com/yc-9527/p/.html
深度残差收缩网络:(三)网络结构 https://www.cnblogs.com/yc-9527/p/.html
M. Zhao, S. Zhong, X. Fu, B. Tang, and M. Pecht, “Deep Residual Shrinkage Networks for Fault Diagnosis,” IEEE Transactions on Industrial Informatics, 2019, DOI: 10.1109/TII.2019.
https://ieeexplore.ieee.org/document/

您可能感兴趣的文章

本文地址:https://www.wskee.cn/81205.html
文章标签: ,  
版权声明:本文为原创文章,版权归 专注力训练与注意力训练网 所有,欢迎分享本文,转载请保留出处!

文件下载

老薛主机终身7折优惠码boke112

上一篇:
下一篇:

评论已关闭!