注意力 走,你的注意力还在被各种事情吸引走吗?这些方法让你更专注

2021/05/18 21:17 · 提高注意力训练 ·  · 注意力 走,你的注意力还在被各种事情吸引走吗?这些方法让你更专注已关闭评论
专注力注意力训练提升
摘要:

注意力走,你的注意力还在被各种事情吸引走吗?这些方法让你更专注现在,人们在做事时,很容易受到身边事物的干扰,常常做着这件事,想着那件事,结果一心几用,最后什么也干不成。《中庸》里有句话叫“鲜能知味者”,意思是人们虽然吃了那么多的饭,却很少知道饭的味道。比如,现在几个人一起去吃饭,当饭菜上来时,人们做的不是去夹起饭菜细品它的味道,好好享受这一顿美餐,而是先拍照发个朋友圈秀

注意力 走,你的注意力还在被各种事情吸引走吗?这些方法让你更专注

现在,人们在做事时,很容易受到身边事物的干扰,常常做着这件事,想着那件事,结果一心几用,最后什么也干不成。
《中庸》里有句话叫“鲜能知味者”,意思是人们虽然吃了那么多的饭,却很少知道饭的味道。
比如,现在几个人一起去吃饭,当饭菜上来时,人们做的不是去夹起饭菜细品它的味道,好好享受这一顿美餐,而是先拍照发个朋友圈秀一下,亦或想着吃完这个饭,我得赶紧去做某件事情,可别耽误了这件事。
脑子关注的根本不是吃饭这件事本身,自然也就尝不出它的味道了,当我们在吃饭的时候,心里却想着其他的事情,意味着此刻的我们并不在当下。
那么,怎么正视当下呢?
正视当下意味着当我们做当下的每一件事情时,就要用我们的身体全然地体验和感受它,对正在做的事情保持觉知。
正如一行禅师在《正念的奇迹》中说:“当人们在洗碗时,就要对洗碗这个事实保持全然的觉知”。
这样我们就不会随便受到杂念的影响。
日本神经科医生桦泽紫苑在《为什么精英都是时间控》一书中,给出了人为什么会产生杂念以及排除杂念的方法。
01由外物造成的杂念
比如,一个人的办公桌上乱七八糟地堆满了文件,另一个人的桌子上干干净净,试问哪一个人更专注,效率更高呢?
毫无疑问,是第二个。
办公桌上比较乱,光找东西就得花费不少时间,研究表明:商务人士每年花在“找东西”上的时间就超过150个小时。
桦泽紫苑说:“整理外物就是整理自己的头脑。”
所以,如果我们将每件东西都放在固定的位置上,保证15秒钟能找到它,那么我们每年会节省很多时间,而且还会变得更专注了。
02由思考引起的杂念
一些职场人士在工作的时候,头脑中会有各种各样的想法:
“昨天老板说要把这个文件发给谁呢?”
“哦,我必须在下午3点前给某某回复邮件。”
“肚子饿了,中午是吃面呢还是盖浇饭呢?”
这些就是我们头脑中的杂念,我们很容易就受这些想法的影响,转而去做另一件事情了。
研究表明:我们被打扰一次,就要花15分钟的时间才能回到刚才专注的状态。
心理学家蔡加尼克发现:“当目标没有实现时,人对未完成的课题记忆比较深刻。但目标实现后,人对已经完成的课题,记忆就没那么深刻了。”
针对此,我们排除杂念时,就可以把心里惦记的事情全部写到本子上。这样就能消除由思考引起的杂念了。
03由人造成的杂念
同事上班时,常常有人来找她办事,一上午被打扰个2-3次,那就浪费了至少30分钟的高效时间,她常为此焦虑。
后来,她想了办法,每当会议室没人的时候她都在那里工作,效率非常高。
村上春树在写小说时,常去外国的咖啡馆里创作,那里没有认识的人,不会来打扰,效率成倍地高。
养成在特定空间做事效率高的习惯后,头脑就会记下这个空间。只要我们一到这个空间来,就明白这是一个需要集中注意力的地方。
04通信造成的杂念
有些人喜欢在做事的时候,旁边放着手机,结果微信时不时发来消息,人的注意力就被吸引走了,本来1个小时能完成的工作,1个上午也完不成。
最好的办法就是关掉网络或关机,等把这件事情做完,再去处理手机的信息。有人说:“要是其他人打电话找我有事怎么办?”
1个小时不接电话,公司不会破产。只要处理完自己的事情再打回去就可以了。
举报/反馈注意力 走,你的注意力还在被各种事情吸引走吗?这些方法让你更专注  第1张

注意力 走,你还在为孩子以下问题所烦恼?

  人的注意力通常能够集中的时间长度都不长,而且特别容易被一个冷不丁的干扰因素所打断,从而导致注意力“走神”。注意力不集中属于很正常的现象,想要集中注意力得先了解为什么:

  注意力不集中或“走神”,就是因为不接纳自己的正常心理表现常常要求自己能够完全“心无杂念”,心思百分之百的用在学习上。如果达不到这样的效果,就不断地责怪和强迫自己,结果是“哪里有压迫,哪里就有反抗”——注意力越加难以集中。

  这时候你就会把正常的心理现象当成了异常,越是苛求自己要注意力集中,注意力越是跑到了“怕被干扰”,“怕注意力不集中”上,导致对于外界刺激过于敏感,结果真的“注意力不集中”了,于是更加苦恼,更加想摆脱这种状况,更加关注注意力的问题,从而形成恶性循环,难以自拔。

  正确的做法应该是不必过于责怪和强迫自己,采取一种“顺其自然”——“注意不集中就不集中吧,只要集中的时候我能做好作业、听好课就行”——的态度,该干什么干什么,只要尽自己的努力就是了。以这种态度去对待,相信你“沉不下心”、“分神、跑神”情况肯定会有所改观的。

  可以采用以设立目标,合理安排学习时间,让目标和时间自己无意义的“胡思乱想”:除完成当天老师所布置的作业之外,每天规定自己必须要进行两到三个学科各1小时的学习时间,针对自己的实际情况具体到章节以及数量,然后按部就班,以恒心和毅力每天坚持不懈地完成计划,一旦这样坚持下来就会换来意想不到的结果。

  注意力不集中很容易就产生,如何不采取措施治疗注意力,那么它就会成为一个问题。想要集中注意力,就得时刻关注我们为什么会出现走神、不专心的毛病,发现自己的原因,采取专门针对自己的注意力训练方法。
注意力 走,你的注意力还在被各种事情吸引走吗?这些方法让你更专注  第1张

注意力 走,小孩上课走神怎么办()

  小朋友上课走神,注意力不集中,老师讲的内容没听到,课后作业完成的费劲。家长们只能一边教育怎么不好好听讲啊,却没有找到根本原因。

  原因如下:
  1、生理原因(注意力缺陷)
  由于孩子大脑发育不完善,神经系统兴奋和抑制过程发展不平衡,故而自制能力差。这是正常的,只要教养得法,随着年龄的增长,绝大多数孩子能做到注意力集中。

  2、病理原因
  儿童存在轻微脑组织损害、脑内神经递质代谢异常,另外,有听觉或视觉障碍的孩子也会被误以为充耳不闻,不注意听或视若无睹。这些情况需要得到专科医师指导下的治疗才能改善。
  方法如下:
  1、脑电生物反馈技术训练
  利用大脑思考所发出的电波,分析大脑的注意力程度。当大脑高效使用时,竞思训练奖励大脑,奖励分数;大脑低效使用时,训练仪提醒培训者,扣除分数。高效用脑被不断奖励,而低效用脑被提醒和及时纠正。通过与训练程序互动,正确高效的使用大脑时,学员大脑不断被奖励,从而学习和巩固正确的注意力方法,根本提高注意力能力。
  2、专心的做每一件事。
  孩子吃饭时不能看电视,做作业时不能吃零食。学习的地方不要摆放玩具,告诉孩子自己东西要整理,细微之处培养,要投入的做每一件事情。
  以上是关于“小孩上课走神怎么办”的相关介绍,各位家长如果还有什么疑问,请点击下方在线咨询按钮,向专业老师提问。或者电话咨询小编,电话:400-861-0961转662。

注意力 走,注意力涣散,经常不自觉地走神怎么办?

老是这样。无论多严肃的场合,除非费很大劲把注意力收回来 否则就会误掉很多东西。。
很多时候上课不是我想走神,明明是我很感兴趣的内容,不知道想了什么,再回过神来已经讲完了。。心累。。
但是我记忆力还行啊,背东西什么的都挺快的。
别人说是玩手机影响,可我是寄宿制学校,半个月才回一次家,根本见不到电子产品。
初三生,一直成绩都挺一般的,今年逼着自己学习才好不容易进校百,说实话我学习一直都挺不认真的,但是前几天老师找我,说如果我能再进步说不定能上市重点。可是现在成绩好像就卡在这儿了,学不进去。可能和注意力没什么关系吧 因为以前也这样 照样能学。。 不过还是一起发上来好了。
注意力 专注力。。这件事是可以训练的。比方对于不喜欢的事情,很多人的注意力很容易游走,多训练。多看书,书中吸取知识
注意力 走,你的注意力还在被各种事情吸引走吗?这些方法让你更专注  第3张

注意力 走,深度学习中的注意力模型

Encoder-Decoder框架:
目前大多数注意力模型附着在Encoder-Decoder框架下,当然,其实注意力模型可以看作一种通用的思想,本身并不依赖于特定框架,这点需要注意。
抽象的文本处理领域的Encoder-Decoder框架:
文本处理领域的Encoder-Decoder框架可以这么直观地去理解:可以把它看作适合处理由一个句子(或篇章)生成另外一个句子(或篇章)的通用处理模型。对于句子对,我们的目标是给定输入句子Source,期待通过Encoder-Decoder框架来生成目标句子Target。
Source和Target分别由各自的单词序列构成:
Encoder顾名思义就是对输入句子Source进行编码,将输入句子通过非线性变换转化为中间语义表示C:

一般而言,文本处理和语音识别的Encoder部分通常采用RNN模型,图像处理的Encoder一般采用CNN模型。
上图展示的Encoder-Decoder框架是没有体现出“注意力模型”的,目标句子Target中每个单词的生成过程如下:

其中f是Decoder的非线性变换函数。从这里可以看出,在生成目标句子的单词时,不论生成哪个单词,它们使用的输入句子Source的语义编码C都是一样的,没有任何区别。而语义编码C是由句子Source的每个单词经过Encoder编码产生的,这意味着不论是生成哪个单词,y1,y2还是y3,其实句子Source中任意单词对生成某个目标单词yi来说影响力都是相同的,这是为何说这个模型没有体现出注意力的缘由。随着输入序列的增长,模型的性能会发生显著下降。编码时输入序列的全部信息压缩到一个向量表示中,随着序列增长,句子越前面的词的信息丢失就越严重。建模时的一个小技巧是将源语言句子逆序输入,或者重复输入两遍来训练模型。
目标句子中的每个单词都应该学会其对应的源语句子中单词的注意力分配概率信息(即source中各单词对当前目标单词的影响力)。这意味着在生成每个单词yi的时候,原先都是相同的中间语义表示C会被替换成根据当前生成单词而不断变化的Ci。理解Attention模型的关键就是这里,即由固定的中间语义表示C换成了根据当前输出单词来调整成加入注意力模型的变化的Ci。增加了注意力模型的Encoder-Decoder框架理解起来如下图所示:
即生成目标句子单词的过程成了下面的形式:
其中每个Ci可能对应着不同的源句子单词的注意力分配概率分布,关键在于如何获取这里的注意力分配概率。比如对于上面的英汉翻译来说,其对应的信息可能如下:
为了便于说明,我们假设对上图的非Attention模型的Encoder-Decoder框架进行细化,Encoder采用RNN模型,Decoder也采用RNN模型,这是比较常见的一种模型配置,则上图的框架转换为下图:

对于采用RNN的Decoder来说,在时刻i,如果要生成yi单词,我们是可以知道Target在生成Yi之前的时刻i-1时,隐层节点i-1时刻的输出值Hi-1的,而我们的目的是要计算生成Yi时输入句子中的单词“Tom”、“Chase”、“Jerry”对Yi来说的注意力分配概率分布,那么可以用Target输出句子i-1时刻的隐层节点状态Hi-1去一一和输入句子Source中每个单词对应的RNN隐层节点状态hj进行对比,即通过函数F(hj,Hi-1)来获得目标单词yi和每个输入单词对应的对齐可能性,这个F函数在不同论文里可能会采取不同的方法,然后函数F的输出经过Softmax进行归一化就得到了符合概率分布取值区间的注意力分配概率分布数值。
<=获取注意力分配概率,然后再生成 $C_i$ Attention机制的本质思想 我们可以这样来看待Attention机制(参考上图):将Source中的构成元素想象成是由一系列的数据对构成,此时给定Target中的某个元素Query,通过计算Query和各个Key的相似性或者相关性,得到每个Key对应Value的权重系数,然后对Value进行加权求和,即得到了最终的Attention数值。所以本质上Attention机制是对Source中元素的Value值进行加权求和,而Query和Key用来计算对应Value的权重系数。
上文所举的机器翻译的例子里,因为在计算Attention的过程中,Source中的Key和Value合二为一,指向的是同一个东西,也即输入句子中每个单词对应的语义编码,所以可能不容易看出这种能够体现本质思想的结构。
当然,从概念上理解,把Attention仍然理解为从大量信息中有选择地筛选出少量重要信息并聚焦到这些重要信息上,忽略大多不重要的信息,这种思路仍然成立。聚焦的过程体现在权重系数的计算上,权重越大越聚焦于其对应的Value值上,即权重代表了信息的重要性,而Value是其对应的信息。
Attention机制的具体计算过程,如果对目前大多数方法进行抽象的话,可以将其归纳为两个过程:第一个过程是根据Query和Key计算权重系数,第二个过程根据权重系数对Value进行加权求和。而第一个过程又可以细分为两个阶段:第一个阶段根据Query和Key计算两者的相似性或者相关性;第二个阶段对第一阶段的原始分值进行归一化处理;
第一阶段最常见的方法包括:求两者的向量点积、求两者的向量Cosine相似性或者通过再引入额外的神经网络来求值
第二阶段引入类似SoftMax的计算方式对第一阶段的得分进行数值转换,一方面可以进行归一化,将原始计算分值整理成所有元素权重之和为1的概率分布;另一方面也可以通过SoftMax的内在机制更加突出重要元素的权重
第三阶段:
1、图像描述生成(Image Caption Generation)
文章提出了两种attention模式,即hard attention 和soft attention:
hard attention会专注于很小的区域,而soft attention的注意力相对发散。模型的encoder利用CNN(VGG net),提取出图像的 个 维的向量 ,每个向量表示图像的一部分信息。decoder是一个LSTM,每个timestep 的输入包含三个部分,即context vector 、前一个timestep的hidden state 、前一个timestep的output 。 由{ }和权重{ }通过加权得到。这里的权重 通过attention模型 来计算得到,而本文中的 是一个多层感知机(multilayer perceptron)。
前一个timestep的hidden state $h_{t-1}$与encoder中每一个时间步的隐层状态作为MLP的输入,通过softmax归一化,即可得到注意力概率。
从而可以计算 。
1) Stochastic “Hard” Attention
记 为decoder第 个时刻的attention所关注的位置编号, 表示第 时刻attention是否关注位置 , 服从多元伯努利分布(multinoulli distribution), 对于任意的 , 中有且只有取1,其余全部为0,所以 是one-hot形式。这种attention每次只focus一个位置的做法,就是“hard”称谓的来源。 也就被视为一个变量,计算如下
2)Deterministic “Soft” Attention
在hard attention里面,每个时刻 模型的序列 [ ] 只有一个取1,其余全部为0,也就是说每次只focus一个位置,而soft attention每次会考虑到全部的位置,只是不同位置的权重不同罢了。这时 即为 的加权求和 。
2、两种attention的改进版本:global attention和local attention
1)global attention
global attention 在计算context vector 的时候会考虑encoder所产生的全部hidden state。记decoder时刻 的target hidden为 ,encoder的全部hidden state为 ,对于其中任意 ,其权重 为
在得到这些权重后, 的计算是很自然的,即为 的weighted summation。
机器翻译在encoder端以时序输入了一句话,context vector表示为各个词语的加权语义向量。
2)local attention
global attention可能的缺点在于每次都要扫描全部的source hidden state,计算开销较大,对于长句翻译不利,为了提升效率,提出local attention,每次只forcus一小部分的source position。
这里,context vector 的计算只forcus窗口 内的 个source hidden states(若发生越界,则忽略界外的source hidden states)。其中 是一个source position index,可以理解为attention的“焦点”,作为模型的参数, 根据经验来选择
关于 的计算,文章给出了两种计算方案,
i)Monotonic alignment (local-m)
ii) Predictive alignment (local-p)
其中 和 是模型的参数, 是source sentence的长度,易知 。
权重 的计算如下
可以看出,距离中心 越远的位置,其位置上的source hidden state对应的权重就会被压缩地越厉害。
参考:
https://zhuanlan.zhihu.com/p/
https://github.com/Choco/Attention_Network_With_Keras
https://zhuanlan.zhihu.com/p/ Attention模型方法综述 | 多篇经典论文解读
注意力 走,你的注意力还在被各种事情吸引走吗?这些方法让你更专注  第4张

注意力 走,舒尔特注意力训练游戏从5走到20,看谁走的最快

舒尔特方格 (Schulte Grid) 是在一张方形卡片上画上 1cm × 1cm 的 25 个方格,格子内任意填写上阿拉伯数字 1 ~ 25 等共 25 个数字。训练时,要求被测者用手指按 1 ~ 25 的顺序依次指出其位置,同时诵读出声,施测者一旁记录所用时间。数完 25 个数字所用时间越短,注意力水平越高。
拓展:
1、调整生日设置范围1到100之间。修复不设置生日直接进入异常问题。1-25的数字卡测试练习法,也叫医学舒尔特方格测试法。这种方法不仅可以测量注意力水平,而且也是很好的训练注意力的方法,此方法也广泛应用于飞行员和航天员的注意力的训练。
2、舒尔特表可以通过动态的练习锻炼视神经末梢。心理学上用此表来研究和发展心理感知的速度,其中包括视觉定向搜索运动的速度。培养注意力集中,分配,控制能力;拓展视幅;加快视频;提高视觉的稳定性,辨别力,定向搜索能力。
3、练习的时间越长,看表所需的时间会越短。随着练习的深入,眼球的末梢视觉能力提高,不仅初学者可以有效地拓展视幅,加快阅读节奏,锻炼眼睛快速认读;而且对于进入提高阶段之后,同时拓展纵横视幅,达到一目十行,一目一页非常有效。

舒尔特方格 (Schulte Grid) 是在一张方形卡片上画上 1cm × 1cm 的 25 个方格,格子内任意填写上阿拉伯数字 1 ~ 25 等共 25 个数字。训练时,要求被测者用手指按 1 ~ 25 的顺序依次指出其位置,同时诵读出声,施测者一旁记录所用时间。数完 25 个数字所用时间越短,注意力水平越高。
明月星专注力,希望可以帮助到你

您可能感兴趣的文章

本文地址:https://www.wskee.cn/17012.html
文章标签:
版权声明:本文为原创文章,版权归 专注力训练与注意力训练网 所有,欢迎分享本文,转载请保留出处!

文件下载

老薛主机终身7折优惠码boke112

上一篇:
下一篇:

评论已关闭!