描写注意力专注的四字,四万字全面详解 | 深度学习中的注意力机制(二)

2021/05/19 18:38 · 提高注意力训练 ·  · 描写注意力专注的四字,四万字全面详解 | 深度学习中的注意力机制(二)已关闭评论
专注力注意力训练提升
摘要:

描写注意力专注的四字,四万字全面详解|深度学习中的注意力机制(二)展开全文目前深度学习中热点之一就是注意力机制(AttentionMechanisms)。Attention源于人类视觉系统,当人类观察外界事物的时候,一般不会把事物当成一个整体去看,往往倾向于根据需要选

描写注意力专注的四字,四万字全面详解 | 深度学习中的注意力机制(二)  第1张

描写注意力专注的四字,四万字全面详解 | 深度学习中的注意力机制(二)

展开全文
目前深度学习中热点之一就是注意力机制(Attention Mechanisms)。Attention源于人类视觉系统,当人类观察外界事物的时候,一般不会把事物当成一个整体去看,往往倾向于根据需要选择性的去获取被观察事物的某些重要部分,比如我们看到一个人时,往往先Attend到这个人的脸,然后再把不同区域的信息组合起来,形成一个对被观察事物的整体印象。
「同理,Attention Mechanisms可以帮助模型对输入的每个部分赋予不同的权重,抽取出更加关键及重要的信息,使模型做出更加准确的判断,同时不会对模型的计算和存储带来更大的开销,这也是Attention Mechanism应用如此广泛的原因」
在上一篇文章中,我们分享了seq2seq以及普通attention网络,今天来看看Attention机制的各种变体。
另外,我们建立了自然语言处理、深度学习大方向的讨论组,欢迎大家加入讨论(人数达到上限,添加下方好友手动邀请)
本部分介绍Attention机制的各种变体。包括但不限于:
「基于强化学习的注意力机制」:选择性的Attend输入的某个部分「全局&局部注意力机制」:其中,局部注意力机制可以选择性的Attend输入的某些部分「多维度注意力机制」:捕获不同特征空间中的Attention特征。「多源注意力机制」:Attend到多种源语言语句「层次化注意力机制」:word->sentence->document「注意力之上嵌一个注意力」:和层次化Attention有点像。「多跳注意力机制」:和前面两种有点像,但是做法不太一样。且借助残差连接等机制,可以使用更深的网络构造多跳Attention。使得模型在得到下一个注意力时,能够考虑到之前的已经注意过的词。「使用拷贝机制的注意力机制」:在生成式Attention基础上,添加具备拷贝输入源语句某部分子序列的能力。「基于记忆的注意力机制」:把Attention抽象成Query,Key,Value三者之间的交互;引入先验构造记忆库。「自注意力机制」:自己和自己做attention,使得每个位置的词都有全局的语义信息,有利于建立长依赖关系。NIPS2014: Recurrent Models of Visual Attention[1]ICLR2015: Multiple Object Recognition with Visual Attention [2]
NIPS2014论文应该是最早的Attention雏形,虽然和我们通常所说的、广泛应用于Seq2Seq的Attention机制不太一样,但是还是值得提一下。这是Google DeepMind2014年提出的一篇计算机视觉领域的文章,适用于处理图像序列或帧序列来进行场景感知或处理(例如Video Caption)。
其动机在于随着分辨率提高,计算量不断增长,神经网络难以在实时应用场景中,快速处理这么大的计算量。借鉴人类视觉系统的特点,即,为了理解某个场景,并不是一下子处理整个场景,而是Focus到某些关键的位置上,然后联合起来构建出整个场景信息。故本篇论文利用RNN处理图像序列,并使用「强化学习」来训练模型,使得模型能够学习attention决策。即,针对实时的场景,基于过去的信息和任务的需要选择下一个要focus的感知区域。这个和人类的感知方式比较相似,也是我们最早理解的Attention机制。
但是,上文所述的广泛应用于Seq2Seq中的Attention不大一样。人类的注意力机制实际上是可以节省计算资源的,注意只需要集中到某些区域,可以忽略大部分区域。Recurrent Models of Visual Attention中的做法和这个是一样的。
然而,下文即将要介绍的应用于Seq2Seq模型模型的Attention就不是这样的了。实际上,下文所述Attention模型,需要把每一个部分都观察的仔仔细细(每部分权重都要算一下),才能进一步决策到底需要focus到哪些部分,这和人类的视觉系统不相符,更像是memory,而不是attention(实际上attention可以理解为一种「短期记忆」,即根据短期记忆在输入特征上分配attention;memory也是另外一种非常重要的机制),然而,这并不妨碍注意力机制的有效性。
EMNLP2015: Effective Approaches to Attention-based Neural Machine Translation[3]
以往的文章,主要将attention应用于不同场景中,而这篇文章提出了新的attention架构,引入了Global Attention和Local Attention的概念。
Global Attention和上文的Soft Attention几乎一样,即计算上下文向量时,和所有的encoder隐状态向量求alignment;而Local Attention是Soft Attention和Hard Attention的权衡,既拥有Soft Attention可微分,容易使用反向传播来优化的优点,又拥有Hard Attention复杂度低的优点,除此之外,还不需要强化学习方法进行训练。
首先定义,
Encoder得到的源语句单词 的隐状态为:;Decoder中目标语句单词 的隐状态为:;对每一个目标单词 ,使用Attention机制计算的上下文向量为 ;Attention机制中的对齐模型为 (前面文章中都是使用 , 即「前一个时间步」的Decoder隐状态和Encoder隐状态来计算对齐权重)。
首先是Global Attention,如下图所示:
Global Attention中上下文向量 的计算路径为:。
对齐模型计算:
是源语句单词的位置。
具体可以采用:
上下文向量计算:
注意图中,框起来的部分作者称为Attention Layer。
接着是Local Attention,如下图所示:
Local Attention的引入是为了解决Global Attention中Attend到源语句中所有的词,一方面复杂度高,另一方面很难翻译长序列语句。Local Attention首先根据目标词的隐状态 计算源语句中的「对齐位置」(中心),然后使用以该位置为中心的窗口 内的源语句单词 ,来计算Attention的权重,计算时使用以 为中心的高斯核函数进行衰减。具体如下:
「对齐位置模型」:, , 是源语句长度。只与t时刻Decoder状态 有关。对齐权重模型:, 也就是在global Attention对齐模型基础上加了高斯函数指数衰减。。
计算上下文向量时,同上文,即对窗口内的encoder隐向量进行加权,即 。
计算得到上下文向量后,本文直接将 和 concat在一起,并计算经过attention后的隐状态 :
再将上述attention后的隐状态输入到一个softmax全连接层,得到预测目标值:
按照上述方式来看,每个目标输出单词的预测值,没有利用已经预测的输出单词(embedding)作为输入,也没有利用目标词位置前一时刻的decoder隐状态 ;只利用了当前时刻Decoder隐状态 (上下文向量计算中的权重也主要依据这个计算的)。也就是说,每个目标词位置的attention决策是独立的(只和 本身相关)。
然而在机器翻译当中,通常要维护一个覆盖集,即源语句中哪些单词被翻译过了;同理,在神经机器翻译中,我们在翻译一个目标词时,同样需要关注哪些源语句单词已经被翻译了。因此,作者提出了一个Input-feeding approach,把Decoder端前一时刻attention「后」的隐状态和前一时刻预测的输出单词的embedding连接起来,作为下一时刻的输入。(这个和传统Attention的几乎没差别)
本文的贡献主要是Local Attention以及提出的各种各样的Alignment函数,其余都和前面的工作大同小异。现总结下Alignment函数如下图所示:
AAAI2018:DiSAN: Directional Self-Attention Network for RNN/CNN-Free Language Understanding[4]
在Baisc Attention中,对于每个查询,每个key对应的value都有一个权重值,即每个查询会对应一个1-D的Attention weight向量。而Multi-dimensional Attention会产生更高维度的Attention矩阵,旨在捕获不同特征空间中的Attention特征。
实际上主要区别在于,之前每个value向量对应一个权重Alignment Score,加权的时候实际上是利用了广播机制,value每个元素feature都乘上该权重;现在修改为在feature-level,每个元素特征都乘上不同的权重系数,因此Alignment Score是和Value同维度数的向量,即右图中的 。做法很简单,使用MLP对齐的时候,MLP输出层神经元数量等于Value维度数即可,例如这篇文章中使用
其他方式如下:()
NAACL-HLT2016:Multi-Source Neural Translation[5]
这是2016发表在NAACL-HLT的一篇文章。文章使用英语,德语,法语三种语言建立了一种多源(三语言)机器翻译模型。Intuition在于,如果一篇文章被翻译成了另一种语言,那么就更加倾向于被翻译成其他语言。这样的观点对机器翻译任务有一定的启发,将原本的单一源语言替换为多种源语言,应该可以取得更好的效果。
如英语中的“bank”一词原本可以翻译为河岸或是银行,如果源语言中有德语词汇“Flussufer”(河岸)作为帮助,则自然可以精确得到法语中“Berge”(河岸)这样的翻译结果。基于这样的思想,作者在原有的seq2seq+attention模型的基础上做了修改,引入更多源语句,建立一种多源的翻译模型。模型结构如下:
左侧是两种不同语言的源语句,每种语言的源语句都有一个自己的encoder,且结构一样。问题的关键在于如何将两种语言encoder的东西combine在一起,并和decoder的表示进行对齐求attention。
由于作者采用了LSTM,因此同时考虑了hidden state和cell state的combination。核心工作就是图中黑色部分的combiners。combiners的输入是两个源语句最后时刻encoder得到的hidden state 和cell state ,输出是单个hidden state 和单个cell state 。(以往的工作似乎没有把encoder的cell state给decoder,从图中还可以看出,两个encoder中,每一层得到的两个源语句的hidden state和cell state都需要经过combiners)
最基本的combiner:对于hideen state,就是把两个encoder的隐状态concat起来,再做一个线性变换+tanh激活:。对于cell state,直接相加: 。
LSTM variant combiner:
唯一要提的就是, 作为输入,每个encoder得到的cell state各自对应一个自己的遗忘门。
到目前为止,都不涉及到attention。上文得到的 和 只是作为decoder的初始输入(前一时刻的输入,以前的Seq2Seq模型,似乎cell state没有传给decoder)。
至于attention,作者做了很小的改动。采用的是EMNLP2015: Effective Approaches to Attention-based Neural Machine Translation[6]中的Local Attention。
在这个基础上,让decoder的隐状态同时和两个encoder得到的隐状态进行对齐,并各自计算得到一个上下文向量,,注意这个c是上下文向量,跟上文所述cell state无关。最后计算Decoder的Attentional Hidden State时,使用 。也就是之前只使用1个上下文向量,这里面使用两个上下文向量。
下面是实验的一个case:
NAACL-HLT2016:Hierarchical Attention Networks for Document Classification[7]
文本分类是一项基础的NLP任务,在主题分类,情感分析,垃圾邮件检测等应用上有广泛地应用。其目标是给「每篇」文本分配一个类别标签。本文中模型的直觉是,不同的词和句子对文本信息的表达有不同的影响,词和句子的重要性是严重依赖于上下文的,即使是相同的词和句子,在不同的上下文中重要性也不一样。就像人在阅读一篇文本时,对文本不同的内容是有着不同的注意度的。而本文在attention机制的基础上,联想到文本是一个层次化的结构,提出用词向量来表示句子向量,再由句子向量表示文档向量,并且在词层次和句子层次分别引入attention操作的模型。
模型结构如上图所示,
词先经过Bidirectional RNN(GRU)提取到word annotation,然后经过1个MLP得到word annotation对应的隐表示(这一步在Basic Attention中没有),然后使用该隐表示和全局的「word-level上下文隐向量」 进行对齐,计算相似性,得到softmax后的attention权重,最后对句子内的词的word annotation根据attention权重加权,得到每个句子的向量表示。接着,将得到的句子表示同样经过Bidirectional RNN(GRU)提取sentence annotation,再经过MLP得到对应的隐表示,接着将其和全局的「sentence-level上下文隐向量」 进行对齐计算,得到句子的attention权重,最后加权sentence annotation得到文档级别的向量表示。得到文档表示后再接一个softmax全连接层用于分类。
这里最有趣的一点是,全局的「word-level上下文隐向量」 和全局的的「sentence-level上下文隐向量」,是随机初始化的,且也是通过模型进行学习的。这二者就像专家一样,是高级咨询顾问。为了得到句子的向量表示,我们询问 哪些词含有比较重要的信息?为了得到文档的向量表示,我们询问 哪些句子含有比较重要的信息?
ACL2017:Attention-over-Attention Neural Networks for Reading Comprehension[8]
比较巧妙,但很容易理解,直接上图:
两个输入,一个Document和一个Query,分别用一个双向的RNN进行特征抽取,得到各自的隐状态 和 。(Embedding Layer+Bi-GRU Layer)。接着要计算document和query之间「每个词」的相似性得分,
然后基于query和doc的隐状态进行dot product,得到doc和query的attention关联矩阵 (Document所有词和Query所有词和之间的关联矩阵,行是Document,列是Query)。然后按列(column)方向进行softmax操作,得到query-to-document的attention值 ,表示t时刻的query 「word」的document-level attention。按照行(row)方向进行softmax操作,得到document-to-query的attention值 ,表示t时刻的document 「word」的query-level attention,再对 按照列方向进行累加求平均得到averaged query-level attention值 ,(可以证明,按列对 平均后仍然是概率分布),这个求平均的操作可以理解为求query-level每个词和document所有词的平均关联性。
最后再基于上一步attention操作得到 和 ,再进行attention操作,即attention over attention得到最终的attended attention ,即Document每个词都有一个attended attention score。
预测的时候,预测词典中每个词的概率,将词w在document中出现的位置上对应的attention值进行求和。例如图中Mary出现在Document首尾,故把这两个attention score相加,作为预测的概率。
文章的亮点在于,引入document和query所有词pair-wise的关联矩阵,分别计算query每个词document-level attention(传统的方法都只利用了这个attention),和document每个词的query-level attention,对后者按列取平均得到的averaged query-level attention。进一步,二者点乘得到attended document-level attention,也即attention-over-attention。
这个和上文层次化Attention有点像。
ok,今天就到这儿啦,敬请期待下一篇~我是蘑菇先生,欢迎大家到我的公众号『蘑菇先生学习记』一起交流!
由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的文章,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:
1. 点击页面最上方'NewBeeNLP',进入公众号主页。
2. 点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。
感谢每一份支持,比心
[1]
NIPS2014: Recurrent Models of Visual Attention: https://papers.nips.cc/paper/5542-recurrent-models-of-visual-attention.pdf
[2]
ICLR2015: Multiple Object Recognition with Visual Attention : https://arxiv.org/abs/1412.7755
[3]
EMNLP2015: Effective Approaches to Attention-based Neural Machine Translation: http://aclweb.org/anthology/D15-1166
[4]
AAAI2018:DiSAN: Directional Self-Attention Network for RNN/CNN-Free Language Understanding: https://arxiv.org/pdf/1709..pdf
[5]
NAACL-HLT2016:Multi-Source Neural Translation: http://www.aclweb.org/anthology/N16-1004
[6]
EMNLP2015: Effective Approaches to Attention-based Neural Machine Translation: http://aclweb.org/anthology/D15-1166
[7]
NAACL-HLT2016:Hierarchical Attention Networks for Document Classification: http://www.aclweb.org/anthology/N16-1174
[8]
ACL2017:Attention-over-Attention Neural Networks for Reading Comprehension: https://arxiv.org/pdf/1607..pdf

描写注意力专注的四字,形容“注意力集中”的四字词语有哪些?

形容"注意力集中"的四字词语有“全神贯注、聚精会神、心无旁鹜、专心致志、一心一意、废寝忘食、屏气凝神、仔仔细细、认认真真、目不转睛”。
1、全神贯注
【全拼】: quán shén guàn zhù
【释义】: 贯注:集中。全部精神集中在一点上。形容注意力高度集中。
【例子】: 他指着球里嵌着的花纹,相着伊又相着花纹,全神贯注的,十分喜悦的告诉伊。
2、聚精会神
【全拼】: jù jīng huì shén
【释义】: 会:集中。原指君臣协力,集思广益。后形容精神高度集中。
【出处】: 汉·王褒《圣主得贤臣颂》:“聚精会神,相得益(章)彰。”
【例子】: 看校样时的~,就和在写作的时候一样,因为我的目的要使它没有一个错字。
3、心无旁骛
【全拼】: xīn wú páng wù
【释义】: 旁;另外的;骛:追求。心思没有另外的追求,形容心思集中,专心致志。
【出处】: 冰心《谈信纸信封》:“有不少人像我一样,在写信的时候,喜欢在一张白纸,或者只带着道道的纸上,不受拘束地,心无旁骛地抒写下去的。”
4、专心致志
【全拼】: zhuān xīn zhì zhì
【释义】: 致:尽,极;志:意志。把心思全放在上面。形容一心一意,聚精会神。
【出处】: 《孟子·告子上》:“夫今弈之为数,小数也,不专心致志,则不得也。”
5、一心一意
【全拼】: 【 yī xīn yī yì 】
【释义】: 只有一个心眼儿,没有别的考虑。
【出处】: 《三国志·魏志·杜恕传》:“免为庶人,徙章武郡,是岁嘉平元年。”裴松之注引《杜氏新书》:“故推一心,任一意,直而行之耳。”
6、废寝忘食
【全拼】: fèi qǐn wàng shí
【释义】: 废:停止。顾不得睡觉,忘记了吃饭。形容专心努力。
【出处】: 南朝·齐·王融《曲水诗》序:“犹且具明废寝,昃晷忘餐。”
7、屏气凝神
【全拼】: bǐng qì níng shén
【释义】: 屏气:抑制呼吸;凝神:聚精会神。形容注意力高度集中,违心一致。
【出处】: 《论语·乡党》:“摄齐升堂,鞠躬如也,屏气似不息者。”《庄子·达生》:“用志不分,乃凝于神。”
8、仔仔细细
【全拼】: zǐ zǐ xì xì
【释义】:
(1)细心:他做事很~|~领会文件的精神。
(2)小心;当心:路很滑,~点儿。
(3)<方>俭省:日子过得~。
9、认认真真
【全拼】: rèn rèn zhēn zhēn
【释义】: 严肃对待,不马虎
10、目不转睛
【全拼】: mù bù zhuǎn jīng
【释义】: 眼珠子一动不动地盯着看。形容注意力集中。
【出处】: 明·冯梦龙《警世通言》卷十一:“老婆婆看着小官人,目不转睛,不觉两泪交流。”

全神贯注,一心一意,专心致志,心无二用。

一心一意,仔仔细细,全神贯注,认认真真,目不转睛,专心致志。

一心一意,目不转睛
描写注意力专注的四字,四万字全面详解 | 深度学习中的注意力机制(二)  第2张

描写注意力专注的四字,形容注意力集中的四字词语 形容注意力集中的四字词语有哪些

1、全神贯注
【全拼】: quán shén guàn zhù
【释义】: 贯注:集中。全部精神集中在一点上。形容注意力高度集中。
【例子】: 他指着球里嵌着的花纹,相着伊又相着花纹,全神贯注的,十分喜悦的告诉伊。
2、聚精会神
【全拼】: jù jīng huì shén
【释义】: 会:集中。原指君臣协力,集思广益。后形容精神高度集中。
【出处】: 汉·王褒《圣主得贤臣颂》:“聚精会神,相得益(章)彰。”
【例子】: 看校样时的~,就和在写作的时候一样,因为我的目的要使它没有一个错字。
3、心无旁骛
【全拼】: xīn wú páng wù
【释义】: 旁;另外的;骛:追求。心思没有另外的追求,形容心思集中,专心致志。
【出处】: 冰心《谈信纸信封》:“有不少人像我一样,在写信的时候,喜欢在一张白纸,或者只带着道道的纸上,不受拘束地,心无旁骛地抒写下去的。”
4、专心致志
【全拼】: zhuān xīn zhì zhì
【释义】: 致:尽,极;志:意志。把心思全放在上面。形容一心一意,聚精会神。
【出处】: 《孟子·告子上》:“夫今弈之为数,小数也,不专心致志,则不得也。”
5、一心一意
【全拼】: 【 yī xīn yī yì 】
【释义】: 只有一个心眼儿,没有别的考虑。
【出处】: 《三国志·魏志·杜恕传》:“免为庶人,徙章武郡,是岁嘉平元年。”裴松之注引《杜氏新书》:“故推一心,任一意,直而行之耳。”
描写注意力专注的四字,四万字全面详解 | 深度学习中的注意力机制(二)  第3张

描写注意力专注的四字,形容注意力集中的四字词语

形容注意力集中的四字词语

  全神贯注
  【拼音】:quán shén guàn zhù
  【释义】:贯注:集中。全部精神集中在一点上。形容注意力高度集中。
  【出处】:叶圣陶《伊和他》:“他指着球里嵌着的花纹,相着伊又相着花纹,全神贯注的,十分喜悦的告诉伊。”
  【例句】:①小明转过头去~地望着黑板。②在课堂上他~地听课。
  聚精会神
  【拼音】:jù jīng huì shén
  【释义】:会:集中。原指君臣协力,集思广益。后形容精神高度集中。
  【出处】:汉·王褒《圣主得贤臣颂》:“聚精会神,相得益(章)彰。”
  【例句】:看校样时的'~,就和在写作的时候一样,因为我的目的要使它没有一个错字。 邹韬奋《经历·一个小小的过街楼》
  心无旁骛
  【拼音】:xīn wú páng wù
  【释义】:旁;另外的;骛:追求。心思没有另外的追求,形容心思集中,专心致志。
  【出处】:冰心《谈信纸信封》:“有不少人像我一样,在写信的时候,喜欢在一张白纸,或者只带着道道的纸上,不受拘束地,心无旁骛地抒写下去的。”
  【例句】:照这样说来他应当是潜心戏内;~的;但有两次他忍耐不住观众起哄。
  倾耳注目
  【拼音】:qīng ěr zhù mù
  【释义】:注目:集中视线注意看。原形容权势极大,为众敬畏。后也形容注意力极其集中。
  【出处】:《三国志·魏志·陈思王植传》:“夫能使天下倾耳注目者,当权者是矣,故谋能移主,威能慑下。”
  屏气凝神
  【拼音】:bǐng qì níng shén
  【释义】:屏气:抑制呼吸;凝神:聚精会神。形容注意力高度集中,违心一致。
  【出处】:《论语·乡党》:“摄齐升堂,鞠躬如也,屏气似不息者。”《庄子·达生》:“用志不分,乃凝于神。”
  【例句】:愈唱愈低,愈低愈细,那声音渐渐的就听不见了。满园子的人都~,不敢少动。 清·刘鹗《老残游记》第二回
【 形容注意力集中的四字词语】相关文章:
1.形容笑的四字词语
2.形容雪的四字词语
3.形容马虎的四字词语
4.形容变化快的四字词语
5.形容长江的四字词语
6.形容笑容的四字词语
7.形容冬天的四字词语
8.形容水的四字词语

描写注意力专注的四字,描写注意力集中的四字词

1>; 屏气敛息---指因心情紧张或注意力集中,暂止住了呼吸.
2>; 屏气凝神---屏气:抑制呼吸;凝神:聚精会神。形容意 力高度集中,违心一致.
3>; 目不转睛---眼珠子一动不动地盯着看。形容注意力集中。
4>; 三月不知肉味---三个月之内吃肉不觉得有味道。比喻集中注意力于某一事物而忘记了其它事情。也借用来形容几个月不吃肉。
5>; 倾耳注目---注目:集中视线注意看。原形容权势极大,为众敬畏。后也形容注意力极其集中。
6>; 全神贯注---贯注:集中。全部精神集中在一点上。形容注意力高度集中。
7>; 心无二用---指做事要专心,注意力必须集中。
8>; 聚精会神---会:集中。原指集思广益。后形容专心致志,注意力高度集中
9>; 专心致志---致:集中。心思很专一。形容一心一意,聚精会神。
10>; 一心一意---只有一个心眼儿,没有别的考虑;心思、意念专一。
形容"注意力集中"的四字词语有“全神贯注、聚精会神、心无旁鹜、专心致志、一心一意、废寝忘食、屏气凝神、仔仔细细、认认真真、目不转睛”。
1、全神贯注
【全拼】: quán shén guàn zhù
【释义】: 贯注:集中。全部精神集中在一点上。形容注意力高度集中。
【例子】: 他指着球里嵌着的花纹,相着伊又相着花纹,全神贯注的,十分喜悦的告诉伊。
2、聚精会神
【全拼】: jù jīng huì shén
【释义】: 会:集中。原指君臣协力,集思广益。后形容精神高度集中。
【出处】: 汉·王褒《圣主得贤臣颂》:“聚精会神,相得益(章)彰。”
【例子】: 看校样时的~,就和在写作的时候一样,因为我的目的要使它没有一个错字。
3、心无旁骛
【全拼】: xīn wú páng wù
【释义】: 旁;另外的;骛:追求。心思没有另外的追求,形容心思集中,专心致志。
【出处】: 冰心《谈信纸信封》:“有不少人像我一样,在写信的时候,喜欢在一张白纸,或者只带着道道的纸上,不受拘束地,心无旁骛地抒写下去的。”
4、专心致志
【全拼】: zhuān xīn zhì zhì
【释义】: 致:尽,极;志:意志。把心思全放在上面。形容一心一意,聚精会神。
【出处】: 《孟子·告子上》:“夫今弈之为数,小数也,不专心致志,则不得也。”
5、一心一意
【全拼】: 【 yī xīn yī yì 】
【释义】: 只有一个心眼儿,没有别的考虑。
【出处】: 《三国志·魏志·杜恕传》:“免为庶人,徙章武郡,是岁嘉平元年。”裴松之注引《杜氏新书》:“故推一心,任一意,直而行之耳。”
6、废寝忘食
【全拼】: fèi qǐn wàng shí
【释义】: 废:停止。顾不得睡觉,忘记了吃饭。形容专心努力。
【出处】: 南朝·齐·王融《曲水诗》序:“犹且具明废寝,昃晷忘餐。”
7、屏气凝神
【全拼】: bǐng qì níng shén
【释义】: 屏气:抑制呼吸;凝神:聚精会神。形容注意力高度集中,违心一致。
【出处】: 《论语·乡党》:“摄齐升堂,鞠躬如也,屏气似不息者。”《庄子·达生》:“用志不分,乃凝于神。”
8、仔仔细细
【全拼】: zǐ zǐ xì xì
【释义】:
(1)细心:他做事很~|~领会文件的精神。
(2)小心;当心:路很滑,~点儿。
(3)俭省:日子过得~。
9、认认真真
【全拼】: rèn rèn zhēn zhēn
【释义】: 严肃对待,不马虎
10、目不转睛
【全拼】: mù bù zhuǎn jīng
【释义】: 眼珠子一动不动地盯着看。形容注意力集中。
【出处】: 明·冯梦龙《警世通言》卷十一:“老婆婆看着小官人,目不转睛,不觉两泪交流。”
积累词语 1.一、三为近义词 铺天盖地 欢天喜地 惊天动地 翻天覆地 二、四为近义词 面红耳赤 情深谊长 山清水秀 枝繁叶茂 一、三为反义词 有始无终 南辕北辙 东张西望 里应外合 二、四为反义词 声东击西 七上八下 冰天雪地 虎头蛇尾 2.含有“中”的四字词语: 急中生智 苦中作乐 无中生有 闹中取静 3.小雨沙沙 小狗汪汪 小猫喵喵 小羊咩咩 小鸡叽叽 蜜蜂嗡嗡 小鸟啾啾 4. 有声有色 有条有理 有板有眼 有根有据 无影无踪 无法无天 无穷无尽 无边无际 不知不觉 不明不白 不闻不问 不紧不慢 自由自在 自说自话 自言自语 自吹自擂 5. AABB 端端正正 明明白白 冷冷清清 干干净净 6. ABB 绿油油 红艳艳 金灿灿 白花花 7. ABCC 白雾茫茫 凉风习习 白发苍苍 书声琅琅 8. AABC 亭亭玉立 翩翩起舞 遥遥无期 头头是道 9. 带有动物的四字词语: 虎头蛇尾 龙争虎斗 狐假虎威 10.表示“多”的四字词语:数不胜数 不计其数 成千上万 11.含有“如”的四字词语:对答如流 挥汗如雨 力大如牛 12.含有数字的四字词语: 一心一意 三心二意 五花八门 13.描写天气的四字词语: 烈日炎炎 阳光明媚 大雪纷飞 14.带有“马”字的成语: 一马平川 一马当先 车水马龙 15.描写“风”的四字词语:北风呼啸 寒风刺骨 凉风习习 16.描写山水的四字词语: 湖光山色 山清水秀 山水如画 17.写表示看的词语: 观察 仰望 俯视 环顾 眺望 18.写表示说的词语: 嘱咐 叮咛 吩咐 告诉 命令 19.描写大海的四字词语: 波涛澎湃 风平浪静 波涛汹涌 20.写表示寒冷的四字词语: 冰天雪地 北风呼啸 天寒地冻 21.写表示注意力集中的四字词语:目不转睛 聚精会神 全神贯注 22.写描写神态的四字词语: 眉开眼笑 眉飞色舞 愁眉苦脸 23.写描写心情的词语: 忐忑不安 悲痛欲绝 兴高采烈 24.写描写外貌的四字词语: 尖嘴猴腮 眉清目秀 虎背熊腰 25.写表示高兴的四字词语: 眉开眼笑 喜笑颜开 兴高采烈 26.描写春天的四字词语: 桃红柳绿 万紫千红 鸟语花香 27.描写夏天的四字词语: 烈日炎炎 烈日当头 艳阳高照 28.描写秋天的四字词语: 秋高气爽 瓜果遍地 果实累累 29.描写冬天的四字词语: 寒风刺骨 银装素裹 冰天雪地 30.表示情况紧急的四字词语: 十万火急 千钧一发 迫在眉睫。
形容"注意力集中"的四字词语有“全神贯注、聚精会神、心无旁鹜、专心致志、一心一意、废寝忘食、屏气凝神、仔仔细细、认认真真、目不转睛”。
1、全神贯注【全拼】: quán shén guàn zhù【释义】: 贯注:集中。全部精神集中在一点上。
形容注意力高度集中。【例子】: 他指着球里嵌着的花纹,相着伊又相着花纹,全神贯注的,十分喜悦的告诉伊。
2、聚精会神【全拼】: jù jīng huì shén【释义】: 会:集中。原指君臣协力,集思广益。
后形容精神高度集中。【出处】: 汉·王褒《圣主得贤臣颂》:“聚精会神,相得益(章)彰。”
【例子】: 看校样时的~,就和在写作的时候一样,因为我的目的要使它没有一个错字。3、心无旁骛【全拼】: xīn wú páng wù【释义】: 旁;另外的;骛:追求。
心思没有另外的追求,形容心思集中,专心致志。【出处】: 冰心《谈信纸信封》:“有不少人像我一样,在写信的时候,喜欢在一张白纸,或者只带着道道的纸上,不受拘束地,心无旁骛地抒写下去的。”
4、专心致志【全拼】: zhuān xīn zhì zhì【释义】: 致:尽,极;志:意志。把心思全放在上面。
形容一心一意,聚精会神。【出处】: 《孟子·告子上》:“夫今弈之为数,小数也,不专心致志,则不得也。”
5、一心一意【全拼】: 【 yī xīn yī yì 】【释义】: 只有一个心眼儿,没有别的考虑。【出处】: 《三国志·魏志·杜恕传》:“免为庶人,徙章武郡,是岁嘉平元年。”
裴松之注引《杜氏新书》:“故推一心,任一意,直而行之耳。”6、废寝忘食【全拼】: fèi qǐn wàng shí【释义】: 废:停止。
顾不得睡觉,忘记了吃饭。形容专心努力。
【出处】: 南朝·齐·王融《曲水诗》序:“犹且具明废寝,昃晷忘餐。”7、屏气凝神【全拼】: bǐng qì níng shén【释义】: 屏气:抑制呼吸;凝神:聚精会神。
形容注意力高度集中,违心一致。【出处】: 《论语·乡党》:“摄齐升堂,鞠躬如也,屏气似不息者。”
《庄子·达生》:“用志不分,乃凝于神。”8、仔仔细细【全拼】: zǐ zǐ xì xì【释义】:(1)细心:他做事很~|~领会文件的精神。
(2)小心;当心:路很滑,~点儿。(3)俭省:日子过得~。
9、认认真真【全拼】: rèn rèn zhēn zhēn【释义】: 严肃对待,不马虎10、目不转睛【全拼】: mù bù zhuǎn jīng【释义】: 眼珠子一动不动地盯着看。形容注意力集中。
【出处】: 明·冯梦龙《警世通言》卷十一:“老婆婆看着小官人,目不转睛,不觉两泪交流。”。

描写注意力专注的四字,李玫瑾,孩子不是输在智商,而是注意力,学霸都赢在良好的专注力

  李玫瑾教授在《圆桌派》中曾经说过:所有的“小天才”身上,都具备一个共同的特点,那就是“超强的专注力”。
  
  国外的一项研究报告也证实:94%的孩子智力都差不多,决定孩子成绩的并非智力,而是专注力。
  纵观“学霸”群体,会神奇地发现:决定孩子成绩和学习效率的,不是用时间堆积起来的“努力”,而是专注力!越专注,学习效率越高,这也是学霸们的制胜法宝。
  
  专注力又称注意力,是大脑进行感知、记忆、思维等认识活动的基本条件,是孩子最基本的适应环境的能力。畅销书《如何成为学霸》的作者罗德·布雷默(RodBremer)把专注力定义为学习的基础。
  
  据中国科学院心理研究所调查显示,全国75%的儿童存在不同程度的专注力问题。联合国教科文组织也已经将专注力问题列为引起全球儿童学习障碍的首要因素。
  专注力的发展会随着大脑的发展而逐渐培养起来。孩子专注力的培养,其实也是有关键期的,0~6岁是大脑发育的关键时期,这个阶段也是孩子专注力养成的关键时期。在关键期内培养孩子的专注力,往往能够起到事半功倍的效果。
  
  那么,家长应该怎样培养孩子的专注力呢?
  首先,专注力和大脑发育有关。
  聪明的父母,首先要学会保护孩子与生俱来的专注力,开发孩子该有的学习能力。这才能让孩子成绩更好未来的道路更宽阔。
  其次,专注力也和后天的培养环境息息相关。
  孩子本来就好奇心强,很容易被外界环境所吸引,所以,家长要给孩子提供一个安静的环境,减少外界对孩子的干扰。
  
  最后,挖掘孩子的兴趣点,发挥孩子的主动性。
  很多家长都有这样的发现:孩子可以一个人涂涂画画一个多小时,玩拼图的时候,一幅图没拼完,决不罢休…………但是,当家长让他坐在书桌前写作业的时候,不到10分钟,就坐不住了。
  之所以会出现这种情况,是因为对于孩子而言,专注力和学习兴趣是相互影响的。家长如果想培养孩子的专注力,一定要注重孩子的天性和意愿,利用孩子的兴趣点,发挥孩子的主动性。
  
  伦敦学院认知神经学教授CathyPrice说过:如果你不在意阅读、看或听的内容,你就不会记住它。很多宝妈都说自家孩子在听故事的时候,小耳朵竖得高高的,而且同一个故事百听不厌,几遍下来,孩子就能复述故事的内容了。
  故事作为一种最受幼儿喜欢的文字形式,对于孩子来说,有一种特殊的吸引力。许多家长会惊讶地发现,当我们在为孩子讲故事时,孩子竟然可以乖乖坐着,并沉浸于故事书当中,注意力高度集中。
  
  所以,让孩子听故事,可以强化孩子的注意力和兴趣,而且一些好的故事,他们可以百听不厌,其优美的语言,典型的人物形象塑造,生动的故事讲述,让幼儿被深深地吸引,进而打开学习与记忆之门。
  当然,“好的故事”,一定是要和孩子的大脑、心理发育程度相吻合,才能吸引到孩子的注意力。0~6岁是大脑发育的关键时期,所以,这里若兰妈咪给大家推荐一套专为2-6岁儿童编写的睡前启蒙故事书。
  
  这套书设计小巧,每本只有巴掌大,只有11页,只讲1个故事,故事虽然简短,但已经把人物、情节、教育意义表达得很清楚。小孩子坐不住、理解力有限,这样的小故事没有多余环节,更符合孩子的认知水平。
  
  0-6岁正是培养孩子养成良好的行为习惯、优良的品格的关键时期。这套《宝宝睡前启蒙故事》每册一个小故事,每个故事一个教育主题,包含洗手、刷牙、吃饭、睡觉、如厕等日常行为习惯培养;发脾气、胆小害羞、懂礼貌、分享、友谊、诚实、帮忙、爱心、认错等情商管理、情绪控制、社交能力培养等4大类,帮助孩子从小培养好习惯,养成好性格。
  
  这套书共40本,40个故事,每天一个故事,也能讲40天不重样,满足孩子对新鲜事物的追求。这套书原价240元,现在由#凌晨爸妈#mcn发起的“童书会”活动价仅需59.9元,每本不到1.5元。读好故事,培养好习惯,塑造好性格,有需要的家长,点击下方链接,即可下单。

您可能感兴趣的文章

本文地址:https://www.wskee.cn/19490.html
文章标签:
版权声明:本文为原创文章,版权归 专注力训练与注意力训练网 所有,欢迎分享本文,转载请保留出处!

文件下载

老薛主机终身7折优惠码boke112

上一篇:
下一篇:

评论已关闭!