是注意机制真正的关注,或者只是再次回顾记忆



阅读注意机制时,我对注意力的注意力感到困惑。与我们的关注性质一样,它与通常的定义相同?

例如,在机器翻译任务中,直觉上是等效输出翻译单词,然后返回文本的所有内部内存,以决定下一步要产生哪个单词。这似乎是一种浪费,根本不是人类在做什么。实际上,它更类似于记忆的访问,而不是注意,在我看来,这有点像是错误的(详细介绍下面)。尽管如此,这并没有阻止注意机制变得非常受欢迎,并且在许多任务上表现良好。

注意所需的全部所需要的是,恕我直言,与我们的大脑用作注意机制的情况非常相似。

我们的大脑中有一些名为LGN的东西,负责滤除手头任务的不必要信息。例如,如果我开始寻找钥匙,我的大脑将更少注意具有银色或金色以外的颜色的物体(希望)。现在,我不知道人脑的更高关注机制。但是,很明显的一件事是,信息在注意之前正在通过每一层,并以神经活动的形式表示。

当您为世界当前状态的人工模型表示时,信息将被表示为张量,同样,注意力可以使您可以看到需要看到什么以做出最佳决定(类似于查找键)。

最新更新