249 弱小(4k)(第2/2 页)
最新其它小说小说:
桃花林里桃花红、
我的工作是花钱、
代嫁傻女、
网游之机械时代、
我给炮灰当妈妈、
冷骚魔尊总想薅我尾巴、
【女文工团员最后的下落-终极收藏版】(81-100章)、
赵小刚宋雨晴、
大佬的大佬甜妻、
指点考古队,竟被当成盗墓贼、
阿斗扶得起、
疯语者的超维游戏、
精灵之我有一本超强图鉴、
折娇、
秦羽歌萧楚何、
幸好遇见你程夕陆沉舟、
修罗殿、
你全家都是肉文女主!、
我真是大魔王、
苏小沫,你休想逃!、
觉得知识被塞进了脑子里。
只是,等到第二天,当吴恩达提出团队在研发上的困惑时,激烈的辩论到来了。
易科是有“siri”这样的语音助手作为人工智能的实践,而吴恩达的团队不仅在做卷积神经网络cnn的研究,也在做循环神经网络rnn的研究,他们认为后者更适合与语音助手相结合,但效果并不算很好,完全达不到想要的成绩。
问题出在哪里?
吴恩达表述了困惑,也谈了谈易科内部的解决方向。
参会的一部分人赞同易科的解题思路,但谷歌方面却出现了不同的声音。
“为什么非要使用循环神经网络?”谷歌的乌思克尔特本来正在休假,但因为对dl的交流感兴趣便报名过来,“为什么不试试自注意力self-attention?我认为它对nlp领域将会有更优秀的改变。”
“self-attention可以进行更好的并行计算能力,而不是像rnn那样进行顺序处理,它还能直接比较序列中任意两个位置的向量表示,这样就能更有效的捕捉和利用长距离依赖关系,但rnn不行!”
“rnn虽然理论上也能捕捉长距离依赖,但实际上往往因梯度消失或爆炸问题而难以实现!”
乌思克尔特研究的是谷歌的机器翻译改进方法,他的父亲就是计算语言学的教授,尽管刚开始进入谷歌时对语言翻译的工作很不喜欢,但最终还是专注于这一领域的研究,而他近期正在琢磨的便是“自注意力self-attention”在相关领域的改善。
吴恩达很快明白这位谷歌研究员的意思,也在几经思索后给予反驳:“自注意力没有显式地编码位置信息,这就意味着如果以它为核心的模型无法区分序列中相同词语在不同位置的意义差异,而在自然语言的处理中,词语的语义又与位置紧密相关。”
www.。m.
本章未完,点击下一页继续。