首页 > 其他 > 详细

Transformer

时间:2019-03-11 10:53:32      阅读:189      评论:0      收藏:0      [点我收藏+]

参考资料:

【ERT大火却不懂Transformer?读这一篇就够了】

https://zhuanlan.zhihu.com/p/54356280 (中文版)

http://jalammar.github.io/illustrated-transformer/  (谷歌AI博客 英文版)

 

【NLP】Transformer详解

https://zhuanlan.zhihu.com/p/44121378

 

【关于Multi-Head和Positional Encoding】

http://blog.leanote.com/post/lincent/Attention-is-all-you-need%EF%BC%882%EF%BC%89%E5%85%B3%E4%BA%8EMulti-Head%E5%92%8CPositional-Encoding-2

 

【Universal Transformers详解】:https://zhuanlan.zhihu.com/p/44655133、https://www.leiphone.com/news/201808/1nhPCi9jWWNGv6aw.html

【图灵完备】:https://www.zhihu.com/question/20115374/answer/288346717

Transformer

原文:https://www.cnblogs.com/ying-chease/p/10508944.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!