查看原文
其他

深度“深度学习”读书会 | 你敢来吗?

张江 集智俱乐部 2022-05-09

你是否察觉到了未来世界发出的讯号?

Google大脑通过浏览UTube视频自发学习出了猫的概念;机器人脸识别的准确率已经超过了人类;AlphaGo以4:1大比分战胜世界围棋冠军;用机器进行即时翻译已经不再遥远。所有这些人工智能的最新进展背后都需要强大的深度学习技术的支持。这些都是人工智能发展的轨迹。

作为从事学术研究、享受科学乐趣的探索者的团体集智俱乐部一直走在知识的前沿,对人工智能的研究由来已久。回顾我们的时间轴,我们在人工智能方向已经走了很远。早在2012年2月深度学习革命刚刚开始的时候,我们已经组织过相关内容的读书会。而2013年7月到2014年1月的一期“探索脑与深度学习”读书会,更是孕育出了彩云天气这样的创业项目。2015年4月到2015年5月的“高级认知相关的深度学习”读书会更是将深度学习这个主题推向了高潮,追踪了当前的前沿进展。

现在,我们站在了2016年人工智能的风口。经过长期筹划,我们将举办一期全新的深度学习读书会。本次读书会以回顾经典模型、研读最新进展为主。我们希望通过这次读书会活动,能够汇集江湖中的各路英雄,让知识的碰撞擦出创意的火花,并最终催生更多的人工智能产品创意。

那么,你准备好接收未来世界对你发出的邀请了吗?

读书会提纲
读书会主题主要内容

深度学习概览

(1次)

从系统科学的角度概览综述深度学习进展(主讲人:张江-北京师范大学复杂系统学院)

深度卷积神经网络

(1~2次)

卷积神经网络(Convolutional Neural Networks)介绍,在图像处理、自然语言处理中的应用。扩展主题:图卷积神经网络(Graphics Convolutional Neural Network)

深度回归神经网络

(1~3次)

回归神经网络(Recurrent Neural Network)、LSTM等内容介绍,在机器翻译、自然语言处理方面的应用

相关理论专题研讨

(2~5次)

注意力机制、记忆机制、神经图灵机、强化学习、对抗生成网络等

相关理论专题研讨

(2~5次)

机器视觉、自然语言处理、复杂网络、计算创造性等

你会成为下一个袁行远吗?你会是未来人工智能创业公司的CEO吗?
故事还得从四年前说起。2012年,有个叫袁行远的大男孩,傲娇地辞掉了阿里算法工程师的工作。他辞职前加入了一个叫作集智俱乐部的神奇组织,也就是这个地方成为了他人生的新起点。当时,这个组织正在举办一期深度学习读书会,一群有着共同兴趣、理想、追求的青年聚集在一起,疯狂地读论文,推公式,堆代码,汲取着知识的能量。

然后,故事开始发展了,袁行远和肖达就碰撞出了火花(请勿YY,这是灵感的火花),他们想到,为什么不用深度学习来预测天气?让每个人都有自己的随身天气预报员?然后,他们开始将创意付诸实践。

于是,2013年,彩云天气上线了,局部有雨滚蛋了,普通大众也可以拥有自己的AI天气预报员了。经过三年的发展,彩云天气已经成长为一家实力型人工智能公司,袁行远也由当初那个腼腆男生成长为现在的霸道总裁!(广告:加入我们,下一个霸道总裁就是你!

如今,早就走在人工智能前沿的集智,又开始了更加深度的深度学习读书会,而且是张江大大亲自上阵带着大家一起探索人工智能!为了防止太多水军混进来冲淡学习气氛,也为激励小伙伴们坚持学习,本次读书会采用缴纳保证金的方式,圆满参与完读书会并有相应产出,我们会退还保证金。详情请看下面的读书会报名方式。

参与方式

鉴于集智俱乐部该主题的读书会一向很火,预计参与人数会瞬间爆满。为了过滤一些非专业人士,甄选出真正对深度学习感兴趣、有相关研究经验的专业人士,也为激励小伙伴们坚持学习,本期读书会将采取收费 - 退款的保证金模式。

具体规则如下:

1、 读书会(10期)保证金共计800元/人。

2、 满足以下条件之一的可全额退款:

  • 由读书会内容启发,产生了靠谱的新产品创意,并在读书会结束2个月内提交了详细的产品策划方案,并通过了集智俱乐部组织的相应考核答辩的;

  • 由读书会内容启发,萌发了科研论文创意,并在读书会结束2个月内完成初稿,并通过了集智俱乐部组织的相应考核答辩的;

3、满足如下条件之一者可退款80%:

  • 贡献了一次讲座(1个小时以上)内容的(如若讲座需要提前向主持人申请,通过试讲者可演讲);

  • 完成了三篇以上读书笔记写作的(读书笔记标准:字数在4千字并以上,图文并茂,具体请参照此文:“基于大数据预测地区发展”http://mp.weixin.qq.com/s?__biz=MzIzMjQyNzQ5MA==&mid=100000162&idx=1&sn=88d7d101f647468e3deb1d3dc21424c7&scene=19#wechat_redirect);

  • 有超额完成上述任务者可考虑全额退款。

4、读书会允许分期参加,单期读书会学费为100元/人。但无法享受退款。

上述规则的最终解释权归集智俱乐部所有。


时间2016/11/13-2017/04/30 每两周一期,共10期

地点:北京(具体地址见读书会群通知)

形式:线下活动

报名二维码:

参考文献:
  1. l Krizhevsky A, Sutskever I, Hinton G E. ImageNet Classification with Deep Convolutional Neural Networks[J]. Advances in Neural Information Processing Systems, 2012, 25(2):2012.
  2. l Kalchbrenner N, Grefenstette E, Blunsom P. A Convolutional Neural Network for Modelling Sentences[J]. Eprint Arxiv, 2014, 1.
  3. l Alexey Dosovitskiy, Thomas Brox. Inverting Visual Representations with Convolutional Networks. 2015. arXiv preprint.
  4. l Michael Edwards and Xianghua Xie: Graph Convolutional Neural Network, http://www.bmva.org/bmvc/2016/papers/paper114/paper114.pdf
  5. l Alexey Dosovitskiy, Thomas Brox. Inverting Visual Representations with Convolutional Networks. 2015. arXiv preprint.
  6. l Lipton Z C, Berkowitz J, Elkan C. A Critical Review of Recurrent Neural Networks for Sequence Learning[J]. Computer Science, 2015.
  7. l Andrej Karpathy, Justin Johnson, Li Fei-Fei. Visualizing and Understanding Recurrent Networks. NIPS 2015.
  8. l A Graves, G Wayne: Hybrid computing using a neural network with dynamic external memory, Nature 2016
  9. l Andrychowicz, M., & Kurach, K. (2016). Learning Efficient Algorithms with Hierarchical Attentive Memory. arXiv preprint arXiv:1602.03218.
  10. l Graves, A., Wayne, G., & Danihelka, I. (2014). Neural turing machines. arXiv preprint arXiv:1410.5401.
  11. l Graves, A. (2016). Adaptive Computation Time for Recurrent Neural Networks. arXiv preprint arXiv:1603.08983.
  12. l Xu, K., Ba, J., Kiros, R., Cho, K., Courville, A., Salakhutdinov, R., Zemel, R.S. & Bengio, Y., 2015. (2015). Show, attend and tell: Neural image caption generation with visual attention. arXiv preprint arXiv:1502.03044, 2(3), 5.
  13. l Zaremba, W., & Sutskever, I. (2015). Reinforcement learning neural Turing machines. arXiv preprint arXiv:1505.00521, 362.
  14. l Kumar, A., Irsoy, O., Su, J., Bradbury, J., English, R., Pierce, B., Ondruska, P., Gulrajani, I. & Socher, R., (2015). Ask me anything: Dynamic memory networks for natural language processing. arXiv preprint arXiv:1506.07285.
  15. l Kurach, K., Andrychowicz, M., & Sutskever, I. (2015). Neural random-access machines. arXiv preprint arXiv:1511.06392.
  16. l Neelakantan, A., Le, Q. V., & Sutskever, I. (2015). Neural programmer: Inducing latent programs with gradient descent. arXiv preprint arXiv:1511.04834.
  17. l Olah, C. (2015). Understanding LSTM Networks.
  18. l Geoffrey Hinton, Oriol Vinyals, Jeff Dean. Distilling the Knowledge in a Neural Network. NIPS 2014.
  19. l Goodfellow I, Pougetabadie J, Mirza M, et al. Generative Adversarial Nets[J]. Advances in Neural Information Processing Systems, 2014:2672-2680.
  20. l Bryan Perozzi, Rami Al-Rfou', Steven Skiena. DeepWalk: online learning of social representations. KDD 2014.
  21. l Memory Network: https://arxiv.org/abs/1410.3916
  22. l + End-to-End Memory Networks: https://arxiv.org/abs/1503.08895
  23. l + Towards ai-complete question answering: https://arxiv.org/abs/1502.05698
  24. l + Large-scale Simple Question Answering with Memory Networks: https://arxiv.org/abs/1506.02075
  25. l + Ask me anyting: Dynamic Memory Networks for Natural Language Processing: https://arxiv.org/abs/1506.07285
  26. l + The Goldlocks Principle: Reading Children's Book with Explicit Memory Representations: https://arxiv.org/abs/1511.02301
  27. l + Dialog-based Language Learning: https://arxiv.org/abs/1604.06045
  28. l + Learning End-to-End Goal-Oriented Dialog: https://arxiv.org/abs/1605.07683
  29. l + Key-Value Memory Networks for Directly Reading Documents: https://arxiv.org/abs/1606.03126
  30. l + Hierarchical Memory Networks for Answer Selection on Unknown Words: https://arxiv.org/abs/1609.08843




让苹果砸得更猛烈些吧!


长按识别二维码,关注集智Club,

让我们离科学探索更近一步。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存