不能接受别人和怎么提高自己的审美审美不同。不然就贬低嘲笑别人审美观。还莫名其妙优越感满满的是什么奇葩

&p&来源:雷锋网&/p&&p&█ 如果你有非常大的决心从事深度学习,又不想在这一行打酱油,那么研读大牛论文将是不可避免的一步。而作为新人,你的第一个问题或许是:“&strong&论文那么多,从哪一篇读起?”&/strong&&br&&/p&&p&本文将试图解决这个问题——文章标题本来是:“从入门到绝望,无止境的深度学习论文”。请诸位备好道具,开启头悬梁锥刺股的学霸姿势。&/p&&p&开个玩笑。&/p&&p&但对非科班出身的开发者而言,读论文的确可以成为一件很痛苦的事。但好消息来了——为避免初学者陷入迷途苦海,昵称为 songrotek 的学霸在 GitHub 发布了他整理的深度学习路线图,&strong&分门别类梳理了新入门者最需要学习的 DL 论文,又按重要程度给每篇论文打上星星。&/strong&&/p&&p&截至目前,这份 DL 论文路线图已在 GitHub 收获了近万颗星星好评,人气极高。雷锋网感到非常有必要对大家进行介绍。&br&&/p&&p&闲话少说,该路线图根据以下四项原则而组织:&br&&/p&&blockquote&&ul&&li&&p&从大纲到细节&/p&&/li&&li&&p&从经典到前沿&/p&&/li&&li&&p&从一般到具体领域&/p&&/li&&li&&p&关注最新研究突破&/p&&/li&&/ul&&/blockquote&&p&作者注:有许多论文很新但非常值得一读。&/p&&h2&1 深度学习历史和基础&/h2&&h3&1.0 书籍&/h3&&p&█[0] Bengio, Yoshua, Ian J. Goodfellow, and Aaron Courville. &strong&&Deep learning&/strong&.& An MIT Press book. (2015). [pdf] (Ian Goodfellow 等大牛所著的教科书,乃深度学习圣经。你可以同时研习这本书以及以下论文) ★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//github.com/HFTrader/DeepLearningBook/raw/master/DeepLearningBook.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&github.com/HFTrader/Dee&/span&&span class=&invisible&&pLearningBook/raw/master/DeepLearningBook.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&h3&1.1 调查&/h3&&p&█[1] LeCun, Yann, Yoshua Bengio, and Geoffrey Hinton. &&strong&Deep learning&/strong&.& Nature 521.): 436-444. [pdf] (三巨头做的调查)
★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//www.cs.toronto.edu/%7Ehinton/absps/NatureDeepReview.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&cs.toronto.edu/~hinton/&/span&&span class=&invisible&&absps/NatureDeepReview.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&h3&1.2 深度置信网络 (DBN,深度学习前夜的里程碑)&/h3&&p&█[2] Hinton, Geoffrey E., Simon Osindero, and Yee-Whye Teh. &&strong&A fast learning algorithm for deep belief nets&/strong&.& Neural computation 18.7 (2006): . [pdf] (深度学习前夜) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//www.cs.toronto.edu/%7Ehinton/absps/ncfast.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&cs.toronto.edu/~hinton/&/span&&span class=&invisible&&absps/ncfast.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[3] Hinton, Geoffrey E., and Ruslan R. Salakhutdinov. &&strong&Reducing the dimensionality of data with neural networks.&/strong&& Science 313.): 504-507. [pdf] (里程碑,展示了深度学习的前景) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//www.cs.toronto.edu/%7Ehinton/science.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&cs.toronto.edu/~hinton/&/span&&span class=&invisible&&science.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&h3&1.3 ImageNet 的进化(深度学习从此萌发)&/h3&&p&█[4] Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. &&strong&Imagenet classification with deep convolutional neural networks.&/strong&& Advances in neural information processing systems. 2012. [pdf] (AlexNet, 深度学习突破)
★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&papers.nips.cc/paper/48&/span&&span class=&invisible&&24-imagenet-classification-with-deep-convolutional-neural-networks.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[5] Simonyan, Karen, and Andrew Zisserman. &&strong&Very deep convolutional networks for large-scale image recognition.&/strong&& arXiv preprint arXiv: (2014). [pdf] (VGGNet,神经网络变得很深层) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[6] Szegedy, Christian, et al. &&strong&Going deeper with convolutions.&/strong&& Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2015. [pdf] (GoogLeNet) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Szegedy_Going_Deeper_With_2015_CVPR_paper.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&cv-foundation.org/opena&/span&&span class=&invisible&&ccess/content_cvpr_2015/papers/Szegedy_Going_Deeper_With_2015_CVPR_paper.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[7] He, Kaiming, et al. &&strong&Deep residual learning for image recognition.&/strong&& arXiv preprint arXiv: (2015). [pdf](ResNet,特别深的神经网络, CVPR 最佳论文)
★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&5.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&h3&1.4 语音识别的进化&/h3&&p&█[8] Hinton, Geoffrey, et al. &&strong&Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups.&/strong&& IEEE Signal Processing Magazine 29.6 (2012): 82-97. [pdf] (语音识别的突破) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//cs224d.stanford.edu/papers/maas_paper.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&cs224d.stanford.edu/pap&/span&&span class=&invisible&&ers/maas_paper.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[9] Graves, Alex, Abdel-rahman Mohamed, and Geoffrey Hinton. &&strong&Speech recognition with deep recurrent neural networks.&/strong&& 2013 IEEE international conference on acoustics, speech and signal processing. IEEE, 2013. [pdf] (RNN) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[10] Graves, Alex, and Navdeep Jaitly. &&strong&Towards End-To-End Speech Recognition with Recurrent Neural Networks.&/strong&& ICML. Vol. 14. 2014. [pdf] ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//www.jmlr.org/proceedings/papers/v32/graves14.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&jmlr.org/proceedings/pa&/span&&span class=&invisible&&pers/v32/graves14.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[11] Sak, Ha?im, et al. &&strong&Fast and accurate recurrent neural network acoustic models for speech recognition.&/strong&& arXiv preprint arXiv: (2015). [pdf] (谷歌语音识别系统) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&7&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[12] Amodei, Dario, et al. &&strong&Deep speech 2: End-to-end speech recognition in english and mandarin&/strong&.& arXiv preprint arXiv: (2015). [pdf] (百度语音识别系统) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&5.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[13] W. Xiong, J. Droppo, X. Huang, F. Seide, M. Seltzer, A. Stolcke, D. Yu, G. Zweig &&strong&Achieving Human Parity in Conversational Speech Recognition.&/strong&& arXiv preprint arXiv: (2016). [pdf] (最前沿的语音识别, 微软) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/v1& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&6v1&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&研读以上论文之后,你将对深度学习历史、模型的基本架构(包括 CNN, RNN, LSTM)有一个基础的了解,并理解深度学习如何应用于图像和语音识别问题。接下来的论文,将带你深入探索深度学习方法、在不同领域的应用和前沿尖端技术。我建议,你可以根据兴趣和工作/研究方向进行选择性的阅读。&/p&&h2&2 深度学习方法&/h2&&h3&2.1 模型&/h3&&p&█[14] Hinton, Geoffrey E., et al. &&strong&Improving neural networks by preventing co-adaptation of feature detectors.&/strong&& arXiv preprint arXiv: (2012). [pdf] (Dropout) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[15] Srivastava, Nitish, et al. &&strong&Dropout: a simple way to prevent neural networks from overfitting.&/strong&& Journal of Machine Learning Research 15.1 (2014): . [pdf] ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//www.jmlr.org/papers/volume15/srivastava14a.old/source/srivastava14a.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&jmlr.org/papers/volume1&/span&&span class=&invisible&&5/srivastava14a.old/source/srivastava14a.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[16] Ioffe, Sergey, and Christian Szegedy. &&strong&Batch normalization: Accelerating deep network training by reducing internal covariate shift.&/strong&& arXiv preprint arXiv: (2015). [pdf] (2015 年的杰出研究) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&7&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[17] Ba, Jimmy Lei, Jamie Ryan Kiros, and Geoffrey E. Hinton. &&strong&Layer normalization.&/strong&& arXiv preprint arXiv: (2016). [pdf] (Batch Normalization 的更新) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf%3Futm_source%3Dsciontist.com%26utm_medium%3Drefer%26utm_campaign%3Dpromote& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&0.pdf?utm_source=sciontist.com&utm_medium=refer&utm_campaign=promote&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[18] Courbariaux, Matthieu, et al. &&strong&Binarized Neural Networks: Training Neural Networks with Weights and Activations Constrained to+ 1 or-1.&/strong&& [pdf] (新模型,快) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//pdfs.semanticscholar.org/f832/b16cbdd630212a.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&pdfs.semanticscholar.org&/span&&span class=&invisible&&/f832/b16cbdd630212a.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[19] Jaderberg, Max, et al. &&strong&Decoupled neural interfaces using synthetic gradients.&/strong&& arXiv preprint arXiv: (2016). [pdf] (训练方法的创新,研究相当不错) ★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&3&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[20] Chen, Tianqi, Ian Goodfellow, and Jonathon Shlens. &&strong&Net2net: Accelerating learning via knowledge transfer.&/strong&& arXiv preprint arXiv: (2015). [pdf] (改进此前的训练网络,来缩短训练周期) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Accelerating Learning via Knowledge Transfer&/a&&/p&&p&█[21] Wei, Tao, et al. &&strong&Network Morphism.&/strong&& arXiv preprint arXiv: (2016). [pdf] (改进此前的训练网络,来缩短训练周期) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Network Morphism&/a&&/p&&h3&2.2 优化 Optimization&/h3&&p&█[22] Sutskever, Ilya, et al. &&strong&On the importance of initialization and momentum in deep learning.&/strong&& ICML (3) 28 (2013): . [pdf] (Momentum optimizer) ★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//www.jmlr.org/proceedings/papers/v28/sutskever13.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&jmlr.org/proceedings/pa&/span&&span class=&invisible&&pers/v28/sutskever13.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[23] Kingma, Diederik, and Jimmy Ba. &&strong&Adam: A method for stochastic optimization.&/strong&& arXiv preprint arXiv: (2014). [pdf] (Maybe used most often currently) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&&/span&&/a&&/p&&p&█[24] Andrychowicz, Marcin, et al. &&strong&Learning to learn by gradient descent by gradient descent.&&/strong& arXiv preprint arXiv: (2016). [pdf] (Neural Optimizer,Amazing Work) ★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&4&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[25] Han, Song, Huizi Mao, and William J. Dally. &strong&&Deep compression: Compressing deep neural network with pruning, trained quantization and huffman coding.&/strong&& CoRR, abs/ 2 (2015). [pdf] (ICLR best paper, new direction to make NN running fast,DeePhi Tech Startup) ★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//pdfs.semanticscholar.org/5b6c/9dda1d88095fa4aaca1f2e863.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&pdfs.semanticscholar.org&/span&&span class=&invisible&&/5b6c/9dda1d88095fa4aaca1f2e863.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[26] Iandola, Forrest N., et al. &&strong&SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and& 1MB model size.&/strong&& arXiv preprint arXiv: (2016). [pdf] (Also a new direction to optimize NN,DeePhi Tech Startup) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&0&/span&&span class=&ellipsis&&&/span&&/a&&/p&&h3&2.3 无监督学习/深度生成模型&/h3&&p&█[27] Le, Quoc V. &&strong&Building high-level features using large scale unsupervised learning.&/strong&& 2013 IEEE international conference on acoustics, speech and signal processing. IEEE, 2013. [pdf] (里程碑, 吴恩达, 谷歌大脑, Cat) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/.pdf%26embed& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&.pdf&embed&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[28] Kingma, Diederik P., and Max Welling. &&strong&Auto-encoding variational bayes.&/strong&& arXiv preprint arXiv: (2013). [pdf](VAE) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&&/span&&/a&&/p&&p&█[29] Goodfellow, Ian, et al. &&strong&Generative adversarial nets.&/strong&& Advances in Neural Information Processing Systems. 2014. [pdf](GAN,很酷的想法) ★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//papers.nips.cc/paper/5423-generative-adversarial-nets.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&papers.nips.cc/paper/54&/span&&span class=&invisible&&23-generative-adversarial-nets.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[30] Radford, Alec, Luke Metz, and Soumith Chintala. &&strong&Unsupervised representation learning with deep convolutional generative adversarial networks.&/strong&& arXiv preprint arXiv: (2015). [pdf] (DCGAN) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&4&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[31] Gregor, Karol, et al. &&strong&DRAW: A recurrent neural network for image generation.&/strong&& arXiv preprint arXiv: (2015). [pdf] (VAE with attention, 很出色的研究) ★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//jmlr.org/proceedings/papers/v37/gregor15.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&jmlr.org/proceedings/pa&/span&&span class=&invisible&&pers/v37/gregor15.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[32] Oord, Aaron van den, Nal Kalchbrenner, and Koray Kavukcuoglu. &&strong&Pixel recurrent neural networks.&/strong&& arXiv preprint arXiv: (2016). [pdf] (PixelRNN) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&9&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[33] Oord, Aaron van den, et al. &strong&&Conditional image generation with PixelCNN decoders.&/strong&& arXiv preprint arXiv: (2016). [pdf] (PixelCNN) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&8&/span&&span class=&ellipsis&&&/span&&/a&&/p&&h3&2.4 递归神经网络(RNN) / Sequence-to-Sequence Model&/h3&&p&█[34] Graves, Alex. &&strong&Generating sequences with recurrent neural networks.&/strong&& arXiv preprint arXiv: (2013). [pdf] (LSTM, 效果很好,展示了 RNN 的性能) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&&/span&&/a&&/p&&p&█[35] Cho, Kyunghyun, et al. &&strong&Learning phrase representations using RNN encoder-decoder for statistical machine translation.&/strong&& arXiv preprint arXiv: (2014). [pdf] (第一篇 Sequence-to-Sequence 的论文) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&&/span&&/a&&/p&&p&█[36] Sutskever, Ilya, Oriol Vinyals, and Quoc V. Le. &&strong&Sequence to sequence learning with neural networks.&/strong&& Advances in neural information processing systems. 2014. [pdf] (杰出研究) ★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//papers.nips.cc/paper/5346-information-based-learning-by-agents-in-unbounded-state-spaces.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&papers.nips.cc/paper/53&/span&&span class=&invisible&&46-information-based-learning-by-agents-in-unbounded-state-spaces.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[37] Bahdanau, Dzmitry, KyungHyun Cho, and Yoshua Bengio. &&strong&Neural Machine Translation by Jointly Learning to Align and Translate.&/strong&& arXiv preprint arXiv: (2014). [pdf] ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&v7.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[38] Vinyals, Oriol, and Quoc Le. &&strong&A neural conversational model.&/strong&& arXiv preprint arXiv: (2015). [pdf] (Seq-to-Seq 聊天机器人) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/.pdf%2520%28http%3A//arxiv.org/pdf/.pdf%29& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&9.pdf%20(http://arxiv.org/pdf/.pdf)&/span&&span class=&ellipsis&&&/span&&/a&&/p&&h3&2.5 神经网络图灵机&/h3&&p&█[39] Graves, Alex, Greg Wayne, and Ivo Danihelka. &&strong&Neural turing machines.&/strong&& arXiv preprint arXiv: (2014). [pdf] (未来计算机的基础原型机) ★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[40] Zaremba, Wojciech, and Ilya Sutskever. &&strong&Reinforcement learning neural Turing machines.&/strong&& arXiv preprint arXiv: 362 (2015). [pdf] ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//pdfs.semanticscholar.org/f10e/fef939e6ef4a59baf0bb3a6c2b.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&pdfs.semanticscholar.org&/span&&span class=&invisible&&/f10e/fef939e6ef4a59baf0bb3a6c2b.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[41] Weston, Jason, Sumit Chopra, and Antoine Bordes. &&strong&Memory networks.&/strong&& arXiv preprint arXiv: (2014). [pdf] ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&&/span&&/a&&/p&&p&█[42] Sukhbaatar, Sainbayar, Jason Weston, and Rob Fergus. &&strong&End-to-end memory networks.&/strong&& Advances in neural information processing systems. 2015. [pdf] ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//papers.nips.cc/paper/5846-end-to-end-memory-networks.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&papers.nips.cc/paper/58&/span&&span class=&invisible&&46-end-to-end-memory-networks.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[43] Vinyals, Oriol, Meire Fortunato, and Navdeep Jaitly. &&strong&Pointer networks.&/strong&& Advances in Neural Information Processing Systems. 2015. [pdf] ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//papers.nips.cc/paper/5866-pointer-networks.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&papers.nips.cc/paper/58&/span&&span class=&invisible&&66-pointer-networks.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[44] Graves, Alex, et al. &&strong&Hybrid computing using a neural network with dynamic external memory.&/strong&& Nature (2016). [pdf] (里程碑,把以上论文的想法整合了起来) ★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//www.dropbox.com/s/0a40xi702grx3dq/2016-graves.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&dropbox.com/s/0a40xi702&/span&&span class=&invisible&&grx3dq/2016-graves.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&h3&2.6 深度强化学习&/h3&&p&█[45] Mnih, Volodymyr, et al. &&strong&Playing atari with deep reinforcement learning&/strong&.& arXiv preprint arXiv: (2013). [pdf]) (第一个以深度强化学习为题的论文)
★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[46] Mnih, Volodymyr, et al. &&strong&Human-level control through deep reinforcement learning&/strong&.& Nature 518.): 529-533. [pdf] (里程碑) ★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//storage.googleapis.com/deepmind-data/assets/papers/DeepMindNature14236Paper.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&storage.googleapis.com/&/span&&span class=&invisible&&deepmind-data/assets/papers/DeepMindNature14236Paper.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[47] Wang, Ziyu, Nando de Freitas, and Marc Lanctot. &&strong&Dueling network architectures for deep reinforcement learning.&/strong&& arXiv preprint arXiv: (2015). [pdf] (ICLR 最佳论文,很棒的想法)
★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&1&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[48] Mnih, Volodymyr, et al. &&strong&Asynchronous methods for deep reinforcement learning.&/strong&& arXiv preprint arXiv: (2016). [pdf] (前沿方法) ★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&3&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[49] Lillicrap, Timothy P., et al. &&strong&Continuous control with deep reinforcement learning.&/strong&& arXiv preprint arXiv: (2015). [pdf] (DDPG)
★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&1&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[50] Gu, Shixiang, et al. &&strong&Continuous Deep Q-Learning with Model-based Acceleration.&/strong&& arXiv preprint arXiv: (2016). [pdf] (NAF)
★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&8&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[51] Schulman, John, et al. &&strong&Trust region policy optimization.&/strong&& CoRR, abs/ (2015). [pdf] (TRPO)
★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//www.jmlr.org/proceedings/papers/v37/schulman15.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&jmlr.org/proceedings/pa&/span&&span class=&invisible&&pers/v37/schulman15.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[52] Silver, David, et al. &&strong&Mastering the game of Go with deep neural networks and tree search.&/strong&& Nature 529.): 484-489. [pdf] (AlphaGo) ★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//willamette.edu/%7Elevenick/cs448/goNature.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&willamette.edu/~levenic&/span&&span class=&invisible&&k/cs448/goNature.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&h3&2.7 深度迁移学习 /终生学习 / 强化学习&/h3&&p&█[53] Bengio, Yoshua. &&strong&Deep Learning of Representations for Unsupervised and Transfer Learning&/strong&.& ICML Unsupervised and Transfer Learning 27 (2012): 17-36. [pdf] (这是一个教程) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//www.jmlr.org/proceedings/papers/v27/bengio12a/bengio12a.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&jmlr.org/proceedings/pa&/span&&span class=&invisible&&pers/v27/bengio12a/bengio12a.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[54] Silver, Daniel L., Qiang Yang, and Lianghao Li. &&strong&Lifelong Machine Learning Systems: Beyond Learning Algorithms.&/strong&& AAAI Spring Symposium: Lifelong Machine Learning. 2013. [pdf] (对终生学习的简单讨论) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//citeseerx.ist.psu.edu/viewdoc/download%3Fdoi%3D10.1.1.696.7800%26rep%3Drep1%26type%3Dpdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&citeseerx.ist.psu.edu/v&/span&&span class=&invisible&&iewdoc/download?doi=10.1.1.696.7800&rep=rep1&type=pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[55] Hinton, Geoffrey, Oriol Vinyals, and Jeff Dean. &&strong&Distilling the knowledge in a neural network.&/strong&& arXiv preprint arXiv: (2015). [pdf] (大神们的研究)
★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&1&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[56] Rusu, Andrei A., et al. &&strong&Policy distillation.&/strong&& arXiv preprint arXiv: (2015). [pdf] (RL 领域) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&5&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[57] Parisotto, Emilio, Jimmy Lei Ba, and Ruslan Salakhu★★★tdinov. &&strong&Actor-mimic: Deep multitask and transfer reinforcement learning.&/strong&& arXiv preprint arXiv: (2015). [pdf] (RL 领域) ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&2&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[58] Rusu, Andrei A., et al. &&strong&Progressive neural networks.&/strong&& arXiv preprint arXiv: (2016). [pdf] (杰出研究, 很新奇的想法) ★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&1&/span&&span class=&ellipsis&&&/span&&/a&&/p&&h3&2.8 One Shot 深度学习&/h3&&p&█[59] Lake, Brenden M., Ruslan Salakhutdinov, and Joshua B. Tenenbaum. &&strong&Human-level concept learning through probabilistic program induction.&/strong&& Science 350.): . [pdf] (不含深度学习但值得一读) ★★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//clm.utexas.edu/compjclub/wp-content/uploads/2016/02/lake2015.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&clm.utexas.edu/compjclu&/span&&span class=&invisible&&b/wp-content/uploads/2016/02/lake2015.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[60] Koch, Gregory, Richard Zemel, and Ruslan Salakhutdinov. &&strong&Siamese Neural Networks for One-shot Image Recognition.&/strong&&(2015) [pdf] ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//www.cs.utoronto.ca/%7Egkoch/files/msc-thesis.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&cs.utoronto.ca/~gkoch/f&/span&&span class=&invisible&&iles/msc-thesis.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[61] Santoro, Adam, et al. &&strong&One-shot Learning with Memory-Augmented Neural Networks.&/strong&& arXiv preprint arXiv: (2016). [pdf] (one shot 学习的基础一步) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&5&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[62] Vinyals, Oriol, et al. &&strong&Matching Networks for One Shot Learning.&/strong&& arXiv preprint arXiv: (2016). [pdf] ★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&0&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&█[63] Hariharan, Bharath, and Ross Girshick. &&strong&Low-shot visual object recognition.&/strong&& arXiv preprint arXiv: (2016). [pdf] (通向更大规模数据的一步) ★★★★&/p&&p&地址:&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/pdf/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&9&/span&&span class=&ellipsis&&&/span&&/a&&/p&
来源:雷锋网█ 如果你有非常大的决心从事深度学习,又不想在这一行打酱油,那么研读大牛论文将是不可避免的一步。而作为新人,你的第一个问题或许是:“论文那么多,从哪一篇读起?” 本文将试图解决这个问题——文章标题本来是:“从入门到绝望,无止境的…
&p&&b&这是社会阶层流动的大门短暂开启的「并发症」。&/b&&/p&&p&目前各答主提到的各类&b&「聊不来」、「观念落后」、「价值观向左」等问题,尚属于表层原因,其根源都在于此——由于时代原因,你的亲戚和你不属于同一个阶层&/b&。这个「问题」,会随着社会阶层的逐步固化而得到「缓解」甚至趋于消失。&/p&&p&但当阶层流动的通道重新关闭,年轻人们再次只能接触到和自己同一阶层的亲戚,也不知道究竟该替那个时代中不须与「讨厌的亲戚」相处的年轻人们感到高兴,还是该替那个阶层间泾渭分明的整个时代感到叹息?&/p&&br&&p&&b&我一度是一个典型的「讨厌亲戚的年轻人」。&/b&&/p&&p&父亲的人生如同开挂一般,靠着近乎非人的拼搏,从一个深山里砍柴为生的农家娃,一步步走到现在成为每年全球各地飞的学术大拿,我们全家也定居在了某一线城市。但他的兄弟姐妹们可就没有那么幸运了,好一点的在当地县城开了店,差一点的还留在深山中耕田。&/p&&p&&b&于是乎,从小「亲戚」对我来说,就是一个不那么友好的词汇。&/b&&/p&&p&打小在我记忆中,他们就隔三差五来到我们家,扯着嗓子说着我难以听懂的家乡话,每次来不一定会带来礼物,但一定会带来一些诉求:要么是借钱,要么是要帮忙找工作,要么是在家里白吃白喝好长一段时间「来城里玩」。&/p&&p&这些「亲戚」们来自尚不发达的地区,和你聊起来除了问你成绩怎么样,工作怎么样,就是和你诉苦,让你多回家看看。更差一点的,还会粗暴过问你的个人生活,毫不尊重你的私人空间,任由孩子把你的房间搞得天翻地覆,自己在客厅里啃得一地瓜子壳…&br&&/p&&p&&b&我相信,「讨厌亲戚的年轻人」中的大多数,都和我有或多或少相似的家庭背景。&/b&&br&&/p&&p&&b&我曾经深深不解,凭什么他们可以靠着「血缘绑架」,将各种要钱要好处的行为,做得如此自然而然?凭什么他们这样一味索要,父亲还是只能尽可能容忍?&/b&更不用说,我不理解他们为什么要在大街上大呼小叫,为什么要随地吐痰,为什么要粗暴地对待我的玩具和文具,为什么每次走之前都要「不经意」地带走我们一些东西…&/p&&br&&p&长大了一点才稍微有点明白,&b&「亲戚」和「我们」之间的冲突,小了说,是「谈不到一块去」,大了说,是「文明矛盾」在这个急剧变化的中国的缩影。我单单去责怪他们,倒显得苛责了。&/b&&/p&&p&&b&在某个特殊的年代,无数文明在血色骤雨中湮灭,但这片国土上的阶层上升之门却也在一片混乱中被悄然砸开。在改革开放的四十年里,凭着智慧、汗水和机遇,一部分人「飞上枝头变凤凰」,在时代变革中脱颖而出,在拔地而起的一座座现代化城市中扎了根,他们的后代也生长在现代文明的光辉下。&/b&&/p&&p&&b&于是产生了这样的两拨人:&/b&&/p&&p&&b&一方是还保留着农耕时代作风,抱持熟人社会中「人多力量大」、「血缘高于一切」思想的人群,但他们和实现阶层上升的人仍保持着亲缘关系。&/b&他们认为家族里先富带动后富天经地义,因此但凡有点血缘牵扯,他们就会过来找到你,以亲缘关系为筹码,遵循着你看起来不可理喻,但在中国乡土间却其实已经施行了数千年的规矩,他们看起来市井而短视,依然在为现实计较,问你为什么不考公务员,不快点结婚生孩子。&/p&&p&&b&另一方是早已浸泡在城市文明中,信仰「规则至上」、「感情优于血缘」的新生代年轻人,他们往往是阶层流动的得利者。&/b&他们重视朋友远胜亲戚,认为不论是什么关系,其基础都应该是互相尊重。他们肯定多元文化,追求有着同样价值观念的群体认同,不明白为什么要善待除了有血缘关系之外,只会带来绵绵不绝麻烦的亲戚们。&/p&&p&&b&这两拨本应相差一两个世纪的人群,却被中国的高速增长拉到了同一个时空当中。矛盾,自然也就无可避免。&/b&&/p&&br&&p&&b&这是社会发展的必然之痒。&/b&&/p&&p&说句实话,时至今日,我也依然对我的那些亲戚们喜欢不起来,我相信你们中的不少人也会是如此。话说的再通,问题想得再透,依然无法避免的,是每年过年回家乡的尴尬不堪,是每次亲戚按门铃时的不胜其扰。&/p&&p&&b&但有时我会反躬自省,说到底,我也只是恰巧有了一个好父亲,成为了社会发展的得利者。&/b&&/p&&p&&b&&u&更进一步地说,从更宏观的层面来看,每一个讨厌亲戚的年轻人,其实背后站着的,都很可能是一个沉寂了数百年,却终于随着共和国的崛起,成功实现了阶层流动的家族。&/u&&/b&&b&这个家族还带着黄土的气息,但终于捧出了一颗掌上明珠,整个家族都渴望着狠狠抓住这个转瞬即逝的机会。&/b&&/p&&p&这样一看,如果付出的代价仅仅是家族中新生代和守旧亲戚们的矛盾,我们又还忍心去苛责什么呢?&/p&&br&&p&&b&其实,不会用多久,年轻人们就将不再反感亲戚。&/b&因为阶层流动的大门,从来就不会开启太久,它目前正在不疾不徐地关闭中。&/p&&br&&p&等到我们的下一代,或再下一代。在城里生活的中产阶级家庭的孩子们,会像今天西方的孩子们一样,玩着高科技玩具,打小享受着通识教育,&b&有着一群和他们价值观相同的亲戚&/b&。在关键时刻,会有一个富有的阿姨或一个位高权重的叔叔站出来,写上几封推荐信,介绍几个好工作。&/p&&p&在乡间,人们依然讨着自己的生活,&b&家族里曾经出现的「凤凰男」已经成为了遥远传说&/b&,读书依然能够改变命运,但申请大学和找工作时,却不知究竟该如何与小学就开始编程,初中就通晓经济学常识的城里孩子竞争。寒门之下,再难出现贵子。&/p&&p&若干年后,年轻人和亲戚们彼此不再互相排斥,而是相谈甚欢,保持着紧密稳固的联系。&br&&/p&&p&&b&所有人——不管是在哪个阶层——他们都将只有和自己同属一个阶层的亲戚,城里的孩子不再能见到乡下的来客,乡里的孩子也再难找到血缘的纽带作为进城的理由。那些在经济高速发展的时代中价值观产生激烈碰撞,主要靠血缘关系维系的同一群人,伴随着阶层通道的封闭,变成了彼此井水不犯河水的好几群人。&/b&&/p&&p&文明社会的规则,也一步步转变为固化阶层的黄金枷锁。&/p&&br&&p&说到这里,我不知道你会更喜欢哪一种状态?会否为题主提到的年轻人&u&「越来越」&/u&反感亲戚反而感到一丝庆幸,至少这说明流动的通道还未关闭?&/p&&p&而此刻,听着窗外还带着浓厚乡味的鞭炮声,听着楼下依然高声喧闹的家乡话,我的心里突然有了一点五味杂陈的感觉。&/p&&br&&p&====================================================================&/p&&p&谢谢各位小伙伴们的赞,大家新年好!&/p&&p&在评论区碰到一些值得交流的观点,这里也统一说说我的看法:&/p&&p&&b&1、是不是亲戚本来就令人生厌,跟时代背景和阶层无关?&/b&&/p&&p&&u&不是的。亲戚从来就不是天生令人讨厌的。&/u&&/p&&p&曾有一篇发到顶刊的经济学论文论述过,如果把一群人随机放到一个环境中,他们会自动趋向于找和自己相似的人抱团,很快就会自然变成好几群人。这个「相似的」标准,可以是肤色、血缘、价值观等等。&/p&&p&如果不是由于价值观和地理位置的割裂,人们会自然亲近自己的亲戚,也会自发维护自己的族群。&b&家族绝不是只有农业社会才重视的陈陋遗产,高度发达的商业社会同样重视血缘。&/b&很多西方国家,早已进入到「家族竞争」的时代,不说别的,布什、摩根、肯尼迪,这些耳熟能详的名字背后,站立的都是上流社会中长盛不衰的权势家族。&/p&&p&等到中国的阶层大幅度流动结束,新一代年轻人和亲戚们之间不再有价值观冲突,血缘就又会重归人群划分的重要标准,家族的重要性将重新提上台面。&/p&&p&&b&2、在互联网这么发达的年代,哪怕阶层固化,难道阶层间就做不到互相理解么?&/b&&/p&&p&&u&遗憾的是,做不到。&/u&&/p&&p&互联网曾经给过我们一些不切实际的期望,阻止阶层固化或消弭阶层对立恐怕就是其中的一个。早已有社会学论文证实,互联网的出现,在多数情况下只会让上网的人群变得更加极端,因为人们更倾向于在网上和自己价值观类似的人交流,而不是理解意见向左的人的价值观。&/p&&p&&b&很多时候,网络让我们抱团取暖,互相攻伐,却没有让我们做到真正和解。&/b&「互联网让我们能看到相同的东西,从而有类似的想法」最后只能是一个幻想,每个人的时间都有限,&b&大家最终还是选择性地看自己喜欢的东西,巩固了自己原有的价值观。&/b&&/p&&p&&b&3、阶层真的会固化么?&/b&&/p&&p&&u&这可能是最令人伤心的一件事了,会的,而且几乎无力阻止。&/u&&/p&&p&社会地位高的人后代通常掌握更多资源,&u&更有可能&/u&继续保持高的社会地位。一代之差尚不明显,百年之差、十代之差呢?中国人上数三代多数都是农民,但现在差距就已如此巨大,可见一斑。&/p&&p&怎么才能阻止?高额遗产税和绝对公平的教育可能是比较是可靠的途径,但前者会打击经济活跃度,后者则极难实现:君不见素质教育正大力推行,素质教育最终的得利者,是从小看彭博的富家子弟,还是家里电脑都没有的农家娃?显然易见。&/p&&br&&p&以上是一些个人想法,再次谢谢大家。&/p&&p&最后,对一些说我不懂得尊重亲戚,说我优越感太过的人提个建议:&b&&u&请先把我的文章看完。&/u&&/b&&/p&
这是社会阶层流动的大门短暂开启的「并发症」。目前各答主提到的各类「聊不来」、「观念落后」、「价值观向左」等问题,尚属于表层原因,其根源都在于此——由于时代原因,你的亲戚和你不属于同一个阶层。这个「问题」,会随着社会阶层的逐步固化而得到「缓…
&h2&最后一次更新,我在回答这道题:中国现在到底有多落后?&/h2&&p&我在美国长大的,我去过中国几次。父母来自中国和马来西亚。一直都没有放弃我的华文教育。&/p&&p&中国给我的印象是华人的祖国,听说最近几年发展特别好。特别快。所以我抱着去一个故乡的态度去了中国。&/p&&p&可是中国给我的几件事情印象特别的深刻。&/p&&p&1.我被偷了,被偷很惨,丢了两个手机,贼好多。后来中国的亲戚告诉我,你出门一定要注意自己的东西,中国人多素质低。你不提防别人,肯定会吃亏。被偷是当买教训(发生地,上海的外滩)&/p&&p&2.地上好脏,大部分地方很脏,人们遛狗不捡狗屎,路人经常有事没事吐痰。真的好恶心。你们不觉得恶心吗。&/p&&p&3.大人喜欢抱着小孩子随地大小便。(还没来中国前就听说过中国人喜欢随地大小便,我觉得可能就非洲这样,中国都发展这么久了不应该吧)直到我亲眼见到,不是成年人,而是成年人抱着小孩这样干。一共见到三次,一次在重庆去吃火锅的时候,一个看起来和我差不多大的(我24)女人。抱着孩子在火锅店门口旁边垃圾桶附近~拉屎~拉屎~拉屎~(fucking disgusting),第二次在上海,一个大人然小孩子尿在垃圾桶旁边,旁边~~~~还有一次,看见大人抱着小孩,直接尿在重庆机场的垃圾桶里面。&/p&&p&4.城市建设脏,城市很多高楼,美国就算是市中心才能见到那么多高楼,而且没有中国多。因为每个人都住在房子里面。然而,中国的高楼,很多就一些的,墙壁上面都是黑突突特别恐怖的那种。而且就窗户有。每家每户都有。看起来比较新的大楼都没有。我亲戚告诉我说是房子旧了。有30多年历史了。可是,我去过芝加哥,纽约,高楼都有100年历史了为什么没有黑突突。&/p&&p&5.大家讲话好大声,尤其在公共场合。&/p&&p&6.厕所好脏好脏好脏好脏好脏好脏。&/p&&p&7.公共场所没有洗手液,没有纸。没有马桶&/p&&p&这是现实中我亲眼看见的&/p&&p&-----------------------------------------------------------------------&/p&&p&网上的阅读和知乎下来的结论,中国和穆斯林,印度等国家一样,是一个落后的文明。&/p&&p&为什么呢?杀女婴,学校附近医院排队打胎。我去,你们杀人,送人上断头台都合法。送人上断头台排队,今天2017年,还在发生的事情。打胎都这么的理所当然。~~~~&/p&&h2&你们去读一读父母偏心是什么样体验。我觉得可以把题目改成重男轻女是什么样的体验&/h2&&h2&&b&我没有亲眼看见排队打胎,知乎上的护士说。&/b&&/h2&&h2&&b&她帮一个女的打胎,打完女的难受不肯走,她要那个女生离开。她还说后面还有人排着呢。所以随随便便打胎也这么的理所当然。&/b&&/h2&&p&&b&性教育不落后吗?&/b&&/p&&h2&女性问题。重男轻女。&/h2&&h2&中国的男性比女性多出3000万。&/h2&&h2&恩,多少还没出生的女婴呀。堕胎合法真好。这多出来的3000万背后的故事。&/h2&&h2&中国合法堕胎有多少人是为了生男生而堕胎。&/h2&&p&&br&&/p&&p&&br&&/p&&h2&因为性理念落后,因为想生男的而堕胎 。不是落后是什么&/h2&&h2&性教育理念落后,多少年轻女生堕胎。选择性看不见的。还有哪个州随时随地的堕胎?&/h2&&p&当你们嘲笑印度人对女性不公的时候。其实你们也在被人嘲笑文明的落后。&/p&&p&50步笑百步。中国不止有北上广。除了大城市,别的地方的人,都很贫穷。可是知乎上的中国已经是发达国家。其实挺讽刺的。我去过很多发达国家,可是真的没见过像中国这么落后的,更悲哀的是,他居然是我的祖国。一堆的落后的文明和陋习。中国现在每走一步都很艰难,落后文明的包裹太重,老思想观念的人太多。拖住了中国前进的步伐。我怕中国会完全变成印度,和中东的穆斯林。或者变成中东那样,一堆人力资源(中东自然资源)堆出一小部分土豪来炫耀中国强大了~可是事实大家都知道,并不是真的强大&/p&&h2&&b&4年前抱着知乎学习中文的心态来之后,到现在。真的,改变非常非常的大。我曾经一度怀疑自己为什么学习中文。&/b&&/h2&&h2&&b&每次看见知乎嘲笑中东,穆斯林,绿教,印度的时候,可能不知道自己也在被人笑。&/b&&/h2&&p&&br&&/p&&p&--------------------------------------------------------------------------&/p&&p&为什么我会中文,我爹是大陆人,我娘是马华。我有中国1~6年级的语文书。我看蜡笔小新,国语版,中国大陆电视剧长大。每个周末都被送去中文学校。我从小对中国抱的态度,就是非常非常好的。2010世博回国,很失望。 又一次回国。也很失望。小时候向往的地方,长大后发现是地狱(或许有点夸张)这种反差你不会懂。&/p&&p&后来我问爹妈,中国那么好,为什么30年前你们要奋不顾身的来到美国。他们没有回答我。&/p&&p&还有美国也一堆问题,比如芝加哥,纽约像北上广一样大城市都不安全,安全的都在郊区。贫富差距。(说道贫富差距,最大的是中国,然后是美国,很讽刺吧)&/p&&p&&br&&/p&&p&&b&美国三大难题,禁枪,堕胎,毒品。几乎每个高中生,大学生写essay,都要围绕这三件事。自由和平等是对立的。美国不是完美的,美国也一堆问题。我可以去回答美国有多少问题。但是这题目是中国现在有多落后&/b&&/p&&p&&br&&/p&&p&&br&&/p&&p&中国虽然禁枪成功了,可是堕胎呢,美国人大多数地方不允许。中国大学旁医院排队堕胎。&/p&&p&毒品,我不吸烟喝酒吸毒。我也反对,但是美国开放的毒品,合法的,其实和喝酒一样的效果。而且对毒品的认识比较全。这个问题也是社会问题。&/p&&p&&b&美国不好,但是我去过中国,也能理解大学时代的留学生朋友为什么拼了命的想留下。&/b&&/p&&p&&b&我大学时代遇见最多的留学生是印度的,和中国大陆的。他们真的是拼了命的学习,拼了命的留下来,尤其是全奖的博士生!&/b&&/p&&p&&b&直到我去了印度了中国。&/b&&/p&&p&--------------------------------------------------------------------------&/p&&p&美国人从来不会去在乎空气问题,你们的杨舒平说的话,作为一个华裔都觉得脸红。&/p&&h2&她是夸张了,可是我没有夸张,我看见的。我去中国没有带口罩,但是也是被北方的雾霾吓到。如果我真心厌恶中国,我会在站杨舒平的立场一起喷。可是我并不支持她。中国有很多问题,这到题目只是问中国有多落后。但是如果有一个非华裔美国人和我这样说,我肯定会告诉他中国好的那一面。并且雾霾不是落后,雾霾是发展国家有的问题。&/h2&&h2&你们一个个都说中文比我好,分不清楚落后和问题吗?你们说出美国一堆的问题,和这到题目有关系吗&/h2&&p&--------------------------------------------------------------------------&/p&&p&北上广,外表光鲜亮丽。我很负责任的说,美国任何一个城市都不如北上广。如果你们想听美国的不好,我也能告诉你一堆。但是美国的问题是第一世界的问题,中国的问题是落后的问题。(你有枪才能有枪支问题,你落后才有落后问题,不是带什么有色眼镜。我从小对中国就是向往)&/p&&p&&b&你是绝对不会体会到那种对一个地方向往,然后看到的和书里读的不一样的落差感&/b&&/p&&p&&b&我从来没有说中国的国力很弱,我只的是个人,而不是国家。&/b&&/p&&p&&b&大部分人,你在社会上工作了,你活得快乐吗。&/b&&/p&&p&&b&我在中国走在路上,别人看了我一眼,我和他打招呼,笑了一下。&/b&&/p&&p&&b&然后我被骂神经病了。&/b&&/p&&p&&b&我在美国,看见别人,和别人对眼了,都会说hi,笑一下。&/b&&/p&&p&&b&你们真的快乐吗,为什么陌生人对你笑一下都那么的敌意?&/b&&/p&&p&&br&&/p&&p&&br&&/p&&h2&&b&你是绝对不会体会到那种对一个地方向往,然后看到的和书里读的不一样的落差感&/b&&/h2&&p&给质疑身份的&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-e753dbb836c536a907bd5be1b1c33078_b.jpg& data-rawwidth=&960& data-rawheight=&1280& class=&origin_image zh-lightbox-thumb& width=&960& data-original=&https://pic1.zhimg.com/v2-e753dbb836c536a907bd5be1b1c33078_r.jpg&&&/figure&
最后一次更新,我在回答这道题:中国现在到底有多落后?我在美国长大的,我去过中国几次。父母来自中国和马来西亚。一直都没有放弃我的华文教育。中国给我的印象是华人的祖国,听说最近几年发展特别好。特别快。所以我抱着去一个故乡的态度去了中国。可是中…
&blockquote&当然,她也的确遇人不淑,一次遇人不淑就罢了,一次次遇人不淑,到底谁是不淑?她没有爱过自己,没有过自己的尊严和底线,谁会在意她的尊严和底线?一个女人,无论多渴望安全感,多害怕被抛弃,多希望得到美好的爱情,也要把自己当成端庄而高贵的有内核的人,那个内核,是自我,是自己对自己的爱和尊严。我特别欣赏那种女生,哪怕没有人重视自己,不漂亮不惹眼,没有特殊才艺,不会发嗲卖萌,她们在心底里也有自己对自己的骄傲,不为什么,那就是她们的骄傲,当我看到一个女生内心的骄傲,我便知道她有内核,有自我,我便会尊重她。&br&&/blockquote&&p&&br&&/p&&p&看着影片,几次看不下去,在哀怜的同时,带着强烈的恨意,我不是一个制度批判者,我只恨那个满身伤痕的可怜之人。可怜之人,必有可恨之处。她带着强烈的空虚感,到处寻找男人,没有自尊,没有自爱,没有道德底线,没有伦理原则,只要答应陪着她,哪怕那个人让她出卖自己的身体,哪怕那个人每天殴打她,她放弃所有,只要求不被抛弃。&/p&&p&
可这个世界上,哪儿有不被抛弃的个体?当人从母体里出来,就已经被分离,再也没有人和你是身体相连的,你必须开始独立地存在。但松子没有,松子是一个空壳,没有果实,没有自我,她是一个看不见的黑洞,她希望不被抛弃,她希望永远和男人在一起,她希望在做爱的过程中实现融合,她也就依附于那个男人而存在。她从来没有有过自己的精神内核。从某种意义上讲,她甚至是一个还未从母体分离出来的怪胎,永远都要依附别人。&/p&&p&
阿龙说,松子是自己的上帝,因为松子似乎是一个可以无限给与无限付出的爱情化身。这从阿龙的角度来看,松子的确是上帝,人也就在付出时和对别人的付出感恩时,才有了神性,阿龙在得到松子“付出”的“爱”时,自己也便有了神性。&/p&&p&
可就松子这方面来讲,她是在付出么?她是在爱么?她有什么可以付出?她有过爱么?她等着阿龙,其实就像一个阴魂不散的追命鬼,她是一个黑洞,她在等着阿龙去填补,所以,阿龙在见到她那一刻,阿龙崩溃了。她这种令人窒息的“爱”,除了神能接纳,任何一个凡人都会被吸干,被缠绕至死,何况阿龙本身也是一个破碎的个体,也是一个孩子,充满破坏力的巨婴。&/p&&p&
电影开头是阿笙的女友无力地跟他提出分手,然后电影中间插入了一段,阿笙女友要去乌兹别克斯坦做志愿者的情节,她说,人生的意义在于付出。松子的一辈子,看似在不停地为男人付出,从另一个角度来看,不也是为了维持自己的存在感与安全感,不停地随便更换男人来寻找寄托?病态的付出从来就不是爱,没有内核的爱是一个陷阱,里面长满了满是触手的蔓藤,一旦进去,就难以出来。松子,有付出过么?她美丽动人,敏捷能干,但从未关心过他人,她没有关心过他人的疾苦和社会的呻吟。是的,她自己本身就是一个弱势的存在,就是社会的底层,但,她对身边的人的关心呢,她对身边朋友的关心呢?&/p&&p&
当然,她也的确遇人不淑,一次遇人不淑就罢了,一次次遇人不淑,到底谁是不淑?她没有爱过自己,没有过自己的尊严和底线,谁会在意她的尊严和底线?一个女人,无论多渴望安全感,多害怕被抛弃,多希望得到美好的爱情,也要把自己当成端庄而高贵的有内核的人,那个内核,是自我,是自己对自己的爱和尊严。我特别欣赏那种女生,哪怕没有人重视自己,不漂亮不惹眼,没有特殊才艺,不会发嗲卖萌,她们在心底里也有自己对自己的骄傲,不为什么,那就是她们的骄傲,当我看到一个女生内心的骄傲,我便知道她有内核,有自我,我便会尊重她。&/p&&p&&br&&/p&&p&
再谈男权社会,自有媒体人罗振宇今天分享,冯仑有次开玩笑说,爱情只不过是雌性哺乳动物对安全感的追求。我当时就想,为什么不是雄性,而是雌性?在这部影片里,我似乎看到了答案。在这样一个男权社会里,一个女人一旦被原生家庭抛弃,就没有了根。没有依靠,没有精神寄托,就成了社会的孤儿。在电影里,松子的弟弟就是一个男权的缩影,或者说,松子的父亲,或者里面每一个男人都是男权的象征,他们消费女性的身体,肆意使用暴力,他们是高高在上的,也就导致了松子一生匍匐逶迤地屈从追寻男人。据说传统的潮汕女人,如果丈夫死了,遗产物品,一般是叔伯先分,然后娘家人也往往横行霸道把剩余财产都拿走。因为传统中,娘家的哥哥或弟弟是自己的支柱,这方丈夫死了,如果那边弟弟或哥哥再不收留,这个女人也就没了依靠,成了孤魂,退一步讲,哪怕女人没有死丈夫,如果丈夫对她不好,自己的兄弟也是自己的退路和后盾,这是自己的男权资本。所以,女人的兄弟才会那么霸道,一个女人,在男权社会里,似乎永远是从属品。当然,生完孩子之后,尤其是生完男孩儿之后,女人的地位就巩固了,这也是所谓的母凭子贵,女人的权利来源于男权。也就是封建政治中的,后权源于皇权,女人是靠控制男人来获得权力的,看似强大的慈禧或甄嬛,也不过男权傀儡。&/p&&p&
当然,现在的男权思想正在根本性地逆转,女人永远应该有自己的骄傲和尊严,没有理由再把责任推脱给男权社会。松子一直深深追求的存在感和归属感,在哪里?其实是在心里,心是空的,去哪儿也找不到,填不满。松子最后给妹妹剪头发,象征着放弃了自己的嫉妒怨恨,接纳了整部影片中惟一一个追逐她的人,原谅了她对父亲关爱的抢夺,这宣誓了松子不再病态地追求存在感和爱,而是开始了付出和给予,这时,她顿悟了。存在是被联系定义的,而心与世界相联系,就像松子最后看到美丽的银河,那一刻,她有了归属和存在,心安即是归处,银河是心,心也是银河。&/p&&p&
所以,处处归处,人生,便不再是孤苦无依的飘零。&/p&&p&&br&&/p&&p&&br&——————————————————————&/p&&p&&br&看完阿德勒的《自卑与超越》后更新:&/p&&p&阿德勒在整本书里就强调了一个概念——合作,或者可以称为社会兴趣;&br&松子则是典型的缺乏社会兴趣的个案;&/p&&p&阿德勒是出生顺序心理学的提出者——松子是“中间的孩子”,一般情况下,最先出生的孩子,因为年长,会承担更多的责任会变得沉稳懂事,而最小的孩子则一般会得到最多的宠爱,中间的孩子最容易被人忽略。被人忽略的人,由于其从父母那里得到的关注不多,他们也就会渐渐对他人失去真正的兴趣,他们往往会表现得过度热心或者过度招惹眼球,看似在取悦别人,其实只是在满足优越感的缺口。&br&松子就是这么一个看似非常好的人,非常正能量非常积极。然而,按照阿德勒的理论,她自始至终都不过是因为自卑而在过度追求虚假的优越感,没看过原文,但是只看电影的话,她对正常的社会生活、对他人、对社会里的各种事物并没有真正的兴趣。她所做的事情,只不过希望赢得注意,比别人好、比别人强。&/p&
当然,她也的确遇人不淑,一次遇人不淑就罢了,一次次遇人不淑,到底谁是不淑?她没有爱过自己,没有过自己的尊严和底线,谁会在意她的尊严和底线?一个女人,无论多渴望安全感,多害怕被抛弃,多希望得到美好的爱情,也要把自己当成端庄而高贵的有内核的人…
&p&人害怕是因为怕失去。中国女人不敢变老,也是因为变老后会失去不能承受的重吧。&/p&&p&开宗明义,我先回答下标题提出的疑问,中国女人不“敢”轻易变老的症结在于:亚洲文化中以男权审美为基础的价值观崇尚的是少女脸,或者更直白一些,是“处女脸”。从18岁的男孩到88岁的男人对女人的审美都没有变化,一样喜欢的是18岁的少女。&/p&&p&所以终其一生,中国女人都要和岁月作不懈的斗争,争取自己能“冻龄”,多维持几年“少女脸”。因为这样才有可能讨男性的喜欢,甚至能证明自己的生活是幸福的。比如在最美港姐吴婉芳的新闻报道中,媒体就会写“有网友认为吴婉芳容颜不老,除了得天独厚外,最重要是嫁得好,与富商丈夫胡家骅夫妻恩爱如昔,有子有女,生活幸福无忧。”&/p&&p&一旦上年龄的女星被拍到素颜便服的照片,就有媒体说她们是因为生活不幸福才显老,比如邱淑贞王祖贤等。导致当年的天然大美人们也不得不用玻尿酸随时伺候着自己的脸妄图将之保持在少女的状态,在外人看来可笑又可叹。&/p&&p&“处女脸”这种在我看来简直是历史倒退和充满了对女性歧视性的名词是最近才诞生的,而且据说各大整容机构已经将处女脸作为网红脸的升级换代标准向有意整容的女孩们推荐。所谓的“处女脸”指的是以林允为代表的一批女星,她们长相无辜、气质清纯、天真的表情和举止让男人们不由自主地产生一种保护欲。&/p&&p&中国男人千余年来为什么对处女脸的如此追捧?专栏作者侯虹斌分析的特别透彻,因为:&/p&&p&清纯禁欲平胸的“处女脸”,这是女主角标准,因为可以显示女性温驯、乖巧、无欲无求、宜室宜家,因此也是好掌控的、可以好好谈恋爱的,那么性感火辣的,必然是有能力的、有攻击性的、贪得无厌的、不断索求性和钱财的,是邪恶的,这是女反派或者拜金女郎的标配。via《为什么现在中国电影的女主角都是“处女脸”?》&/p&&p&在中国,像安吉丽娜·朱莉那样艳丽而又危险的熟女脸是没办法演女一号的,性感、独立、有主见的30+女性往往是脸谱化的蛇蝎美人。她们唯一的用途是给傻白甜的少女脸女主添堵,用种种花招手段离间男女主之间的感情,而显然,患有性冷淡的男主只能被小白兔式的女主治愈,而对性感肉弹式的熟女免疫。啊,没错,我讲的就是《美人鱼》的剧情啊,男主宁肯去泡一条鱼,也欣赏不了张雨绮。&/p&&p&《美人鱼》里如此脸谱化的少女脸女一和熟女脸女二的角色设置倒像是个巨大的隐喻,它暗示着中国社会直到现在还是不懂得欣赏成熟的女性。在影视剧作品中,32岁以上年龄段的女性形象是长期缺席的,在热播剧《咱们结婚吧》中的高圆圆和《欢乐颂》里的安迪,她们的年龄都不能超过32岁,而且她们个人之前有多优秀,她们的生活重心也从事业上转向“如何将自己嫁出去”,电视剧的结局往往以她们成功地嫁人生子为happy ending。&/p&&p&似乎从此之后她们的生活只能围绕着家庭打转,当她们再次出现的时候,已经变成了神神叨叨的妈妈或者婆婆。比如现在的妈妈专业户张凯丽和潘虹,以她们的演技完全可以贡献出《傲骨贤妻》或者《我的危险妻子》中女主角们的表演,但是她们并没有这样的机会,因为无论在大荧幕还是小银屏上,我们都很少能看到以中年女性为主角的故事。不要和我说《贤妻》和《小丈夫》,那种挂羊头卖狗肉的中年傻白甜才不是30+女性的真实人生。&/p&&p&△潘虹是一个被严重浪费的女演员,如果在好莱坞,她就是梅丽尔·斯特里普,可惜了。&/p&&p&当她们的少女脸不再的时候,她们早早就开始扮演起各种母亲和婆婆,角色高度重复化和套路化,没有突破,没有发挥空间。从媳妇到婆婆,其中起码有二十年的时间,是一片空白,没人关心一颗果实是如何从青涩到成熟的,人们喜欢的是看着一朵花开,到她花落结果,就认定是她一生的结束了,就好像女人生下来就是为了繁殖而存在的。殊不知,成熟的日子才是女人一生中华彩篇章的开始。&/p&&p&△在国内的话,《傲骨贤妻》、《绝望主妇》和《我的危险妻子》的女主们只能去演妈妈辈了。&/p&&p&这是东西方价值观巨大差异的一种具体体现,好莱坞的一线女星中少有少女脸的选手,而基本都是熟女脸,很多登上过美国电影网站《TC Candler》“百大最漂亮面孔女星”的欧美女星在国内的审美看来都是get不到颜值的。比如茱莉亚·罗伯茨、莎拉·杰西卡·帕克、桑德拉·布洛克、凯特·布兰切特等等似乎从来就没有过“少女脸”的阶段,她们大红大紫的时间段都已经是作为成熟女性的形象出现了。&/p&&p&如今的她们也许比不过自己20出头时的颜值,但是岁月带给她们的不仅有脸上的皱纹,更有一种成熟女性冷静、自信、坚韧的个人魅力,她们不再任人掌控,更不再人云亦云,也无需以怯弱的姿态等待男性的保护。她们的三观稳定,不会任由他人搓圆捏扁,她们不需要结婚也能一个人过的很好。没有自信的幼稚男人无法欣赏她们,甚至会厌恶和惧怕她们,但是成熟的男人却更喜欢这种势均力敌的爱情。参考《纸牌屋》里的下木总统夫妇。&/p&&p&如果你细心观察之后就会发现,欧美主流电影电视剧中的女性角色也多半都是成熟的女性,这也是为什么那些出演小鸡电影(它直接来源于“小鸡文学”,指那种专门写给年轻女子看的青春时尚文学。在美语里,小鸡(chick)本身就是意为“妞儿”的俚语,所以中国翻译成“小妞电影”)起家的女星们不到30岁就急迫转型的原因。好莱坞给“少女脸”的机会并不多,除了出演恋爱脑的青春片和各种女儿妹妹的花瓶式角色,少女脸基本没有用武之地,而且竞争还相当激烈,毕竟容貌姣好的少女层出不穷,且小鸡电影也不需要太多演技。&/p&&p&一旦从少女脸不能成功过渡到熟女脸,对欧美女星意味着彻底地flop,比如薇诺娜·瑞德,比如克里斯丁·邓斯特,比如林赛·罗韩,甚至还可以加上歌坛的小甜甜布兰妮。曾经的少女脸代表人物娜塔莉·波特曼和瑞茜·威瑟斯彭也是靠着《黑天鹅》和《一往无前》那样的剧情片才完成了自己艰难的转型,证明自己已经不再是个靠脸蛋演戏的少女花瓶。&/p&&p&被称为“好莱坞永远的少女”的薇诺娜·瑞德说自己在二十多岁的时候就希望能够转型,她说,“我想被允许变老……”,她想尝试更多丰富的女性角色,而不只是因为一张美丽的脸而被瞩目,她希望人们能注意到她美丽面孔之下的东西,一些真正能证明她是谁的东西。“很多女人害怕变老。或者,社会在试图让你觉得变老是一件糟糕的事情。我正好相反。我享受着变老的过程。”&/p&&p&不同年龄段有不同年龄段的美,青涩有青涩的美,成熟有成熟的美,青涩时无需加速催熟自己,成熟时也无谓刻意扮嫩,而亚洲文化对于少女脸这种单一审美的偏执,不可不说是很遗憾的。不同阶段的人生有不同阶段的追求,在主要的繁殖期之外还有大段大段的时间,这些时间同样富有意义,这才是将人与动&/p&&br&&p&可不说是很遗憾的。不同阶段的人生有不同阶段的追求,在主要的繁殖期之外还有大段大段的时间,这些时间同样富有意义,这才是将人与动物区分开来的最本质的原因。动物的一生围绕的重点是求偶和繁殖,而人类则不是,所以变老并不意味着人生从此进入了垃圾时间。&/p&&p&但是中国人,无论是男人还是女人,都把女人变老视为洪水猛兽。《红楼梦》里的宝玉爱的也是“少女脸”,他的名言“女孩儿未出嫁,是颗无价之宝珠;出了嫁,不知怎么就变出许多不好的毛病来,虽是颗珠子,却没有光彩宝色,是颗死珠了;再老了,更变得不是珠子,竟是鱼眼睛了。”可以说是很多人的心声,这种想法认为女子结婚嫁人之后,不仅外貌在变老,就连人格都变得庸俗起来,再也不复年少时的纯真浪漫了。所以“少女脸”还暗示着纯真善良么?我似乎明白了什么的样子。&/p&&p&但是从清朝到现代,女性从家庭迈入了社会,不再是依附于“父亲、丈夫、儿子”的独立个体,却依然还在承受着从无价宝珠到死鱼眼珠子的评价,委实是太落后于时代了。&/p&&p&在这样的社会心理的影响下,你就能理解为什么像刘晓庆那种老牌实力影后级的人物,还要在六十多岁的年纪一直不服老地扮演“丫头”,和80后甚至是90后的女演员们抢着出演少女脸的角色。因为一旦她“服老”,她就基本不再有扮演女一号的可能,除了“少女”,就是“婆婆妈妈”,这就是中国的女演员所要面临的最严峻的现实。比如《琅琊榜》中扮演太子生母的越贵妃的演员杨雨婷出生于1978年,实际上比扮演太子的“尓豪”还要小两岁。&/p&&p&杨幂和刘恺威的婚姻到底有没有出问题我不好说,但是她和丈夫、女儿切割关系的做法无非是要保护她“少女脸”的招牌,一旦她热衷于在微博上秀恩爱秀娃,成天和老公一起搭档演出,无疑会让很多观众将她划归到“熟女”的行列里,对她出演言情剧的少女脸女一是个非常大的妨碍。如果她没有转型的打算,那么她的婚姻在外界看来将会一直处于这种冷处理的状态。&/p&&p&其实曾几何时我们也是非常熟悉且接受“熟女脸”的人设的,看TVB长大的我们爱的四旦里,陈慧珊、蔡少芬、宣萱、郭可盈全是熟女脸,她们在现代剧中扮演的全是三十多岁的新时代职业女性,工作和自我实现才是她们生活的重心,结婚生子完全看心情,没有缘分没有感觉的话no way,绝对不会急着“交卷”。她们对待事业和感情的态度不卑不亢,似乎永远都是自己命运的主人。&/p&&p&年少时的我近乎痴迷地羡慕着港片中的一切,直到现在我才清晰地意识到,我最羡慕的其实不是高楼大厦鳞次栉比的现代都市,也不是香车宝马缓带轻裘的时尚生活,更不是酒吧咖啡馆里的happy hours,我最最羡慕的,是她们所呈现出来的现代女性的生活方式,是她们告诉我,婚姻和家庭不是女人生活中的一切,而岁月也不是最令女人惧怕的敌人。一旦你能够掌握自己的命运,你就不会不敢变老,因为你有底气等待能欣赏你的人出现,如果没有这个人的话也不要紧,起码你自己能够欣赏自己,也能够给自己足够的安全感。&/p&&br&&p&而这样的女性形象,反而在新世纪之后的中国银幕上逐渐消失了,年过三十的女性不是被妖魔化为暴戾的女强人,就是被脸谱化为恨嫁的剩女,她们存在的唯一功用就是劝告电视机前的女观众们趁自己还有一张少女脸的时候赶快结婚,否则就会像她那么变态!嗯,充分说明我们的性别意识还处于社会主义初级阶段啊!&/p&&p&
摘自中国新闻周刊&/p&
人害怕是因为怕失去。中国女人不敢变老,也是因为变老后会失去不能承受的重吧。开宗明义,我先回答下标题提出的疑问,中国女人不“敢”轻易变老的症结在于:亚洲文化中以男权审美为基础的价值观崇尚的是少女脸,或者更直白一些,是“处女脸”。从18岁的男孩…
编故事请注意检查,以免前后矛盾。&br&这个离婚女到底是儿子还是女儿?一会儿子一会女儿,是会变身技能吗?&br&&br&算了,忽略瑕疵,姐来给你丢个嘲讽技能!&br&&br&一个小气的没亮点的普通男人(都是你自己描说的哦)贪图一个离异有娃女(和我一样大嘛)的美色!!!&br&以及可能满意她有房有车的条件!!&br&&br&然后,征服了自己小气的脾气,隔三差五的送礼物送她回家。&br&&br&然后,怕她不知道自己是多么艰辛的和小气作斗争,特地告诉她:我从未对人这样送东西送回家!&br&&br&没想到,她非但没有献身精神,还怨怼我:之前有个朋友还经常送我回家,给我送各种吃的,给我女儿买玩具。还是开奔驰的准备换保时捷!&br&&br&这下,小气男不干了,听着不舒服啊!亏啊!&br&挑剔起这个离婚女的毛病来了!&br&&br&1、她虚荣,爱豪车爱化妆品!&br&~花你钱了?&br&~干你屁事?&br&&br&2、她没文化没追求,和姐妹就是聊买买买。&br&~聊你好不好?&br&~聊龟毛男好不好?&br&~干你屁事?&br&&br&3、她月光买豪车!而我就只是很实在的一个人,觉得车子性价比高能开就好。&br&~你没买豪车,好像能省下来很多车钱似的。&br&~干你屁事?&br&&br&4、她吃饭喜欢日料,西餐,咖啡。而我觉得平时吃个快餐或者饺子馄饨面就可以,偶尔去个吃个火锅就很舒服了。&br&~喜欢吃,吃自己钱,要你审批是吗?&br&~要不要改成喜欢路边摊加白开水?&br&~和你吃饭已经够没味道了,你还让她吃个饺子馄饨面。&br&~干你屁事?&br&&br&5、她连买纸巾都会买贵的,可爱的!而我觉得纸巾5元十几包那种就够,甚至还把一张纸巾分。&br&~你用袖子擦嘴更省钱,一抹了事!&br&~干你屁事!&br&&br&6、她非常注意身材,天天去健身房!挑剔到吃东西都吃得很挑,还有每天都称重等等!每次运动后都要补妆,我起码要等她半个小时!其他女的早就出来了。&br&~你妹啊,你直接去追那些早出来的不就好了?等半小时,了不起了,你委屈了!&br&~她逼你去的?&br&~她逼你等的?&br&~她节食健身,干你屁事?&br&&br&7、她去和几个同学吃饭,还得专程回家换衣服,高跟鞋,化妆等。说不能输给其他女同学之类的话!&br&~是啊,应该学你,拖着拖鞋去赴约呗,化妆叫攀比虚荣,闻所未闻~&br&&br&8、她还考虑填充脸,得2W多元,植眉也考虑做,也得1W元左右。&br&~我知道,又是花你钱了!&br&&br&9、她给5岁的女儿买化妆品,说女儿应该从小富养,学会过精致的生活!&br&~我知道,女儿不是你亲生的,你要支持穷养的。&br&&br&我骂完了,发现词穷了。&br&还是你厉害!果然你对你自己的评价很客观!&br&就是个小气的穷人!&br&&br&一个男人,明明贪图人家美,又看不起人家在美上面花钱消费。&br&朴素的女人那么多,你干嘛不去追?&br&真的变成黄脸婆,你不会嫌弃?骗鬼!&br&&br&一个女人,明明花自己钱,富养自己的孩。&br&却被主动追自己的人嫌弃的一塌糊涂,被说的一无是处。&br&赶紧把这个提问发给这个女人,让我们帮你一起赶走她,不用谢,免费!
编故事请注意检查,以免前后矛盾。 这个离婚女到底是儿子还是女儿?一会儿子一会女儿,是会变身技能吗? 算了,忽略瑕疵,姐来给你丢个嘲讽技能! 一个小气的没亮点的普通男人(都是你自己描说的哦)贪图一个离异有娃女(和我一样大嘛)的美色!!! 以及可…
&p&

我要回帖

更多关于 怎么提高自己的审美 的文章

 

随机推荐