设计embedding维数的时候有lol要维护到什么时候讲究

211被浏览13212分享邀请回答colah.github.io/posts/2014-07-NLP-RNNs-Representations/4912 条评论分享收藏感谢收起23 条评论分享收藏感谢收起查看更多回答&p&Cortana终于有身体了。可是为什么不是长这样的?&/p&&br&&img src=&/v2-c9faea91e611da01df34052c5acb4df4_b.png& data-rawwidth=&997& data-rawheight=&2048& class=&origin_image zh-lightbox-thumb& width=&997& data-original=&/v2-c9faea91e611da01df34052c5acb4df4_r.png&&
Cortana终于有身体了。可是为什么不是长这样的?
啊?为什么这么多人邀请我,发了什么事?我只想做一个安静的彩妆博主啊。。。&br&&br&轮子兄给我前东家做了个硬广,但我其实并不赞同。小娜换了一种输入形式,由文字输入变成了语音输入,缩短了信息路径。但是其它信息搜索问题依然没有得到大幅度提升,可以说是搜索殷勤的一个进步,但是并没有超越了搜索引擎本身达到另一种形态。&br&&br&那倒底什么形态可以超越搜索引擎呢?&br&&br&这个问题让我想到了前年去的一个北京犹太人联合会发起的讲座。讲话的是&a href=&///?target=http%3A///link%3Furl%3D-okSLjkDsjuB4rmlSSfFu3Vht0pf6Pn6bbp9h3Jluf_SGJNQNBSd05euoLKlvv6KvYgcYW05dwfbfw7kF4p_La& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&奇点大学&i class=&icon-external&&&/i&&/a&的José Cordeiro。&br&&img src=&/fd797ac75_b.jpg& data-rawwidth=&960& data-rawheight=&540& class=&origin_image zh-lightbox-thumb& width=&960& data-original=&/fd797ac75_r.jpg&&&br&他说了一句话大概意思就是,我们现在没有到奇点上,是不可能知道会发生什么事情的,所以具体形态真的很难猜到。&br&&br&但如果按照极致的用户体验逻辑来进行推理的话,我可以想到以下一些思路。&br&&br&&b&【信息搜索的根本目的是什么?】&/b&&br&搜索只是一种解决某个问题的手段,用户目标为解决问题,而不是搜索。所以搜索的极致就是,用户不应该去搜索,而是跳过这一步,直接帮助用户解决问题,达到用户目标。&br&&br&&b&【信息搜索的极致体验会是什么样的?】&/b&&br&信息搜索的三个体验提升我个人感觉(没有做过搜索类产品)应该在:&br&&ol&&li&搜索路径变短:短的极致就是程序预知你要干嘛,主动搜索信息而非人去搜索。&/li&&br&&li&搜索准确度提高。我们往往找到就是那一个信息,但是现在信噪比太低,被噪音淹没,极致就是程序能够完美的把各种信息综合到一起,然后直接提供给你你要的东西,没有一句废话。&br&&/li&&li&搜索后续服务提高。人搜了信息总是要进行加工和为后续行为做决策的,那么程序应当预测到这个人即将做什么,并且继续提供主动帮助。能做到这一点的程序,搜索路径和准确度也都不需要了。&/li&&/ol&&br&&b&【达到完美体验的关键技术突破点在哪儿?】&/b&&br&&ul&&li&大数据&br&&/li&&li&人工智能&br&&/li&&li&传感器&br&&/li&&li&普适计算&/li&&/ul&&br&&b&【举个例子】&/b&&br&我现在长了个痘痘,可以用搜索引擎查原因,到底是哪种类型的痘痘,怎么治,去哪儿治?然后发现用某种祛痘产品,停止吃辣椒。如果不管用还得看医生,于是又搜索医生的评价、时间、预约。&br&&br&那么极致的体验就是,这个程序根据我每天吃饭和睡觉的和其它情况预测到我要长痘痘,提前提醒了我。&br&&br&我仍然不听,自暴自弃还是长了痘痘。&br&&br&在早晨照镜子的时候,智能镜子发现了我的大痘痘,然后根据我的购买习惯知道我百分之百需要一个祛痘产品,于是它自己下单买了一个对比了我的状况和产品特性别人评价后好的祛痘产品。&br&&br&我使用两周后又no zuo no die发现痘痘还是没有退下下去。于是它告诉我应该去看医生,并给我推荐了一个医生,查看了我的日程表帮我预约。&br&&br&(大概就是这么个意思,仅作为辅助解释,不用根据字面意思追究细节逻辑。好的体验是会根据每个人的不同情况采取不同措施,比如你对替你决定买什么感到恐惧,那么系统就不应当替你决定,而会采取你能接受的方式比如推荐或征求购买。并且会根据你的价格偏好和产品偏好做出最优判断。)&br&大家不用觉得很科幻,按奇点预测,这一天来的速度会很快,做好准备迎接吧。&br&&br&&b&【关于APP或者APP Store取代搜索引擎】&/b&&br&看到有些答主说APP会取代搜索引擎。&br&&br&额,APP这个概念本身和搜索引擎的概念不在一个维度上,APP只是一种产品形态,它和“网页”是同一个维度,相当于某种服务的容器。搜索引擎则是某种服务的技术实现手段。&br&&br&搜索引擎可以存在于任何产品形态中,不管是APP还是网页。(你可以看一下App本身就有大量搜索引擎干得事情,只是长得不像google而已。)&br&&br&听闻豌豆荚之前还想做个所有App后台打通的搜索,不知道搞怎么样了,额(⊙o⊙)…&br&&br&&b&【综上所述】&/b&&br&&b&打败搜索引擎的,是问题解决程序:一个人类的外挂新大脑&/b&&br&&b&(如果小娜可以进化到这个形态的话也算轮子说的对吧,但目前小娜还达不到)&/b&&br&&br&顺便推荐大家看这几本书。(都是豆瓣链接可以点击进去的。)&br&&a href=&///?target=http%3A///subject/6855803/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&奇点临近 &i class=&icon-external&&&/i&&/a&&br&&a href=&///?target=http%3A///subject/1834728/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&人工智能的未来&i class=&icon-external&&&/i&&/a&&br&&a href=&///?target=http%3A///subject/1810352/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&灵魂机器的时代&i class=&icon-external&&&/i&&/a&&br&&br&从交互设计方面的浅见,欢迎人工智能、大数据大神们补充纠正。&br&&br&对了不用关注我,我很少回答自己专业以内的问题,我都在回答美妆和阅读问题,你们估计不会感兴趣的。
啊?为什么这么多人邀请我,发了什么事?我只想做一个安静的彩妆博主啊。。。 轮子兄给我前东家做了个硬广,但我其实并不赞同。小娜换了一种输入形式,由文字输入变成了语音输入,缩短了信息路径。但是其它信息搜索问题依然没有得到大幅度提升,可以说是搜…
&img src=&/be7ee2d6a27a55699be2a_b.jpg& data-rawwidth=&652& data-rawheight=&456& class=&origin_image zh-lightbox-thumb& width=&652& data-original=&/be7ee2d6a27a55699be2a_r.jpg&&&img src=&/97f8f5da94ee918cfaa7ce9a935f00ca_b.jpg& data-rawwidth=&786& data-rawheight=&717& class=&origin_image zh-lightbox-thumb& width=&786& data-original=&/97f8f5da94ee918cfaa7ce9a935f00ca_r.jpg&&&img src=&/ea35a4c6082e8aed64fe_b.jpg& data-rawwidth=&593& data-rawheight=&688& class=&origin_image zh-lightbox-thumb& width=&593& data-original=&/ea35a4c6082e8aed64fe_r.jpg&&
谢邀&br&&br&对能力促进的程度是一个非常主观的判断,这取决你你对自己的定位,以及对于大趋势的理解。我在这里分享一下我思考的过程,希望有所帮助。&br&&p&&b&我一直在尝试做机器学习在各个领域的应用,特别是小众领域的应用。&/b&在 CMU 的时候我花了大概一年的时间研究机器学习和法律领域的结合,并发表了论文,积累了不少如何踏入陌生领域的经验。我在之前的答案中也提到过 &a href=&/question//answer/& class=&internal&&如何看待人工智能律师的诞生,类似Ross的人工智能律师在中国是否可行? - 陈然的回答 - 知乎&/a& 。从 CMU 毕业之后我没有选择去纯互联网公司,而是选择去了一个互联网和房地产结合的公司 Trulia (Zillow Group),也是希望能够了解真实的商业世界,找到融合的角度,真正地改变行业。&/p&&p&&b&我做这样的原因一是觉得做应用更有趣,二是觉得现在是最好的时代。&/b&有趣是一个主观的判断,在此不表。而现在是做算法最好的时代,因为无论从学术模型还是工程积累都没有壁垒,我们正处在一个模型表达能力无限强,计算速度无限快,数据无限多的时代。我在这个答案中有详述:&a href=&/question//answer/& class=&internal&&如何评价谷歌的「人工智能先行」(AI First)战略?&/a&&/p&&p&然而,我做应用的日常工作与大家心中的想象并不完全一样。&b&一个 AI 应用项目从最早的探索到上线,从项目负责人的角度看,大概要经历这样一个流程:Realize -& Discuss -& Try MVP -& Optimize。&/b&很多人心中的做算法,是做最后一步优化,也即不断地调整参数,更换模型,收集新的数据等等等,而事实上在我工作的经历中,前三步是最困难的,也是绝大多数时间所在;而一旦进入了优化算法的过程,一切都有章可循,只要投入时间和精力就能有结果。&br&&br&前三步困难,因为绝大多是业务的负责人并没有意识到算法可以带来巨大的 KPI 提升,甚至业务形式的改变。有些人就算意识到了,也不知道如何开始,如何衡量投入与产出。前三步虽然看似普通,但每一步的前进来来回回都要花费大量的时间。为了解决这个问题,我在公司实践中有一些方法:&br&&/p&&ol&&li&&b&Change Culture。&/b&人只有理解了新技术,才会尝试新技术。但改变人的意识和公司的氛围是一件细水长流的事情。我们一直在各种场合推销我们的技术,比如我们组一直在组织 Data Science Lunch,通过提供免费午餐的形式,聚集感兴趣的同事在一起,共同观看视频学习机器学习领域的最新进展,分享我们组的工作成果,介绍其他公司的成功案例。谷歌提出了 AI First 的战略,是一种从上到下的改变,但是对于绝大多数公司来说,很难有这种魄力,所以我们一直试图推动从下而上的改变。&br&&/li&&li&&b&Demo Driven。&/b&单纯的案例分享并不能很直观地让人理解,但 Demo 的力量是巨大的,一旦负责人看到如此直观的体验,几乎很难拒绝上线测试的想法。因此,我负责的几乎每一项目都有 Demo 网页,负责人不需要靠想象力来理解产品,而是可以直接地交互与思考。这一项的难度很大,一是需求往往并不来自于业务负责人,而是靠我对于业务的理解,因此我需要通过各种场合了解公司数十个业务的进展,学习领域知识,再结合自己的理解开发 Demo。二是要写HTML & JavaScript & CSS。&/li&&li&&b&End-To-End Solution。&/b&为了快速响应业务需求,我们组也搭建起了 API 系统,这样我们可以直接对接业务部门,随时发布新的更新。同时受益于工程上的进步,我一个人就可以完成若干项目的从开发到运维一套可以负载整个公司流量的 API 系统的所有工作,我在文章中也有记录 &a href=&/p/& class=&internal&&知乎专栏 - Docker for Data Science at Trulia 和一点感悟&/a&&/li&&/ol&&br&能把应用做好,特别是能做出全新的应用,是一件非常困难的事情,需要不断地学习新的领域知识,包括各种公司的业务逻辑。而这需要自己足够主动,想办法接触各个业务负责人,获得详细的业务信息,甚至去了解所有的业务实施,才能找到最好的办法进行整合。也正如我在 &a href=&/question//answer/& class=&internal&&2016~20 年硅谷需求量最大的是什么方向的技术人才?&/a& 中说的,可以说任何时代,最需要的人,都一样,就是那些既懂得最新的技术,也懂得现在的商业环境,并且有能力把最新的技术应用到目前的市场上的人。&br&&br&最后,回到那句老话,做决定的时候,一定要考虑自己的兴趣所在,也要参考时代的环境。毕竟:&br&&br&&i&一个人的命运啊,当然要靠自我奋斗,但是也要考虑到历史的行程。&/i&&br&&br&----&br&&a data-hash=&e0b5a47e282b0cc705bf& href=&///people/e0b5a47e282b0cc705bf& class=&member_mention& data-editable=&true& data-title=&@陈然& data-hovercard=&p$b$e0b5a47e282b0cc705bf&&@陈然&/a&
谢邀 对能力促进的程度是一个非常主观的判断,这取决你你对自己的定位,以及对于大趋势的理解。我在这里分享一下我思考的过程,希望有所帮助。 我一直在尝试做机器学习在各个领域的应用,特别是小众领域的应用。在 CMU 的时候我花了大概一年的时间研究机器…
百家肉铺&br&&br&以前的事。&br&&br&百家村,偏安一隅,太平而又昏昏沉沉。&br&&br&村头有一家肉铺,平时卖些杀口肉、猪下水、猪头肉。&br&&br&那什么时候卖点好肉呢?一是领袖生日,二是支书家有喜事。&br&&br&那为什么村民不出村买肉呢?&br&&br&因为在那个特殊年代,擅自出村是“盲流”,是重罪。&br&&br&偶尔有大胆的人深夜溜出村去,带回来几两猪肉,也不敢大张旗鼓地烹饪红烧肉。村子上下到处是听墙根的,谁家飘出了焦香,分分钟传递支书那,在人人自危的氛围里,后果可不是一般的严重。&br&&br&所以但凡出村吃到过一口肥肉的村民,一段时间内,都会小心翼翼,如履薄冰。&br&&br&而在村里,能吃到肥肉的,无不对支书感恩戴德。那些暗地里诋毁支书权威的,一年到头,肯定没机会尝到荤腥。&br&&br&有读书出去见过世面的年轻人回来后,告诉自家亲戚,支书这是通过猪肉统治村民,结果被家里长辈呛了回去。&br&&br&其实,年轻人说对了一般,因为恐惧才是支书的统治工具。&br&&br&长辈们不允许他这样诋毁让大伙吃上猪肉的老支书。&br&&br&然而,再封建的时代也会萌芽竞争。&br&&br&临镇的谷家肉铺,多年来诚信经营,肉类种类丰富,深受当地群众欢迎。&br&&br&谷家掌柜是位精明而又颇为意气的生意人,在几年的蛰伏之后,谷家掌柜决定把肉铺开到百家村去。原因是整个金县就百家村没有谷家肉铺的分店,这不科学。&br&&br&闻此消息,谷家长老各持一辞,争论的焦点是百家村的老支书是否会让谷家肉铺平平安安地开下去。&br&&br&强龙总怕地头蛇。&br&&br&开店伊始,百家村村民被谷家肉铺物美价廉的猪肉震撼到了,加之其服务到位、童叟无欺,受此影响,百家肉铺连日都门可罗雀。&br&&br&更为严重的是,村民不再用为能吃上好猪肉对支书感恩戴德了!&br&&br&不再是支书让大家吃上猪肉了!&br&&br&最可怕的是,开始有人觉得以前吃上猪肉根本与支书无关,倒是支书让大伙吃了这么长时间的猪下水、杀口肉和猪头肉,实在可恶!&br&&br&这还了的!&br&&br&村民兵连很快包围了谷家肉铺,原因是它卖了不该卖的东西,比如:五花肉、猪腰子、猪蹄。。。。。。&br&&br&为什么不能卖这些东西,因为五花肉吃多了血脂高,猪腰子吃多了引起痛风,猪蹄吃多了会变成咸猪手。&br&&br&这些话,面有菜色的村民听起来觉得不无道理。&br&&br&谷家肉铺就这样被限期整顿了。&br&&br&彼时,有去谷家肉铺买肉的村民纷纷被民兵护送到了经营不善的百家肉铺里。&br&&br&嗯,是护送。&br&&br&闻讯,谷家肉铺掌柜从外地快马加鞭赶到百家村,谈判。&br&&br&支书说,谷家肉铺要想在百家村继续开下去不难,只需要满足三个条件:&br&………………………………&br&1.好肉由支书代为处理,卖给谁怎么卖与谷家肉铺无关;&br&&br&2.有村民在肉铺闲话支书家长里短必须火速汇报;&br&&br&3.经营期间随时接受村会计的监管。&br&&br&(就像百家肉铺一直做得那样。)&br&………………………………&br&谷家掌柜一声呵呵,叹息离去。&br&&br&翌日,谷家肉铺照常营业,门庭若市。&br&&br&很快,村民兵出现在店铺前,所有弃百家肉铺而选谷家肉铺的村民都被统一押解、集中教育,罪名是“破坏本村团结”。&br&&br&期间,谷家肉铺也被查封,理由是销售未经审查产品。&br&&br&于是,再也没有村民敢去谷家肉铺了。&br&&br&次年,为了奖赏百家肉铺多年来对村里各项工作的支持,支书暗地里对百家肉铺“灰色经营”一事开始睁一只眼闭一只眼。&br&&br&你可能要问了,什么是“灰色经营”?&br&&br&百家肉铺掌柜私下里是这样科普的:卖过期肉、病猪肉、注水肉、母猪肉。。。。。。。&br&&br&年底,村里一个叫魏小西的外地求学青年回到家里,吃了从百家肉铺买的病猪肉,结果一病不起,撒手人寰。&br&………………………………&br&关注魏则西很久了,以此祭奠吧!&br&&br&首发于个人公共号。
百家肉铺 以前的事。 百家村,偏安一隅,太平而又昏昏沉沉。 村头有一家肉铺,平时卖些杀口肉、猪下水、猪头肉。 那什么时候卖点好肉呢?一是领袖生日,二是支书家有喜事。 那为什么村民不出村买肉呢? 因为在那个特殊年代,擅自出村是“盲流”,是重罪。 …
睡了一觉起来居然一百个赞同了。。。。谢谢大家。。。&br&正确的读法应该是“挑战中,共奏凯歌”吧。&br&为了对得起大家,来一点点的干货吧,高中的时候语文老师讲的,纯转述:&br&分词这回事,其实自古以来就是一个很有意思的事情,在古时候人们立碑记一些东西的时候是没有标点符号的,后人们在研究碑文的时候通常就使用拓片将碑文拓印下来然后再进一步理解,于是就出现了一门叫做学问叫做“句读”。&br&&blockquote&古时称文词停顿的地方叫做句或读。&a href=&///?target=http%3A///view/749077.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&连称&i class=&icon-external&&&/i&&/a&句读时,句是语意完整的一小段,读是句中语意未完,语气可停的更小的段落。&br&&a href=&///?target=http%3A///view/88157.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&古文&i class=&icon-external&&&/i&&/a&是没有像现在的&a href=&///?target=http%3A///view/31516.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&标点符号&i class=&icon-external&&&/i&&/a&的,因此需要“明句读”(《&a href=&///?target=http%3A///view/10702.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&三字经&i class=&icon-external&&&/i&&/a&》对学生有明确要求,要求要“明句读”) 。如果不懂句读,往往会造成误读、误解原意。如唐代文学家&a href=&///?target=http%3A///view/2518.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&韩愈&i class=&icon-external&&&/i&&/a&在《&a href=&///?target=http%3A///view/106386.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&师说&i class=&icon-external&&&/i&&/a&》中就有“句读之不知,惑之不解,或师焉,或不(fǒu)焉,&a href=&///?target=http%3A///view/1594973.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&小学而大遗&i class=&icon-external&&&/i&&/a&,吾未见其明也”的句子。&br&古代中文在书写上原本是没有标点符号的设计,但是在阅读时为求语气的顺畅和正确的传达意思,仍有需要注意文句的起承转合,读书人便会在文章中自行加注记号,这就是句读的由来。&/blockquote&所以说不仅仅是外国人,对于我们中国人来说,分词断句也是一个很难的问题,我们日常中感觉不到这样的问题是因为我们的生活经验和语言习惯所致,但是这样的理解问题还是的的确确存在的。&br&&br&==============分割线===============&br&不仅是外国人。。。中国人也有障碍。。。比如这幅图,只能说国语太博大精深了。。。(图片来源于网络,侵删)&img src=&/ee4d9beef40b38c62f89_b.jpg& data-rawwidth=&440& data-rawheight=&336& class=&origin_image zh-lightbox-thumb& width=&440& data-original=&/ee4d9beef40b38c62f89_r.jpg&&
睡了一觉起来居然一百个赞同了。。。。谢谢大家。。。 正确的读法应该是“挑战中,共奏凯歌”吧。 为了对得起大家,来一点点的干货吧,高中的时候语文老师讲的,纯转述: 分词这回事,其实自古以来就是一个很有意思的事情,在古时候人们立碑记一些东西的时…
我只说两点:
&br&&ol&&li&任何网站有权拒绝其他网站抓取自己的内容,别拿互联网开放来给自己的商业目的打掩护;&/li&&li&淘宝也屏蔽了百度的爬虫,以阻止百度的抓取,京东的做法跟淘宝并无二致。&/li&&/ol&
比较令人反感的,是一淘对刘强东的回应:“新商业文明和诚信,您可以不信但我们信。一淘就是要让互联网透明,给消费者更多实惠。”当初淘宝屏蔽百度,也是往道德制高点上站,现在反击京东的屏蔽,还是往道德制高点上站。别这样,商业就是商业,要么先狠狠地抽自己几个大嘴巴,承认淘宝屏蔽百度是破坏“新商业文明和诚信”。
我只说两点: 任何网站有权拒绝其他网站抓取自己的内容,别拿互联网开放来给自己的商业目的打掩护;淘宝也屏蔽了百度的爬虫,以阻止百度的抓取,京东的做法跟淘宝并无二致。 比较令人反感的,是一淘对刘强东的回应:“新商业文明和诚信,您可以不信但我们信…
&p&国内很多网盘搜索是根据谷歌自定义搜索而做成的。有些则是运用site:命令。这些搜索引擎搜索结果是比较少,而且内容可能比较相似,结果资源都是热门资源。&br&&/p&&p&注意:很多网站都是基于谷歌搜索的,如果你谷歌打不开,这些基于谷歌的网站也是打不开的。&br&&/p&&br&&p&&strong&百度网盘搜索:&/strong&&/p&&p&1 .网盘屋:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&i class=&icon-external&&&/i&&/a&&/p&&p&这里已经有很多热门资源,分享达人,排行什么的。很容易利用达人分享空间收集资源。&/p&&p&2.度盘搜:&a href=&///?target=http%3A///& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&这还有一个主站和华为站。不过主站貌似搜不到华为盘。主站&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&百度网盘搜索引擎&i class=&icon-external&&&/i&&/a&,华为站&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&i class=&icon-external&&&/i&&/a&&/p&&p&3.百度云SO:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&百度云搜索-百度网盘搜索&i class=&icon-external&&&/i&&/a&&/p&&p&4.百度网盘之家:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&百度云搜索 - 百度云网盘资源搜索下载&i class=&icon-external&&&/i&&/a&&/p&&p&5壹搜百度搜索:&a href=&///?target=http%3A//www.yiso.me/baidu/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&百度网盘搜索|百度网盘搜索引擎&i class=&icon-external&&&/i&&/a&&/p&&p&6.飞迅搜索:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&飞迅搜索-网盘搜索神器&i class=&icon-external&&&/i&&/a&&/p&&p&7.盘多多:&a href=&///?target=http%3A//www.panduoduo.net/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&百度云盘-百度云搜索&i class=&icon-external&&&/i&&/a&&/p&&p&8.EV网盘搜索:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&i class=&icon-external&&&/i&&/a&&/p&&p&9.胖次搜索:&a href=&///?target=http%3A//www.panc.cc/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Panc.cc-胖次网盘搜索&i class=&icon-external&&&/i&&/a&【推荐。非调用谷歌百度】&/p&&p&10.特百度网盘:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&特百度网盘,百度网盘搜索,百度云盘&i class=&icon-external&&&/i&&/a&&/p&&p&11.百度网盘分享之家:&a href=&///?target=http%3A///& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&br&&/p&&p&12.狐搜搜:&a href=&///?target=http%3A///& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&13.57百度云搜索:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&百度云资源下载&i class=&icon-external&&&/i&&/a&&/p&&p&14.搜盘盘:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&百度云下载_百度云盘资源搜索&i class=&icon-external&&&/i&&/a&&/p&&p&15.网盘007:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&网盘搜索_网盘搜索引擎&i class=&icon-external&&&/i&&/a&&/p&&p&16.牛推荐:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&福利吧百度网盘搜索&i class=&icon-external&&&/i&&/a&&/p&&p&&strong&115礼包搜索:&/strong&&/p&&p&OA巴士:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&115利徒撰淫鷹匯利袋爺和撰淫鷹!115利徒彿坿利&i class=&icon-external&&&/i&&/a&&br&&/p&&p&&strong&乐视云搜索:&/strong&&/p&&p&乐视网盘搜索:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&strong&国内网盘:&/strong&&/p&&p&1.盘搜:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&网盘搜索,盘搜一下,百度网盘就搜到&i class=&icon-external&&&/i&&/a&&/p&&p&2.我乐盘:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&i class=&icon-external&&&/i&&/a&&/p&&p&3.186盘:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&百度网盘搜索引擎&i class=&icon-external&&&/i&&/a&&/p&&p&4.麦库搜索:&a href=&///?target=http%3A//www.baidu10.net/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&网盘搜索-网盘搜盘就用麦库搜索——资源最多的百度网盘搜索引擎&i class=&icon-external&&&/i&&/a&&/p&&p&5.基于百度谷歌的网盘双搜:&a href=&///?target=http%3A//baidupan.net/search.php%3Ftype%3Dbdp%26wd%3D& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&baidupan.net/search.php?&/span&&span class=&invisible&&type=bdp&wd=&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&6.基于谷歌的网盘搜索:&a href=&///?target=http%3A///s.php%3Fjob%3D& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/s.php?&/span&&span class=&invisible&&job=&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&7.壹搜:&a href=&///?target=http%3A//www.yiso.me/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&网盘搜索引擎&i class=&icon-external&&&/i&&/a&&/p&&p&8.盘易搜:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&盘易搜-百度网盘搜索&i class=&icon-external&&&/i&&/a&&/p&&p&9.网盘搜:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&网盘搜索,网盘搜一下百度网盘全知道——最稳定的百度网盘搜索引擎&i class=&icon-external&&&/i&&/a&&/p&&p&9.找文件:&a href=&///?target=http%3A//& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&10.吸盘搜 &a href=&///?target=http%3A//so.xpan.me/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&吸盘-百度网盘搜索引擎/资源/下载&i class=&icon-external&&&/i&&/a&&/p&&p&11.百度盘搜索(支持全部盘搜索):&a href=&///?target=http%3A///& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&12.数据村:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&数据村网盘资源论坛&i class=&icon-external&&&/i&&/a&&/p&&p&13.5p44网盘搜 &a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&百度网盘搜索引擎&i class=&icon-external&&&/i&&/a&&/p&&p&14.网盘搜索:&a href=&///?target=http%3A///index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&网盘搜索引擎(115网盘|Rayfile飞速网|P2P搜索等)&i class=&icon-external&&&/i&&/a&&/p&&p&15.Men77网盘搜索:&a href=&///?target=http%3A///index.php& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Men77网盘资源搜索&i class=&icon-external&&&/i&&/a&&/p&&p&16.爱挖盘:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&爱挖盘-网盘搜索,就是爱挖盘!&i class=&icon-external&&&/i&&/a&&/p&&p&17.吸盘搜索:&a href=&///?target=http%3A//so.xpan.me/index.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&吸盘-百度网盘搜索引擎/资源/下载&i class=&icon-external&&&/i&&/a&&/p&&p&18.我的盘:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&我的盘 - 最好用的网盘搜索引擎&i class=&icon-external&&&/i&&/a&&/p&&p&19.云搜:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&网盘搜索,就上天天搜索&i class=&icon-external&&&/i&&/a&&/p&&p&20.西林街:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&西林街 :: 全能型网盘搜索引擎,更是网盘搜索神器!&i class=&icon-external&&&/i&&/a&&/p&&p&21.网盘搜索引擎:&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&网盘搜索引擎,网盘资源搜索,百度网盘搜索,百度云盘搜索,115网盘,华为网盘,360云盘,迅雷快传&i class=&icon-external&&&/i&&/a&&/p&&p&22.靠谱搜索:&a href=&///?target=http%3A//kaopu.so/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&kaopu.so/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&strong&国外网盘:&/strong&&/p&&p&1.&a href=&///?target=http%3A//www.filestube.to/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&http://www.filestube.to&i class=&icon-external&&&/i&&/a&&/p&&p&2.&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&i class=&icon-external&&&/i&&/a&&/p&&p&3.&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Filetram&i class=&icon-external&&&/i&&/a&&/p&&p&4.&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&FilEpoch - Best Search Shared Files&i class=&icon-external&&&/i&&/a&&/p&&p&5.&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Rapidshare Search Shared Files&i class=&icon-external&&&/i&&/a&&/p&&p&6.&a href=&///?target=http%3A//www.filesearch.gr/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&filesearch.gr&i class=&icon-external&&&/i&&/a&&/p&&p&7.&a href=&///?target=http%3A//rapid-/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Rapidshare search engine&i class=&icon-external&&&/i&&/a&&/p&&p&8.&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Full ebooks, software, video search engine
for fileserve filesonic hotfile, megaupload, rapidshare&i class=&icon-external&&&/i&&/a&&/p&&p&9.&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&i class=&icon-external&&&/i&&/a&&/p&
国内很多网盘搜索是根据谷歌自定义搜索而做成的。有些则是运用site:命令。这些搜索引擎搜索结果是比较少,而且内容可能比较相似,结果资源都是热门资源。 注意:很多网站都是基于谷歌搜索的,如果你谷歌打不开,这些基于谷歌的网站也是打不开的。 百度网盘…
不常写论文,但写文章时也经常要查一些英文文献(我们都知道在某些领域中文文献有多贫瘠,比如科幻电影……)。在知乎搜有关知网内容时偶然看到这个问题,冒昧说几句。&br&&br&Google Scholar自然是最好的选择之一,只是不翻墙连不上,让人扼腕、痛心!每次碰到这种情况我都会祝福病魔君早日战胜方校长!&br&&br&Scopus:全世界最大的摘要和引文数据库,涵盖了15000种科学、技术及医学方面的期刊。包括《计算机学报》《力学学报》、《中国物理快报》、《中华医学杂志》等中文期刊。不过需要注册,对普通用户来说有点麻烦。最好在学校或图书馆里去登录这个网站查询。&br&&br&Web of Science:汤森路透公司强大的引文数据库,同样需要机构注册,咱一般用户也不大好用上。&br&&br&&a href=&///?target=http%3A//sci-hub.io& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&sci-hub.io&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&:另一个网址后缀是&a href=&///?target=http%3A//sci-hub.cc& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&sci-hub.cc&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&,这个网站不支持直接搜索,不过它提供了一个Chrome插件,安装后,打开任何一个Google Scholar的搜索结果都会跳转到sci-hub的论文下载页面!通过它能免费下载到大量论文!&br&&br&sciencedirect:Science Direct数据库由Elsevier Science公司出版。该公司是一家总部设在荷兰的历史悠久的跨国科学出版公司,其出版的期刊是世界公认的高品位学术期刊,且大多数为核心期刊,并被世界上许多著名的二次文献数据库所收录。Science Direct数据库收录2000多种期刊,其中约1400种为ISI收录期刊,提供51本参考工具书,150套系列丛书,164部手册,4000种电子图书。&br&&br&上面几个其实很多知乎网友都介绍过了,这里再说个最近发现的小惊喜:搜狗搜索不知啥时候推出了&a class=& wrap external& href=&///?target=http%3A///& target=&_blank& rel=&nofollow noreferrer&&搜狗学术&i class=&icon-external&&&/i&&/a&和&a class=& wrap external& href=&///?target=http%3A///& target=&_blank& rel=&nofollow noreferrer&&搜狗英文 &i class=&icon-external&&&/i&&/a&两个新搜索产品,最近用了用感觉还挺不错的。曾几何时,咱也是非谷歌不用的——无他,就是好用够用啊。但后来翻墙越来越麻烦(说翻墙轻松的朋友,请表在这里显摆咯)在试过了改host文件、装VPN、用&a class=& wrap external& href=&///?target=http%3A//& target=&_blank& rel=&nofollow noreferrer&&AOL - News, Sports, Weather, Entertainment, Local & Lifestyle&i class=&icon-external&&&/i&&/a&代替等各种办法之后,只好用必应和那个我不愿提名字的搜索引擎凑合。&br&&br&搜狗学术首页就列出了如《Nature》和《Science》等权威学术期刊的网站。据说它引入了微软必应的全量学术数据库。我试着用电影《&b&异形&/b&》和&b&女性主义&/b&作为关键词搜了一下,感觉还比较靠谱。搜到的这两篇都是我想看到的文章:&a href=&///?target=http%3A//eprints.port.ac.uk/689/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&eprints.port.ac.uk/689/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&,还有&a class=& wrap external& href=&///?target=http%3A//www.academia.edu/370171/The_Alien_as_Other_Spiritual_Political_and_Cultural_Representations_of_the_Alien_in_Late_20th_Century_Cinema& target=&_blank& rel=&nofollow noreferrer&&The Alien as Other:
Spiritual, Political, and Cultural Representations of the Alien in Late 20th Century Cinema&i class=&icon-external&&&/i&&/a&&br&&img data-rawheight=&1929& data-rawwidth=&1903& src=&/7ea6b93eee68efada266fd8ddcb6124d_b.png& class=&origin_image zh-lightbox-thumb& width=&1903& data-original=&/7ea6b93eee68efada266fd8ddcb6124d_r.png&&&br&&p&搜狗英文则有点小谷歌的意思,也比较像必应的英文版——根据搜索页面下面的提示,应该就是微软必应的技术和搜狗自己的搜索结合起来,感觉比必应的搜索效果还好些(比如说搜索“alien”的时候,就没有必应那么多游戏方面的结果)。这样你能比较好的避开很多中文搜索结果带来的干扰——不信你试试对比一下那个我不愿意说名字的搜索引擎和搜狗英文的结果,后者更多原始信息,没那么多乱七八糟的。&/p&&br&在知网和国外类似网站常常需要注册的情况下,搜狗这两个产品倒也是不错的选择——毕竟,知乎现在都用的是搜狗的搜索引擎嘛!哈哈。(当然我更期待谷歌的回归)
不常写论文,但写文章时也经常要查一些英文文献(我们都知道在某些领域中文文献有多贫瘠,比如科幻电影……)。在知乎搜有关知网内容时偶然看到这个问题,冒昧说几句。 Google Scholar自然是最好的选择之一,只是不翻墙连不上,让人扼腕、痛心!每次碰到这…
多层的好处是可以用较少的参数表示复杂的函数。&br&在监督学习中,以前的多层神经网络的问题是容易陷入局部极值点。如果训练样本足够充分覆盖未来的样本,那么学到的多层权重可以很好的用来预测新的测试样本。但是很多任务难以得到足够多的标记样本,在这种情况下,简单的模型,比如线性回归或者决策树往往能得到比多层神经网络更好的结果(更好的泛化性,更差的训练误差)。&br&非监督学习中,以往没有有效的方法构造多层网络。多层神经网络的顶层是底层特征的高级表示,比如底层是像素点,上一层的结点可能表示横线,三角; 而顶层可能有一个结点表示人脸。一个成功的算法应该能让生成的顶层特征最大化的代表底层的样例。如果对所有层同时训练,时间复杂度会太高; 如果每次训练一层,偏差就会逐层传递。这会面临跟上面监督学习中相反的问题,会严重欠拟合。&br&&br&2006年,hinton提出了在非监督数据上建立多层神经网络的一个有效方法,简单的说,分为两步,一是每次训练一层网络,二是调优使原始表示x向上生成的高级表示r和该高级表示r向下生成的x'尽可能一致。方法是&br&1,首先逐层构建单层神经元,这样每次都是训练一个单层网络。&br&2,当所有层训练完后,hinton使用wake-sleep算法进行调优。将除最顶层的其它层间的权重变为双向的,这样最顶层仍然是一个单层神经网络,而其它层则变为了图模型。向上的权重用于”认知“,向下的权重用于”生成“。然后使用Wake-Sleep算法调整所有的权重。让认知和生成达成一致,也就是保证生成的最顶层表示能够尽可能正确的复原底层的结点。比如顶层的一个结点表示人脸,那么所有人脸的图像应该激活这个结点,并且这个结果向下生成的图像应该能够表现为一个大概的人脸图像。Wake-Sleep算法分为醒(wake)和睡(sleep)两个部分。&br&2.1,wake阶段,认知过程,通过外界的特征和向上的权重(认知权重)产生每一层的抽象表示(结点状态),并且使用梯度下降修改层间的下行权重(生成权重)。也就是“如果现实跟我想像的不一样,改变我的权重使得我想像的东西就是这样的“。&br&2.2,sleep阶段,生成过程,通过顶层表示(醒时学得的概念)和向下权重,生成底层的状态,同时修改层间向上的权重。也就是“如果梦中的景象不是我脑中的相应概念,改变我的认知权重使得这种景象在我看来就是这个概念“。&br&&br&由于自动编码器(auto-encoder,即上面说的神经网络。广义上的自动编码器指所有的从低级表示得到高级表示,并能从高级表示生成低级表示的近似的结构,狭义上指的是其中的一种,谷歌的猫脸识别用的)有联想功能,也就是缺失部分输入也能得到正确的编码,所以上面说的算法也可以用于有监督学习,训练时y做为顶层网络输入的补充,应用时顶层网络生成y'。
多层的好处是可以用较少的参数表示复杂的函数。 在监督学习中,以前的多层神经网络的问题是容易陷入局部极值点。如果训练样本足够充分覆盖未来的样本,那么学到的多层权重可以很好的用来预测新的测试样本。但是很多任务难以得到足够多的标记样本,在这种情…
硕士读的是NLP(Natural Language Processing, 或者叫Computational Linguistic对你会更亲切)组,但是毕业设计是在英语系做的,所以接触过一些语言学的人。&br&&br&纯语言学转NLP这种事太屡见不鲜了,楼主莫担心,首先心理上要有信心,你不是一个人,这是很常见的想法。&br&&br&其次,我当时在英语系的合作模式大概是,由语言学家提出一个假设,并提供语料库,我们NLP的人去编程实现,利用NLP、Machine Learning的方法在大语料(也就是你所谓的大数据)寻找证据去支持语言学家的论点。比如当时我们语言学的一个教授提出来一个假设,说是来自俄罗斯的英语学习者,由于母语的影响,会更多的使用介词短语(PP)前置这样的用法;于是我就哼哧哼哧的写了一个程序(就像很多人说的,我这个选择用python写的),拿一个Parser(语法分析器,就是计算机自动对一句句子生成语法分析,i.e. get syntactic structure)对一个大语料库中的所有来自俄罗斯的英语学习者的习作进行语法分析,并且统计其中PP前置的比例,从而证明语言学家的观点,然后就可以发表了。&br&&br&所以回到问题上来,我个人不建议盲目的去单独学某种计算机技能,最好是结合你手头的linguistic topic,从NLP的思维看看是否能做任何事情,然后询问有经验的人(你的导师),然后一步步就明白了你需要学习什么,python、统计学、机器学习、NLP,这每一块都是非常复杂的体系,你一时半会不可能完全掌握,尝试去专门学习某一块并尝试掌握会容易产生挫败感;从你的语言学项目开始,在有经验的人的指导下,把计算机编程当一个工具,解决你的语言学问题,用多少学多少,这是我看到的大多数语言学文科学生转NLP走的道路,也是我给你的建议。&br&&br&如何入门呢?推荐以下这些资源给楼主和所有对NLP有兴趣的人:&br&&br&1、Coursera NLP(&a href=&///?target=https%3A//www.coursera.org/course/nlp& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Coursera.org&i class=&icon-external&&&/i&&/a&),当年Coursera刚创立的时候的明星课程,由Stanford的两位教授讲述,比较偏计算机算法&br&&br&2、入门教材的话,我上过所有NLP的课,都会推荐这本书:&i&Speech and Language Processing&/i& (&a href=&///?target=http%3A///Speech-Language-Processing-2nd-Edition/dp/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Speech and Language Processing, 2nd Edition: Daniel Jurafsky, James H. Martin: 6: : Books&i class=&icon-external&&&/i&&/a&) 比较详细,有算法,也有很多Linguistic的基础&br&&br&3、还有就是吴军博士的《数学之美》这本书,虽然题目是数学之美,但其中很多都是数学、统计在NLP方面的应用,非常科普,建议所有非NLP的人都可以读读
硕士读的是NLP(Natural Language Processing, 或者叫Computational Linguistic对你会更亲切)组,但是毕业设计是在英语系做的,所以接触过一些语言学的人。 纯语言学转NLP这种事太屡见不鲜了,楼主莫担心,首先心理上要有信心,你不是一个人,这是很常见的…
&p&我从现代诗作者的角度来简要回答一下:题目说明里提到的这几首人工智能作品,还未能符合现在的汉语现代诗写作范式。从广义上来说,确实可以说这些作品是诗。但如果在不说明作者是谁的情况下拿给当代的诗人们看,诗人们则会认为这些诗还未写得入门。就是说,这些作品还暂时未能通过诗人们的图灵测试(即使能通过一般诗歌读者们的图灵测试)。&/p&&p&涉及的背景知识大致有:&/p&&p&1、汉语现代诗歌的写作范式在九十年代开始有个点开新科技树式的升级。这个写法升级,或许在西方也有,但可能尚未形成共识。而国内这边是相对整齐的,大致可以认为是诗人们的共识了。&/p&&p&2、在语言学领域里,语义学等新分支也有了点开新科技树式的发展,并向其他领域输出了若干理论。其中,现代诗的写作范式升级,或许也是受到语言学升级所输出的影响使然。因此,现代诗新范式的审美,可以用「词汇语义学」等语言学新分支来进行分析与解释。其主要的思路或许可以是,通过分析复杂精细的词汇语义特征(义素)来探讨诗句里的所有词汇之间的各种巧妙搭配所构造的诗化美感(有许多语义特征是有隐喻的,一般说话写文章时往往忽略这些特征,但写诗读诗时这些看起来隐含不重要的语义特征却很重要)。
(根据评论区的讨论补充一下:词汇语义学里的语义特征分析,或许可以与语音学里的语音特征测量相类比,即要像测量语音那样去精细测量语义。而现在的自然语言处理,暂时只是在表层进行了一些基于语义的语法分析,还未涉及到深层的语义特征分析。)&/p&&p&3、词汇语义学等语言学新分支的研究还比较初步,尚待进一步探索。&/p&&p&4、文学理论界尚未跟进1/2,因此尚未出现关于新诗歌范式审美的成体系的文学理论。&/p&&p&5、现在除了诗人们和少数读者知道1,其他一般人(包括文学理论研究者)都还不知道1。也即,现代诗的新范式暂时只有很少的人能理解。&/p&&p&6、诗人们一般不了解2。因此,诗人们现在对于新范式的审美,暂时仍在知其然而不知其所以然的状态。&/p&&p&回到题目来说。现在的深度学习等人工智能模式,其实相当于升级版的统计。就是相当于对一些优秀的诗歌作品进行简单的词汇分类或搭配统计,其后自动「写」出来的诗大致相当于是在拼凑堆砌一些词汇,因此暂时还通不过诗人们的图灵测试。那将来应该怎样继续发展下去呢?至少须要,让更多的人知道并参与到前述的1/2/3/4的钻研之中。先将其中所涉及的诗歌理论、语言学理论都研究清楚,再借助这些理论去设计人工智能的运行模型(至少要像测量语音那样去精细测量语义)。&/p&&p&题主对于现在的深度学习过于乐观,其实是因为前述的5。或许人工智能距离写出优秀散文、小说已经不远了,但距离写出优秀的新范式现代诗还很远。人工智能在飞速发展,可诗歌写作也正在飞速发展。那么,为什么一般人都不知道不理解诗歌的这种飞速发展呢?别问我,我也不知道。或许现代各领域都正在往一般人很难直观理解的方向发展吧。
PS:关于怎样结合语义学来理解新范式现代诗,可以参考一下我写在专栏的那个诗歌理论连载系列(《Theory of Modern Poetry》,已经更新到第21章),其中有一些很初步的理论探讨尝试。&/p&&p&其中,诗歌写作、语言学理论,都已经往关于人类认知的语言深层层面去发展了,而不仅仅停留在语言的表层。要理解新范式现代诗的审美,也就相当于要理解人类的认知深层是怎样审美的,这不是人工智能本身所能解决的。也就是说,要先由诗人们提供写作实践里积累的美感经验,再由文学理论研究者们与语言学研究者们一起探索,先将人类认知深层的诗歌语义审美的原理解释清楚,然后再与人工智能的研究者们一起合作。&/p&&p&我是否相信将来能有人工智能的作品可以通过诗人们的图灵测试?我还不知道。或许可以先定一些小的目标:怎样用人工智能来辅助对「词汇语义学」的研究?怎样用人工智能来辅助诗人们写出更多的作品?怎样用人工智能来辅助一般人学习诗歌写作?一步步来。&/p&
我从现代诗作者的角度来简要回答一下:题目说明里提到的这几首人工智能作品,还未能符合现在的汉语现代诗写作范式。从广义上来说,确实可以说这些作品是诗。但如果在不说明作者是谁的情况下拿给当代的诗人们看,诗人们则会认为这些诗还未写得入门。就是说,…
没错,百度更懂中文,但意思是,&b&相对于英文,百度更懂中文&/b&。而不是相对于谷歌,百度更懂中文。
没错,百度更懂中文,但意思是,相对于英文,百度更懂中文。而不是相对于谷歌,百度更懂中文。
&p&事物总是螺旋式发展,在某些时刻出现停滞甚至倒退,是必然的。通过这些时刻,也将淘汰那些并不真诚、只是跟风或炒作的人。&/p&&p&人工智能从1950年代正式命名发展到现在也不过70年的光景,所取得的成就、对社会的变革已然举世瞩目。也许人工智能中的一时一事不免会沦为闹剧,但毫无疑问人工智能是一项伟大的事业。&/p&
事物总是螺旋式发展,在某些时刻出现停滞甚至倒退,是必然的。通过这些时刻,也将淘汰那些并不真诚、只是跟风或炒作的人。人工智能从1950年代正式命名发展到现在也不过70年的光景,所取得的成就、对社会的变革已然举世瞩目。也许人工智能中的一时一事不免会…
&p&MLP咱们就不说了,显然这个是要垫底的,在此不做讨论。MLP可以被视作一个分类器,单纯用它的话当然不如采用CNN/LSTM做特征提取/句子表示的方法来的好。&/p&&p&我们可以先来看几种典型的架构。&/p&&p&首先是最经典的Richard Socher和Andrew Ng的这篇Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank : &a href=&///?target=https%3A//nlp.stanford.edu/%7Esocherr/EMNLP2013_RNTN.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&nlp.stanford.edu/~soche&/span&&span class=&invisible&&rr/EMNLP2013_RNTN.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&这是一个RNN的结构,当时出来的时候刷新了Sentiment Analysis的STOA成绩好几个点,引起了轰动(到现在Stanford CS224d/n DL4NLP的课,标题上的图还是用的这一篇,可见其经典地位)&/p&&img src=&/v2-64afb427f222e65c2d5feb6af889b175_b.png& data-rawwidth=&2010& data-rawheight=&662& class=&origin_image zh-lightbox-thumb& width=&2010& data-original=&/v2-64afb427f222e65c2d5feb6af889b175_r.png&&&br&&p&其次是CNN+Dynamic Pooling。最近有一篇极好的review paper: Deep Learning applied to NLP: &a href=&///?target=https%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&1.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a& &/p&&img src=&/v2-c512b3edee6c4c2a85d8adb_b.png& data-rawwidth=&1282& data-rawheight=&768& class=&origin_image zh-lightbox-thumb& width=&1282& data-original=&/v2-c512b3edee6c4c2a85d8adb_r.png&&&br&&p&再其次是CNN+LSTM。比如这一篇C-LSTM:A C-LSTM Neural Network for Text Classification : &a href=&///?target=https%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&0.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&大致思路是先使用CNN网络做局部特征提取/denoising,再用LSTM提取contextual dependencies。在这里,不采用Maxpooling:LSTM会以更优化的方式将句子不同部位的特征做一个非线性的组合。 &/p&&img src=&/v2-fa493e1bdae0f04fa9f9786_b.png& data-rawwidth=&618& data-rawheight=&394& class=&origin_image zh-lightbox-thumb& width=&618& data-original=&/v2-fa493e1bdae0f04fa9f9786_r.png&&&br&&p&最后一种,是将CNN当成RNN来用(有点像wavenet):Language Modeling with Gated Convolutional Networks: &a href=&///?target=http%3A///papers/2016/dauphin-lm-2016.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/pap&/span&&span class=&invisible&&ers/2016/dauphin-lm-2016.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a& &/p&&img src=&/v2-c14d185b6ec3cc27e7549_b.png& data-rawwidth=&664& data-rawheight=&1094& class=&origin_image zh-lightbox-thumb& width=&664& data-original=&/v2-c14d185b6ec3cc27e7549_r.png&&&br&&p&值得一提的是,现在有趋势(这个主要是针对英文)直接使用char-cnn来做word embedding,比如MIT media lab的这一篇Tweet2Vec: Learning Tweet Embeddings Using Character-level CNN-LSTM Encoder-Decoder: &a href=&///?target=http%3A//soroush.mit.edu/publications/tweet2vec_vvr.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&soroush.mit.edu/publica&/span&&span class=&invisible&&tions/tweet2vec_vvr.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&另外,我们做这么多的工作其实就是为了从词的语义表示做到句子的语义表示。从这个角度来说,也有大量的非监督的方法来做sentence embedding,最后将这个embedding放进一个分类器即可。其中最有代表性的就是这两篇:skip-thought vector: &a href=&///?target=https%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&6.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&以及A Simple but Tough-to-Beat Baseline for Sentence Embeddings (ICLR’17): &a href=&///?target=https%3A//openreview.net/pdf%3Fid%3DSyK00v5xx& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&openreview.net/pdf?&/span&&span class=&invisible&&id=SyK00v5xx&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a& &/p&&p&OpenAI在前一段时间也发了一篇通过非监督的学习句子embedding发现”sentiment neuron”的文章,也挺有意思的:Unsupervised Sentiment Neuron: &a href=&///?target=https%3A///unsupervised-sentiment-neuron/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/unsuper&/span&&span class=&invisible&&vised-sentiment-neuron/&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&; Learning to Generate Reviews and Discovering Sentiment :&a href=&///?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&4&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&具体到任务来说:&/p&&p&&b&情感分析的话,虽然最初是用RNN取得的突破,但目前CNN的效果就很好,LSTM做的话也是可以做到接近的程度但是会比CNN慢不少&/b&。直觉上,CNN主要是做了局部特征的提取,类似n-gram。一般而言在情感分析的任务中,带有显著情感极性的词组会对结果有比较关键的影响,所以CNN网络可以很好地工作。(具体文章上面已经有贴)&/p&&br&&p&&b&关系抽取的话,一般还是RNN工作地比较好&/b&,因为涉及到高阶的依赖关系,比如:End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures: &a href=&///?target=https%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&0.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&当然,&b&CNN依然是很有力的&/b&:Relation Extraction: Perspective from Convolutional Neural Networks :&a href=&///?target=http%3A//www.cs.nyu.edu/%7Ethien/pubs/vector15.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&cs.nyu.edu/~thien/pubs/&/span&&span class=&invisible&&vector15.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&实体识别:这是一个典型的序列标注问题,用LSTM&/b& (Bidirectional LSTM for Named Entity Recognition in Twitter Messages: &a href=&///?target=https%3A//noisy-text.github.io/2016/pdf/WNUT20.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&noisy-text.github.io/20&/span&&span class=&invisible&&16/pdf/WNUT20.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&) /&b&LSTM+CRF&/b& (End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF: &a href=&///?target=https%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&4.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&) &b&是非常符合直觉的方法&/b&,&b&当然也不乏有混用LSTM和CNN的&/b&(Named Entity Recognition with Bidirectional LSTM-CNNs: &a href=&///?target=https%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&8.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&)&/p&&br&&p&我们最后提一下&b&多任务框架,这是一个很有力地解决NLP的多重任务之间互相依赖的方法&/b&。A Joint Many-Task Model: Growing a Neural Network for Multiple NLP Tasks: &a href=&///?target=https%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&7.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&一个model搞定大多数的NLP任务,再也不用东拼西凑一堆模型啦!神清气爽,有一种强迫症被治愈的感觉。 &/p&&img src=&/v2-c9b4b251a93c8d4a8b0ace7c55bd4837_b.png& data-rawwidth=&602& data-rawheight=&500& class=&origin_image zh-lightbox-thumb& width=&602& data-original=&/v2-c9b4b251a93c8d4a8b0ace7c55bd4837_r.png&&&br&&p&归根结底,现在深度学习应用到NLP上有非常多的手段,不过如您所知,all models are wrong, some are useful — 根据语言、数据集和任务的特点灵活运用才是关键,有时候调参一些小细节反而是比大的结构框架选择还重要的。在此祝您炼丹愉快!&/p&&br&&p&&i&本回答来自Emotibot机器学习科学家马永宁。&/i& &/p&
MLP咱们就不说了,显然这个是要垫底的,在此不做讨论。MLP可以被视作一个分类器,单纯用它的话当然不如采用CNN/LSTM做特征提取/句子表示的方法来的好。我们可以先来看几种典型的架构。首先是最经典的Richard Socher和Andrew Ng的这篇Recursive Deep Models…
已有帐号?
无法登录?
社交帐号登录

我要回帖

更多关于 手机贷什么时候维护好 的文章

 

随机推荐