如何评价论文 SIGMOD 2016 最佳论文 《Wander Join》

Jul 10, 2016
As announced at the SIGMOD conference, we are
pleased to congratulate overall contest winners
H_minor_free (University of Tokyo) and
runners up uoa_team (University of Athens).
April 18, 2016
Thanks to all of the teams that participated
this year, and congratulations to the
April 16, 2016
Starting on Monday April 18th, the contest
dashboard will no longer be available.
April 7, 2016
Contest submissions are now closed.
to all of the participating teams!
announce the finalists by April 30th, at the latest.
March 18, 2016
The new XX-Large test is now in place, and the
original Large test is gone.
All existing
submissions will show an XX-Large test score
of 300 plus their time on the old Large test
(to preserve the ranking of those
submissions).
All new submissions will run against the
XX-Large test, and will show their actual
run-times.
Good luck!
March 17, 2016
On Friday (March 18th), we are planning to
eliminate the current Large test and replace it
with a new XX-Large test.
Existing submissions will not be re-tested
against the new XX-Large test.
Instead, we will
preserve their relative rankings in much the
same way that we did when we introduced the
X-Large test.
If you'd like your current code
to be tested against the XX-Large case,
re-submit it after the new test has gone
We are not planning any further changes to the
test cases before the end of the contest.
March 16, 2016
We're happy to announce in increase in the
prize for this year's contest.
Instead of a
$5,000 prize for the winning team, we will have
a $7,000 prize for the winning team plus a
$3,000 dollar prize for the runner-up.
this boost.
February 29, 2016
The new xlarge test case is now live.
February 27, 2016
We are planning to introduce a new "xlarge"
test case early next week.
Between now and
then you may see some changes to the dashboard
and leaderboard.
We will make another
announcement when the new test is live.
Existing submissions will not be re-tested
against the new xlarge case.
Instead, we
will preserve their relative rankings by
treating them as if they had passed the new
test in the maximum allowed time.
new test is live, all subsequent submissions
will be tested against it.
If you'd like
your current code to be tested against the
xlarge case, just re-submit it after the
new test has gone live.
When we introduce the new test, we will also
be lowering the testing time limits for the
three existing tests to 2 minutes.
means that our reference implementation will
no longer pass the tests.
Depending on how the contest goes, we may
eventually replace one or more of the
current tests with new, larger tests.
do this, we will provide advance notice of
the change.
February 21, 2016
Team registration, the dashboard, and the
leaderboard are now available.
February 16, 2016
Contest is launched!
The task description
and a reference implementation are now
available.
Team registration should start
next week.
Student teams from degree-granting institutions are invited to compete in the annual SIGMOD programming contest.
This year, the subject of the contest is shortest-path queries over dynamic graphs.
The winning team will be awarded a prize of USD
$7,000, and there will be an additional prize of USD
$3,000 for the runner-up.
Teams' submissions will be judged on their overall performance on a supplied workload.
One member of each of the top 5 teams
will receive a travel grant to attend SIGMOD 2016 in San Francisco, California.
This year's contest is brought to you by the
The shortest path problem is the problem of finding a path between two vertices
in a graph, such that the sum of the weights of the path's edges is minimized.
For this year's contest, the task is to answer, as efficiently as possible, shortest path queries on a changing graph. We will provide an initial graph which you may process and index in any way you deem necessary.
Once this is done, we will begin issuing a workload consisting of a series of shortest path queries and graph updates (insertions or deletions of nodes and edges).
The task is to answer the queries correctly and as quickly as possible.
In answering each query, all graph updates preceding the query must be taken into account.
More details about this year's problem can be found on the
February 16, 2016
Contest requirements specification and test data available.
February 21, 2016
Team registration begins. Leaderboard available.
23:59 UTC, April 7, 2016
Final submission deadline.
April 30, 2016
Finalists notified.
June 26 2016
SIGMOD 2016 Conference begins.
& &Prize money for the winning team is donated by
Ask technical questions and stay up to date by joining the
SIGMOD 2016 Contest Google Group.
For non-technical questions, please e-mail如何评价 SIGMOD 2016 最佳论文 《Wander Join》? - 知乎130被浏览6367分享邀请回答116 条评论分享收藏感谢收起您的位置:
KDD2016是首屈一指的跨学科会议,它聚集了数据科学,数据挖掘,知识发现,大规模数据分析和大数据方面的研究人员和从业人员。
联合编译:高斐,章敏,陈杨英杰导读:KDD2016是首屈一指的跨学科会议,它聚集了数据科学,数据挖掘,知识发现,大规模数据分析和大数据方面的研究人员和从业人员。论文一:在频率域中压缩卷积神经网络摘要 卷积神经网络(CNN)在计算机视觉的多个研究领域受到越来越广泛的应用。由于卷积神经网络能够通过利用数以百万计的参数,“吸收”大量的标记数据,这种神经网络的应用受到普遍关注。然而,随着模型尺寸不断增大,对分类器的储存与记忆要求也不断提升,如此便对许多应用,如手机及其他设备的图像识别,语音识别功能,形成阻碍。本文将呈现一种新型网络建构----对频率敏感的散列网(FreshNets),这种散列网是利用一个深度学习模型的卷积层与全面连接层之间固有存在的冗余建构形成,能够极大程度上节省记忆与存储消耗。学习卷积滤波器的权重通常是平稳和低频的,基于这一重大观察结果,我们首先将滤波器的权重转变为带有离散余弦变换的频域,使用低成本的散列函数随机将频率参数划分为散列桶位。被分配为同一个散列桶位的所有参数共享一个能够运用标准反向传播算法学会的单一值。为了进一步缩减模型的尺寸,我们将少数散列桶位分配给一些高频率组分,这些高频率组分通常不太重要。我们在八个数据集中对FreshNets进行评估,评估结果显示,与其他几种相关联的基线相比,FreshNets具备更高的压缩性能。关键字:模型压缩;卷积神经网络;散列第一作者简介Wenlin Chen学校:圣路易斯华盛顿大学计算机科学与工程系博士主要研究领域:机器学习,数据挖掘,人工智能,其中尤其对深度学习和大规模机器学习两个领域感兴趣相关学术成果:·Strategies for Training Large Vocabulary Neural Language Models(Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics.&2016.&(ACL-16))·Compressing Convolutional Neural Networks in the Frequency Domain,(Proc. ACM SIGKDD Conference, 2016. (KDD-16))·Deep Metric Learning with Data Summarization.European Conference on Machine Learning(2016 (ECML-16))论文链接:原论文下载论文二:多重任务特征交互学习摘要 线性模型在各种各样的数据挖掘与机器学习算法中均得到了广泛应用。这类模型的一个主要局限性在于缺乏从特征交互过程中获取预测性信息的能力。尽管引进高阶特征交互术语能够克服这一缺点,这一方法仍将在极大程度上增加模型的复杂性,并且为处理学习过程中过度拟合现象带来重大挑战。当出现多种相互关联的学习任务,这些任务中的特征交互通常是相互关联的,为这种关联关系建模对于提高这些特征交互学习的普适性起到关键性的作用。本文我们提出一种新型多重任务特征交互学习(MTIL)框架,以在高阶特征交互过程中利用各种任务之间的联系。具体来讲,我们用张量来表示多重任务中的特征交互,利用这一张量,我们将关于任务关联的先前知识纳入不同的结构化调整过程中。在此学习框架下,我们制定出两种具体的方法,即共享式交互方法和嵌入式交互方法。前者认为,所有的任务具有共同的交互模式,后者则认为,多重任务的特征交互具有共同的子空间。我们为制定出这两种方案提供了高效的算法。有关这类合成的且真实的数据集的广泛实证研究证实了我们所提出的多重任务特征交互学习框架的有效性。关键字:多重任务学习;特征交互;机构化调整;张量标准第一作者简介Kaixiang Lin学校:密歇根州立大学计算机科学与工程系助教主要研究领域:机器学习与数据挖掘相关学术成果:·Online Multi-task Learning Framework for Ensemble Forecasting(&submitted to TKDE)·Synergies that Matter: Efficient Interaction Selection via Sparse Factorization Machine&(SDM,2016)&·GSpartan: a Geospatio-Temporal Multi-task Learning Framework for Multi-location Prediction. (SDM,2016)&下载链接:原论文下载论文三:私人助理的语境意图追踪(KDD2016最佳学生论文)摘要在智能私人助理方面,一种新的建议形式正在兴起如Apple’s Siri、Google Now和 Microsoft Cortana,它们可以“在恰当的时间推荐恰当的信息”,并积极主动地帮助你“把事情解决”。这种类型的推荐需要精确的跟踪用户当时的意图,即,用户打算知道什么类型的信息(例如,天气,股票价格),和他们打算完成什么任务(例如,演奏音乐,打车)。用户的意图与语境是密切相关的,其中包括外部环境,如时间和地点,以及用户的内部活动(可以由个人助理感觉到)。语境和意图之间表现出复杂的共同发生和序列相关,且语境信号也非常混杂、稀疏,这使得建模语境—意图之间的关系,变成了一项具有挑战性的任务。为了解决意图跟踪问题我们提出了Kalman filter regularize PARAFAC2 (KP2) 实时预报模型,它可以细密的表示语境和意图之间的结构和共同运动。KP2模型在用户上利用了协同能力,并学习每个用户的个性化动态系统,以确保高效的实时预测用户意图。大部分实验使用了来自商业个人助理的真实世界数据集,结果显示KP2模型明显优于其它的所有方法,且在个人助理中部署大规模的主动建议系统方面,提供了鼓舞人心的启示。关键词:建议;实时预测;多任务学习第一作者简介Yu sun学校:墨尔本大学计算与信息系统系研究方向:语境行为挖掘,强化学习,最优位置发现,空间/时间索引,算法设计/分析。相关学术成果:·A Contextual Collaborative Approach for App Usage Forecasting,(UbiComp, 2016)·Reverse Nearest Neighbor Heat Maps: A Tool for Influence Exploration,(ICDE,966-977, 2016)下载链接:原论文下载论文四:用展示广告中的删失数据无偏学习投标意识梯度下降摘要实时显示广告中,每个印像的广告位是通过拍卖机制进行出售的。对于一个广告者来说,活动的信息是不完整的,只有在广告客户的出价赢得了相应的广告拍卖后,用户的反应(例如,点击或转换)和每个广告印像的市场价格才可以被观察到。预测,如投标场景预测,点击率(CTR)估计,和投标优化,都是在预投标阶段通过全卷投标请求数据运行的。然而,训练数据是在后投标阶段聚集的——对获胜印象具有强烈的偏见。学习这种删失数据的普遍方法是重新加权数据实例,以纠正训练和预测之间的矛盾。然而,在如何获得独立于投标策略的权重方面研究非常很少,所以,将它们整合到最终的CTR预测和投标生成步骤 。本文中,我们在这种删失拍卖数据下制定了CTR评估和投标优化。源于一个生存模型,我们表明,以前的投标信息被自然的纳入到投标-意识梯度下降(BGD),它控制了实现无偏学习的梯度的重要性和方向。基于两个大规模真实世界的数据集经验学习,这种方法在我们的解法中显示出了卓越的性能收益。学习框架已部署在Yahoo的实时竞价平台,且在一个网上A/B测试上,提供CTR预估2.97%的AUC上升,和投标优化9.30% 的eCPC下降。关键词:无偏学习,删失数据,实时竞价,展示广告。第一作者简介Weinan Zhang(张伟楠)学校:伦敦大学学院计算机科学系/2016年8月进入上海交通大学任职助理教授研究方向:机器学习,大数据挖掘及其在计算广告和推荐系统中的应用相关学术成果:·User Response Learning for Directly Optimizing Campaign Performance in Display Advertising(CIKM 2016)·Learning, Prediction and Optimisation in RTB Display Advertising(CIKM,October 2016)下载链接:原论文下载论文五:推荐系统的协同知识库嵌入摘要:在不同的推荐技术中,协同过滤通常因为稀疏的用户-对象交互而性能受限。为了解决这些问题,我们通常用辅助信息来提高性能。由
于网络上的信息快速收集,知识库能提供异构信息,包括含不同语义的结构化和非结构化数据,它们可以被用到各类应用中。在本文中,我们研究如何利用知识库中
的异构信息,来提高推荐系统的质量。首先,通过利用知识库,我们设计了三个组件分别从结构内容,文本内容和视频内容中提取对象的语义表述。具体来说,我们
采用的异构网络嵌入方法,称为TransR,考虑通过节点和关系的异质性来提取对象的结构表示。我们采用堆叠降噪自动编码器和堆叠卷积自动编码器,这是基
于嵌入技术的深度学习的两种类型,来分别提取对象的文本表示和图像表示。最后,我们提出了最终的集成框架,称为协同知识库嵌入(CKE),来联合学习协同
过滤出的潜在表征以及知识库中对象的语义表征。为了评估每个嵌入组件以及整个系统的性能,我们通过两个不同情境的现实世界数据集,进行了广泛的实验。结果
表明,我们的方法优于几种被广泛采用的最先进的推荐方法。&关键词:推荐系统;知识库嵌入;协同学习第一作者简介Fuzheng Zhang学校:中国科技大学计算机系博士,现为微软亚洲研究院助理研究员。研究方向:用户模型、推荐系统、深度学习、情绪检测、基于位置的社交网络、时空数据挖掘、普适计算、大规模系统作者信息链接:/en-us/research/people/fuzzhang/&下载链接:原论文下载论文六:鲁棒性影响最大化摘要在本文中,对于深入研究影响力最大化,我们在边际影响力概率预估中提出了关于不确定性的重要问题,即在社交网络中,找到可以最
大化传播影响力的种子节点k的任务。我们提出的鲁棒性影响力最大化的问题,就是给定输入参数的不确定性,在所选种子设置和最佳种子设置的影响力传播之间最
大化最坏情况下的比例。我们设计了一种算法,依靠方案相关边界来解决这个问题。我们通过进一步研究均匀采样和自适应采样方法来有效减少参数不确定性,并提
高了影响力最大化任务的鲁棒性。我们的实验结果表明,参数不确定性可能会严重影响影响力的最大化,并且之前的研究也表明,经验影响的概率会因为参数预估不
确定性较大,而导致鲁棒性影响最大化的性能很差。基于自适应抽样方法的信息叠加也许可以有效改善影响力最大化的鲁棒性。关键词:社交网络;影响最大化;鲁棒性优化;信息传播第一作者简介陈卫学校:微软亚洲研究院高级研究员,清华大学客座教授,中国科学院计算所客座研究员,多个国际顶级数据挖掘和数据管理会议(KDD、 WSDM、 SIGMOD、 ICDE、 WWW等)的程序委员会成员,中国计算机学会大数据专家委员会首批成员,《大数据》期刊编委。研究方向:社交与信息网络算法和数据挖掘、网络博弈论和经济学、在线学习等。近几年在社会影响力最大化方面的一系列开创性研究成果:在KDD、 ICDM、SDM、 WSDM、 ICWSM、 AAAI、 VLDB等顶级数据挖掘、人工智能和数据库学术会议上发表后得到良好反响,并引发这一方向众多的后续工作。最早发表的KDD’ 2009论文被引用次数排同会议所有论文第二位,而第二篇KDD’ 2010论文被引用次数排同会议所有论文第一位。 2013年与另外两位合作者合写了一部关于影响力传播和最大化的专著(Information and Influence Propagation in Social Networks, Morgan& Claypool, 2013),系统总结了这方面的研究成果和最新发展。另外,在与社会和信息网络相关的方向,如社区检测、网络中心化度量排序、网络博弈、网络定价、网络激励机制等方面也都做出开创性的工作,其中将博弈论引入网络社区检测的论文获得了2010年欧洲机器学习及数据挖掘会议最佳学生论文奖。&下载链接:原论文下载via:KDD2016 accepted-papersPS : 本文由雷锋网(搜索“雷锋网”公众号关注)独家编译,未经许可拒绝转载!
扫描关注沙发管家微信
“扫一扫”微信登录

我要回帖

更多关于 如何评价一篇学术论文 的文章

 

随机推荐