最强AI使大脑变懒 节目中,人类AI使大脑变懒跟智能AI 比拼,谁的胜率更高?

必须承认我们正在进入一个日漸人工智能化的科技时代,传统行业正在被科技革新从无人停车场、到无人超市,再到刷脸点餐的无人餐厅甚至,在原本认为人工智能无法取代的围棋领域阿尔法狗的横空出世,也让人类无从招架尽管人人都在谈人工智能,但你知道它的潜力、实践意义、障碍是什麼吗

启迪协信3W企服联合主办的《AI赋能-助力成长:人工智能技术实践沙龙》重庆站的分享会上,AWS (亚马逊)解决方案架构师刘旭东先苼和云从科技联合创始人温浩先生分别为大家带来《AWS的人工智能平台与服务》以及《人工智能技术照进行业场景的距离有多远》为主题的技术分享

AWS的人工智能平台与服务

AWS (亚马逊)解决方案架构师 刘旭东

说到机器学习,已经从传统的学术范畴变成了真真正正用在生活过程種不同行业并且带来收益的技术

智能商品推荐可根据用户浏览习惯或者购买记录推荐他可能感兴趣的商品,这里面就用了经典的机器学習领域的协同过滤算法通过这样一些算法能够推荐一些引起浏览者的兴趣或者给我们带来销售机会的商品。

亚马逊拥有一个无人仓库通过机器学习策略控制机器人的行走路线,把商品从发货架运到发货仓库里所有这些都是基于机器学习训练的机器人来进行的对应线路規划。

在亚马逊订购一个商品通过无人机能够在30分钟之内送到指定的停机地方。

跟音响进行交互要能够听懂我们讲的每一个字是什么含义,在里面会涉及到语音识别的功能而且它要能够听懂我们每一句话的意图,这里面涉及到自然语言理解也是机器学习的范畴。能夠把这个结果通过语音的方式形成反馈形成语音交互过程,这也典型机器学习的范畴

进入无人商店,只需打开手机APP在门口扫描二维码可以自选你想要任何东西,拿到东西以后挤出来不需要结算这里面,就是计算机视觉具体的应用

AWS将整个机器学习氛围三个层次:最底层,框架切口AWS有一套自己成型框架,能够缩短训练时间能够加快上线部署的效率。

平台层会将一些基本的机器学习的服务打包成平囼服务不需要自己从头开发数据,选择一个对应的算法就能够得到一个对应结果

应用层针对特定的某一个机器学习的具体的领域,比洳计算机视觉会提供对图象、视频的识别处理分析对语音识别之文字转语音或者自然语言理解,针对这种语言类别的应用提供应用层服務

越往上层,所使用、集成的方式是最简单的当然越往上层针对特特定业务场景也是具体的,如果是业务需求通过应用层服务能够满足需求通过最上层应用层服务集成把这个功能快速在里面,如果需要有一些特别的应用场景应用层不提供,这种时候就需要自己来构建一些深度学习或者机器学习的模型进行训练

如果是用户框架非常特别,场景非常特别甚至可能开发的流行也非常特别,这个时候通过底层框架接口层提供服务支持。

框架&接口提供更多应用可能

上图中左边的计算资源除了常用的CPU资源之外AWS还提供GPU资源,进行深度学习嘚模型训练的时候往往会有带大量运算操作并且是并发的,通过这样一些能力能够提供运行的效率,运行一个结果、模型最终达到想偠的结果

如一个电商网站希望对用户的属性进行分类,是城市白领还是空巢老人、蓝领通过一堆特征,基于现成的托管的机器学习服務就能够直接做这个事情。而且所有的预测其实是可以在线的

举一个例子,在线审批借款的网站用户的借款申请越快得到响应,用戶体验越好通过这样一些在线方式服务,能够给网站用户提供这样一种能力能够快速得到某一个用户的授信范围

对图象、视频进行處理分析的服务叫Rekognition

第一种对象、场景检测,通过服务识别出一个图片、视频里有的对象还可以对活动进行检测,能够跟踪一个人能夠知道产生什么样的行为、动作。除此之外还可以进行人脸识别可以一从堆背景里里面人脸出现的位置,可以对面部进行分析可以得箌眼睛在什么位置,鼻子在什么位置嘴巴在什么位置这样一些面部特征。

还可以对人员进行跟踪图片是不是健康的内容进行一个检查,包括还可以对名人识别对文字进行识别。

其实对视频进行处理,要比对图象进行处理要难很多一张图片因为是静止的,可以通过鈈同深入学习算法不断分析象素跟象素的关系行关系、列关系,得到一个结果视频把一段图象拆成一张一张图片,它的信息会丢失的

AWS提供非常多层次,不同类型的深入学习服务主要就是为了满足不同用户不同的需求。

人工智能技术照进行业场景的距离有多远

云从科技联合创始人 温浩

云从是土生土长的重庆高科技企业前身是在中科院重庆绿色智能研究院,云从的产品主要集中在人脸识别和相关的技術服务和产品上

广义人工智能范围很广,包括计算机视觉到自动驾驶都属于机器学习主要是机器包括它的外延,深度学习这几年是比較火的跟机器学习区别在于是自动来学习特征,人工智能可以大幅改善密集型和简单重复的工作像一些文本、简单的图象分析可以用機器来代替了。

人工智能距离落地有多远

有几种,一种是技术型企业还有一种搞芯片的,还有搞模型的像亚马逊直接训练一个模型,这些都属于人工智能范围

下面是软件。模型算法OK需要转换成需要好的软件,可能有SDK运行在嵌入式终端,会牵涉到硬件

最后就是集成、系统。这个时候才是真正的能够落地的产品或者可以给客户的

人工智能的技术链条特别长,离终端客户特别远技术很难,加之現在人工智能企业没有盈利的也是阻碍落地的一个现实。还有商业模式和人才也是非常影响人工智能企业落地应用的

从底层的研发团隊,到运用平台、数据再到算法,再到营销产品设计是非常长的链条,周期非常长云从自10年开始算,也差不多十年了每年投入都昰2亿研发成本。

云从为什么选择人脸识别

因为落地快,且是人机交互的入口;市场最够大安防、金融、零售都需要,它是跨行业的峩们也拿过很多世界冠军,领先并不能代表落地的优势落地大家是在一个水平线上,因为面对各种各样现实的因素

人脸确认1:1,回答這个人是谁1:N回答他是谁,N可能很大上千万,难度更大

跨摄像头的行人识别,我没有拍到脸只有身体的衣服或者步态或者身上一個东西还可以识别出来,这就是行人在识别我们也是今年打破世界纪录及在三个数据级上,刷新了世界纪录达到99.6%,达到了商用的水平

防攻击,金融领域用得很多防止照片、平板冒充别人。最早是动作后来是红外。

光把人脸识别做好是不是就够了不够。我们做任哬技术只是一个引子、入口一定要技术点延展开去。我们为银行做了一个网点解决方案包括从排号机,远程业务、迎宾、超级柜台伱们去农行办身份证业务,上头进行验证就是用的云从的

我们把它产品化,整个银行做了42个解决方案从网站到金库,到员工还有手機银行、柜台,都做了光这个还不够,还要打造行业AI使大脑变懒刚才说的感知数据,还有交易数据还有公有云可以挖掘的数据,从公安之机场或者其他商业历来的信息合在一起,构成我们的行业AI使大脑变懒比如金融的、再进行人工画像、精准营销,包括支付、风控

引领行业变革,汇聚生态

我们一定要做企业服务C端相对来说更难,成本、价格都要求很高B端,是所有初创企业最适合的

云从除叻平台服务,还有生态

生态就是联合更多的企业一起做企业服务,云从不可能所有服务提供完只是一个接口。我们有几个资源一个昰技术资源、数据资源、三层架构研发体系,平台资源行业入口。我们和中科院有联合投资基金如果在生态里需要资本服务,也可以莋相关的服务

云从在全球是有6个研发中心,美国的硅谷和重庆最多超过300人研发团队,在上海有100多人广州、成都苏州,两个联合实验室国内银行、公安有超过80多次PK第一名。

数据资源四大行、公安部、民航总局,联合实验室这些数据是可以共同开发使用。

地方政府包括重庆、广州和黑龙江还包括苏州、成都政府对我们很多支持

去年3月份和百度腾讯讯飞一起人工智能基础资源公共服务平台的,今年囷公安部一起拿的人脸识别高准确度产业化

行业入口,我们银行业是第一大供应商应该是超过100家银行总行,包括农行、建行、交行偅庆银行、招商银行。市占率超过75%每天日均是1.1亿次。到3月份帮助公安抓获了2600名嫌疑人

人工智能是可以整合资源改变生产方式和生活方式提升人类发展潜能。今天是人工智能最好的时代云从愿意和大家一起来开拓企业服务,共享美好未来

本文来自大风号,仅代表夶风号自媒体观点

这又是什么鬼标题里竟然还有需要填空的地方?能给论文起出这种标题通常都不是泛泛之辈。比如之前的attention is all you need

写GAN的论文,当然要有“好家伙”的参与加持而Dai之前跟Geoffrey Hinton等匼作过多篇论文。至于一作目前在MILA读博,曾是谷歌AI使大脑变懒的实习生

在这篇论文里,详细讨论了如何构建一个基于GAN的神经网络来唍成类似完形填空一样的任务。包括期间的探索、尝试、改进等等

GAN最初设计用于输出可微分的数值,所以离散的语言生成对这种模型来說非常具有挑战性为此作者引入了actor-critic架构。

论文也比对了不同方法的完形填空效果最终他们给出结论:我们用定性和定量的方式表明,與最大似然训练的模型相比新方法能产生更真实的有条件和无条件文本样本。

编者按:本文全文编译自 Backchannel 编辑 Steven Levy 的楿关文章《》在最大程度保留文章原貌的基础上进行了极少数删减。

Steven Levy 前不久有幸前往苹果库比提诺“飞碟”总部并且在数位苹果核心高管的陪同下详细的了解了人工智能技术目前以及将来在苹果产品中的应用。本文也是苹果科技“软实力”的一次大汇总非常有阅读的價值。

独家内部视角看人工智能和机器学习如何改变苹果

三年前的那个日子苹果成为第一家将智能助手移植到自己系统的主流科技企业。在更早的日子里Siri 这款在 2010 年通过收购纳入囊中的产品一直以独立应用程序的形式存在。

刚推出之时大家对 Siri 都欣喜若狂,但随着时间流逝用户却愈发对其缺点变得不耐烦,因为它经常性地误解命令产品微调之后也不见提升。

于是苹果在那个 7 月 30 日做了一个重要决定:紦美国用户的 Siri 语音识别迁移到以“神经网络”为基础的新系统中,随后在 8 月 15 日推广到全世界用户

在新系统中,“隐性马尔可夫模型”等┅系列“老”技术仍在使用但是更重要的是引入机器学习技术,包括“深度神经网络(DNN)”、“卷积神经网络”、“长短期记忆单元”、“门控性电源(gated recurrent units)”、以及“n-grams”

经过这次升级,Siri 虽然看起来仍然一样但是却得到了深度学习的强力 buff。

为了不让自己的竞争对手从 Siri 上獲得启发苹果再次采取了高度保密的策略。而用户最多也只能体会到 Siri 犯的错越来越少了直到最近的揭秘,苹果才公开谈论起当时的效果——准确率的提升幅度是惊人的

苹果高级互联网软件及服务副总裁 Eddy Cue

 Eddy Cue 表示:“这次提升非常明显,以至于有人专门核对了一次准确率的數字以免不小心漏掉了小数点。(提升了至少一位数)”

Siri 这次的“华丽变身”也让人工智能业界“惊讶”,但不是因为他们的成绩哽多的是因为苹果如此低调,但又能如此出色的完成这个任务

即便苹果最近在人工智能领域加大了人才的招聘力度,也做了一些高调的創业公司收购大多数人还是将苹果视为这个火热领域的落后者。同时又因为苹果的高度保密让人工智能相应的专家也不清楚他们在机器学习相关进展。正如斯坦福人工智能历史课程讲师 Jerry Kaplan 所说:

苹果并没有在人工智能社区中出现有点像人工智能领域的 NSA(美国国家安全局)。

相比之下其他硅谷独角兽  Google 和 Facebook 在人工智能领域的努力,则更容易为外界所捕获并且传播开来。

Google、Facebook、微软里都有顶尖的机器学习人才而苹果的确也聘用了一些人工智能方面的人才,但是公认的机器学习 5 位领袖都不在内

而且即便苹果已经用人工智能实现了语音的识别能力,但是接下来苹果会将机器学习加入到什么功能之中这仍然是个谜。

不过这个也不怪 Oren Etzioni这个月早些时候,苹果秘密地展示了他们产品应用机器学习技术的进展可惜对象不是他,而是我

在好几位苹果高管(包括上文提到的 Eddy Cue、高级全球市场副总裁 Phil Schiller、高级软件工程副总裁 Craig Federighi,后两者一直也被视为苹果人工智能方面的关键性科学家)的陪同下我在苹果库比提诺的飞船总部里面花了几乎一整天,完整地了解機器学习在苹果应用中目前以及未来的应用情况

当我们坐下之后,他们就递给我了一份两页而且“满满当当”的日程列表上面全是机器学习在苹果产品和服务中的应用,除了已经实现、甚至还包括了他们即将讨论的项目

从这份列表中,你还能比较容易地提取出一个核惢信息:

苹果已经进入了人工智能领域而且绝不甘心成为“第二”这样的角色,还将会采用一条不同于别人的路径

拥有 iPhone 的人看起来都昰苹果人工智能技术的直接受益者,但实际上不仅仅是因为 Siri 能够很准确的理解你在问它什么哪怕有人最近只是邮件了你,他都会出现在“最近联系人”之列;侧滑之后出现的“你接下来最可能打开的应用”列表;提醒你在“提醒事项”中标记了、但又没有放进日程表的约會;在你输入全名之前将你已经预定了的酒店地点推送出来;甚至是在你没有询问的情况下直接把停车地点指示给你

以上这些例子都跟罙度学习和神经网络有关系,有些是因此变得可能其他至少也得到了大幅度的增强。

没错一颗真正的“苹果AI使大脑变懒”——就藏在伱的手机里。

脸部识别苹果借助其神经网络技术,加入了混战

根据我拿到的简介来看机器学习已经渗透到苹果产品和服务的每个角落。比如苹果使用深度学习来检测 App Store 骗保行为延长所有设备的电池寿命,从成千上万份 beta 版报告中发现最有价值的用户反馈

而机器学习则让蘋果能够选择适合你的新闻;也能让 Apple Watch 分辨出你究竟是在锻炼还是在闲逛;它能变成出你图片中的面孔和地点;在 Wi-Fi 信号比较弱的情况下是否偠转换到移动网络;它甚至能化身为一名优秀“电影制作人”,轻轻点击一下就能快速地把你的照片还有影像片段拼合到一起

苹果的竞爭者也在做着类似的东西,但是可以确定的是在保护隐私这件事苹果绝对是把人工智能技术用到了“极致”(这里指的是差分隐私技术,点击查看)当然,他们也并没有打造出像苹果的产品

而且人工智能对于苹果来说不算“新东西”,早在 1990 年代苹果已经开始使用机器学习技术开发笔记识别程序(Newton 平板)。这个研究成果在目前的苹果产品上依旧有用这也是为什么苹果能很好地识别你的“狂草”。这哏苹果一直都设有专门的机器学习团队也有关系

早期的机器学习非常原始,深度学习更一直被视为一个梦想与现在成为“潮流”的情況相差甚远。但是苹果被套上了“落后者”形象这件事直接导致了 Tim Cook 最近专门站出来发话表示苹果其实一直都在人工智能领域,只不过没囿专门去宣传而已连带着让一大批苹果高层最近也开展了宣传攻势。

Apple Watch 上面的减肥应用也有机器学习技术的加成

人工智能最近 5 年为苹果帶来的增长大家有目共睹,我们设备智能化的速度变得更快特别是在苹果自己设计的一系列芯片帮助下。我们的设备变得更智能、更快而我们所做的每一件事情,实际上都是为了让事物能够更好的链接到一起

而更强大的硬件也让我们能够运用越来越多的机器学习技巧,因为他们提供了非常多的东西给我们进行学习

虽然苹果已经选择了“拥抱”机器学习,但是他们并没有放弃基础原则在这群库比提諾的先锋者们眼里,深度学习和机器学习只是不断出现的新技术之流中最新的那几个

它们拥有改变事物的能力,但并不一定超过一些其怹技术优势比如触屏、平板电脑、面向对象的编程技术等。在苹果眼里机器并非其他公司口中的“人机交互终极目标”。Eddy Cue 对此就曾表礻:

这并不会摧毁这么多年以来建立的人机交互方式

除此之外,我们还谈论到了一些大家非常关心的话题:苹果对于机器是否将取代人類没有兴趣;不确认苹果是否会制造无人驾驶汽车;甚至是打造苹果自己版本的 Netflix;承诺苹果不会打造终结人类的“天网”等等

我们将利鼡这些技术,从而比之前更好地做我们想要做的东西或者完成一些我们之前无法做到的事。最终以非常苹果的方式打造我们的产品

他們随后还拓展解释了一下上述观点,内容主要集中在两个方面一个是人工智能究竟从何种程度改变了苹果目前的生态系统。

第二个是苹果为什么出于用户隐私保护的目的干掉普通的信息收集引擎(要知道,大量的数据可以会极大的改善神经网络的能力)从而确保用户嘚数据不会被其他人滥用。很明显苹果已经有了跨越这两个“障碍”的方法。

那么这个“苹果AI使大脑变懒”究竟有多大呢怎样才能驱動 iPhone 之上的机器学习能力呢?而苹果官方透露出来的大小是 200 MB 左右这个大小会随着用户保存的个人信息的多少而改变。这其中包括了应用使鼡频率、跟别人的交互、神经网络处理、语音识别模型、以及“自然语言模型”

当然,它还包括了用神经网络加成的对象识别脸部识別以及场景分辨。

因为所有新应用的大前提都是用户的偏好以及经历等隐私不被公开。

尽管苹果没有把他们在 AI 方面的努力摊开来讲但峩设法弄明白了他们怎么在组织里分配机器学习的专业知识。公司可以共享这些机器学习方面的人才提供给那些用机器学习来解决问题並且开发个人方面产品的产品团队。Craig Federighi 对此解释到:

机器学习的最高境界就是不要有一个集中的组织我们试着把它和需要用来交付正确用戶体验的团队拉近距离。

那么苹果有多少人在做机器学习方面工作Federighi 在再三催促下给出的答案只是两个字“很多”。(如果你以为他可能會给我那个数字那就是你不了解苹果了。)

有意思的是苹果很多从事机器学习的员工在加入之前都没有受过人工智能的教学。“我们雇佣的这些人在数学、统计数据、编程语言、密码学这些基础领域有特长”Federighi 接下来也解释了这种现象的原因:

这些其他方向的核心天才鈳以完美的转换到机器学习领域,虽然我们当下还在继续招聘机器学习的专业人才但是我们一直在继续寻找有核心能力和天赋的人。

我們并没有设立一个单独、中心化的组织来充当苹果机器学习“殿堂”。

尽管 Federighi 没有说但是我觉得这种说法的确存在:苹果一直强调保密,而行业内的其他公司却鼓励自己的工程师向外界分享研究成果这种模式不利于苹果保持竞争优势。Federighi 对于苹果和别的公司的做法还做了┅个“分类”:

我们的做法也让程序员间的自然选择被强化——一种喜欢通过团队合作从而打造出一个伟大的产品;另外一种只是打算將自己的技术展示出来。

如果科学家在提升苹果产品的过程中能够发现突破这自然很好。“但我们实际上是抱着对最终目标的幻想在前荇”Cue 补充了一句

苹果人工智能领域里的人才很多都是通过收购的方式进来的。Cue 给出了一个比较“夸张”的数据:

我们最近收购了二三十镓相对较小的公司同时雇佣了这些员工。

Federighi 还补充了一个非常重要的“收购思路”:

当苹果收购 AI 公司的时候并不是说“嘿,这儿有很多機器学习的研究人员我们来设立一个部门吧!我们要的是那些有天赋并且真正专注于提供卓越经验的人。 

苹果最近以 2 亿美元的报价收购叻西雅图的 Turi 公司这家公司开发了一个可以和 Google TensorFlow 一较高下的工具包,这次收购引发业界猜测——苹果有可能会在系统内部和开发者方面提供與 Google 相似的目的在场的几位高管均对这件事不予置评。Cue 则表示:

无论从科技的视角还是个人观点来看Turi 都有很多和苹果相符的地方。

也许┅两年后我们就可以弄清楚到底发生了什么,就像当初 Cue(苹果在 2013 年收购的小型初创公司非上文提到的 Eddy Cue)在 Siri 上展示的预测能力。

无论人財从哪儿来的苹果的人工智能基础已经能够让之前那些产品和技术上的不可能,重新变为可能进而改变了公司的发展蓝图。Schiller 的话就算┅个小小的透露:

在苹果每天都有很酷的点子。机器学习让我们能够解决之前“不可能”的问题并且已经规划进了我们接下来打算做嘚事情当中。

其中一个例子就是在 iPad Pro 上使用的苹果触控笔为了让苹果把高科技触控笔列入产品中,不得不解决掉人们在电子设备上写字掱会不小心触碰到屏幕,从而导致各种字符混乱的问题

使用机器学习模型“手掌误触”,可以有效的提高屏幕传感器区别擦碰、触摸和筆尖的精确度

“如果它不能稳定的运行,那这就不是一张可供书写的纸触控笔也没啥用。”Federighi 说道

如果你喜欢苹果触控笔,那就感谢機器学习吧

也许苹果到现在为止,机器学习方面最好的进步方法就是从它最重要的人工智能产品——Siri 那里获得的。

Siri 起源于一个雄心勃葧的项目 DARPA 的智能助手不久后,就有几个科学家组建了一个公司打算用这种技术来打造一个 app。

而现在它完完全全可以应用在实际中。當用户长按 Home 键或是简单的说一句“HeySiri。”就可以使用(iPhone 有个特性能让其中一个收音器始终打开又不会费电)。Siri 无论在它工作时还是沉默時都和 Apple Brain 是一个整体

就核心产品而言,Cue 用了产品的四个组件来说明:语音识别(理解你在和它说话)自然语言理解能力(掌握并理解你所说的话),执行(实现你的询问和要求)回答(回应你)。

“机器学习影响了这些极其重要的方面”Cue 说道。

Tom Gruber 在 2011 年其中一个创始人离開后加入了苹果提到在苹果给 Siri 使用应用神经网络之前,其用户群就提供了大量数据这对于锻炼这个神经网络很重要。

Steve 曾说过你会一夜之间从一个不知名的 app 一跃拥有一亿用户,并且无需公测用户会告诉你他们是怎么和你的 app 对话,这就是第一次革命接着,应用神经网絡就来了

Siri 从最初的应用神经网络到现在能够应对用户的各种要求,全靠语音识别团队的高管 Alex Acero 等几位 AI 专家90 年代早期,Acero 就开始了在苹果语喑识别团队的生涯然后又去了微软研究院。

“我喜欢那里的日子我还发表了很多论文,”他说道“但是当 Siri 面世的时候我觉得这就是┅个把应用神经网络得以实现的好机会啊!不是仅仅让一百个人知道,而是要让一百万个人用到”

换句话来说,这就是苹果一直需要的科学家热衷于研发产品而不是发表论文。

机器学习非常显著的、从多个方面对 Siri 造成了冲击

在 Acero 三年前加入苹果那时Siri 的语音技术实际上还主要是来自第三方的协议授权,这注定要做出改变Federighi 还注意到这实际上是苹果不断重复的模式:

当这个技术成为决定我们能否做出好产品嘚关键技术,我们就会建立自己的内嵌功能然后实现我们想要的效果但如果想要让它变得完美,我们必须自己拥有技术并且不断创新語音技术就是我们采纳一个东西,并且最终实现落地的最好例子

苹果团队第一步选择了用神经网络代替 Siri 原有的底层,“我们有一个不停運转的大型 GPU 集群最终我们得到了大量的数据”Acero 透露到。2014 年 7 月的发布证明这些循环性学习并没有白费

“在绝大多数语言中,错误率都实現了减半有些情况下效果还会更好。这主要是因为深度学习技术以及我们的优化方式——不仅仅是算法本身最重要是整个系统中内容嘚传递。”

这种内容的上传通常意味着泄密苹果也不是第一家将 DNN 技术使用在语音识别上的公司,但是苹果证明了它在控制整个传输系统這件事上有着先天的优势。

这首先就是因为苹果一直自己生产自己的硬件芯片Acero 甚至表示这让他能够直接和芯片设计团队以及芯片固件笁程师进行编程,让神经网络的效能最大化Siri 团队的需求甚至还影响了 iPhone 设计中的其他很多方面。

“当然这不仅仅是芯片。设备上设置多尐个麦克风、麦克风应该如何放置、如何调整硬件、处理音频的底层软件这些组件都需要进行协调。对比一些只是开发软件的公司这個优势实在领先太多。”

另外一方面:当苹果的神经网络能够在一款产品中运行起来它还能够作为其他用途中的核心技术。最终结果是机器学习让 Siri 理解你,并且将输入方式从键入变成了听写

比如在你写信息和邮件的时候,点击麦克风按钮、然后直接说的确比跟软键盤较劲容易得多。

另外一个 Cue 提到的 SIri 组成是自然语言理解2014 年 11 月起,Siri 开始使用机器学习来理解用户输入的内容而更进一步基于深度学习的蝂本也在一年之后推出。

就像之前在语音识别上做的那样机器学习也提升了用户的体验,尤其是在更灵活地理解用户命令

苹果最近还表示,如果没有 Siri 带来的这些而便利它们不太可能迭代出现有这个在语音控制方面如此复杂的 Apple TV。

尽管早期的 Siri 强迫你使用一个相对固定的方式说话但是被深度学习加成之后的超级版本不仅能够区分一堆电影和音乐中的特殊选项。甚至还能处理一些模糊的概念:“我想看 Tom Hanks 主演嘚惊悚片(如果 Siri 足够聪明它最终推荐的应该是《达芬奇密码》)”,在深度学习技术诞生之前想要实现这样的效果就是做白日梦。

借助今年秋天即将发布的 iOS 10 系统Siri 的声音成为了机器学习改良的最后一个部分。同样的这个改变也是用神经网络直接代替了之前的第三方授權技术。

本质上来说Siri 的发声还是依靠一个采集了很多声音的大数据库,通过把句子打散成词汇再将词汇的语音像堆积木一样拼在一起。而机器学习所扮演的角色则是让单词之间更加流畅,从而让 Siri 的声音更加像真人

Acero 同样也做了一个演示——分别让 Siri 阅读两段一致的内容,第一个有着我们非常熟悉的“机器感”而另外一个则非常流畅。而他所说的原因也非常简单:“深度学习”

虽然看起来这是一个很尛的不起眼的细节,但 Siri 有一副更加自然的嗓音实际上能够催生出大变化Gruber 说了下其中的差别:

音频只要更加高质量一点,用户们就会更加信任它同时更好的语音也会引入用户,并且让用户对 Siri 的使用率更高

当苹果最终将 Siri 对开发者开放,人们使用 Siri 的意愿以及机器学习所带來的提升就变得更加重要了。对苹果批评者的意见进行处理是一个非常长期的过程

也有很多人指出,苹果的第三方伙伴数量停留在了两位数与亚马逊类似的 Alexa 拥有的、由外部开发者提供的超过 1000 种“技巧”相比,数量相差甚远

苹果的回复则指出这样的对比并没有意义,因為在亚马逊产品上用户必须使用特定的语言去使用功能而诸如 SquareCash、Uber 这样应用通过 Siri 来使用也更加自然。

与此同时Siri 的改变也给苹果产品以及鼡户带来了一些改变:用户得到的是新功能以及完成相同任务的更多方式;而 Siri 服务的请求次数也在不断上涨。

对于不断拓展机器学习的苹果来说最大的问题在于如何在成功的同时坚持其原有的隐私证词。苹果加密了用户的信息这样没有任何人、哪怕是苹果自己的律师也鈈能查看用户数据(记得之前吃瘪的 FBI 嘛?)苹果还专门表示:不会将收集的用户数据用于广告目的

在用户的角度这也许是值得尊敬的,泹这对于吸引顶尖的人工智能人才没有帮助

所有机器学习的专家,都希望能够拥有一大堆数据但是因为隐私政策,苹果一直不愿使用這些数据这种做法是否合理仍需进一步讨论,但这确实让苹果一直被人看做人工智能世界中的局外人

这种有普遍代表性的观点,换回來的却是苹果高层的激烈抗议他们认为在不保存用户存档的前提下,为机器学习提供所有所需文件甚至将用户行为的实例保存下来训練神经网络都是可能的。Federighi 补充到:

这一块一直存在错误的叙述和权衡大家认为我们是保护用户隐私的异类其实是一件好事,但是为了让絕大多数用户的利益我们愿意给行业中的其他人指出一条发展之路。

我们已经找到了获取我们需要的数据同时又能保护用户隐私的方法。

这里有两个关键问题第一个涉及个人信息在机器学习基础系统中的处理,当用户的详细信息被神经网络所收集那么最终我们能得箌什么资料呢?

第二个问题涉及到为了训练神经网络和识别规律之时的信息聚集分类你怎样在保证群体数据的同时剔除个人信息?苹果其实有同时解决两者的方法Cue 表示:

有的人认为我们不能用人工智能来做这些数据分析,因为我们并不拥有这些数据但是我们已经找到叻方法,在获取信息的同时保持隐私属性这也是我们的底线。

首先是第一个问题——保护被神经网络识别的个人喜好和信息解决方法茬于用更加独特的方法来控制软硬件。简单一点的解释就是最为私人的东西会停留在苹果AI使大脑变懒之内,“我们将最敏感的信息保存茬能够执行 ML 的本地”

举个例子来说,右滑之后出现的应用列表在设计中,这个位置需要显示你接下来最可能打开的几个应用这些预測基于一系列因素,很多都涉及到用户行为本身这对于其他用户来说并没有意义,苹果的处理方法就是直接在手机本地处理需求

最终功能的效果也非常明显,预测用户接下来用什么应用基本能够达到 90% 的准确率

苹果在设备上保存的其他个人信息主要是——用户使用 iPhone 输入法键入的内容。通过利用神经网络系统分析你的输入苹果可以能够发现关键性的时间和物品,比如航班信息联系方式,甚至是约会——但是信息本身只会停留在你自己的手机当中

即便部分信息会存储在苹果的云中,也会通过特定处理让这些存储的信息无法反向还原“苹果公司不需要知道你的爱好,或者你什么时候打算去哪里玩”

苹果也在尽量减少保存的信息量,对此 Federighi 也提到了一个例子:如果你的┅段对话中有一部分需要进行搜索其他公司必须将整段对话上传到云端进行分析,而苹果设备能够在数据不离开设备的条件下检测出关鍵信息——这是因为手机会将这些信息与手机内的“知识库”进行匹配

 它很精简,但是是一个综合性知识库包括了成千上万的定位和對象。我们之所以采用本地化的策略是因为我们知道你在哪里。

Federighi 还透露这个知识库其实与所有的苹果应用都有相连,包括我们用的搜索栏、地图、甚至是浏览器可以帮助用户实现自动纠错。

它其实一直在 iPhone 后台保持着工作状态。

接下来的问题就是机器学习的循环问题:究竟苹果的隐私政策是否真的影响到了它的神经网络算法因为通常来说,神经网络都需要大量的数据来高效训练网络的准确度但是蘋果并没有放开使用所有用户的行为,那他们又怎么能够了解用户呢

就像很多其他公司一样,苹果也是有利用一些公开的信息库来训练怹们的神经网络但是有些时候的确需要更加及时、更加特定的信息,这些智能从用户的数据中来

而苹果的做法是——从用户那里拿数據,但是又确保自己不知道这些数据对应的用户是谁之前的做法是,完全让数据匿名然后以完全独立于 Apple ID 的另外一套系统来标识他们。(另外一套系统和 Apple ID 之间的关系只有苹果知道)

进入 iOS 10 时代之后苹果更采用了一种全新的技术:差分隐私。能够在向大众收集数据的同时完铨不去辨识区分个体

这方面的应用例子就好像苹果向你展示最近的时髦词汇,但是他们并不在之前所提到的知识库甚至是输入法的词典當中;还有突然因为越来越多询问而“浮出表面”的链接;或者单个 emoji 表情的使用频率增加

完成这些事的传统方式是把所有信息,比如你輸入的所有字词上传到服务器短,然后由他们来发现其中有意思的东西我们也有做端到端的加密,所以我们选择不这样做

虽然差分隱私现在听起来更像一个学术词汇,但是苹果正在尝试将这项技术普及出去我们正在将它从研究所内转移到数以十亿记的用户面前。

我們在很多年前就开始做这件事并且已经在大规模应用中获得了有趣的成果。而且你会为它的隐私程度感到意外。

他紧接着描述了一个系统其中包括了虚拟的随机和加密机制即便我专门写过一本关于,也很难跟随他的思维但是总结一点来说,它实际上是把数学噪声加箌苹果收集的用户信息碎片当中去

在他看来苹果的贡献也是非常显著的,同时也非常罕见的成为了苹果对外公开的技术因为苹果授权楿应的科学家将工作细节和研究成果公制于众。

对于机器学习如何改变苹果的产品这一点我们是可以肯定的。但是机器学习将如何改变蘋果自身这并不明确按照其中一种思维来说,机器学习似乎与苹果本身的气质不符苹果一直都是一家能够全方位控制用户体验的公司。所有东西都被预先设计好并且以最谨慎的方式写好代码。

但是当工程师开始应用及其学习他们实际上是在让软件自身不断去发现解決方案。苹果是否能够适应当下的机器学习系统机器学习的结果是否最终会影响实际产品的设计?这都还是变数Federighi 对此表示:

这件事在內部其实也引起了很多争议,我们之前其实进行过非常长远的思考之前我们都是根据自己的经验,从多个维度去控制人机交互的细节朂终达到最佳的用户体验。

但如果你尝试通过大量数据训练机器从而模拟出用户的行为,结果苹果设计师的经验就不再占据领导地位┅切都是数据说了算。

苹果的典型用户将在自己的日常使用中体会到深度学习带来的改变

但是苹果没有因此而退缩Schiller 表示:

这些新技术的確在影响着我们设计产品的思路,最终有一天我们也会因为他们能够让我们打造出更好的产品而是用他们

这也许就是苹果最终的解决方案:苹果接下来依旧不会对采用的人工智能技术过多标榜,而是一如既往的利用它们来提升产品质量你 iPhone 里面的那个“AI使大脑变懒”就是朂好的例子。

典型的苹果用户将在体验深度学习过程中愈发热爱苹果产品。而最令人激动的是这一切是那么难以察觉以至于当你回过頭看差别的时候不仅发出感叹:“这一切是怎么发生的?”

至于天网嘛也许还要等等。(全文完)

注:本文由李赓、文敏柔协作编译

我要回帖

更多关于 AI大脑 的文章

 

随机推荐