谁说苹果不玩儿AI的:AI与AR造WWDC17大会两大亮点

2017-06-06 10:12 互联网金融 来源:创头条 查看原文

大数据文摘微信公众号首发(ID:BigDataDigest),转载请注明来源

作者 | 钱天培,Yawei

当地时间5月17日上午10点,为期5天的WWDC17苹果开发者大会在万众瞩目下正式拉开帷幕。本次大会历时两个半小时,发布了包括机器学习API——CoreML,四大软件系统,以及Mac系列及智能音箱HomePod硬件更新,这是苹果迄今为止,发布时间最长、产品最密集的一场开发者大会。

在本次发布会上,AI被提及的频率不可谓不高。从Siri的男女声语音合成,到照片库更智能的人脸识别,AI似乎已经全面融入苹果的开发计划中。那就让我们一起回顾一下苹果在本次WWDC17的最新动态,以及苹果在AI发展所存在的瓶颈。

放弃了过去12年的根据地,今年苹果将开发者大会从三番的Moscone West会展中心搬到了圣何塞的McEnery会议中心。

尽管程序员们对于本次大会的选址采取了几乎统一的吐槽姿势,作为加州第三大城市且毗邻硅谷的圣何塞依旧不失为本次大会的绝佳选址。果不其然,吐槽归吐槽,本次WWDC依旧是一票难求。从刚满10岁的澳大利亚软件开发小神童,到年已82岁来自日本的奶奶程序员,来自世界各地的开发者们齐聚本次大会。

以“将科技与人文结合,为世界带来新概念、新体验”为主旨,本次大会的侧重点在于用户体验的进一步提升。当然,在人工智能和增强现实这两股浪潮之下,苹果也在其多个产品中加入了这两个元素。

Core ML: 为移动设备提供的快速机器学习API

在此次发布会中,苹果发布了它在AI方向的最新研究成果——Core ML,Core ML是一款运用于移动设备的人工智能开发API,其核心价值就在于能够加速人工智能任务在iPhone、iPad或者iWatch上的运行速度,不管是文本分析还是脸部识别,还包括很多APP的运行都会变得更迅捷。目前看来,苹果手机的图像识别速度将比谷歌Pixel手机快6倍。

Core ML将支持很多主流的机器学习工具,涵盖各种类型的神经网络(深度神经网络、循环神经网络、卷积神经网络),和线性模型以及随机森林集成。同时,因为苹果的特殊性,所以Core ML的研发还特别注意到了隐私问题,所有的数据处理都是在设备上完成的,也就是说开发员用于提高客户体验所用到的数据都不会离开客户的机体。

HomePod :Siri化身家庭语音助手

继亚马逊的Echo和谷歌的Home之后,苹果也发布了以Siri为主题的家庭语音助手——HomePod。这一款语音助手旨在提高用户在家中的生活体验,一如这个名字所预示的一样。“嗨Siri”,依旧是你所熟悉的iPhone上的Siri,相同的启动方式,类似的功能。你可以用语音指令查看天气信息,设置提醒,得到交通拥挤提醒,让它定制播放你喜爱的音乐等。同时,你可以通过Homekit的设置,命令HomePod来帮你拉窗帘,调节空调温度等。

总体来说,苹果的这款语音助手并无太多惊喜功能。机器学习的最新发展在HomePod上没有太多的体现——谷歌的Home可是能学习不同用户的语音特征而做出不同的回应呢。

ARKit:增强现实自制小软件

苹果的CEO库克从好几个月前就开始说,他们要来认真发展一下增强现实(augmented reality)了。而这几个月里,苹果却也一直是雷声大,雨点小。本次增强现实自制小软件ARKit的发布可以说是苹果入界增强现实的第一步。通过这个小软件,用户可以制作他们自己的增强现实小场景:比如在桌子上“添”上一辆小赛车。

iOS 11, High Sierra, 一大波系统更新

从Apple TV,iOS到Apple Watch,苹果带来了一大波产品系统和功能的更新。Apple TV首次宣布与Amazon正式合作,Apple TV的用户在今后能够看到更多来自Amazon的电视节目。

iPhone方面,新的iOS11系统也为用户带来了更多便捷的功能。例如,iPhone用户能够通过Apple Pay进行更方便的支付,新的Siri的声音不再是机械音,而是苹果通过人工智能合成的仿真人声,并且能够完成简单的翻译任务。新系统也带来了一个全新的“开车中,勿打扰”的新模式。

命名为High Sierra的新版macOS系统为传统的苹果应用做出了新调整。比如Safari在未来能够屏蔽网页上自动播放的视屏,并阻止网页对你的信息追踪,让你避免广告轰炸。

最后,Apple Watch也将迎来新界面设计。在表盘上,除了米老鼠,你还能见到玩具总动员中的几位动画明星,而Siri表盘的功能也使Apple Watch更智能化——它可以用人工智能的方法为你列出在当前时间当前地点最为关心的几条信息。

苹果在AI助手竞争上的追赶之路

在本次发布会上,AI被提及的频率不可谓不高。从Siri的男女声语音合成,到照片库更智能的人脸识别,AI似乎已经全面融入苹果的开发计划中,然而从Siri到以其为载体的HomePod,苹果在AI助手的发展却依旧缺乏惊艳之笔。最后,就让我们一起回顾一下苹果在AI届的最近动态,以及苹果在AI发展所存在的瓶颈。

  • 苹果于2011年正式发布Siri,自此之后Siri发展较为缓慢,逐渐被其他公司的AI助手赶超,如Amazon的Alexa,Google的Google Assistant,Facebook的Messenger bots等;

  • 苹果从2014年开始就开启了一波收购AI公司的活动,包括精于语音识别的Novauris和表情识别的Emotient等;

  • 去年10月,来自卡耐基梅龙大学的的Russ Salakhutdinov教授被苹果聘请为其AI研究团队的带头人;

  • 同样在去年,苹果发布了第一篇关于电脑视觉的论文

  • 那么,苹果在AI之路上有哪些发展优势?又是什么问题一直限制了苹果AI助手的进一步发展呢?首先让我们来看看一个优秀的AI助手需要满足的三点要求

  • 像一个小伙伴一样了解我

  • 了解我的物件、文件,和它们在哪儿

  • 了解外部世界(不管是现实的还是电子的),给我推荐有用的、有趣的事物

在第一点上,苹果先来有着得天独厚的优势。上百万部的苹果设备,通过iMessage,Photos,Calendar这些应用记录了大量的用户信息。

同样,对于第二点,苹果依旧有着不错的先天优势。我们把大量的照片、文件存储在苹果设备和iCloud中,这些都是Siri可以随意获得的资源和信息。

而在第三点上,苹果相较与Google和Amazon却有着明显的劣势。Google的核心产业及时基于它对互联网上一切信息的熟悉了解和由此建立起的强大的知识图谱,而亚马逊则有着大量的购物数据。这或许能解释苹果在这一波AI助手大赛中落后的原因。

番外篇

在这场发布会后,WWDC17还将全天候滚动举办多场技术论坛会。苹果对于这些论坛的内容还相当保密——这些名字取的,也是有点傲娇呢。在接下来的5天里,就让文摘带大家持续关注这场苹果开发者大会吧。

为您推荐: