iPhone的第一个十年从多点触控开启 那么AR呢?

2017-04-14 00:00 VR/AR 来源:创头条 查看原文

2006 年 2 月,Jeff Han 在 TED 演讲中展示了一个多点触控的实验模型。多点触控对于人们来说已经不是什么新鲜事了,几百块钱的 Android 手机都能使用。但再想一下十几年前用的触控屏幕——必须拿着像“笔”一样的利物点击,还经常没有反馈。


iPhone的第一个十年从多点触控开启 那么AR呢?


今时的平庸就是彼时的惊艳。


iPhone的第一个十年从多点触控开启 那么AR呢?


多点触控的普及差不多可以分为四个时期。首先是贝尔实验室里的一个有趣实验,然后是类似 Jeff Han 的公开演示,再就是 iPhone 将其带入市场,最后是 iPhone 和 Android 的爆炸式增长。这差不多就是我们熟知的科技产品发展曲线。对了,在这段时间内还有类似的技术被证明是效果不好的,比如用“笔”的塞班,还有日本的 i-mode。


在这个 AR 被视为下一个平台的时候,我们看到了无数惊艳的 demo 和原型,但市场显然如你所知还没有迎来爆炸式增长。


iPhone的第一个十年从多点触控开启 那么AR呢?


首先,微软的 HoloLens:很好的位置追踪、内置计算单元,代价是体积和重量,当然视场角也可以说是极其狭窄,最后还有 3000 美元的售价,不过微软似乎准备积累到 2019 年才发布下一代。苹果也几乎可以确定在做相关的研发,苹果近两年在 Apple Watch 和 AirPods 上的成果对于设备小型化来说很有成效,A 系芯片以及正在研发的 GPU 让人更加重视他们业内顶级的硬件研发能力。谷歌或许也有相关的动作,毕竟他们给 Magic Leap 投资了不少钱。Facebook 当然也不会忽视,之前他们就通过 Oculus 招聘 AR 相关工程师。而世界上还有很多创业公司在参与这件事。


这些或许证明我们正处在 AR 的 Jeff Han 时期,iPhone 初代就快来了。


但首先我们有必要想一想 AR 究竟是什么。


iPhone的第一个十年从多点触控开启 那么AR呢?


AR 的初级阶段是 Google Glass——虚拟物件会通过屏幕浮现在你眼前,但它和实体世界没有任何联系。事实上 Google Glass 就是智能手表——智能手机之外的另一块屏幕。


而被我们称作“真 AR”的设备是可以感知实体世界的。该种设备会扫描你所在的环境进行 3D 绘图,并且实时追踪你的头部活动。但这个时候设备仍然只是感知你身边的环境,并非真正意义上理解了这究竟是什么。


当然,机器和人类的思考方式并不同。我的意思是指思维逻辑带来的结果和效应。比如我在一次会议上遇见你,AR 眼镜上会出现你的 LinkedIn 资料,或者 Salesforce 会告诉我你是一个目标用户,甚至电话拦截应用警告我你是保险推销员,又或者像《黑镜》里那样直接将你屏蔽掉。这是真正的增强了现实。这种应用带来的效应是你可以充实世界,或者污染。Chrome 浏览器中有一个扩展程序是将某一个特定的词替换成另一个词,之后你通过 Chrome 浏览网页就不会再出现原来的词,而永远是另一个词。所以 AR 的 Chrome 扩展程序会产生什么样的影响呢?让你的老板口吐彩虹如何?(Snapchat 的一个滤镜。非常有趣,毕竟有趣才是最需要考虑的关键问题。)


iPhone的第一个十年从多点触控开启 那么AR呢?


AR 和 VR 是否冲突?二者又是否会融合?这对于许多行业人士来说都是难以回答的问题。他们在技术上要面对的困难类似,要实现的事也是。两者区别在于:AR 是屏蔽掉你不想看的,或者显示你想看的,但 VR 并不如此,它的启动是一块没有光线的屏幕。未来它们也许会融合,但现在它们的发展轨迹并不同。九十年代晚期曾有过一种主张:所谓“移动互联网”设备会有分离的屏幕和无线通信单元,可能还有键盘。直到 2007 年,这些问题才被一块屏幕解决。那是我们的探索阶段,VR 和 AR 就像是在自己的九十年代晚期。


iPhone的第一个十年从多点触控开启 那么AR呢?


那 AR 的多点触控是什么?虚拟物件并非有实体存在,我们如何与其交互?VR 那样的控制器?手部追踪?但无实体界面的交互真的是好的交互模式吗?当然,微软或者 Magic Leap 可以创造出人眼可感知的有深度信息的界面,但某些看起来应该是坚实的物件你却一滑而过,你愿意这样吗?或者语音交互?语音交互界面会多大程度上限制你的行为?这种情况是我们现在就可以想象的:假设 Siri 可以完美地识别你的话,流畅地与你对话,你会愿意使用这样的手机吗?亦或是眼球追踪?智能手机和 PC 也曾经面临过这些问题,那时候连问题都不确定,更不用说寻找解决办法了。


当你越深入地思考 AR,愈发会认为这是一个 AI 的问题。我站在一家餐厅门前,是该问大众点评这是否不错,还是计算机该自动呈现出来?有个人迎面走来,我在 AR 眼镜中该看什么,对方的 LinkedIn 还是陌陌资料?当接受到新信息,我是现在看还是稍后?苹果、微软、谷歌们很可能对于这些问题都有不同的处理方式。如果你认为这些都应该是自动的,尽量消除交互之间产生的阻力,你去除了问题的同时也去除了回答。就像 iPhone 不问你照片存在哪里,不在你叫车的时候问你在哪,甚至不问你密码是多少——于是不再担心寻找照片的我们有了大量的图像 app,于是有了 Uber 和滴滴,于是我们忘了密码是多少。Snapchat 不是 Facebook,因此 AR 不应该是像智能手机那样把一个个 app 平铺在你眼前。


与此同时,以 AI 为核心的自动化带来的问题很明显——隐私和安全。如果无人驾驶车普及,那么它们身上的摄像头会让城市变成一座巨大的监狱。如果人人都佩戴 AR 眼镜呢?如果你被黑客攻击了?


iPhone的第一个十年从多点触控开启 那么AR呢?


最后还有一个重要问题:会有多少人用上 AR?它是会和智能手表一样成为智能手机的配件?还是和 Android 手机一样几百块就能买到?十几年前我们想的问题是:所有人都会用上同样的移动智能设备,还是只有一部分人,另一部分仍然用功能机?二十几年前我们想的问题是:所有人都会用上同样的 PC,还是只有一部分人,另一部分仍然用打字机?


现在五十亿人有移动电话,过半使用的是智能手机,那么其中多少人会买 AR 作为配件?还是说 AR 是下一代通用计算设备?所有对于这个问题的回答都是想象,而非分析。

为您推荐: