图普科技CEO李明强做客“MindTalk线场”畅聊人工智能

图普科技 2016-05-17 15:58 工具软件 来源:思达派 查看原文

AlphaGo赢了,人工智能到底有多强大?是什么因素,使人工智能这些年得以迅速发展?对于许多对人工智能持有恐惧心理的人,应该怎样看待人工智能的成长?爱范儿旗下品牌MindStore邀请图普科技CEO李明强做客“MindTalk线场专访活动,就人工智能的过去、现在和将来进行一场精彩的线上对话。以下为访谈内容的干货整理。

 

问题一|有监督的深度学习,海量数据是挑战  

MindTalk君:

    教会机器看懂图片和视频的原理是什么?整个环节的难点在何处?

李明强:

简单来说,可以将教会机器识图类比为教育小孩,两者在原理和实现路径上有相似之处。我们把机器的识别结果给予奖励或者惩罚的反馈,对于作对的部分给予奖励和强化,鼓励机器重复这种判定行为。而做错的部分给予惩罚以及削弱,打消机器继续这种判定行为的念头。用专业的话说,这叫做“有监督的深度学习技术”。“有监督”指的是对机器的识别结果给予奖励或者惩罚的反馈。

事实上,深度学习是一种最先进的机器学习技术。这种技术模仿生物脑的思维机制,可以被认为是专门判断一件事物的大脑。这个“大脑”一开始是空白的状态,经过不断监督的强化或削弱,使这个“大脑”最终学会某件事情。

因此可以发现,整个学习过程是一个“海量数据的高性能计算”的问题。我们不仅要让机器可以在线处理每日的海量数据,比方说我们现在图普科技每天需要处理3亿张的图片数据,而且还需要训练机器学习每天的处理数据,来提高以后识别的精准度。整个学习的过程需要不停的消化、迭代和优化,这是一个不小的挑战。

 

问题二|人工智能走进视频审核领域,减少99%的工作量

MindTalk君君:

直播行业最近频发监管事故,他们传统的审核方式是怎样的?图普科技又是怎样通过人工智能来完善这样的服务?

李明强:

前段时间在线直播行业确实出现过一些问题,比如“直播造人”事件。其实直播平台是非常注意这块问题的,他们也并不想出现类似的违规事故。但由于同时在线的主播数量很多,监管难度十分大,一个疏忽就可能让一些违规内容流出。

传统的直播审核是通过人力完成的,需要的人力成本和直播的数量成正比。之前可能同时需要几百人进行实时审核,对一闪而过的直播画面进行迅速地判断,对成本和审核人员的要求非常高。其实,不单是直播行业,只要涉及UGC的互联网公司,都需要对涉及色情、政治敏感、暴力恐怖的违规信息进行过滤。随着近几年直播行业的大热,传统的监管方式显然无法满足现实的审核要求,内容审核这块成为制约直播行业和其他UGC行业继续发展的一个无法回避的问题。

所以,我们用有监督的深度学习技术,研发了一个审核图片信息的人工智能的模型。用这个建立起来的模型,来专门判断哪些图片是色情的或者需要被过滤掉的违法信息。这个“小大脑”经过海量的数据训练和优化迭代,可以快速、实时的处理巨量的审核数据。它在这方面的智能程度是可以代替人力的。经过人工智能审核后的数据,会被“小大脑”分为“确定”和“不确定”的两个部分。确定的部分可以达到99.5%的准确率,不确定的“小大脑”会诚实的告诉客户,由客户做出决断。这个不确定的部分可能只占到审核总量的12%,原先需要100个人审核,经过我们的技术服务,就可以只用12个人来完成了。

 

问题三|移动视频的发展是必然,未来互联网不可缺少图像识别技术

MindTalk君君:

    如何看待目前移动视频领域的爆发现象?未来会如何演化?图像识别技术能做什么?

李明强:

    我认为移动视频领域的爆发是必然的。因为人类的沟通方式是从简单到复杂,从静态到动态,从不可互动到可互动性增强,从非实时到实时的趋势去演变的。所以移动视频领域的爆发不是暂时的现象,而是一种必然的趋势。互联网上的信息将更多的以视频和语音的这种更自然的方式传播。

当人类的沟通更多地依赖于图像和视频后,基于互联网的“连接”本质,内容与内容之间的链接如果缺少图像识别的技术,互联网上的信息链接将会断掉,互联网也将失去它本来的功能。所以说,图像识别技术将会在未来的人工智能时代成为一种基础性的技术,图像和视频信息都将需要图像识别技术进行多维度的解读。

 

问题四|数据、计算能力和算法,使人工智能短时间内大爆发

MindTalk君:

    就像AlphaGo的走红,人工智能最近风头正盛。业内利用人工智能打造的产品和服务也越来越多,为什么会出现人工智能短时间大爆发的现象?

李明强:

相信大家对人工智能已经不陌生了,“人工智能”这个词的诞生距今已经几十年了。之所以在最近几年爆发,是因为数据、计算能力和算法三个方面原因的叠加。其中数据方面是得益于几十年来互联网的发展,积累了海量的数据。计算能力方面依据摩尔定律,近几年有了显著的提升,使低价的高性能计算设备成为可能。算法上的突破,标志性的事件是2012年的ImageNet大赛,这次大赛使得深度学习算法取得了业内的空前关注。从12年了到现在的几年间,三个要素的叠加使人工智能得到了迅速得发展,呈现出一个大爆发的景象。

最近的AlphaGo事件十分火热,让大众开始关注起人工智能这个话题。但其实对于我们这些人工智能的从业者来说,AlphaGO对于我们来说不是一件石破天惊的事件,因为我们一直在关注着这一块的发展,一直在感受着人工智能的发展,所以AlphaGO事件对于我们来说更多的意味着一个成果的集中展现。相信我们未来还会看到更多的和更大的人工智能的突破。

 

问题五|人工智能不一定会毁灭人类,将与人类一起成长

MindTalk君:

人工智能在未来有没有可能毁灭掉人类?是否应该有限制地进行发展?

李明强:

这是一个很科幻也很有趣的话题。就像马斯克和皮尔盖茨关于人工智能会毁灭人类的警告那样,我开始也有类似的担心。当后面发现这类想法可能是有问题的。首先我们可以先定义下人工智能,因为我们经常把人工智能与自动化混淆起来。

自动化是指的什么呢?自动化是指人类把某一类技能教给机器,不管机器的智能高低,机器只是在自动的重复这些活动而已。即便机器有一些自己的判断,也是人类教给了机器判断的模式。而我们担心的人工智能,其实是我们无法理解的那种人工智能,类似于一种新的生物,或者说是黑盒子,我们无法得知它自己的思想。如果说人工智能是一个新的生物的话,那我们的担心都是挺可笑的。因为我们人类与他们之间首先需要有资源的争夺,才有可能发生冲突。但这种担心就像鱼缸里的金鱼会跟我们争夺商品房资源,我们无法预测人工智能会来与我们抢夺什么资源。

就像KK(凯文凯利,著名的商业预言家)曾经说过,互联网就是最大的人工智能,并且现在还保持着每年一倍的增长。如果说互联网需要与我们争夺什么资源的话,人类早就会觉得拥挤不堪了。但事实上,近几年我们人类的生存空间得益于互联网的发展,显得更大了。所以从这个角度上来看,人工智能这个物种与我们人类的生存空间不存在冲突,它是没有形态,无形的一种存在方式。如果人工智能有了自己的进化方式的话,人工智能一定会选择没有形态的进化方式,比如存在于电子流上,因为有形物种的进化一定是比不上无形物种的进化的。

而且说要毁灭人类的话,原子弹和人类不想生育的观念毁灭人类的危险度显得更大。现阶段的人工智能只是充当着一种人类发展的工具和手段,说人工智能会毁灭人类,事实上是把帽子扣在了工具头上,真正起决定作用的,还是工具背后的那个人。

如果我们再开个脑洞,如果我们放弃人工智能,拒绝发展科技,假如哪一天外星人入侵,我们面对外星人将无力抵抗。最终我们会发现,我们需要抵抗的不是人工智能,而是外星来的生物。所以我们要从进化论的角度上来看,我们人类是不能拒绝进化的。从某个角度上来说,我们应该和人工智能一起成长,甚至接受机器对我们人体的改造。


为您推荐: