第258章 上菜的路上还能边走边烹饪-第2/4页





    冯见雄说到这里的时候,稍微停顿了一下。也观察了杰克马的接受度,又通俗解释了几个点。

    他的这番理论,如果都用术语表述,可能比较晦涩。

    但是,举个小学生都懂的例子,横向对比一下,就通俗了——谷歌科学家们,在调教“深度学习”型人工智能、理解人类语言文字/图像信息的时候,其实有点儿像老师给小学生上语文课。

    相信小学生都记得,当年语文课的时候,老师会不厌其烦问你:这篇课文的主要内容是什么?中心思想是什么?线索是什么?

    很多小学生当初肯定是内心有一万头羊驼奔腾而过:尼玛!老子知道这个课文说了啥,看懂不就好了?你问个屁的“主要内容”、“中心思想”啊!考试答错了还扣分!

    但你别说,调教机器人学语文的时候,还真得严格按照“主要内容”、“中心思想”这么一步步总结下来。很多人类觉得可以靠本能绕过去、或者省略掉的步骤,机器是绕不过去的。

    杰克马很快就懂了,示意他继续:“那么,然后呢?”

    冯见雄继续解说:“既然知道谷歌的技术路线了,那么我们就可以推断:在实现最终极的目标之前,谷歌需要先解决‘读懂一张图里发生的故事’的问题,然后再考虑‘如何选出一个视频中最能体现中心思想的那几帧’。

    那么,距离‘读懂一张图里的故事’这一步,谷歌目前差多远呢?我认为大致是三年——目前谷歌已经可以做到识别图片里是不是有一张人脸,但还没法识别这个人到底是谁、和另一张照片里的人是不是同一个。

    谷歌还能识别出‘图里有没有一只猫’,但识别不出‘这只猫和刚才那只猫是否是同一只’。而大约三年之后,这些都不是问题。谷歌能做到‘从识别出图里有只猫’,到‘识别这一帧在讲什么故事’。

    我们如果紧跟谷歌的步伐,结合阿狸系的图像识别研发,就算留一年余量好了。那么2016年也能搞出‘让机器读懂一帧’的商用技术。当然,这里面肯定需要与阿狸系图像识别团队的深度合作,也需要后续的投资。

    而对我来说,只要做到了‘识别出一帧’,我就能‘大致读懂整个故事’,从而把谷歌需要用纯技术手段解决的问题,用运营手段给暂时绕过去。”

    技术不够,运营补。

    这一招,冯见雄用得屡试不爽了。

    “怎么补?”杰克马的语气已经有些急切,他觉得自己完全被冯见雄天才的脑洞给折服了。

    “杰克,你看过N站的视频么?看过优酷或者youtube的么?”冯见雄不公布答案,而是先反问了一句。

    “都看过吧,不多。”杰克马不明所以,回答得比较谨慎。

    冯见雄终于到了揭开谜底的一刻,他傲然笑道:“那不知道你有没有发现一个细节——优酷和youtube上的视频,其实都是没有‘封面’的,而我们N站的UP主,在上传视频时,已经养成了另外传一张图片作为封面的习惯了——当然,说实话,这个习惯不是UP主们自发养成的,是我让天音硬逼着UP主们养成的。

    或许将来有人看到这一招有效之后,会跟风我。但是一个网站的内容提供者水平,是不可能一朝一夕提高的,用户习惯也不是一朝一夕可以改变的。优酷未来即使学了,他们的UP主在选封面方面的水平,也是远远弱于N站的……”

    后世看过B站视频的人,如果同时也是优酷用户,恐怕不难发现一个现象:

    在B站上,有一批恶劣的人,经常拿封面来实现“标题党”的目的。

    比如,凡是MMD配布模型的初音/巡音/弱音/爱酱舞蹈动画,都会上一张暴露度特别羞耻的图片作为封面,先骗用户点进来。

    然后实际上,这张图的尺度,是明显超过视频过审尺度的,属于“视频里如果真出现这样的镜头,肯定会被404”.因此用户看完全视频,都发现压根儿就没有出现封面图的镜头。

    这时候,用户们就会怒吼“交封不杀!”、“可耻的播放量!”、“下作的播放量!”

    唱到了甜头的B站UP主们,为了骗点击,就从此在“交封不杀”标题党的路上越走越远。...

    本章未完,请点击下一页继续阅读!