AI识物,到底是门怎样的生意?


    AI能说和听,这事儿大伙都知道。比如足够普及的智能音箱和手机里的语音助手、语音输入法。
    而在感知智能这个大方向里,AI当然不只能说,同时还能看——比如说在张学友演唱会上抓个逃犯啥的。但AI的“看”不仅是识别人脸,同时也可以认识和判断物体。比如谷歌的猜画小程序就是依靠AI识物来实现的。
    但这个领域,似乎还没有找到太多商业化的办法。人脸识别可以进行大规模安防应用,但AI识物在今天的更多应用展示,还是停留在游戏与炫技的层面。
    有没有办法让AI识物的能力从“闹着玩”,变成“能赚钱”?
    国内外各种AI势力正在努力破解这个问题。理想总归是美好的,而现实是缓慢掺杂着残酷。
    AI之眼,似乎还没有给商业世界带来足够的魅惑。
    Google Lens:下一个时代还是又一块鸡肋?
    普通人能够应用的AI识物最主要还是集成在手机摄像头当中。当用户把摄像头对准想要识别的各种东西,AI系统就会通过图像识别以及OCR技术,给出相应的结果。
    听起来还是蛮带感的。
    目前这个领域探索幅度最大的则是AI巨头谷歌。在2017年I/O大会上,谷歌发布了集成在Google Photos里的Google Lens功能。通过这个功能,手机用户可以将摄像头对准各种各样的东西,然后让AI开口说话,告诉你ta看见了什么。
    确切来说,Lens的很多功能还是相当实用的。比如当旅行者面对一个不知名的文物古迹,可以用Google Lens 来获知相关的历史以及文化知识;对准一瓶葡萄酒,AI可以告诉你这瓶酒的各种信息,比如年份、品饮方式、价格等等;在异国他乡拍摄交通指示牌,AI会借助谷歌翻译的力量把这些信息翻译出来。
    谷歌没有公布Lens到底能识别多少东西,但就目前情况来看,其可识别种类已经相当多。在今年的I/O大会上,该功能还被进一步升级,可以用来拍照识别文字信息、推荐穿搭风格,甚至还能识别海报给出的艺人资料与作品。
    从一年的发展来看,谷歌对于Lens的期待很大,不仅升级了它的产品地位,还不断激发新功能,并建立与谷歌其它AI应用的联系。
    虽然看似无所不能,但什么都能识别的Lens也有软肋:Lens的真实工作流程是将识别物体与数据库进行匹配。换言之数据库的大小直接影响着Lens的使用体验。而其技术本身的创造力则乏善可陈。比如吴恩达去年就无情嘲笑过:Lens的识花功能其实早就是百度玩剩下的。
    目前来看,Lens在真实生活中还是“偶尔惊艳、日常痴呆”。当然对于中国消费者的不便就更多了,比如Lens目前并不支持中文。
    但是AI识物这条路却是兵家必争之地,微软就不断宣称Bing搜索中的拍照搜索一点也不比Lens差。
    可无论是谷歌还是微软,都无法解决AI识图搜索的根本问题:用户打开率低,商业化程度较差。
    
    
    1  2  下一页>