谷歌AR眼镜+视觉搜索新开端,微美全息AI视觉SDK无感支付服务
自互联网搜索引擎出现以来,已经过去了20年的时间。在这段时间里,搜索方式和模式都发生了巨大的变化。除去普通的文字搜索,智能语音搜索也开始发展起来,尽管语音搜索被认为是一种很鸡肋的功能。接着是最近几年兴起的视觉搜索,它未来很有可能占据搜索方式的半壁江山。
在谈视觉搜索之前,我们应该先了解一下它的概念。尽管它和我们较常使用的图像搜索有技术上的重叠,但是两者并不相同。图像搜索是一种以反馈图像有效信息结果的搜索模式,比如使用TinEye(第一个使用图像识别技术的搜索引擎)或Google图像等搜索引擎进行搜索,只要输入文本、关键字或者图片就行。
在输入方面,视觉搜索则完全不同,通常它的输入是指使用智能手机或其他类型的摄影头来识别物理世界所有对象信息的模式。然后,搜索引擎再使用图像识别技术来识别它所代表的有效信息,并在特定视觉显示应用程序中以智能化显示的方式呈现在受众面前。
语音搜索往往具有已知的目标性(比如对已知品牌产品或功能有重复购买和使用的需求),而在视觉搜索中,搜索者或多或少地知道他们想要什么,他们不一定期望找到完全相同的对象。
目前,视觉搜索引擎往往需要先专注于单个对象的识别,不过后续会发展对视线可见范围内更多的物体环境识别并以此组成整体视觉搜索模式,这是视觉搜索模式发展的一个关键。这意味着我们可以随时检索我们周围的世界。
2009年谷歌推出的Google Goggles可以说是最早的视觉搜索应用,它最初是为Android智能手机开发的,之后于2010年推出iOS版。Goggles目的在于搜索识别现实世界中拍摄对象的图片信息,并且能够使用物品的条形码进行产品搜索。
但是Goggles的技术非常基础,Pinterest公司于2016年在技术有重大突破,开始研发如何更有效将图像识别和视觉搜索功能结合起来,包括能够在更广的可视范围内中逐个建立单个识别对象,并在视觉应用上显示搜索信息。之后,谷歌在2017年又推出了最新产品:Google Lens。它比Google Goggles具有更多令人印象深刻的功能(尽管该技术不够完美),并且在当年8月份正式取代Goggles。
我们几乎不了解Google Lens的实际工作原理,似乎是使用类固醇的Google护目镜。Google的图像识别功能已经非常强大,但是由于Google不断增强的AI能力,Google Lens不仅能够识别所有不同种类的物体,而且还能够提供上下文结果。Lens将能够与其他Google服务交互以提供更多个性化的反馈。
从理论上说。除了在Google I / O上进行的快速演示,展示了WiFi网络连接之外,还有很多我们不知道的有关Google Lens的细节。但至少,我们可以看一下其界面在Google App中的外观。
当您选择一个类别时,我们怀疑Visual Search会缩小其数据库的范围以更快地完成查询。无论如何,选择类别(或坚持使用“全部”)后,只要轻按相机取景器中的任意位置即可开始搜索。如果周围太暗,则可以通过点击左上角的闪光灯图标来启用相机闪光灯。
执行搜索将显示卡片视图结果列表。您可以左右滑动以查看所有结果。轻触结果将打开与该对象或产品相关的Google搜索页面,尽管您可以通过滚动搜索页面顶部的迷你卡片视图来轻松选择浏览另一结果的搜索页面。在任何视觉搜索结果上打开三点菜单也可以直接访问图像源,就像Google的桌面图像搜索一样。
为什么说AR眼镜可以帮助视觉搜索呢,实际上因为人本身就是视觉生物。我们每天浏览网页,玩游戏,看手机,看电影,都是在面对一些高度视觉化的体验,如果没有视觉,人们很难对这些东西产生依赖。
语音搜索诞生之初的目的,为了让人们不再做“低头一族”,但后来人们发现它并不止这个功能。研究人员发现,语音搜索还可以和家用电器、汽车等结合起来使用,效果很好。不过要注意的是,这类语音搜索仍然没有离开那块屏幕。如果它们换成AR眼镜的视觉搜索,效果会更加明显。所以现在很多的AR眼镜其实都带有语音搜索功能,比如语音助手,AI助手等。这也说明两种搜索方式是可以完美融合的。
视觉搜索具有巨大的商业化潜力的,因为其模式是用最直接的方式搜索用户想要购买东西,也可以检索相关的产品信息。而现在的文本搜索和语音搜索只是能找到目前对象的一个范围,很难做到精确检索。
AR也为视觉搜索开辟了一个全新的世界。宜家已经开发出使用AR技术来展示家具的大小和摆放位置的应用程序。用户可以自由搭配自己的咖啡桌、墙纸和灯具。同时视觉搜索也能在空间检测、智能装饰和空间美化上有更多的应用。用户通过更加精确的视觉搜索识别技术,可以筛选出许多的有效信息。而AI也可以借此机会收集用户数据,推出个性化的定制服务。
面部识别技术,是基于人的脸部特征信息进行身份识别的一种生物识别技术。利用摄像设备采集人面部图像或者是视频,通过提取其中的关于面部图像特征,与数据库中存储的特征模板进行搜索匹配,当相似度超过设定阈值就会输出匹配成功,反之输出匹配失败结果。人脸识别是基于数字图像处理,数字图像处理一直都是比较前沿的研究方向。数字图像处理技术的后期就会发展为人工智能 (AI)。
作为视觉领域的企业微美全息,其开发的全息云系统作为微美全息独家的研发突破,其领衔的微美AI人脸技术应用,已得到业内多方的称赞。搭载人脸识别技术的手机能够刷脸解锁;搭载语音识别、语音识别技术的音响能够实现语音交互。
微美全息全息云是增强现实的一种内容提供方式,就是让你看到现实中不存在的物体和现实世界融合在一起的立体影像并与其交互,通过投射装置,将手机或电脑上的影像投影到其他介质上。微美全息云中最具商业价值的就是全息技术。全息技术也称虚拟成像技术,是利用干涉和衍射原理记录并再现物体真实的三维影像的记录和再现的技术。是一种用相干光干涉得到物体全部信息的的三维成像技术。全息技术所记录的不是影像,而是光场。应用场景广,行业成长性高。
微美全息AI-MBTWIMI全息云平台,是公司开发的一款高性能WIMI全息云管理平台,主要用于为企业、团体、组织或个人提供AR3D应用&;全息娱乐、AR3D应用&;全息广告与AR3D应用&;全息技术服务三大服务体系。云平台根据适用场景的不同分为To BTo C,两者在功能和特性的支持上存在一定差别。To B主要为广告、影院、家装、餐饮、娱乐、游艺等公司提供所需全息虚拟内容与技术支撑服务。To C端的应用主要提供微美WIMI全息云AI-MBTNSDK及其插件用在移动端摄影、APP应用之中提供各类个人增值服务,未来还可以应用在AR/虚拟现实/智能眼镜,DLP(数字光处理)投到视网膜;拥有SDK插件和智能计费系统等。
微美面向优质客户开放API接口。通过API接口,媒体平台可以开发量身定制的系统功能,实现包括自动化管理广告资源、广告资源分析与内部系统集成、定制特殊功能、单个平台管理多个账户等一系列功能。媒体平台可以将自己的广告位资源全方位展现在广告主面前。
另外微美全息云设置了媒体方品牌保护机制,结合AI-BMT的DMP数据平台强大的分析处理功能,可以让媒体平台实现自身广告位资源的最优化利用。媒体平台同时可以根据自身需要,通过媒资管理平台设置屏蔽不希望接入的广告内容和相关广告主,从而达到对自身品牌的有效保护。降低了媒体平台加入媒资管理服务的风险,确保了品牌广告的安全投放,从而实现商业模式的良性循环。
目前的微美全息云广告还仅仅限于人与环境、人与设备的互动。随着新技术的开发与运用,人与人的互动会成为WIMI3DAR全息广告互动方式的一部分。目前,融合AR和虚拟现实的MR设备已经诞生,这就意味着未来的人可能会在游戏世界中相遇,从而产生更多的互动内容。所以,互动性升级是必然的发展趋势。实现人与人的有效互动。以实现趣味性的升级。随着技术的不断革新,多人互动设备、多人互动场景等技术构想。
现阶段,AR智能眼镜以应用于B端的工业、医疗、安防等领域为主。随着硬件设备的迭代升级、应用案例的积累以及大众消费者认知度的提升,AR智能眼镜除了深耕于B端市场之外,将会逐步拓展至C端市场,应用于游戏娱乐、教育、社交等方面。
AR搜索和视觉搜索又有一定的区别。视觉搜索是指使用真实世界作为输入任何类型物体信息的搜索,但搜索结果反馈仅限于所使用设备,同时引导用户访问网页或应用程序;AR搜索是指通过在周围环境中叠加信息或可视效果,搜索视觉的输入和信息输出来增强用户对周围世界的认知。
它们是各自独立的概念,因此我们可以进行视觉搜索,但不一定涉及AR。然而在AR眼镜普及的未来,数字互联网和真实世界将更加密切,视觉搜索和AR搜索必将成为同一个表现形式。
随着5G商用和人工智能的落地,万物互联近在眼前。视频作为核心信息和功能载体的移动互联网新入口——视联网,也孕育下一个万亿级的产业生态。视联网加速发展下,将有利于AR眼镜产业的成熟和升级。伴随智能硬件的不断升级、应用生态的蓬勃发展、大众认知度的不断提升,相信AR智能眼镜行业会迎来快速爆发的一天。