Google推出Move Mirror趣味AI网站,可在浏览器中根据人体动作即时搜图

AR酱

    从AlphaGo到猜画小歌,Google一再向我们展示着人工智能的神通广大,前段时间Google又推出一个新的AI实验网站 Move Mirror 。
    
    Move Mirror是一个人工智能实验,通过移动让你以一种有趣的新方式来探索图像,当你在摄像头前移动时,Move Mirror会通过你的实时动作判定你的人体姿势,与数百张在世界各地做类似姿势的人的图像相匹配,筛选出与你的姿势最相近的图像。你甚至可以捕获做一个GIF图,与你的朋友分享它。
    
    大概的运作原理是:它会利用PoseNet来镜像图像中人体姿势的关节对应位置,分析后从有80000张素材的数据图库中对比出与你姿势最接近的图像,而这个过程仅仅需要15ms。并且搜索结果会即时比对随时变更。
    
    这这要归功于TensorFlow.js,这是一个允许你在浏览器中运行机器学习项目的Javascript库。通过将PoseNet移植到TensorFlow.js,任何拥有配备好网络摄像头的PC或手机的人都可以在Web浏览器中体验和使用这项技术。关于隐私,当PoseNet由tensorflow.js驱动时,这就意味着姿态估计直接发生在浏览器中,你的图像不会被储存或发送到服务器,所有的图像识别都在本地进行。所以你可以放心去做一些看着很搞笑或有点蠢的动作。
    
    上段说到PoseNet这是一个由剑桥大学开发的姿态估计开源工具,允许任何Web开发人员完全在浏览器中进行基于身体的交互,不需要特殊的相机或C++/Python技能,这是非常先进的姿势估计模型,即使是一些模糊,低分辨率,黑白的图片,也可以从图像数据中提供高度准确的姿势数据。PoseNet可以通过简单易获取的Web API降低了姿态估计的入门门槛。
    姿态匹配和搜索是Move Mirror面临的难点。
    
    PoseNet在面部和身体上检测17个姿势关键点。每个关键点都有三个重要的数据:(x,y)坐标位置(表示PoseNet发现该关键点的输入图像中的像素位置)和一个置信度得分(PoseNet对猜测的正确程度有多大)。
    
    
    1  2  下一页>