RealAI亮相AIIA2020人工智能开发者大会,聚焦可信AI创新落地实践
9月28日-29日,由中国人工智能产业发展联盟(AIIA)主办的“AIIA2020人工智能开发者大会”成功举行。本次会议以“开源、开发、开放”为主题,汇聚了大批人工智能领域的顶级专家学者和领先企业代表,共同探讨产业新动态和发展新趋势。瑞莱智慧RealAI作为领先的安全可控人工智能服务商受邀出席本次大会,并作为首批企业通过“可信AI”评估认证。
随着人工智能作为新一轮核心驱动力被广泛运用于不同行业领域,随之而来也引发了诸多安全伦理问题,为探寻人工智能可信发展的实现路径,本次会议同期落地可信AI论坛,聚焦人工智能可信前沿研究部署与创新落地实践,广邀国内外多位嘉宾进行交流探讨。
瑞莱智慧RealAI副总裁唐家渝受邀参与该论坛,并发表《安全可控人工智能的产品实践》主题演讲。唐家渝表示,随着人工智能的落地应用越来越广泛,AI的不安全、不可控问题正日益凸显,背后一方面源于AI系统本身的脆弱性,一方面源于对于AI的不合理使用。
同时他透露道,近年来国内外不少研究机构跟政府单位都陆续开始布局安全AI,成立实验室、治理研究院,包括推动伦理规范与治理准则的落地,他认为,发展安全可信的AI正成为抢占人工智能未来高地的新机遇。
在谈及如何实现安全、可信、可控的AI时,唐家渝提到了“六大目标”:功能稳健可靠、数据可控可信、决策公平公正、业务逻辑可解释、安全事件可追溯、应用合法合规。同时他介绍道,RealAI的产品实践落地正是围绕这六大目标展开。
为保证决策功能稳健、可靠、可解释,RealAI引入贝叶斯深度学习全新范式,将第一代AI的知识驱动的方法和第二代AI的数据驱动的方法做结合,打造出决策逻辑可理解、苛刻场景下模型表现更优的 AI 产品和解决方案。
为保证算法安全性,RealAI基于世界领先的对抗样本攻防算法打造业内首个可视化零编码的人工智能安全检测平台RealSafe,支持对算法模型进行漏洞检测与防御加固,能够大幅提升第三方 AI 系统的安全性。同时,为保证数据隐私性,RealAI推出协议级别的隐私保护机器学习平台,在“数据不出库、无中间方作为协调者”的前提下依旧保证数据价值最大化。
为保证AI应用合法合规,防止深度伪造等技术滥用问题的出现,RealAI推出AI伪造内容检测平台DeepReal,能够快速精准识别伪造视频和图片,为营造健康网络环境、打击侵犯个人声誉与网路诈骗提供了技术保障。
唐家渝最后表示,基于一系列在安全可控人工智能的实践成果,RealAI也在联合政府机构积极推动可信AI评估体系与标准规范的落地。今年8月,RealAI作为首批委员单位入选全国信标委人工智能分委会,未来将参与国家人工智能标准化制定等各项工作。此外,RealAI也联合北京智源人工智能研究院设立了安全人工智能创新中心,将通过建设AI安全测评平台、AI安全对抗防御平台、内容安全检测平台建立科学可信的安全评估体系,助力北京市发展负责任的人工智能。
最后,就如中国信息通信研究院云计算与大数据研究所人工智能部主任孙明俊所说,人工智能的飞速发展正对法律、伦理、社会等不断提出新挑战,“可信AI”需要被重视。作为安全可控人工智能的倡导者与先行者,未来,RealAI将继续“践行科技向善,牢筑AI可信”!