增强内生动力, AI还有3大关卡

2020-12-16 17:05   来源: 互联网    阅读次数:103

刷脸认证、自动驾驶、智能音箱、手术机器人等近年来,我国人工智能的发展进入了爆发式发展时期,并被广泛应用于金融、电子商务、医疗、安全、教育等领域。然而,随着技术的发展和应用,数据伪造、算法瓶颈、隐私安全和伦理困境等问题日益突出。

“上述问题,包括很多人工智能企业估值过高、销量偏低等,都根源于人工智能技术本身。这些问题都是由当前数据驱动的第二代人工智能的自然缺陷造成的。”12月9日,在清华大学人工智能研究所主办的“2020第三代人工智能产业论坛”上,中国科学院院士、清华大学人工智能研究所所长张斌说。

张大伟说,随着新一代人工智能的发展成为世界许多国家的国家战略,产业需求正在激增。开发安全、可靠、可靠、可扩展的第三代人工智能技术已迫在眉睫。

什么是第三代人工智能?作为这一概念最早的倡导者,张弼解释说,它是在第一代知识驱动和第二代数据驱动相结合的基础上,从知识、数据、算法和计算能力四个要素出发的新的开发体系。其目标是彻底解决计算机智能问题,全面反映人类智能。

在瑞利智能realai首席执行官田田看来,人工智能希望成为新时代的“水电”,成为推动各行业升级换代的潜在共同能力,这有赖于完整的人工智能基础设施。继承了互联网时代的经验,目前的人工智能基础设施建设主要集中在数据中心和计算能力平台上,主要解决了人工智能的“温饱”问题,为人工智能提供了基本的计算环境。然而,由于数据积累受场景限制,现有计算能力已接近极限,大数据、大计算能力等外部驱动力带来的人工智能产业第一次增长曲线开始放缓。


“突破内在就是增长”,田田说,随着各行业智能化水平的不断提高,人工智能基础设施建设迫切需要从提升自身基础能力入手,发展超越数据和计算能力维度的新能力,打造具有内生动力的人工智能原创基础设施,更好地支持人工智能赋能产业的深入应用,在同样的数据和计算能力驱动产业第二次增长曲线的情况下,为人工智能产业化开辟新的市场空间。

田田认为,要增强人工智能的内生动力,必须突破三大障碍。一是算法关系,保证了算法决策的可靠性和安全性。他解释说,在智能化时代,人工智能的决策逻辑和环节自然有很多不确定性,缺乏可解释性,这使得它们很难应用到高价值的决策场景中。此外,该算法的共同“反样本”特性导致了对人工智能系统的恶意攻击风险。

第二个是数据网关,它保证了数据的隐私性和安全性。在训练人工智能模型时,简单的明文传输和数据利用容易导致隐私泄露。同时,在打破人工智能应用数据孤岛的过程中,数据的使用和数量难以保证,数据可能被滥用和复制。同时,收入难以界定,业主权益难以保障。

最后是应用控制,即人工智能应用场景的控制。比如信用模式中的“幸存者偏见”、人脸识别中的种族歧视等一系列公平问题,以及技术滥用导致的金融欺诈,甚至政治宣传引导舆论。

“要突破这三大障碍,人工智能原生基础设施需要实现可靠算法、数据安全和应用可控性三大能力,实现现有人工智能平台的升级和赋能,扩大人工智能在各种场景下的可用性。这是现阶段人工智能产业的需求,也是产业目标。”田田强调。

为了解决人工智能应用过程中的数据孤岛问题,保护隐私的机器学习被学术界和工业界公认为可行的方法。然而,由于保护隐私的机器学习和传统的机器学习不是同一个技术生态,企业面临着性能差、可用性差、黑盒协议等诸多问题。为此,大会发布了业界首款隐私保护人工智能编译器。

“与遇到应用问题不同,这个人工智能编辑器的目标是完善人工智能原有的基础设施系统,为不同行业提供商业产品和解决方案,使所有场景,无论大小和价值,都能受益于人工智能赋能,使人工智能更高质量地服务于人类社会。”田说。


责任编辑:萤莹香草钟
分享到:
0
【慎重声明】凡本站未注明来源为"中国旅行网"的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。如因作品内容、版权和其他问题需要同本网联系的,请在30日内进行!

未经许可任何人不得复制和镜像,如有发现追究法律责任 粤ICP备2020138440号