创业邦获悉,「CoCoPIE」近期完成数千万元A轮融资,投资方为红杉中国种子基金、初心资本等机构。
CoCoPIE是一家人工智能初创公司,成立于2020年。创始团队包括来自美国东北大学的王言治教授、北卡罗来纳州立大学的慎熙鹏教授及威廉玛丽学院的任彬教授,也有成员来自多家国际知名科技公司。CoCoPIE CEO王言治为美国东北大学电子工程系与Khoury计算机科学学院助理教授,其团队的主要研究方向包括AI模型压缩和编译等。
本轮融资后,CoCoPIE将继续推进研发和市场发展,引进更多人才。目前CoCoPIE创始团队约有10余人,总部位于美国,今年将在中国设立办事处。
而在今天,越来越多的数据、愈加复杂的运算逻辑等等,让行业积极投入到创新当中。一种常用的思路是在硬件层面做创新,研制AI专用加速硬件,置入到终端中。CoCoPIE的方向则在软件层。简单来说,CoCoPIE希望作为软件版的AI加速器,在通用芯片上实现AI应用实时化。
技术方面来看,CoCoPIE通过“压缩-编译协同”设计,可以有效优化模型的大小和速度,缩短压缩过程及调优时间,让AI应用在本地即可运行,最大程度发挥芯片的应用潜力。“现在手机等终端采用的都是通用芯片,其实通用芯片本身的算力还是不错的,只是没有对AI进行很好的优化,”王言治表示,“通过CoCoPIE的技术,我们可以让AI模型或者应用以最优的状态在芯片上运行,相当于让原来无法跑AI模型的芯片可以用起来,提升芯片的利用效率。”
CoCoPIE的技术能够让芯片算力提高3-4倍,同时减少这些应用运营方的成本——以往在云上计算和传输数据,运营方需要负担巨大的服务器和带宽成本。另一方面,这也提升了使用体验,摆脱了无网络或网络环境不佳对AI应用的限制。
对于专用芯片,AI芯片的弱点在于网络和应用适配的类型比较局限。当前,一些主流大公司会设计NPU,应用于自家终端中,但也只能为深度学习做简单加速,尚未大规模普及。而AI应用程序运营方若想让他们的程序适配市场上所有的NPU,需要大量程序开发人员。这时,CoCoPIE能在应用研发团队和芯片厂商间起到桥梁作用,使同一个深度学习模型适配不同硬件平台,芯片效能最高可提升5-10倍。
CoCoPIE已经完成初步研发,推出了两款产品CoCo-Gen以及CoCo-Tune,能够在不额外增加人工智能专用硬件的情况下,让现有处理器实时地处理人工智能应用。应用场景方面,CoCoPIE会首先关注手机、车载芯片等领域,而对于一些制程相对较低的IoT终端芯片,CoCoPIE也能做到很好的适配。
芯片短缺导致一些技术公司不得不停止发展脚步,如AI专用芯片等研发需要5-10年的周期,这直接制约了许多产业的发展。比如新能源汽车,CoCoPIE相当于能够让旧芯片应用神经网络,解决当前芯片方面的燃眉之急。
而在竞争层面,当前芯片研发进步飞快、5G等基础设施规模化推进,云厂商也在大力推进云边端战略,这是否会让CoCoPIE的发展时间窗口变短?
王言治认为,CoCoPIE的技术解决的是神经网络“能不能上”设备的问题,对市场各方机构而言是可以互补合作的伙伴而非竞争对手。事实上,CoCoPIE当前也已经开始商业化落地的尝试,合作客户包括腾讯、著名美国软件外包服务商Cognizant等,此外也有芯片厂商。合作模式有多种,客户可以选择与CoCoPIE联合开发或按license采购,CoCoPIE会融入到其生态中,这些都是共同发展的证明。