张量处理器(英语:tensor processing unit,缩写:TPU)是Google为机器学习定制的专用芯片(ASIC),专为Google的深度学习框架TensorFlow而设计。
简介张量处理器(英语:tensor processing unit,缩写:TPU)是Google为机器学习定制的专用芯片(ASIC),专为Google的深度学习框架TensorFlow而设计。
与图形处理器(GPU)相比,TPU采用低精度(8位)计算,以降低每步操作使用的晶体管数量。降低精度对于深度学习的准确度影响很小,但却可以大幅降低功耗、加快运算速度。同时,TPU使用了脉动阵列的设计,用来优化矩阵乘法与卷积运算,减少I/O操作。此外,TPU还采用了更大的片上内存,以此减少对DRAM的访问,从而更大程度地提升性能。
Google在2016年的Google I/O年会上首次公布了TPU。不过在此之前TPU已在Google内部的一些项目中使用了一年多,如Google街景服务、RankBrain以及其旗下DeepMind公司的围棋软件AlphaGo等都用到了TPU。而在2017年的Google I/O年会上,Google又公布了第二代TPU,并将其部署在Google云平台之上。第二代TPU的浮点运算能力高达每秒180万亿次。1
世代第一代第一代的TPU使用8-bit矩阵乘法引擎,透过PCIe3.0与CISC指令操作。芯片为28nm制程,die≤ 331 mm,700 Mhz,功耗在28至40瓦。
第二代第二代于2017年五月发表。
第三代第三代于2018年五月发表。1
专用集成电路专用集成电路(英语:Application-specific integrated circuit,缩写:ASIC),是指依产品需求不同而客制化的特殊规格集成电路;相反地,非客制化的是应用特定标准产品(Application-specific standard product)集成电路。
专用集成电路是由特定使用者要求和特定电子系统的需要而设计、制造。由于单个专用集成电路芯片的生产成本很高,如果出货量较小,则采用专用集成电路在经济上不太实惠。这种情况可以使用可编程逻辑器件(如现场可编程逻辑门阵列)来作为目标硬件实现集成电路设计。此外,可编程逻辑器件具有用户可编程特性,因此适合于大规模芯片量产之前的原型机,来进行调试等工作。但是可编程逻辑器件在面积、速度方面的优化程度不如全定制的集成电路。
一般专用集成电路的ROM和RAM都在出厂前经过掩膜(MASK),如常用的红外线遥控器发射芯片就是这种芯片。
专用集成电路的特点是面向特定用户的需求,品种多、批量少,要求设计和生产周期短,它作为集成电路技术与特定用户的整机或系统技术紧密结合的产物,与通用集成电路相比具有体积更小、重量更轻、功耗更低、可靠性提高、性能提高、保密性增强、成本降低等优点。1
本词条内容贡献者为:
吴晨涛 - 副研究员 - 上海交通大学