张量处理器(英语:tensor processing unit,缩写:TPU)是
Google为
机器学习定制的专用芯片(ASIC),专为Google的
深度学习框架
TensorFlow而设计。
张量处理器(英语:tensor processing unit,缩写:TPU)是
Google为
机器学习定制的专用芯片(ASIC),专为Google的
深度学习框架
TensorFlow而设计。
与
图形处理器(GPU)相比,TPU采用低
精度(8位)计算,以降低每步操作使用的
晶体管数量。降低精度对于深度学习的准确度影响很小,但却可以大幅降低功耗、加快运算速度。同时,TPU使用了脉动阵列的设计,用来优化
矩阵乘法与
卷积运算,减少
I/O操作。此外,TPU还采用了更大的片上内存,以此减少对
DRAM的访问,从而更大程度地提升性能。
Google在2016年的
Google I/O年会上首次公布了TPU。不过在此之前TPU已在Google内部的一些项目中使用了一年多,如Google街景服务、RankBrain以及其旗下
DeepMind公司的
围棋软件
AlphaGo等都用到了TPU。而在2017年的Google I/O年会上,Google又公布了第二代TPU,并将其部署在Google云平台之上。第二代TPU的
浮点运算能力高达每秒180万亿次。
第一代的TPU使用8-bit矩阵乘法引擎,透过
PCIe3.0与
CISC指令操作。芯片为28nm制程,die≤ 331 mm,700 Mhz,功耗在28至40瓦。
专用集成电路(英语:Application-specific integrated circuit,
缩写:ASIC),是指依产品需求不同而
客制化的特殊规格
集成电路;相反地,非客制化的是应用特定标准产品(Application-specific standard product)集成电路。
专用集成电路是由特定使用者要求和特定电子系统的需要而设计、制造。由于单个专用集成电路芯片的生产成本很高,如果出货量较小,则采用专用集成电路在经济上不太实惠。这种情况可以使用
可编程逻辑器件(如
现场可编程逻辑门阵列)来作为目标硬件实现
集成电路设计。此外,可编程逻辑器件具有用户可编程特性,因此适合于大规模芯片量产之前的原型机,来进行调试等工作。但是可编程逻辑器件在面积、速度方面的优化程度不如全定制的集成电路。
专用集成电路的特点是面向特定用户的需求,品种多、批量少,要求设计和
生产周期短,它作为集成电路技术与特定用户的整机或系统技术紧密结合的产物,与通用集成电路相比具有体积更小、重量更轻、功耗更低、可靠性提高、性能提高、保密性增强、成本降低等优点。