|
過去一段時間以來,很明顯地,報酬遞減法則(Law of Diminishing Return)已經能適用在傳統處理器架構的進展上。每一代新製程幾何尺寸和新興微架構的進步,在相應性能上所能帶來的增益正在逐漸減少──顯然,借助更快速度以實現摩爾定律的方法不再靈驗!
, t) B s# x [' ~$ y& v. m
, i1 A2 K+ h" x$ c, e0 h英特爾借助Pollack定律(以英特爾微處理器實驗室主任Fred Pollack命名)規則對補摩爾定律進行了補充說明,並闡述了此一事實。Pollack觀察到:從i386起,英特爾每一新架構需要兩到三倍的矽晶片面積,而性能只提升1.4到1.7倍。簡言之,性能的提升與複雜性的平方根成比例。就兩代處理器來說,性能每提升一倍,複雜性便增加4倍;速度提升4倍(依摩爾定律需6年時間),電晶體就要多用16倍。
' K) d, G. a7 A; h" c1 i
# ~$ ?* W9 K" M在此同時,許多人相信,他們已找到了阻止製程尺寸進一步微縮的限制因素:不是微影技術或量子物理,而是在極小的實體空間內進行大量運算工作時,必然需要的巨大功率密度。(聽來很駭人嗎?核心的功率密度已高於熔鐵而接近火箭噴嘴的程度。) " U6 u" L1 S$ B! ^! a
) U+ h) L# g) S) I4 u; D
功耗和微架構改良的限制,使單一處理器的發展前景受挫,業界的關注焦點已轉向多處理器或多核心晶片架構開發潛力。雖然多核心產品實際上已問世一段時間了,該這個概念最近才在桌上型處理器中普及。例如,PicoChip在2002年推出的picoArray產品就在一個晶片上整合了300個核心。
& e/ [- F1 c7 g6 q% X# B3 D1 F ]8 a
由於多核心是用於克服單處理器系統侷限的,所以許多人認為,採用多核心純粹是出於性能方面的考慮。但以picoChip的經驗來看,多核心技術的影響更微妙、意義也比僅簡單地提供更強大的處理能力深遠得多。對我們和客戶來說,最重要的一點是:picoArray多核心產品能比標準處理器提供高10倍的處理能力。 2 [+ ^2 Z7 G$ C. D7 X3 A
: \0 l! Q# {; U4 G3 t
也就是說,在同樣的價格和功耗基準下,採用多核心產品的系統,將比採用標準DSP的系統處理能力高10倍。另外,傳統上需要一個大型FPGA的應用,若採用多核心處理器實現,也能降低成本和功耗。 / R, s4 C2 r9 f( g3 X5 O. t
$ I4 ^* I6 f) ?) R1 E$ M8 }從更實用的角度說,這些成本效益屬性使開發諸如3G femtocells(也稱家庭基地台)等大量市場成為可能。這些產品要求極強的處理能力,且對價格很敏感、上市速度要快。這些技術同樣對處理能力和原材料成本有苛刻要求。
& c# \ x" O# R! H& ^- c; A8 b: s3 B5 U% a
對多核心處理器的解讀還存在其他誤解。其中之一是以為‘多核心’意指一種技術。實際上,多核心囊括了多種方法,這些方法可用以下兩個指標劃分:核心大小和所用核心數量。
4 b% _# @) o, q) I' w; F1 I4 _- H& n5 X, _
顯然,在桌上型PC用的雙核心處理器和類似picoArray這類數百個核心平行工作的產品間存在巨大差別。但兩個系統的確都是多核心的。 ( R* J" _3 g4 k5 r. s
i2 ~- |; k" M4 F; Q1 f
嵌入式系統和通用桌上型PC在需求上有顯著差異。對通用PC來說,即使硬體升級,一個工作狀態持續改變(用戶可在任意時刻執行任何程式)的開放環境仍對性能的一致性提出很高要求。相反地,嵌入式系統通常是執行單一任務(儘管複雜),但當硬體改變時,它會重新編譯程式。
2 ~6 N3 G: F+ F: g# p$ i: ~% Q' ^( F6 L' f/ `, N: _6 b
事實上,為了從多核心架構得到更好的性價比,核心與和多核心矩陣的大小是主要關鍵。為做出正確決策,需徹底瞭解該元件的目標應用。針對無線訊號處理應用,picoChip已針對最合適的核心大小或每百萬電晶體所應提供的處理能力進行了仔細分析。得到的結果是:這種核心相對簡單,其複雜性更接近英特爾8086 CPU,而不像Pentium 4那樣高深。 * @( Z) {/ Z" [7 d6 J; C$ R0 V
0 x: P# p6 P& y6 I我們的分析顯示,一個時脈頻率100到200MHz、帶三級管線的16位元、三向、長指令字架構就速度/晶片面積或速度/功耗指標來說是最合適的。這個結論蘊含著進化論的邏輯:由於業界正面臨難以置信的價格壓力和極快的更新換代速度,因此,在目前每年售出10多億部手機內採用的處理器架構中,若出現一種更高效的架構,則業者會毫不遲疑地轉移到新架構上。 & _. U/ Q5 B* N' g
. C1 p3 f% B: t# Q) u採用這種新架構,我們可在每一元件內放置數百個核心。此舉立即克服了多處理器系統面臨的一個傳統難題:對一個過程進行‘某種程度’的平行化處理雖然能提升少量性能,但卻顯著增加了複雜性,並限制了可用性。證據是,從讓性能提升10到20倍所需增加的成本和功耗來看,獨立測試程式的確顯示(如預期般):同樣的電晶體數量(矽晶片面積、成本、功耗)可獲得更多的成果。實際上,Pollack定律幾年來一直屢試不爽。
) [9 v5 B- a& R; `
1 W7 e# G6 @9 s& Y$ ?這讓我們必須面對最重要的可用性問題。為了把多核心架構的潛能發揮到極致,支援處理器間通訊的硬體至關重要。在此之上,軟體發展工具鏈將決定一個專案的成敗。性價比當然越高越好,但若設計團隊要多花一倍時間才能完全實現這些性能,則單純從經濟角度出發的觀點將難以成立,更別提還必須考慮上市時間了。這就是為何picoChip持續投資支援採用熟悉的軟硬體描述語言,就可進行結構化編程工具鏈研發的主要原因。
5 H6 z& c* }' G0 Z$ O t0 ?
: V4 S" V2 S% a3 \8 D( p5 K所以,我們可得出如下結論:雖然多核心的確是必經之路,但簡單的整合更多核心並不能解決問題。必須根據應用需求來調配處理器的大小和數量、提供充分的處理器間通訊能力;另外,最重要的是透過提供一個基於標準的直觀工具鏈,來確保軟體工程師能發揮最高創造力。 ' @9 V! q; J7 j( @$ ?
4 j6 r( Z( m6 u# M. C0 r- B儘管僅有在上述所有條件皆齊備時多核心才能事半功倍。但好消息是,這些因素不僅可確實獲得,而且也已經在上市產品中獲得驗證。 8 p9 V) t; L; O( r- r
- K9 y8 S4 P+ u s8 y; [/ B
/ Z. l* F9 l8 e+ M0 X作者:Peter Claydon 1 T, W2 u4 \9 S0 }/ ]" y# h8 u4 e
1 a% {( j# R. `! q6 ^
共同創辦人兼COO ; |9 j" ^$ O; L" S9 n
7 Q! K/ {& k& f3 J kpicoChip公司 |
|