Procesory se dvěma jádry (např. Intel Core 2 Duo) se již staly běžnou součástí stolních počítačů. Čtyřjádrové procesory (Quad Core či AMD Barcelona Opteron) přišly vzápětí. Výrobci procesorů zkrátka vsadili na architekturu více jader. Cílem je zpřístupnit našim „pécéčkám“ výpočetní schopnosti dnešních superpočítačů. Nová architektura procesorů si však vyžádá změnu softwaru i přístupu uživatelů.
Intel již vyvinul prototyp procesoru s 80 jádry, každé s taktem 3,16 GHz. Komplex dosahuje výpočetního výkonu 1,01 teraflopů, přičemž vyzáří do svého okolí pouhých 62 watů. Předpokládá se, že obdobné procesory by mohly být na trhu k dostání do pěti let. Prototyp je součástí firemní strategie Platform 2015, ve které se Intel během příštích osmi let zavazuje dosáhnout dimenzi tera-scale computingu. Dnešní procesory dokáží zpracovat řádově několik gigaflopů (miliardu operací v plovoucí desetinné čárce).
Cílem strategie je vyvinout komerční platformu, která dosáhne výpočetního výkonu teraflopů (biliónu operací za sekundu). Multiplikace jader se však neobejde bez další miniaturizace. Dnes je většina čipů vyráběna technologií 90 nanometrů. Intel chce postupně ovládnout technologie 65, 45, 32 a roku 2011 dosáhnout mety 22 nanometrů. Počet jader by se měl na jednom chipu postupně zvětšovat. Intel v současné době zkoumá architekturu procesorů se 12, 24, 48 či 144 jádry.
Jednotlivá jádra mohou být specializována pro konkrétní účel (šifrování, matematické operace, grafika). Hlavní procesy však budou prováděny na jádrech universálních, která mohou být dynamicky zapínána/vypínána podle konkrétního vytížení procesoru. Způsob řízení komplexu jednotlivých jader pak může přinést dodatečnou synergii a zefektivnění práce celého procesoru – nabízí tak další dimenzi zvyšování výkonu.
Nová architektura si však zřejmě vyžádá i přehodnocení architektury počítačových sestav. Aby bylo možné využít výkon tera-scale computingu, musí se data do datovodů procesoru přivádět ohromující rychlostí. Hledají se proto rychlejší paměti RAM. V následujících letech se proto očekává intenzivní vývoj právě v této oblasti. Mezi harddiskem a RAM se stále více užívá velkokapacitních flash pamětí. V současnosti zaznamenávají boom tzv. hybridní disky (harddisky s flash pamětí jako cache). Předpokládá se, že mechanická složka z HDD nakonec zcela vymizí – příp. se přesune do role nějakého externího diskového pole. Hovoří se i o variantě, že by celý počítač (resp. sestava procesoru, RAM a pevné paměti) mohl mít podobu jednoho „superchipu“ o velikosti několika centimetrů čtverečních. Tato radikální proměna počítačů se však očekává až v příští dekádě.
Změny v architektuře procesorů a počítačových sestav pak přinesou řadu dalších možností. Schopnosti dnešních výkonných PC mohou být vtěsnány do velikosti dnešních PDA. Tyto počítače díky pevné flash paměti budou mnohem odolnější a celkově energeticky úspornější.
Domácí počítače s velikostí dnešních PC pak přinesou výkon velkého serveru, na kterém budou moci běžet stovky aplikací najednou. Díky vícejádrovému procesoru a principům virtualizace bude moci na jednom počítači běžet několik zcela oddělených uživatelských rozhraní zároveň. Architektury serverů doznají rovněž radikálních proměn. Půjde de-facto o dnešní superpočítače v pravém slova smyslu.
Aby však bylo možné výhody vícejádrových procesorů plně využít, je zapotřebí vyvinout novou generaci softwaru. Vývojoví programátoři tera-scale programu společnosti Intel proto intenzivně pracují na metodách tvorby vysoce paralelizovaného kódu. Na konci desetiletí bychom se tedy měli dočkat operačních systémů a aplikací, které budou schopny efektivní práce s vícejádrovým procesorem. Svůj výzkum zaměřují zejména na aplikační software.
Rozvoj se předpokládá zejména v oblastech vyhledávacích algoritmů, 3D grafiky, vizualizace, her a multimédií. Zejména pro hry se předpokládá nasazení jednotlivých specializovaných jader na konkrétní grafické struktury, což má prý přinést nečekaný hráčský zážitek. V oblasti firemního nasazení se předpokládá využití této platformy pro zpřístupnění ohromného množství dat v reálném čase; doposud bylo nutné velké objemy dat zpracovávat dávkově pomocí metadat.
Uživatelé budou moci snadno sdílet, vyhledávat a pracovat mezi milióny dokumentů. Využití se nabízí zejména v oblasti data-minigu pro DSS a BI. Real-time data-mining miliónů burzovních indexů může makléřům přinést okamžité informace pro analýzu trendů. Předpokládá se i rozvoj aplikací, které nabídnou možnosti simulace komplexních procesů – to bylo prozatím výsadou společností vlastnících výkonné servery či malý superpočítače. Např. pro zmiňované makléře by to znamenalo, že by mimo aktuálních dat miliónů indexů akcií získali i možnost určité predikce akciových trhů. ERP a MIS systémy běžící na serverech budou moci být propojeny s velkým množstvím periférií a pracovat s nimi v reálném čase. Díky terra-scale computingu se zvýší dostupnost a sníží doba odezvy internetových on-line aplikací.
Jaké všechny důsledky nová architektura přenese, můžeme zatím jen stěží odhadnout. Například kritici procesoru Core 2 Duo namítají, že se Intelu povedl úžasný marketingový trik. Tvrdí, že současný software nedokáže jeho schopností plně využít. Zajímavý je také argument, že numericky více zpracovaných dat automaticky nepřináší zvýšenou kvalitu informací. Jedno je však jisté – lidé dvou a čtyřjaderné procesory prostě chtějí (polovina všech vyrobených procesorů v Intelu v roce 2006 byla s více jak jedním jádrem). Trh zřejmě dává éře terra-scale computingu zelenou.