Vedci vyrobili prvý, skutočne 1000-jadrový procesor

 
1000 nezávislých jadier, 621 miliónov tranzistorov, takt 1,78GHz, nízke napätie a vysoký výpočtový výkon. Taký je prvý 1000-jadrový procesor KiloCore.

Stolné počítače či notebooky majú procesory s viacerými fyzickými jadrami už roky. Tento trend sa postupne rozšíril aj do smartfónov a tabletov a dnes už 10-jadrový procesor v mobile nie je novinkou. Čo však takých 1000 samostatných jadier? 
 
 
Vedcom z Kalifornskej univerzity v Davise sa podarilo vyrobiť skutočný 1000-jadrový procesor, ktorý nazvali ako KiloCore. Tento procesor má 1000 samostatných, nezávislých jadier, čo znamená, že na rozdiel od grafických kariet, v ktorých je aj viac ako 2000 jadier dokážu jadra KiloCore pracovať samostatne a vykonávať program nezávisle od ostatných jadier.
 
KiloCore má 621 miliónov tranzistorov a ponúkne výpočtový výkon 1,78 biliónov operácii za sekundu. 1000 jadier procesora pritom nemá až tak nízky takt a pracuje na priemer frekvencii 1,78GHz, pričom maximálny takt je 1,87GHz. Ak je procesor taktovaný nižšie a poskytuje výkon 115 miliónov operácii za sekundu, je jeho spotreba iba 0,7W. Procesor vyrobilo IBM pričom použilo 32nm CMOS proces.
 
Procesor je tak energeticky efektívny, že tvorcovia tvrdia, že na jeho napájanie stačí AA batéria. Podľa slov vedcov vykonáva KiloCore inštrukcie až 100-násobne efektívnejšie ako moderné procesory v notebookoch.
 
Momentálne pre takýto 1000-jadrový procesor neexistujú aplikácie, ktoré by vedeli využiť všetky jadrá a ide tak o koncept. Využitie by však raz mohli takéto procesory nájsť v enkódovoaní či dekódovaní videa, šifrovaní a iných oblastiach náročných na procesor.
 
Zdroj: tweaktown
 
Komentáre (4)
Pjetro de
Nevyrobili ziadny skutočne 1000-jadrový procesor, pretoze na jedno "jadro" vychadza az neuveritelnych 621 tisic tranzistorov a to su vskutku plnohodnotne jadra ze? Nie su absolutne specifikovane detaily architektury ale je nad slnko jasne, ze to nemozmo porovnavat s plnohodnotnymi x86 jadrami v CPU, zvlast pokial to ma sluzit iba na specificke vyuzitie, spracovanie videa, šifrovanie a dekódovanie a kódovanie bezdrôtovej komunikácie. Dokonca to nemozno porovnavat ani s jadrami v Intel Phi akcelerotoroch (tych je iba cca 60) !!!!!!!!!!! V podstate co sa tyka moznosti vyuzitia a poctu, to mozno porovnavat so stream procesormi v GPU (dnes do 4096). Jediny rozdiel je, ze stream procesory v GPU su dalsimi 2-3 urovnami organizovane do vacsich celkov a hento je skutocne 1000 samostatnych entit. V podstate je to nieco medzi cpu, gpu, intel phi, asic na tazenie kryptomien, cipu na hw podporu multimedii ci najnovich cipov pre AI ... vykonny hybridny cip to vie exremne rychlo a efektivne robit niekolko druhov vypoctov, ale okrem toho ani prd.
MQ
"vykonny hybridny cip to vie exremne rychlo a efektivne robit niekolko druhov vypoctov, ale okrem toho ani prd." Mas pravdu. Len je skoda, ze namiesto toho siahodlheho pisania o nicom, si sa nerozdychal. Pretoze bez zverejnenych specifikacii a predpokladaneho vyuzitia, si mlel naprazdno. Mozno sa casom ukaze, ze bol vyvinuty presne na nieco konkretne a zvysok mu moze byt ukradnuty. Zvysok budu mat predsa na starost "muklovia" v podobe tych tvojich "plnohodnotnych" cipov. . "Aj Bugatti Veyron, aj Tatrovka 813, ta dokazu premiestnit z bodu A, do bodu B. Veyron to dokaze nasobne rychlejsie, ako T813, ale neodvezie naraz taky naklad, ako T813 a naopak. Napriek tomu im to nikto nevycita, preto kazdy rozumny clovek vie, ze boli postavene na diametralne rozlisne ulohy." Nebud uzkoprsy a vnimaj svet ako celok.
m2fizy
Az na to chalani, ze VAM OBOM unika podstata ... tento procesor nebol vyvinuty na to aby nieco "realne robil" tento procesom vyvynulo IBM ako "demonstraciu" toho co dokazu ... a ako daleko sa posunuli ... resp. na to aby sa "nasledujuce" generacie "architektov / programatorov" mali na com ucit / uzdelavat ... resp. "odkial sa odrazit". Takze jedna sa iba a cisto o "vedecky" projekt s relativne nulovou hodnotou pre pouzitie v sucastnosti ... ale s vysokou perspektivou do buducnosti (resp. ako "prestiz").
Pjetro de
Neda mi nezareagovat na to, ze vykonáva inštrukcie až 100-násobne efektívnejšie ako moderné procesory v notebookoch. Sak samozrejme ze ano, ked ma obmedzenu funkcionalitu ! To je nepriama umernost ! Vid E) v dalsom komentari :))) Svet sa hemzi napodiv NEpriamymi umernostami, nie priamymi, ale bezni ludia ziju v sladkej nevedomosti: A) zoberme si rychlost zaznamoveho media (latencie ci kontinualka) a jeho kapacitu: 1) registre CPU, latencia 1-2 CPU cykly (zlomok ns), kontinualka niekolko TB/s, alebo aj viac, kapacita radovo 100 B ci 1 kB 2) L1 cache CPU, dnesne CPU maju taky rychly cache system, ze pred 15 rokmi by sme z toho odpadli, latencia 3-4 cykly (zlomok ns), kontinualne rychlost citanie/zapis radovo stovky GB/s (najnovsie L1 cache Intelu maju kontinualky az 1 TB/s !!!) a kapacita zopar 10 kB 3a) L2 cache CPU, latencia 10-12-14 cyklov CPU (cca 10 ns), kontinualny pristup stale aj stovky GB/s, latencia desiatky cyklov CPU (cca 30-50), kapacity radovo stovky kB 3b) L3 cache CPU, latencia desiatky cyklov CPU (stovky ns), kontinualny pristup stale okolo 1/4 TB/s (ale uz sa v pomalosti blizi k rychosti RAM), latencia desiatky cyklov CPU (cca 30-50), kapacity radovo MB ci 10 MB 4) RAM, latencia tisice CPU cyklov (radovo cca 50-100 ns), kontinulany pristup 1 - 30 GB/s od suchej single channel 266 MHz DDR2 po tripple/quad channel DDR4 3200 MHz, kapacita radovo GB ci desiatky GB 5) SSD, latencia statisice CPU cyklov (radovo cca 0,1 mikrosek), kontinualny pristup radovo 100 az 1000 MB/s (30 MB prve SSD az 550 MB/s posledne bezne SSD), kapacita radovo niekolko 100 GB 6) HDD, latencia miliony/desiatky milionov cyklov CPU (radovo 10 milisek), kontinualny pristup radovo 100 MB/s (od 20 MB/s pri suchom 60-80 GB modeli spred 10. rokov po 150-170 MB/s dnesnych diskov), kapacity radovo jednotky TB 7) zalohovacia paska, latencia miliadry/desiatky miliard cyklov CPU (az niekolko desiatok sekund! sa musi pretacat), kontinualny pristup radovo 100 MB/s, kapacity radovo TB, ci az desiatky TB Krasna nepriama umernost: cim vacsia kapacita, tym nizsie rychlosti (pristupove doby aj kontinualne) a naopak. B) mnozstvo informacia a ich trvacnost: Vztah nie je samozrejme uplne presny (napr. linearny ci logaritmicky), avsak korelacny koeficient je prilis velky aby sme ho ignorovali. Cim viac informacii na mediu, tym ma mensiu zivotnost, plati to od napisov v kameni z cias stareho egypta spred 3 tisicroci pred Kristom (mnozstvo informacii radovo 1 kB, trvacnost radovo 10000 rokov) az po heliove ci sindlove 8-10 TB HDD. Do minulosti by sme dokonca mohli ist az po zaznam cisel do vestickej vrublovky (kost vlka spred 35 tisic rokov, kde su zaznacene prirodzene cisla do 20 ako zarezy). Vsetka cest niektorym diamantovym super-hyper trvacnym DVD, ktore sa snazia vytrcat od regresnej priamky. A opat krasna nepriama umernost: cim vacsia kapacita tym mensia trvacnost a naopak. Data na tom 10 TB disku iste nevydrzia 35 tisic rokov, ani 5 tisic, ani tisic ... C) mnozstvo informacii a orientacia/vyhladavanie novych/filtrovanie informacii: Ich sucinom moze vzniknut nieco ako "efektivita spracovavania a narabania s informaciami" a sucin tychto velicin je cca radovo konstantny (opat vsak len fuzzy priblizne), t.j. ked sa jedna velicina zvacsi (napr. mnozstvo informacii), druha sa zmensi (schopnost orientacie/vyhladavania/filtrovania novych informacii) no a opacne. Nech zije Google, ktory chvalabohu "kazi" toto pravidlo a vytrca mimo regresnej priamky. D) ze by sme zabrdli do kvantovej mechaniky, podla ktorej urcit zaroven presnu polohu a presnu hybnost subatomarnych casti je nemozne? Akoze nam to vyzera princip neurcitosti zapisany rovnickou: (detla_d)*(delta_p) > 2*pi*h .. t.j. nepresnost v urceni polohy KRAT nepresnost v urceni hybnosti je vzdy vacsia ako konstanca 2*pi*h (kde h je planckova konstanta) ... zasa sucin dvoch vecilin: nepresnost v urceni polohy a nepresnost v urceni hybnosti. Chvala panu bohu (ci inej nadprirodzenej entite), ze planckova konstanta je tak mala, inak by boli kvantovo-mechenicke prejavy na poriadku dna aj v makroskopickych meritkach. E) sucin univerzalnosti stroja a jeho spotreby (resp. ak chceme tak aj efektivity v opacnom zmysle) je opat fuzzy konstantny. Cim viac univerzalny stroj/suciastka, tym mensia efektivita a vyssia spotreba. CPU moze mat sice spotrebu 125-130 W (ak ide naplno), ale zato je sakramentsky univerzalny, ze by sa Turing v hrobe obracal. GPU moze mat sice efektivitu 50x vacsiu, ale zato nie vsade, iba pri grafickych operaciach, resp. customizovanych GPGPU vypoctoch, ktore sa nam krkolomne podarilo optimalizovat rozchodit, ale Total Commander ci OS si na GPU nespustim. Moze existovat super-hyper hardverovo specializovany cip s este 100x lepsou efektivitou oproti VGA (spotreba 0,01 W na GFLOP), ale taky cip vie robit len jednu jedinu konktretnu ulohu/vypocet ci triedu uloh (napr. akcelerovat multimedia konkretnymi kodekmi ci akcelerovat patricne kryptograficke algoritmy) a okrem toho bez prepacenia ani trt (lebo ani OS na nom nenabootoje).
Pridať nový komentár
TOPlist