Loading screen logo with motto

Co se stane, až výkon počítačů nebude mít kam růst?

Člověk nemusí mít nutně vystudovaný některý z oborů informatiky, aby slyšel o Moorově zákoně – pozorován CEO Intelu Gordonem Moorem, který v 70. letech předpověděl, že se počet tranzistorů v integrovaných obvodech každé dva roky zdvojnásobí. Moorův zákon od 70. let celkem spolehlivě predikuje růst výkonu elektronických zařízení a vzhledem k jeho dlouhodobé platnosti je pochopitelné, že si lidé na bezprecedentní růst výkonu (hlavně v mobilních zařízeních) za tu dobu zvykli. Pro mnohé proto může být překvapení, že se stále více mluví o konci Moorova zákona. Na konci článku naleznete odkazy na pár studií a článků, které doporučuji přečíst především nadšencům.

Tranzistory se za půl století vývoje staly tak malými (Intel začíná využívat 10nm architekturu, což je velikost, při které již pomalu můžeme počítat atomy, jejichž velikost se pohybuje v desetinách nanometru), že fyzikální zákony začínají znemožňovat další zmenšování. Intel sám problémy s přechodem z 14nm na 10nm architekturu přiznává a je tedy jasné, že nečelíme pouze strachu několika akademiků, ale závažnému problému, který může mít vliv na celý IT průmysl. A to se bavíme pouze o fyzikálních zákonech – z ekonomického hlediska se jedná o katastrofu, neboť se s každou novou architekturou snižuje počet firem na trhu, které jsou schopni ji nabízet, a kde není konkurence, tam není ani pokrok.

Znamená to tedy, že se vývoj za několik let zastaví a my si budeme muset zvyknout na to, že abychom získali vyšší výkon, budeme muset obětovat kompaktní rozměry zařízení? Že aby mohl mít iPhone X4 lepší výkon než iPhone X3, budeme ho muset nosit v batohu na zádech namísto kapsy? Ne tak docela. Zatímco v dřívějších dobách postupně rostla poptávka po „general-purpose“ počítačích (český ekvivalent, který by nezněl směšně, jsem nenašel), v současnosti se tržní očekávání pomalu otáčejí. V průmyslu stále více nasazovaný IoT (Internet of Things, v zásadě to, co si představíme pod inteligentní fabrikou, kde spolu jednotlivé přístroje či dokonce výrobky komunikují a vyrábí se v zásadě „samy“) vyžaduje čipy levné a energeticky nenáročné, i když v mnoha ohledech ne tak výkonné. Opačný trend vidíme třeba v armádě. Neil Thompson a Svenja Spanuth, autoři z MIT, ale věří, že opravdovou změnu do zažitého trendu vývoje přinese hluboké učení a stále častější nasazování aplikací založených na neuronových sítích na všechny myslitelné platformy, od superpočítačů, počítačů, cloudu, až po mobilní telefony.

Z různých důvodů je preferovanou platformou pro hluboké učení nikoli CPU, ale výkonné GPU, dříve vnímané spíše jako součást herních počítačů, než něco, co by mělo být součástí každého kancelářského počítače. Jak ale trh naznačuje, GPU je pouze vstupní branou do světa hlubokého učení – Intel, Fujitsu, nespočet startupů a dokonce i Google začínají nabízet specializované jednotky, jejichž jediným účelem je zjednodušeně řečeno přidat výkon neurálním sítím. A trendu si začíná všímat i zbytek IT průmyslu – jak Thompson a Spanuth uvádějí, v roce 2018 byla hlavní část nárůstu výkonu počítačů oproti minulým letům poprvé tvořena nikoli procesory, ale specializovanými jednotkami, hlavně pak GPU značky Nvidia (je počítáno zlepšení počtu výpočtů na jeden watt).

Jenom čas ukáže, jestli budoucnost leží ve specializovaných jednotkách hardware (jako je třeba Google Tensor Processing Unit), nebo v integrování specializovaných jader do obecnějších kusů hardwaru (příkladem je Nvidia a její integrace obvodu pro hluboké učení do grafických karet řady Volta). Osobně bych tipoval, že je na trhu dost místa pro obě varianty podobně, jako v dnešní době existují vedle sebe zároveň integrované i dedikované zvukové a grafické karty.

Užitečné odkazy:

Shrnutí a diskuze na téma Moorův zákon: https://blog.codinghorror.com/moores-law-in-practical-terms/). 

Celá studie od autorů Neil Thompson a Svenja Spanuth, MIT: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3287769