Voorpublicatie: Chips (Jan Rabaey en Pieter van Nuffel)

Chiptechnologie beheerst de geopolitiek. Chips zijn niet alleen onmisbaar geworden in de elektronische apparaten die we dagelijks gebruiken, ze vormen ook de basis voor innovatie in tal van opkomende sectoren. In ‘Chips’ belichten Jan Rabaey en Pieter het complexe en sterk vervlochten ecosysteem van de chipindustrie. Wij geven je met deze voorpublicatie alvast een voorsmaakje.

Al in de jaren 60 voorspelde Gordon Moore de opkomst van krachtige computers en draagbare communicatie. De wet van Moore werd een selffulfilling prophecy en luidde de digitale revolutie in. Nu, zestig jaar later, staan we op een kruispunt. Is het tijdperk van de Wet van Moore aan het aflopen? En hoe zullen de computers van de toekomst er dan uitzien?

In 1965 vroeg het tijdschrift Electronics aan Gordon Moore, de onderzoeksdirecteur van Fairchild Semiconductor, hoe de toekomst van de elektronica-industrie er zou uitzien. “Geïntegreerde schakelingen zullen ons leiden tot wonderen zoals thuiscomputers, automatisch gecontroleerde auto’s en persoonlijke draagbare communicatie”, antwoordde hij. Hoe? Dat was al meteen duidelijk uit de titel van het artikel dat hij naar Electronics Magazine stuurde: Door ‘meer componenten op geïntegreerde schakelingen te proppen!’

Moore had op dat moment amper vijf datapunten waarop hij zijn antwoord kon baseren: het aantal componenten dat Fairchild de voorbije vijf jaar op een siliciumchip had gekregen. In 1959 was dat er eentje, in 1965 waren het er al 64. Hij merkte op dat het aantal componenten (transistoren en weerstanden) ieder jaar grofweg verdubbeld was. Moore trok een trendlijn doorheen die vijf punten. “Op korte termijn zal dit tempo aanhouden, zoniet toenemen”, voorspelde hij. Moore trok de lijn door tot in 1975: “Op lange termijn is het wat onzekerder, hoewel er geen reden is om aan te nemen dat dit tempo minstens tien jaar lang zal aanhouden. Dat betekent dat een geïntegreerde schakeling in 1975 aan minimale kosten zo’n 65.000 componenten zal bevatten”. Die wilde extrapolatie bleek uiteindelijk een verbazingwekkend nauwkeurige voorspelling. Ze werd bekend als ‘de wet van Moore’. Moore stelde het tempo later wat bij (het aantal transistoren zou verdubbelen om de twee jaar), maar zestig jaar later houdt zijn voorspelling nog steeds stand. Vandaag kan een chip miljarden transistoren bevatten.

De wet van Moore is geen natuurwet. Het belang ervan ligt niet in haar beschrijving van de werkelijkheid, maar net in de manier waarop ze de werkelijkheid veranderd heeft. Zijn voorspelling werd een vorm van gedeeld vooruitgangsoptimisme. Het aantal componenten op hetzelfde chipoppervlak zal niet zomaar verdubbelen, ze móét verdubbelen. Alles wat leunt op rekenkracht volgde de exponentiële groei die Moore vooropstelde. Ze is de reden dat je smartphone vandaag miljoenen keren krachtiger is dan de Apollo-computer die de eerste mens op de maan zette. Het is misschien wel de belangrijkste voorspelling die een mens ooit gemaakt heeft.

Nadert de Wet van Moore zijn houdbaarheidsdatum?

Voorspellingen doen is moeilijk, vooral als ze over de toekomst gaan. Sinds de eeuwwisseling voelden talloze doemdenkers zich geroepen om de wet van Moore dood te verklaren. Die rouwberichten waren onterecht, of op zijn minst voorbarig. Ja, het wordt steeds moeilijker om almaar meer transistoren op een chip te proppen. Toch heeft de chipindustrie het afgelopen decennium manieren gevonden om exponentiële vooruitgang te blijven boeken. Gordon Moore overleed vorig jaar, maar zijn ‘wet’ blijft voortleven. 

Wie zich aan voorspellingen waagt, moet nederig zijn. Regel één: onderschat nooit de vindingrijkheid van de mens om de grenzen van het onmogelijke te verleggen. Regel twee: beschouw het verleggen van die grenzen evenmin als iets evidents. Verbluffende technologische ontwikkelingen hebben een exponentiële groei in rekenkracht mogelijk gemaakt. Die toename in rekenkracht heeft op zijn beurt verbluffende nieuwe toepassingen mogelijk gemaakt die we vandaag als doodgewoon beschouwen. Welke futuristische technologie zullen we in pakweg 2040 vanzelfsprekend vinden? Die vraag gaat hand in hand met de vraag hoelang de wet van Moore nog zal blijven standhouden. En het antwoord op die laatste vraag hangt dan weer af van de verschillende uitdagingen die daarvoor moeten overwonnen worden.

Een onderzoeker monstert een siliciumschijf waarop miljarden transistoren op nanoschaal zijn aangebracht. © imec

De schaalverkleining kan niet eindeloos blijven doorgaan. Op een gegeven moment stuiten we onverbiddelijk op de grenzen van atomen, en tegen de limieten van de fysica. En nog voordat we die fysieke limieten zullen bereiken, zullen we tegen economische obstakels botsen. Op een bepaald punt zullen de kosten die gepaard gaan met een verdere miniaturisatie groter worden dan de prestatiewinst. De wet van Moore is geen natuurwet, maar een economische wet. En dan komt het spel van vraag en aanbod om de hoek kijken. Door de snelle ontwikkelingen in artificiële intelligentie is de vraag naar snellere rekenchips aan het exploderen. Als het aanbod in rekenkracht niet kan volgen, valt de technologische vooruitgang stil. Maar de complexiteit die met een verdere schaalverkleining van chiptechnologie gepaard gaat, kan evengoed tot exploderende kosten leiden. Die kosten zijn niet alleen financieel, maar ook ecologisch. De vraag moet dus niet zijn hoe lang we de wet van Moore in leven kunnen houden, maar hoe we dat op een duurzame manier kunnen doen. Die gigantische uitdaging vereist innovatie op verschillende niveaus en vraagt om wereldwijde samenwerking. Het Vlaamse onderzoekscentrum imec brengt de wereldwijde industrie (van toestel-en materiaalleveranciers en chipmakers tot bedrijven als Apple, Google, Meta en Microsoft) samen in een onderzoeksprogramma om een duurzamere productie van de volgende generatie chips mogelijk te maken.

Imec heeft een ambitieuze roadmap tot 2036 uitgestippeld, waarin die duurzame principes vervat zitten. Het plan voorziet in een gecoördineerde introductie van verschillende nieuwe technologieën. Zo wordt de volgende generatie EUV-lithografie gecombineerd met nieuwe materialen, nieuwe transistorarchitecturen en nieuwe manieren om de transistoren onderling te verbinden en van stroom te voorzien. Vandaag vinden we een zogenaamde Fin field-effect transistor (FinFET) terug in de rekenchips van onze smartphone. Deze transistor werd vlak voor de eeuwwisseling uitgevonden aan de universiteit van Berkeley. De FinFET dankt haar naam aan een geleidingskanaal dat de vorm van een vin heeft. De komende jaren zullen de chipmakers deze transistorarchitectuur geleidelijk aan vervangen door zogenaamde nanosheets, die zuiniger zijn. Een verdere ontwikkeling daarvan zijn de zogenaamde forksheets, waarbij twee verschillende soorten transistoren gecombineerd worden binnen een enkele vorkstructuur. Deze nieuwe uitvinding van imec maakt een veel kleinere afstand tussen de transistoren mogelijk. De forksheet zou vanaf 2028 geïntroduceerd kunnen worden, als voorbereiding op de Complementary field-effect transistor (CFET) die al ontwikkeld wordt voor het volgende decennium. In die toekomstige CFET zullen de twee verschillende types transistoren voor het eerst boven op elkaar gestapeld worden. Als alles volgens plan verloopt, dan kan de wet van Moore nog minstens tien jaar meegaan. Of het na 2036 nog mogelijk zal zijn om de schaalverkleining in silicium te kunnen doorzetten, is koffiedik kijken. Daarom worden ook volop nieuwe materialen onderzocht. Denk aan 2D-materialen zoals grafeen – laagjes die één atoom dun zijn.

Innovatie vindt plaats op verschillende niveaus tegelijk: van de technologische bouwstenen tot op het niveau van de algoritmen waarmee de computerchip zijn taken uitvoert. De traditionele schaalverkleining wordt steeds meer gecombineerd met alternatieve technieken. Terwijl sommige onderzoekers nadenken over hoe de transitoren er in het volgende decennium kunnen uitzien, bedenken andere onderzoekers hoe chips ontworpen kunnen worden in functie van nieuwe applicaties. Traditioneel werden er zo veel mogelijk componenten (geheugen, rekeneenheden, connecties) samengevoegd in de behuizing van één enkele chip. Tegenwoordig kiezen bedrijven ervoor om te vertrekken van kleinere gespecialiseerde onderdelen (zogenaamde chiplets) die daarna als legoblokjes aan elkaar kunnen gekoppeld worden. Die modulaire opbouw moet het gemakkelijker maken om achteraf nieuwe technologieën te integreren. Tegelijk worden chips ook steeds meer in de hoogte gebouwd. 3D-stapeling is een slimme manier om tegemoet te komen aan de tweedimensionale limieten waar de wet van Moore op dreigt te botsen. Maar dat is wel een lineaire schaling.  Als je twee keer zoveel chips op elkaar zet, heb je twee keer zoveel transistoren. Als je een transistor twee keer kleiner maakt, dan krijg je vier keer zoveel transistoren op een chip. Dat is exponentiële groei, en daarvoor zijn weinig technieken meer efficiënt gebleken dan het kleiner maken van de transistoren.

‘De wet van de versnellende opbrengsten’, noemde futuroloog Raymond Kurzweil die exponentiële groei in computerkracht. Een andere futuroloog, Hans Moravec, wierp dan weer op dat de wet van Moore maar een van de verschijningsvormen is van een veel breder fenomeen. De toename in computerkracht verliep al exponentieel nog lang voor er sprake was van transistoren. En wanneer de transistor na honderd jaar op zijn limieten zal botsen, dan zal er zich wel iets nieuws aandienen dat de exponentiële groei kan verder zetten. “Telkens een specifiek computerparadigma zijn limiet naderde, nam de belangstelling voor onderzoek en de druk toe om het volgende paradigma te creëren”, schreef Kurzweil. “Dat is al vier keer gebeurd in de eeuwenlange geschiedenis van exponentiële groei in berekeningen: van elektromagnetische rekenmachines tot op relais-gebaseerde computers, van vacuümbuizen tot discrete transistors en geïntegreerde schakelingen”. Dat brengt ons bij een meer fundamentele vraag: welke technologie zal het volgende paradigma ontketenen?

De toename in computerkracht verliep al exponentieel nog lang voor er sprake was van transistoren. Dat brengt ons bij de vraag: welke technologie zal het volgende paradigma ontketenen? © Ray Kurzweil

Een lunch met drie visionaire geesten

Begin jaren 80 gingen drie proffen van Calltech University samen lunchen. Het gespreksonderwerp tijdens de maaltijd: hoe kunnen we de grenzen van de chiptechnologie overwinnen om betere computers te bouwen? De drie proffen waren niet de eerste de besten. De eerste was kwantumfysicus en latere Nobelprijswinnaar Richard Feynman. De tweede was Carver Mead, een van de pioniers van de moderne micro-elektronica. De derde was John Hopfield, een van de grondleggers van artificiële intelligentie. Ze doceerden respectievelijk fysica, ingenieurswetenschappen en biologie aan de studenten van Calltech. “We waren vanuit heel verschillende achtergronden op dezelfde vraag gekomen en besloten dat de beste manier om ons wederzijds begrip te ontwikkelen erin bestond om een gezamenlijke cursus over dit onderwerp te geven”, schreef Mead. Vanaf 1981 startten ze samen de cursus ‘the physics of computation’. “Het was tegelijk vermoeiend, opwindend en verhelderend; de studenten waren verbaasd, verward en overweldigd – en velen van hen zijn later ongelooflijke dingen gaan doen. Na drie jaar splitste de cursus zich en gingen we verschillende kanten op: Feynman lanceerde kwantumberekeningen, Hopfield ontwikkelde een nieuwe klasse neurale netwerken; en ik zag analoge siliciumtechnologie als een veelbelovend middel om neuromorfe systemen te bouwen.” Het is niet bekend wat de drie precies gegeten hebben tijdens hun gezamenlijke lunch, maar veertig jaar later blijkt het een behoorlijk constructieve ontmoeting geweest te zijn. Er ontstond niet één nieuw mogelijk paradigma voor de toekomst van computerberekeningen, maar drie tegelijk.

Richard Feynman introduceerde het idee van de kwantumcomputer. Waar klassieke computerchips rekenen met bits (eentjes of nulletjes), gebruiken kwantumchips zogenaamde kwantumbits (die één én nul tegelijkertijd kunnen zijn). Dat maakt een radicaal nieuwe manier van rekenen mogelijk. “Als je de natuur wil kunnen simuleren, dan moet je dat met een kwantumcomputer doen”, stelde Feynman. “Verdorie, dat zal geen eenvoudige klus worden. Maar moeilijke problemen, daar zijn wij fysici verzot op.”

Vier decennia later lijkt het nog steeds geen eenvoudige klus. We zijn nog mijlenver verwijderd van een werkbare en nuttige kwantumcomputer, maar we evolueren in de goeie richting. Kwantumcomputers kunnen in theorie alle problemen oplossen die een klassieke computer kan oplossen, maar ze zullen dit alleen efficiënter doen voor een aantal zeer specifieke problemen. Daarom zullen kwantumcomputers wellicht alleen ingezet worden voor zeer gespecialiseerde taken. De kans dat we ooit met een kwantumcomputer in onze broekzak zullen rondlopen, lijkt zo goed als onbestaande.

Terwijl Richard Feynman het idee voor kwantumberekeningen naar voren schoof en John Hopfield een nieuw kunstmatig neuraal netwerk bedacht, introduceerde Carver Mead nog een derde nieuw idee. Kunnen we een chip bouwen die gebaseerd is op de manier waarop ons brein werkt? Mead bracht inzichten uit de biologie, fysica, ingenieurswetenschapen en computerwetenschappen samen in nieuw vakgebied dat hij ‘neuromorphic engineering’ noemde. Vier decennia later staan die brein-geïnspireerde computers aan de vooravond van een doorbraak. Neuromorfe chips worden nog niet op grote schaal geïntegreerd in producten, maar de start-ups die daar verandering in willen brengen, schieten als paddenstoelen uit de grond. De immense investeringen in neuromorfe chips zijn het gevolg van de razendsnelle ontwikkelingen in artificiële intelligentie. Daarbij speelt het verwerken van enorme datasets een steeds grotere rol. Maar de chips waarop die berekeningen doorgaans worden uitgevoerd, zijn daar traditioneel niet voor ontworpen. De meeste berekeningen vinden plaats op energieverslindende GPU’s in datacenters. Het zou niet alleen energiezuiniger maar ook veiliger, privacyvriendelijker en sneller zijn om een deel van de berekeningen lokaal uit te voeren – rechtstreeks op het toestel dat de data verzamelt. Dat toestel kan een mobiele telefoon zijn, maar ook een sporthorloge, een zelfrijdende auto, een drone, een robotstofzuiger of een ander toestel dat op een batterij werkt. De energie die zo’n toestel verslindt om te rekenen, kan het niet gebruiken om te stofzuigen of te vliegen. We hebben dus energiezuinigere chips nodig, aangepast aan het AI-tijdperk. Daarvoor kunnen we ons laten inspireren door ons brein. Onze hersenen verbruiken amper 20 Watt, het vermogen van een lamp. Daarmee kunnen ze taken uitvoeren die computers duizenden tot miljoenen keren meer energie kosten. De energiezuinige chips van de toekomst zullen zich daarop moeten baseren.

Het lijkt er dus op dat we voor verschillende problemen verschillende oplossingen zullen zien. Aan het ene uiteinde van het spectrum vinden we kwantumcomputers. De zullen ingezet worden voor heel gespecialiseerde rekentaken. Aan het andere uiteinde vinden we de brein-geïnspireerde computers, die ingezet zullen worden in robotachtige toestellen die snel en flexibel berekeningen moeten uitvoeren in een hypergeconnecteerde wereld. Elk pad heeft zijn eigen beloftes en zijn eigen uitdagingen. Ongeacht welk pad we inslaan, de evolutie van chiptechnologie zal onze manier van leven blijven transformeren. De menselijke drang naar vooruitgang blijft, ook na de wet van Moore, de drijvende kracht om de grenzen van het onmogelijke te verleggen.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content