De chips van de toekomst
Een submicroscopische kwantumwereld zou wel eens de informatietechnologie in de 21ste eeuw kunnen domineren: kwantumtechnologie kan de taak overnemen wanneer de klassieke elektronica de grenzen van de miniaturisering bereikt. Maar er worden nog andere sporen onderzocht, zoals DNA-computing.
Het Californische bedrijf Transmeta haalde de voorbije weken de krantenkoppen met zijn Crusoe-chips. Die verbruiken veel minder energie dan de klassieke chips van producenten als Intel en AMD, terwijl ze toch vergelijkbare snelheden halen. Dat is onder meer voor mobiele computeraars een groot voordeel: de batterij van hun apparaat loopt veel minder snel leeg, zodat de laptop acht uur of langer kan draaien zonder dat hij moet worden opgeladen.
Het revolutionaire van de Crusoe zit hem in het feit dat de instructieset, die ‘traditioneel’ in de chip-hardware vastligt, nu grotendeels in software is uitgevoerd (zie ook Hotline, blz. 82). Het is één van de sporen die gevolgd worden in de race om almaar performantere chips te ontwikkelen. Maar er zijn er meer.
In allerlei laboratoria, van Silicon Valley tot New Jersey in de VS en van Cambridge in Groot-Brittannië tot het wetenschapspark van Hsinchu in Taiwan, trachten computerwetenschappers uit te zoeken welke apparaten de computers van de 21ste eeuw zullen aandrijven.
De wedloop is aan de gang, omdat wordt gevreesd dat de ‘ wet van Moore‘ – die zegt dat de computing power om de achttien à vierentwintig maanden verdubbelt – binnen de tien of twintig jaar tegen haar grenzen zal aanbotsen.
Die merkwaardige ‘wet’
is geldig gebleven voor opeenvolgende generaties van halfgeleiders, die elk de miniaturisatie van de transistor of om het even welk ander elektronisch onderdeel dat op hun oppervlak werd geëtst, een stap verder voerden. Als dusdanig was ze de drijvende kracht achter de wereldwijde halfgeleiderindustrie, sinds het ogenblik dat ze werd geformuleerd door Gordon Moore, de medestichter van Intel, nu meer dan dertig jaar geleden. Daarnaast droeg ze er ook toe bij dat de kostprijs van het computervermogen over de voorbije vijftien jaar duizendvoudig gedaald is.
De vrees groeit echter dat de fabrikanten van halfgeleiders, Intel incluis, wel eens tegen de grenzen van de mogelijkheden van de huidige halfgeleidermaterialen en -processen zouden kunnen aanzitten.
Tot voor kort voorspelde Intel vol vertrouwen dat de bestaande technologie het mogelijk zou maken om ook minstens in de komende twaalf jaar steeds kleinere chips aan te maken. Maar sinds kort is een aantal wetenschapslui, waaronder een aantal van Intels eigen onderzoekers, voorbehoud beginnen maken. Zowat een jaar geleden al publiceerden drie Intel-researchers een rapport onder de titel ‘ MOS Scaling: Transistor Challenges for the 21st Century’. In het rapport wordt vastgesteld dat de conventionele technologie het mogelijk heeft gemaakt om de breedte van de lijnen die op chips worden geëtst, te vernauwen van 10 micron tijdens de jaren ’70 tot 0,18 micron nu (ongeveer een duizendste van de dikte van een menselijk haar). De mogelijkheid zou zelfs bestaan om naar 0,1 micron te gaan, dat wil zeggen: 100 nanometer of 100 miljardsten van een meter. “Om ook in de 21ste eeuw de verdere scaling van transistors mogelijk te maken, moeten nieuwe oplossingen worden uitgedokterd,” zegden de auteurs.
In een recent artikel in het magazine Science waarschuwde een van die Intel-wetenschappers, Paul Packan, ervoor dat de zogenaamde dopants of additieven – speciale chemicaliën die aan het silicium toegevoegd worden – al hun limiet naderen.
Chipsproducenten vervaardigen conventionele of ‘planaire’ transistors – de bouwstenen van de geïntegreerde schakelingen – door geladen atomen, dopants genoemd (vaak is dat arsenicum, antimoon, bismut of fosfor), in het silicium te implanteren om zo de elektrische eigenschappen ervan te veranderen. Nadien wordt een isolerend oxide aangebracht en een metalen poort op het oppervlak geëtst via een procédé dat optische lithografie wordt genoemd. Door vervolgens een bepaald voltage doorheen de poort te sturen, kan de stroom worden aan- of uitgeschakeld: de basis van de digitale elektronica.
Het procédé
dat bij de aanmaak van halfgeleiders wordt gebruikt, is uiterst gesofisticeerd, maar de ontwerpers van semiconductoren botsen, naarmate ze steeds kleinere circuits tot stand trachten te brengen, tegen fundamentele grenzen aan, zoals de eigenschappen van individuele atomen en elektronen en de minimumgolflengte van licht.
De moderne microprocessors bevatten tot 10 miljoen planaire transistors en kunnen 300 miljoen berekeningen per seconde aan. Maar terwijl de circuits kleiner werden, nam de densiteit of de concentratie van de additieven in het siliciumrooster honderdvoudig toe. Boven dat niveau vertonen ze de neiging om samen te klitten en niet langer aan hun doel te beantwoorden.
Er werden weliswaar reeds nieuwe materialen uitgetest, maar Packan waarschuwt dat geen daarvan in staat is gebleken om die beperkingen te boven te komen. “Tenzij er nieuwe methodes ontwikkeld worden,” zo waarschuwt hij, “zal een verdere verkleining van de transistor uitmonden in een verlies van totale lading, een stijging van de weerstand en een mogelijke afname van vermogen.”
Er is nog een ander probleem opgedoken. Naarmate de dikte van het isolatiemateriaal dat de verschillende onderdelen van een chip van elkaar scheidt, verkleind wordt, begint een proces op te treden dat bekend staat als quantum tunneling en dat zich manifesteert wanneer de lagen een dikte van ongeveer 5 atomen bereiken.
Beneden afmetingen van ongeveer 20 nanometer, de zogenaamde kwantumlimiet, veranderen de gewone fysicawetten en gelden andere regels. In de kwantumwereld beginnen de elektronen, die elektrische ladingen transporteren, zich eigenaardig te gedragen. Ze bewegen niet langer vrij maar ze kunnen wel onder een isolatiewand doorgaan.
Om dat probleem aan te pakken, zijn de wetenschapslui beginnen zoeken naar andere manieren om digitale circuits te bouwen. Het grootste deel van dat onderzoek spitst zich toe op biologische en chemische structuren die zouden kunnen gebruikt worden als alternatief voor de conventionele siliciumchips (zie ook kader: DNA computing).
Eén optie,
waarvoor wetenschappers als Tom Thesis van IBM een voorkeur hebben, bestaat erin het gebruikelijke productieprocédé voor chips om te keren door lagen materiaal weg te schrapen en schakelingen ‘van onder naar boven’ te assembleren.
Wetenschappers bij IBM en elders proberen schakelingen te construeren door gebruik te maken van ‘autoassemblage’-methoden, waarbij onder bepaalde omstandigheden de moleculen zichzelf ordenen tot rudimentaire structuren.
Door te gaan lenen bij de biologische systemen, waar organische moleculen in levende organismen zichzelf assembleren tot ingewikkelde structuren, zijn de wetenschappers er al achter gekomen hoe ze organische moleculen kunnen aanmaken, die over de nodige haken en ogen beschikken om zichzelf samen te voegen tot tunnels voor het geleiden van elektrische ladingen.
“Dat soort van zelforganisatie zal de basis vormen voor de computers van de volgende eeuw,” zo beweert George Whitesides, scheikundeprofessor aan de universiteit van Harvard, die in een recent artikel in het magazine New World ook nog verklaarde: “Waarom zouden in de toekomst computers zichzelf niet van nul kunnen opbouwen?” Een dergelijke doorbraak zou zware gevolgen hebben voor de huidige industriereuzen van de halfgeleidersector, die hun producten aanmaken in zeer dure fabricage-eenheden, fabs. Die fabs kunnen elk tot 3 miljard dollar kosten om te bouwen en ze zijn ook erg duur in het gebruik, deels omdat de productie moet gebeuren in stofvrije clean rooms.
Daar tegenover staat dat in de moleculaire elektronica de onderzoekers optimistischer worden en denken dat ze uiteindelijk eenvoudige productiemethodes zullen kunnen aanwenden om enorme hoeveelheden zelfbouwende chips te fabriceren tegen zeer lage kosten.
Een groep onderzoekers van UCLA en Hewlett-Packard, die van dat type van technieken gebruik maakte, meldde in juli 1999 dat zij met succes fundamentele logische poorten hadden aangemaakt die nog maar een molecule dik waren.
Intussen wordt aangenomen
dat andere groepen op het punt staan om aan te kondigen dat ze erin geslaagd zijn om andere fundamentele onderdelen voor nanoberekeningen te creëren. Vermoed wordt dat ze vooruitgang maken op verschillende fronten. Een van deze laboratoria zou naar verluidt werken aan een moleculair ontwerp dat in staat is om DRAM-achtig ( dynamic random access memory) geheugen te bevatten.
Indien dergelijke moleculaire geheugenstructuren inderdaad gebouwd kunnen worden, dan zou dat enorme opslagmogelijkheden creëren tegen minimale kosten en de weg vrijmaken voor een hele reeks nieuwe toepassingen. Zo zou het bijvoorbeeld mogelijk worden om een hele encyclopedie op te slaan in een ruimte veel kleiner dan een conventionele chip.
Inmiddels spitst ander onderzoek zich toe op het beheersen van de eigenschappen van de subatomaire kwantummechanica zelf. Meer dan zeventig jaar nadat de kwantumtheorie voor het eerst geformuleerd werd, geloven steeds meer wetenschapslui dat kwantumcomputers mettertijd miljarden keer sneller zullen werken dan de hedendaagse supercomputers.
Onderzoekers hebben intussen al het principe van quantum computing in verschillende materialen en op heel eenvoudige niveaus aangetoond. Ze gebruiken daarvoor doorgaans zogenaamde scanning tunneling microscopes (STM), die in Zürich ontwikkeld werden door wetenschappers van IBM. Die STM’s kunnen gebruikt worden om voorwerpen met nanoafmetingen te manipuleren.
Twee kenmerken
van kwantumgedrag zijn essentieel voor de werking van computers. Het eerste kenmerk, entanglement genoemd, wordt gevormd door het aan elkaar koppelen van partikels, zodat een actie in het ene een onmiddellijk effect sorteert in het andere, hoe ver ze ook van elkaar gelegen zijn. Dat is de oorsprong van wat Albert Einstein‘spooky action at a distance‘ (griezelige actie op afstand) noemde en het biedt de mogelijkheid om informatie over te brengen tegen een oneindig hoge snelheid door gebruik te maken van kwantumcommunicatie.
Het andere kenmerk wordt superpositie genoemd en laat toe dat afzonderlijke of gekoppelde partikels voorkomen in een oneindige mengeling van alle mogelijke toestanden in plaats van in één enkele kwantumtoestand, tot iemand tracht ze te meten of te observeren. Want dan zetten ze zichzelf vast in één bepaalde toestand, en dat kan dan de draairichting van een atoom zijn of een energieniveau van een elektron.
In een traditionele
computer wordt de digitale informatie opgeslagen onder de vorm van bytes, die ofwel aan (I) of uit staan (0). Een kwantumbit van gegevens, bekend als qubit, is tegelijk 0 en I als gevolg van superpositie. Dat betekent dat, wanneer verschillende qubits aan elkaar gekoppeld worden, een kwantumapparaat een heleboel bewerkingen tegelijkertijd kan uitvoeren. Acht qubits zouden bijvoorbeeld 256 gelijktijdige berekeningen toelaten.
Het vergt slechts 100 qubits om miljarden keer meer bewerkingen in parallel te kunnen uitvoeren dan om het even welke op supercomputers gebaseerde conventionele elektronica.
Kwantumcomputers kunnen derhalve heel wat handelingen tegelijk uitvoeren. Dat kenmerk van parallel computing brengt met zich dat zelfs relatief kleine kwantumcomputers, althans in theorie, miljarden meer bewerkingen zouden kunnen uitvoeren dan om het even welke supercomputer die steunt op conventionele elektronica.
Of het ooit praktisch mogelijk zal zijn om een dergelijk apparaat te bouwen, vormt nog altijd het voorwerp van een verhit debat. Tom Thesis van IBM wijst er bovendien op dat het waarschijnlijk een even grote uitdaging zal zijn om programma’s voor dergelijke toestellen te schrijven.
Wat er ook van zij, als de wetenschapslui het bij het rechte eind hebben, zou het eerste kwart van de 21ste eeuw wel eens ontwikkelingen in de IT-sector te zien kunnen geven die misschien nog ingrijpender zijn dan wat we tijdens de voorbije 50 jaar meemaakten.
Financial Times.
Bewerking: Raf Pauwels.
Paul Taylor
Fout opgemerkt of meer nieuws? Meld het hier