Een nieuw type transistor stelt AI-hardware in staat om informatie te onthouden en te verwerken zoals het menselijk brein dat doet.
De enige fysieke overeenkomst tussen artificiële intelligentie en het menselijke brein is de werking op basis van elektriciteit. Zo haalt AI haar output uit silicium en metalen schakelingen, terwijl menselijke cognitie ontstaat uit een massa levend weefsel. Ook de manier waarop die systemen werken is fundamenteel verschillend. Conventionele computers bewaren en berekenen informatie in verschillende hardwarecomponenten, waarbij gegevens heen en weer pendelen tussen het geheugen en de microprocessor. Het menselijk brein daarentegen verbindt het geheugen met de verwerking, waardoor die efficiënter verloopt.
De inefficiëntie van computers maakt AI-modellen bijzonder energie-intensief. Datacenters, waar computermachines en hardware worden opgeslagen, zijn namelijk goed voor 1 tot 1,5 procent van het wereldwijde elektriciteitsverbruik. Tegen 2027 kunnen nieuwe AI-servers zelfs minstens 85,4 terawattuur per jaar verbruiken, wat het jaarlijkse verbruik van vele kleine landen overstijgt.
Het menselijk brein is aanzienlijk efficiënter, dus proberen onderzoekers al jaren om apparaten en materialen te ontwikkelen die de werking ervan beter kunnen nabootsen. Die systemen worden neuromorfe computersystemen genoemd.
Een Amerikaans onderzoeksteam heeft nu een cruciale eerste stap gezet door de transistor, een van de meest fundamentele bouwstenen van elektronische schakelingen, meer als een neuron te laten functioneren. Transistors zijn minuscule, schakelachtige apparaatjes die elektrische signalen sturen en genereren, vergelijkbaar met de zenuwcellen in een computerchip. Ze worden bij bijna alle moderne elektronica gebruikt. Het nieuwe type transistor, een moiré synaptische transistor, integreert geheugen met verwerking om minder energie te verbruiken.
Betoverende patronen
De nieuwe transistor maakt neuromorfe circuits mogelijk, waardoor de energie-efficiëntie van AI-systemen verhoogt. Ook kunnen de systemen daardoor verder gaan dan eenvoudige patroonherkenning en dus meer lijken op besluitvorming in de hersenen.
Om het geheugen direct te integreren in de werking van transistors, richtte het onderzoeksteam zich op tweedimensionale materialen met opmerkelijk dunne rangschikkingen van atomen. Wanneer die materialen in verschillende oriëntaties over elkaar heen worden gelegd, vormen ze betoverende, caleidoscopische patronen die moirésuperstructuren worden genoemd. Die structuren kunnen de stroom nauwkeurig reguleren, waardoor gegevens opgeslagen kunnen worden zonder een continue stroomtoevoer.
Er bestaan wel andere moirétransistors, maar die functioneren enkel bij extreem lage temperaturen. Het nieuwe type is dus revolutionair, omdat het werkt bij kamertemperatuur en twintig keer minder energie verbruikt dan andere soorten synaptische apparaten. Ook zouden de systemen die erop gebaseerd zijn sneller zijn dan gewone computers.
Verder kan het innovatieve AI-systemen slimmer maken. Dankzij de geïntegreerde hardware kan dit circuit AI-modellen namelijk ook op een hoger niveau meer laten lijken op de hersenen. De transistor kan volgens de onderzoekers ‘leren’ van de gegevens die hij verwerkt. Dit gebeurt door associatief leren, waarbij het systeem verbindingen legt tussen verschillende inputs, patronen herkent en dan associaties maakt. Die manier van leren is vergelijkbaar met hoe het menselijk brein herinneringen en associaties tussen concepten vormt.
De productiemethoden voor de nieuwe transistors zijn momenteel echter niet schaalbaar, wat verder onderzoek noodzakelijk maakt om het volledige potentieel van het circuit te realiseren.
Dit artikel verscheen eerder in Scientific American.
Vertaling June Roels.