Op welke wijze werkt AI op grond van neurale netwerken nou eigenlijk precies?
Weinig onderwerpen zijn momenteel zo vaak in het nieuws als Artificial Intelligence (AI) op grond van neurale netwerken. In goed Nederlands ‘kunstmatige intelligentie’, maar binnen dit artikel spreek ik consequent over AI. Door de hedendaagse hype met betrekking tot AI begint er zelfs een zweem van mystiek rondom AI te ontstaan. Waarschijnlijk vooral vanwege de schijnbaar onbegrensde mogelijkheden.
Tipje van de sluier: ruis is ook waardevolle data!
Uiteindelijk is AI op grond van neurale netwerken verre van mystiek en doodnormaal gebaseerd op slimme algoritmen, ordinaire rekenkracht en ‘big data’. Binnen dit artikel zal ik je aan de hand meenemen, zodat je gaat begrijpen hoe AI op grond van neurale netwerken ongeveer functioneert. Ik doe dit aan de hand van weermodellen en weersverwachtingen, omdat die veruit het bekendste publieke kader vormen met betrekking tot de huidige en toekomstige toepassingen van zulke algoritmen.
Onze vertrouwde weersverwachtingen
Onze oude vertrouwde weersverwachtingen worden volledig berekend door algoritmen. Algoritmen zijn wiskundige formules die in het geval van de weersverwachting de fysieke toestanden van de atmosfeer doorrekenen aan de hand van één of meerdere begintoestanden. Een begintoestand op tijd = 0 wordt doorgerekend naar een eindtoestand op tijd = 1 en door dit vervolgens heel veel keren te herhalen kun je een weersvoorspelling door de tijd heen maken.
Het algoritme berekent een fysieke begintoestand op t=0 door naar een fysieke eindtoestand op t=1 doormiddel van wiskundige bewerkingen, zoals optellen, vermenigvuldigen, delen, kwadrateren, etcetera. Fysische kennis van luchtdruk, temperatuur, relatieve vochtigheid, windsnelheid, zonkracht, etcetera liggen ten grondslag aan de wiskundige bewerkingen die door het algoritme worden uitgevoerd.
Het voornaamste probleem binnen dergelijke toepassingen is dat hele kleine verschillen in de begintoestand na het heel vaak herhalen van de berekening tot grote verschillen in de eindtoestand(en) kunnen uitgroeien. Dit is voornamelijk het gevolg van het feit dat de algoritmen generaliseren op het gebied van de fysieke begintoestanden vanwege een eindige resolutie aan meet- of datapunten.
Resolutie vormt de voornaamste beperking van onze huidige weermodellen
De voornaamste beperking van onze vertrouwde algoritmen bestaat er dus uit dat de berekeningen gebruik maken van een beperkt aantal meet- of datapunten in verband met de begrensde rekenkracht. De resolutie van het aantal meet- of datapunten binnen de atmosfeer is dus gelimiteerd.
Hierdoor kun je je bijvoorbeeld voorstellen dat de thermische reflectie van zonlicht op water of land of de beïnvloeding van wind door water of land slechts benaderingen vormen. Water en land zijn namelijk overal verschillend en nergens representatief voor het geheel. Om dit te bewerkstelligen, zou je de resolutie van het aantal meet- of datapunten enorm moeten uitbreiden. De generalisatie van de fysieke begintoestanden leidt dus bij voorbaat tot een degeneratie van de toegepaste weermodellen.
Onze toekomstige weersverwachtingen maken gebruik van neurale netwerken
AI op grond van neurale netwerken is in beginsel eveneens gebaseerd op algoritmen die de fysieke toestanden van de atmosfeer berekenen volgens min of meer dezelfde fysische formules als van onze oude vertrouwde weersverwachtingen.
Daarnaast zijn de algoritmen echter ook zodanig geprogrammeerd dat ze historische meet- of datapunten doorrekenen en de voorspellingen op basis hiervan vergelijken met het daadwerkelijke tot stand gekomen weer. Door dit voor een enorme hoeveelheid historische meet- of datapunten te doen, komen er feitelijk correctiefactoren bovendrijven die vervolgens weer worden geïntegreerd binnen de algoritmen.
Door dus enorm veel historische voorspellingen op grond van de algoritmen te vergelijken met het daadwerkelijke tot stand gekomen weer komen er correctiefactoren bovendrijven voor de verschillende betrokken variabelen, lokaties of regio’s. Deze correctiefactoren kunnen bovendien nader worden uitgesplitst en gespecificeerd voor te onderscheiden waardebereiken van de verschillende betrokken variabelen, lokaties of regio’s.
Het fascinerende hieraan is dat je de discrepantie tussen de historische voorspellingen en het daadwerkelijke tot stand gekomen weer gebruikt om de algoritmen te verbeteren. Hiermee corrigeer je feitelijk voor onnauwkeurigheden als gevolg van een beperkte resolutie van meet- en datapunten.
Een gedachte-experiment ter illustratie
Je kunt bovenstaande nog beter voor jouw geestesoog krijgen door je de volgende imaginaire situatie voor te stellen. Stel je twee scenario’s met exact dezelfde atmosferische condities op exact dezelfde lokaties over onze gehele planeet voor. De discrepantie tussen de historische voorspellingen en het daadwerkelijke tot stand gekomen weer in scenario 1 is vervolgens ook precies de correctie die je op scenario 2 moet toepassen om de voorspellingen in lijn te krijgen met het uiteindelijke weer.
Bovenstaand gedachte-experiment levert vrijwel absolute correctiefactoren op, maar de correctiefactoren worden natuurlijk meestal benaderd door heel veel verschillende atmosferische condities op dezelfde lokaties door te rekenen en vervolgens de voorspellingen met het daadwerkelijke weer te vergelijken.
Ruis is namelijk ook waardevolle data
De bottom line is nu eenmaal dat ‘big data’ impliciete informatie herbergt over onnauwkeurigheden die er uit kan worden gehaald en toegepast op grond van machinale intelligentie. Ruis blijkt dus wel degelijk waardevolle informatie te bevatten. Op grond van menselijke analyse zou diezelfde taak letterlijk onafzienbaar zijn vanwege de grote hoeveelheden data die daarbij vergeleken moeten worden.
Intensieve training van neurale netwerken met ‘big data’ is een voorwaarde
Voordat dergelijke neurale netwerken echter in de praktijk kunnen worden toegepast, moeten ze eerst worden getraind met ‘big data’. Zodanig dat de toepasselijke correctiefactoren vervolgens kunnen worden ingebed binnen de fysische algoritmen van de weermodellen. Dit vormt er de voornaamste reden van dat neurale netwerken pas de laatste jaren stevig in de lift zitten. De aanvankelijke training vergt namelijk zo enorm veel processorcapaciteit, dat daarin pas de laatste jaren goed te voorzien valt. GraphCast van Google betreft zo’n neuraal model voor weersverwachtingen.
Fascinerend is vervolgens dat na aanvankelijke training de neurale modellen sneller resultaten leveren dan onze oude vertrouwde weermodellen. Dit komt met name omdat de laatste gebruik maken van enorm veel verschillende begintoestanden om op een aanvaardbaar gemiddelde uit te komen. Kijk maar eens naar een gemiddelde pluimverwachting, die is minimaal gebaseerd op 50 volledige doorrekeningen of runs.
Neurale netwerken zijn naar analogie van ons brein vormgegeven
Het worden neurale netwerken genoemd, omdat ze zijn opgebouwd naar analogie van de neuronen in onze hersenen. Laag voor laag met elkaar communicerend. Binnen onze hersenen wordt besluitvorming en intuïtie in essentie vormgegeven op grond van aanvankelijke waarneming en het keer op keer (her)berekenen van correctiefactoren voor uiteindelijke perceptie. Na verloop van tijd gedurende ons opgroeien benaderen de resultaten van dergelijke berekeningen steeds beter onze dagelijkse realiteit.
Neurale netwerken nooit en te nimmer loslaten op persoonsgegevens
Aan neurale netwerken kleeft echter een belangrijk nadeel: uitbreidingen van de oorspronkelijke algoritmen met praktijkdata (i.c. correctiefactoren) vormen een zgn. ‘black box’ en zijn alleen voor de sterkste verbanden terug te vertalen naar voor mensen begrijpelijke rationele of logische argumenten. Voor wetenschappelijke en onderzoekstoepassingen vormt dit geen onoverkomelijk probleem. Het is immers vooral de accurate benadering van de realiteit die telt. Hoe deze tot stand is gekomen, doet er veel minder toe. Daarnaast kan middels dezelfde algoritmen worden onderzocht welke voorheen onbekende verbanden bij uitstek van belang blijken.
Echter, wanneer dergelijke neurale netwerken onverhoopt worden losgelaten op persoonsgegevens in het kader van fraudebestrijding, dan komen de privacy en de vereiste transparantie al snel in de knel. De compartimentering en niet-vloeiendheid van persoonsgegevens leiden er namelijk bij uitstek toe dat een algoritme etnisch of onderscheidend gaat profileren. Met andere woorden: vooroordelen krijgt!
En niemand die dat in eerste instantie door heeft, totdat het veel te laat is. Vanwege de zgn. ‘black box’ is er namelijk niemand die op korte termijn kan controleren hoe de resultaten precies tot stand komen. En bij fraudebestrijding geldt bovendien: wie zoekt die zal vinden. Terwijl het tegelijkertijd volstrekt onduidelijk blijft hoe zich dit verhoudt tot niet-gecontroleerde personen. Nooit aan beginnen dus.
Je begrijpt nu hoe AI op grond van neurale netwerken functioneert
Als het goed is, snap je inmiddels dat AI op grond van neurale netwerken onze reeds bekende wiskundige algoritmen gebruikt, nu echter ingebed binnen een neurale infrastructuur. Als gevolg hiervan kunnen de algoritmen op grond van training met ‘big data’ worden aangepast met correctiefactoren die niet of nauwelijks door menselijke analyse zijn op te sporen. Hierdoor zijn deze algoritmen als zelflerend te beschouwen. Niets mystieks aan dus, maar wel heel bijzonder!
Dit bericht is geplaatst op ons open Business channel en valt buiten de verantwoordelijkheid van de redactie.
Lees de Frankwatching-artikelen over Alle artikelen of Innovatie.