Machinaal leren

ontwikkeling van algoritmes en technieken waarmee computers kunnen leren
(Doorverwezen vanaf Automatisch leren)

Machinaal leren of machinelearning (ook vaak afgekort tot ML) is een subset van artificiële intelligentie om via big data de menselijke factor te digitaliseren, zodat computersystemen kunnen leren van de menselijke ervaringen. Dit leerproces maakt gebruik van datamining en AI-algoritmen om een groot aantal omslachtige gegevens te filteren.[1] Binnenin dit segment zijn er nog subsets voorhanden die gericht zijn op geavanceerde machinelearning zoals deep learning en reinforcement learning.[2]

Leermodellen

bewerken

Om AI te trainen wordt een AI-algoritme-leermodel gebruikt om (big) data te verwerken en te analyseren. Een algoritme behoort tot de basiselementen die nodig zijn om een AI-systeem te trainen en te hertrainen. Een algoritme kent geen vermoeidheid en doet precies waarvoor het is geprogrammeerd als er geen bugs aanwezig zijn. Het verwerkt snel en grote hoeveelheden data tot een geoptimaliseerd taalmodel of gegevensmodel. Voorbeelden van eindproducten zijn patroonherkenning in smartphones, het stellen van diagnoses van ziektebeelden, zelfrijdende auto's en zoekrobots.

Het gekozen leermodel hangt sterkt af van de usecases en het programmeerprobleem zoals patroonherkenning, logisch redenerende programma's of zelflerende neurale netwerken. Een machinelearning-algoritme bevat vijf leermodellen die vervolgens gecombineerd kunnen worden naargelang het beogende doel:[2][3][4][5]

Gecontroleerd

bewerken

Dit leermodel analyseert twee of meerdere voorbeelden als basis, waarvan een op voorhand gelabeld is als antwoordsleutel. Hoe langer getraind, hoe correcter, maar hoe strenger het patroon zal beoordelen. Elke beoordeling wordt beantwoord met ja of neen. Voorbeeld zijn madeliefjes en viooltjes, waarbij madeliefjes als antwoordsleutel werd aangeleerd. Bij een scan zal het systeem een patroon berekenen en vergelijken met het patroon van de madeliefjes. Is het patroon een gewichtige x aantal percentage, dan is het antwoord ja, anderzijds neen. Dit is de simpelste vorm van machinelearning en wordt kleine AI genoemd met een laag energieverbruik. Het kan geïntegreerd worden in een app of smartphone.[6]

Ongecontroleerd

bewerken

In dit leermodel is er geen antwoordsleutel op voorhand gelabeld. Dit moduleert hoe mensen de wereld waarnemen en tracht nieuwe informatie te concluderen en te voorspellen. De inputgegevens zijn ongestructureerd en beginnen patronen en overeenkomsten te identificeren met behulp van relevante alledaagse toegankelijke big data. Naarmate mensen meer voorbeelden zien, wordt het memoriseren en identificeren steeds nauwkeuriger. Dit is voor een computer hetzelfde maar dan met meer hoeveelheden omslachtige data die beschikbaar worden gesteld. Voorbeelden zijn gezichtsherkenning, marktonderzoek en cybersecurity. Dit is een typische vorm van deep learning en vraagt veel energie tijdens het trainen.

Half gecontroleerd

bewerken

Dit leermodel is een combinatie van gecontroleerd en ongecontroleerd leren. Aan de hand van een input met gecontroleerde gegevens wordt de ongelabelde data bijgesteld.

Zelfcontrolerend

bewerken

Dit leermodel heeft geen directe antwoordsleutel beschikbaar. Het gaat aan de slag met ongestructureerde inputgegevens. Het automatisch leren levert een voorspelling op van de ontbrekende puzzelstukjes die niet werden ingegeven of zijn verborgen. Het maakt gebruik van ongecontroleerd leren, om zelf de gelabelde data samen te stellen in plaats van de menselijke gelabelde data als input te krijgen. Dit simuleert het neurale netwerk via deep learning en wordt ingezet bij robotica en ChatGPT. Dit behoort tot de grote AI en heeft naast trainen ook dagelijks veel energieverbruik nodig omdat het zich richt tot algemene onderwerpen via een supercomputer.[6]

Versterkt

bewerken

Dit model werkt via een beloningssysteem en is bijvoorbeeld zodanig geprogrammeerd dat de computer zoveel en zo snel mogelijk punten wil verzamelen. Het wordt bijvoorbeeld ingezet bij het schaken waarvan niet alle mogelijk combinatie geweten zijn. Een wiskundige berekening gaat aan de slag met de ingegeven richtlijnen en reglementen van de betreffende doeloplossing en bepaalt hiervoor een output. Dit leermodel wordt gebruikt door ChatGPT in combinatie met zelfcontrolerend leren, zodat er kan bijgestuurd en gecorrigeerd worden met regels en juistheden. De energieverbruik is laag bij het berekenen en inscannen van gezichten om patronen te vergelijken, maar hoog bij het berekenen via een schaakcomputer zoals IBM's computerprogramma Deep Blue. Dit leermodel wordt in het Engels reinforcement learning genoemd.

Hybride combinatie

bewerken

Een zelfcontrolerend en -versterkend machinelearning-algoritme kan systemen verder trainen tot een meer volwassen AI-model, dat wil zeggen dat ze innoverende patronen kunnen implementeren om de software te verbeteren. Er is geen limiet zolang er nieuwe gegevens beschikbaar zijn. Een getrainde AI-model vrijwaren van vooroordelen en desinformatie is het nieuwe streefdoel en vereist een betere techniek in het analyseren.[7] Zo gaf het AI-systeem Gemini van Google al eens het advies om 30 ml lijm aan spaghettisaus toe te voegen om te voorkomen dat kaas van de pizza valt. Een pijnlijk maar ook gevaarlijk advies.[8] Het verwijderen van deze interpretatie wordt nooit toegepast want dat maakt een AI-model niet intelligenter. In de plaats daarvan zou een techniek kunnen zijn, om via het versterkt leermodel enkele reglementen aan te scherpen zodat non-food niet meer wordt gecombineerd met voedsel. Hoe dan ook, er zijn een tal van mogelijke oplossingen beschikbaar.

Ontstaansgeschiedenis

bewerken

Alan Turing

bewerken
  Zie Alan Turing voor het hoofdartikel over dit onderwerp.

In 1936 tracht Alan Turing voor het eerst een antwoord op de vraag te formuleren of machines zouden kunnen denken en menselijke intelligentie vertonen. Aan de hand van een turingtest publiceerde hij het volgende gedachte-experiment: stel een computer kan iemand laten geloven dat hij een mens is, dan concludeerde hij dat de computer intelligentie vertoont. In 1950 publiceerde Turing een aanvulling op zijn turingtest, genaamd de Computing Machinery and Intelligence, hierin suggereerde hij dat mensen beschikbare informatie en reden gebruiken om problemen op te lossen en beslissingen te nemen.[9] De huidige AI is ook gericht op hoe computers beslissingen kunnen nemen op basis van bestaande gegevens via machinelearning.[5]

Eerste AI-algoritme

bewerken

In 1955, vijf jaar later, werd het bewijs van Turing aangetoond met de Logic Theorist, een geschreven computerprogramma door Allen Newell, Cliff Shaw en Herbert Simon. Dit wordt hedendaags gezien als de eerste kunstmatige intelligentieprogramma en werd gepresenteerd in 1956 tijdens Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI), georganiseerd door John McCarthy en Marvin Minsky.

Twee jaar later, in 1957, gaven Allen Newell, Cliff Shaw en Herbert Simon van RAND Corporation opnieuw een demonstratie van de General Problem Solver (GPS) met hun vernieuwde algoritme genaamd means–ends analysis, het allereerste machinelearning-algoritme dat hedendaags bij sommige AI-systemen nog steeds gebruikt wordt.[9]

Deep-learning-techniek

bewerken

In 1982 populariseerden John Hopfield en David Rumelhart de allereerste deep-learning-techniek waarmee computers kunnen leren van menselijke ervaringen, ook het Hopfield-netwerk genoemd. Met deze verbeterde algoritmische toolkit kreeg AI terug een opleving in de jaren 80 met verhoging van fondsen tot wel 400 miljoen dollar tussen 1982 en 1990. Rond dezelfde periode introduceerde Edward Feigenbaum ook zijn besluitvormingsproces, een expertsysteem om een menselijke expert na te bootsen.

Echter, de technologie van computers stond nog maar net in de beginfase, waarna de fondsen fors werden teruggeschroefd wegens gebrek aan rekenkracht en opslagcapaciteit. Tussen 1990 en 2000 bleef het stil rond de ontwikkeling van machinelearning.[9]

Stroomversnelling

bewerken

Een echte doorbraak en stroomversnelling van machinelearning kwam er pas rond 2020 en later, waarbij enorme grote opslagcapaciteitsmogelijkheden voorhanden zijn om computersystemen op voorhand te trainen met big data, zoals in de jaren 80 werd geopperd.[9] Voorbeelden zijn AI-chatbots zoals ChatGPT, Google Gemini en Microsoft 365 Copilot.

Een belangrijk element is dat deze doorbraak maar een onderdeel vormt van de globale artificiële intelligentie die vandaag kan worden ingezet. Vaak worden ze ook met andere AI-technieken gecombineerd tot nieuwere oplossingen. Een voorbeeld van een andere techniek is de AI de werd ingezet tijdens COVID-19 voor de warmtebeelden in luchthavens.[4] Ook gekend onder de term metadata-fusie.[10]

Voorbeelden

bewerken

Zie ook

bewerken