Epistemologie·technologie

De epistemologie van machinaal leren

Door Tom Sterkenburg (postdoc, Munich Center for Mathematical Philosophy)

De razendsnelle ontwikkelingen in machinaal leren—in goed Engels, machine learning—zijn voor eenieder zichtbaar. Zelflerende algoritmes vertalen onze teksten, voeden ons onze advertenties, herkennen onze gezichten, en zijn hard op weg onze auto’s te besturen en onze misdaden te voorspellen. De toenemende doorwerking van machinaal leren in onze maatschappij stelt ons overduidelijk voor belangrijke sociale en ethische kwestiesvoer voor filosofen. Maar deze ontwikkelingen inspireren nog een ander soort filosofische vragen, wellicht minder in het oog springend maar van wezenlijk belang: op zichzelf, maar uiteindelijk ook voor een grondige behandeling van de maatschappelijke kwesties. Dit zijn de epistemologische of kentheoretische vragen rond machinaal leren.

Hiermee bedoel ik de vragen die voortvloeien uit het primaire filosofische probleem: wat kunnen we weten? Hoe kunnen we betrouwbare kennis opdoen, bijvoorbeeld uit relevante gegevens die we verzameld hebben? Tot in hoeverre is het mogelijk dit proces precies te maken, of zelfs te automatiseren? Machinaal leren is de subdiscipline van de kunstmatige intelligentie die het ontwerp bestudeert van algoritmes die zelf kennis kunnen opdoen, zelf kunnen leren van gegevens; de voorgaande vragen zijn dus, zij het in meer concrete verschijningsvormen, ook de centrale problemen voor ontwikkelaars en onderzoekers in machinaal leren. Alle reden om hier onder de loep te nemen hoe de beide disciplines elkaar aanvullen: het machinaal leren de epistemologie, en de epistemologie het machinaal leren.

De theorie van machinaal leren

Op de 2017 editie van de NIPS conferentie in machinaal leren werden onderzoekers van het eerste uur Ali Rahimi en Ben Recht onderscheiden voor hun verdiensten. Hun aanvaardingstoespraak volgde de formule van de oude rot die nostalgisch terugblikt op de dagen van weleer en zich verwondert over de nieuwe generatie: duidelijk met een knipoog, maar evengoed met een kritische noot. Wat de toehoorders vooral bijbleef was de aanklacht dat hedendaags machinaal leren, in zijn desinteresse in een gedegen theoretisch begrip van zijn methodes, verworden is tot een blindelings tasten naar algoritmes die verrassenderwijs werken: tot een soort alchemie.

Velen vonden deze kritiek te ver gaan, een misplaatste rem op een praktijk die per slot van rekening buitengewoon succesvol blijkt. Wie de toespraak en een addendum daarop naleest merkt echter dat de kritiek subtieler is. Rahimi en Recht staan nadrukkelijk een empirische lijn voor: het doel van het vakgebied is het ontwikkelen van algoritmes die simpelweg goed blijken te werken. Maar theorie is onontbeerlijk, betogen ze, juist in dienst van dit doel. Theorie geeft ons een begrip waarom bepaalde algoritmes werken, en daarmee ook een veel beter idee welke onbeproefde methodes nog meer zouden kunnen werken. De theorie is zogezegd de stap terug die een efficiëntere empirische zoektocht faciliteert door de ruimte van mogelijke algoritmes.

Deze stap terug van de praktijk is bovendien niet alleen van betekenis voor hen die werkzaam zijn in het vakgebied. De door theoretici ontwikkelde raamwerken zijn ook bijzonder waardevol voor filosofen om epistemologische problemen te analyseren.

“De theorie van machinaal leren is zogezegd de stap terug die een efficiëntere empirische zoektocht faciliteert door de ruimte van mogelijke algoritmes.”

De theorie van machinaal leren voor filosofen

Een prominent raamwerk is de statistische leertheorie, dat een wiskundige fundering geeft voor onder meer het leerprobleem van classificatie. Denk aan het leren classificeren van afbeeldingen, zoals geïmplementeerd in Google Photos: het algoritme ontvangt een trainingsverzameling van gelabelde plaatjes (zoals kat, gorilla, of treinstation), en moet daaruit een classificatieregel destilleren die nieuwe plaatjes van het correcte label voorziet. Dit basisleerprobleem botst onmiddelijk op de fundamentele filosofische moeilijkheden rond het doortrekken van eindige observaties naar algemene conclusies: het Humeaanse inductieprobleem (welke reden hebben we eigenlijk om te denken dat de plaatjes in de trainingsverzameling iets zeggen over ongeobserveerde plaatjes?) en Goodmans nieuwe inductieraadsel (gesteld dat patronen in de trainingsverzameling inderdaad relevant zijn voor ongeobserveerde plaatjes, dan blijft de vraag: welke patronen moet het algoritme doortrekken?).

Een heldere (zij het waarschijnlijk apocriefe) illustratie van Goodmans raadsel is een algoritme ontwikkeld om Russische van Amerikaanse tanks te onderscheiden. Wat het algoritme uiteindelijk leerde te doen was afbeeldingen van tanks in goede weeromstandigheden van die in slechte te onderscheiden: de Amerikaanse tanks in de trainingsplaatjes waren alle gefotografeerd in de zon en dat was het patroon dat het algoritme leerde en foutief doortrok.

Als er enige consensus bestaat onder filosofen over de les die we moeten trekken uit deze moeilijkheden, dan is het dat elke leermethode onvermijdelijk verbonden is met bepaalde inductieve aannames over de relatie tussen geobserveerde en ongeobserveerde elementen. In machinaal leren spreekt men inderdaad van de inductieve bias van leeralgoritmes, die bijvoorbeeld precies te maken is als de klasse van mogelijke classificatieregels die het algoritme überhaupt kan leren. Resultaten in de statistische leertheorie geven dan een precieze uitdrukking van hoezeer we de klasse van mogelijke classificatieregels van begin af aan moeten beperken (hoe uitgesproken de inductieve bias van ons leeralgoritme moet zijn) om op basis van een bepaalde hoeveelheid trainingsgegevens de beste classificatieregel te kunnen leren.

Een andere inspiratiebron is de formele leertheorie. Kenmerkend aan dit onderzoeksveld is het centraal stellen van de moeilijkheid van een gegeven leerprobleem, om vervolgens sterkere of zwakkere noties van succes te formuleren die voor dat probleem nog haalbaar zijn. Dit werk heeft in recentere jaren aanleiding gegeven tot een nieuwe pragmatische stroming in de formele wetenschapsfilosofie, de zogenaamde means-ends epistemologie. In plaats van het blijven zoeken naar een fundering van inductief redeneren in het algemeen, gaat het hier allereerst om het in kaart brengen van de complexiteit van verschillende inductieve of wetenschappelijke problemen. Pas als we de complexiteit hebben vastgesteld van een gegeven probleem—bijvoorbeeld het leren van een oorzakelijk verband op basis van gegevens over correlaties—kunnen we bepalen welke doelen—bijvoorbeeld het snel aanwijzen van het juiste oorzakelijke verband, het uiteindelijk aanwijzen van het juiste oorzakelijke verband, of het uiteindelijk aanwijzen van het juiste oorzakelijke verband zonder ooit zekerheid te hebben dat deze al de juiste isnog haalbaar zijn voor dat probleem.

Dit illustreert de waarde van werk in de theorie van machinaal leren voor de epistemologie. Van onafhankelijk belang is de filosofische studie van machinaal leren zelf.

“De epistemologische studie van machinaal leren, of de studie van de grondslagen van machinaal leren, ligt in het verlengde van de theorie van machinaal leren: een verdere stap terug.”

De grondslagen van machinaal leren

De epistemologische studie van machinaal leren, of de studie van de grondslagen van machinaal leren, ligt in mijn optiek in het verlengde van de theorie van machinaal leren: een verdere stap terug. Rahimi en Recht spreken bijvoorbeeld over de noodzaak van algoritmes die gestoeld zijn op “rigoureuze, betrouwbare, verifieerbare kennis”: de typische taak van de filosoof is te onderzoeken wat deze begrippen precies betekenen, en of en hoe deze gegrond kunnen worden in de betreffende wiskunde. Een specifieker voorbeeld is de betekenis van betrouwbaarheidswaardes die vaak de conclusies van leeralgoritmes vergezellen: is dit de mate van geloof die we mogen hechten aan de conclusie, of eerder een uitspraak over hoevaak de methode tot dezelfde conclusie zou komenen snijdt deze interpretatie inderdaad hout? Een andere belangrijke taak voor de filosoof is het in kaart brengen van de uiterste beperkingen aan wat leeralgoritmes vermogen. Daarin past ook mijn eigen werk in universele voorspelling.

Inzicht in de beperkingen van leeralgoritmes, en in het bijzonder de inductieve aannames die met elk algoritme gepaard gaan, is tevens een recept tegen het wijdverbreide geloof in de objectiviteit van algoritmes. Dit is met name van belang bij toepassingen waar verborgen inductieve aannames kwalijke vormen aannemen, zoals in het etnisch profileren door algoritmes die rechters adviseren over vervroegde vrijlating van gedetineerden. Daarmee is de epistemologie van machinaal leren niet slechts relevant voor puur de vragen omtrent kennis, maar inderdaad een cruciaal uitgangspunt voor de studie van de maatschappelijke kwesties rondom machinaal leren die steeds meer in de voorgrond treden.

Afbeelding hoofdpagina: © WagnerKiyoshi.

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google+ photo

Je reageert onder je Google+ account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s