Artificial intelligence (AI) wordt steeds meer een deel van ons dagelijks leven. Je gebruikt AI niet alleen als je Siri of Alexa aanspreekt of wanneer je voor een tekst met ChatGtp aan de slag gaat. Microsoft kondigde midden maart aan AI in haar Office-producten te integreren. Copilot zal je helpen vergaderingen voor te bereiden, teksten samen te stellen of rekenbladen te ontwerpen.
Voor onderwijs heeft deze snelle technologische evolutie natuurlijk gevolgen. We zullen leerlingen moeten leren hoe ze goed met deze technologie kunnen omgaan. En we zullen zélf ook moeten leren om AI op goede manieren te integreren in ons onderwijs.
Mij interesseert AI omdat het een krachtig voorbeeld is van de verhouding tussen mens en cultuur, tussen mens en technologie. Ik heb AI ook altijd beschouwd als een manier om inzicht te krijgen in de werking van ons brein.
Hoe leren mensen? Hoe geven mensen betekenis aan dingen in de wereld? Ik dacht dat we daarover konden leren van AI. Maar onlangs vond ik een interessant stuk op de website van filosoof Tim Crane over artificial intelligence. Als zijn argument steek houdt, heb ik me vergist.
We kunnen heel veel leren van AI en AI kan veel voor ons betekenen. Maar wat we niet kunnen leren van AI, is hoe mensen denken. Crane legt in zijn bespreking van het boek “The Promise of Artificial Intelligence” uit dat de manier waarop AI-onderzoekers en -ontwikkelaars werken grotendeels los staat van cognitief en psychologisch onderzoek naar de werking van het menselijk brein.
Dat is voor AI op zich geen slechte zaak (geweest), want op die manier kon belangrijke vooruitgang geboekt worden. Maar het roept wel de vraag op, zegt Crane, of AI ooit echt een ‘denkende machine’ zal kunnen produceren.
En wat dit dus ook inhoudt, is wat AI ons niet kan leren. AI zal ons geen theorie van het menselijk denken kunnen opleveren.
Er zit een zekere ironie in dat argument, omdat Crane in zijn boekbespreking een idee van Brian Cantwell Smith aanhaalt over wat specifiek is aan menselijk denken. Het is een interessant idee, maar wel een idee dat voortkomt uit de dialoog van een filosoof met… artificial intelligence.
Waarover gaat het? Smith ziet twee grote categorieën in menselijk denken. Mensen doen aan ‘reckoning’, wat je zou kunnen vertalen als: ‘berekenen’, ‘inschatten’, ‘beredeneren’. Daarnaast is ‘judgment’, (be)oordelen, een belangrijk element.
In ‘judgment’ speelt totale betrokkenheid op de wereld een grote rol, ook emotionele betrokkenheid. En dat is iets wat AI blijkbaar niet kan, niet heeft. Computers geven geen moer om de wereld.
Dat het zo belangrijk is om betrokken te zijn op de wereld om over volwaardig denken te spreken, geeft natuurlijk te denken. Leert ons dit iets over het belang van socio-emotioneel leren?
Voor we daar uitspraken over kunnen doen, moeten we eerst uitklaren wat we bedoelen met ‘betrokken zijn op de wereld’ en met ‘judgment/beoordelen’, denk ik. Dus toch, ook al lijkt dat wat ver van ons onderwijsbed af te staan, verder kijken wat er in AI-land gebeurt…
De tekst van Tim Crane kan je hier nalezen. Zijn ganse website staat trouwens vol interessante artikels en papers.
