In deze workshop onderzoeken we de filosofische vragen achter kunstmatige intelligentie. We vertrekken van twee centrale problemen: het alignment-probleem – hoe kunnen we garanderen dat intelligente systemen onze waarden begrijpen en delen? – en het controleprobleem – hoe behouden we invloed op systemen die autonoom leren en zichzelf verbeteren?
Aan de hand van concrete scenario’s bespreken we wat er kan gebeuren als de macht tot redeneren en handelen zich buiten de mens verplaatst. Daarbij staan de argumenten voor en tegen een mogelijk verlies van controle centraal: van technische beperkingen tot morele onvoorspelbaarheid.
In het tweede deel richten we ons op de bredere filosofische implicaties. Wat betekent het dat we vaak niet meer kunnen verklaren hoe AI tot beslissingen komt? Wie is verantwoordelijk voor handelingen van niet-menselijke agenten? En tenslotte, kunnen kunstmatige intelligenties ooit bewustzijn ontwikkelen en moeten ze een morele status krijgen?
AI verschijnt zo niet enkel als technologische innovatie, maar als een uitdaging voor onze opvattingen van kennis, verantwoordelijkheid en menselijkheid zelf.
Voor wie kritisch en filosofisch wil nadenken over de grenzen van controle, begrip en morele verantwoordelijkheid in het tijdperk van kunstmatige intelligentie.

Foto credit: Pixabay
