Op dinsdag 10 maart waren we met TechTafels te gast bij UCLL. Het verslag van die avond kan je hier lezen.
Dinsdag 10 maart waren we te gast bij hogeschool UCLL in Hasselt. Place to be: de Social Tech Hub. Deze plek brengt hulpverleners, onderzoekers, studenten en technologen samen om het welzijn van mensen te versterken. Er wordt geëxperimenteerd met nieuwe technologieën om oplossingen voor uitdagingen in hulpverlening en welzijnswerk te zoeken. Kortom, dé plek bij uitstek om in gesprek te gaan over de voor -en nadelen van technologische ontwikkelingen! Het gesprek verliep aan de hand van enkele stellingen. Hier lees je de korte punten van het gesprek.
“Deepfakes zijn gevaarlijk. Er moeten meer regels zijn over het gebruik van AI”
Deepfakes zijn AI-gemanipuleerde filmpjes waarin iemand iets lijkt te doen of zeggen zonder dat hij/zij dat gedaan heeft. Deelnemers maken zich zorgen over identiteitsmisbruik en verwarring over wat nog echt is. Deepfakes kunnen iemands identiteit gebruiken’ zonder toestemming. Dat voelt als een schending van privacy. En misbruik is al zichtbaar, bijvoorbeeld bekende personen die zogezegd producten aanprijzen waardoor vertrouwen in beelden en filmpjes afneemt.
De deelnemers erkennen dat wetgeving vaak achterloopt op technologie. Technologische ontwikkelingen leiden pas later tot regels. Vaak ligt het niet aan de technologie op zich, maar aan mensen die het misbruiken. Tegelijk kwam de vraag: “Als het technisch mogelijk is, is het ook wenselijk?”. Denk bijvoorbeeld aan autonome wapens en apps die ‘uitkleden’. In de media verschijnen vaak berichten over jongeren die hoofden plakken van meisjes op andere lichamen. En vaak is het onduidelijk of het echt is. Waar ligt de grens tussen nuttig gebruik en schadelijk gebruik? En hoe combineer je bescherming met vrijheid? In China worden bepaalde apps en sociale mediaplatformen niet toegelaten of zijn er strenge leeftijdsbeperkingen. Willen we dat ook in België?
“AI en robots maken het leven makkelijker” versus “AI en robots brengen vooral risico’s mee, vooral rond werk en ongelijkheid.”
Rond deze stelling werd uitgewisseld over (zinvol) werk, tijd en verdeling van middelen. Automatisering kan de werkloosheid doen stijgen. Zeker als het huidige systeem (= loon als toegang tot een goed leven) blijft gelden. Maar als de samenleving middelen anders verdeelt, bijvoorbeeld door een basisinkomen, kan automatisering ruimte maken voor mantelzorg, vrijwilligerswerk, ambachtelijke tijd, en ‘meer tijd voor belangrijke dingen’.
Doorheen de geschiedenis zijn er telkens jobs uitgestorven en nieuwe jobs ontstaan. Bijvoorbeeld, het beroep ‘ketellapper’ bestaat niet meer. Tegelijk wordt gewaarschuwd voor verlies van basisvaardigheden zoals rekenen, schrijven en nadenken door ‘te veel gemak’. Verder zijn er nog enkele positieve voorbeelden, zoals drones in de landbouw, robots in gevaarlijke omgevingen en het optillen in de zorg om fysieke belasting te verminderen. Maar de zorgsector is te intiem om aan robots over te laten. Robots mogen ondersteunen, maar verzorging door een mens blijft belangrijk.
“AI kan niet discrimineren als we het goed gebruiken. Het zorgt net voor meer gelijkheid. Het is enkel een instrument en de mens zit aan het stuur.”
AI is een instrument, maar niet iedereen zit ‘evenveel aan het stuur’. Ook heeft niet iedereen dezelfde toegang en/of vaardigheden om met AI om te gaan. Hierdoor is AI-output gekleurd door wie AI voedt en gebruikt: als vooral bepaalde groepen het intensief gebruiken, dreigt onderbelichting van andere groepen. Wie beter is met taal of ‘prompten’ haalt meer voordeel uit AI. Anderzijds was kennisproductie altijd al gekleurd. Encyclopedieën werden bijvoorbeeld altijd geschreven door professoren.
Lectoren merken dat studenten AI veel gebruiken. Dit detecteren wordt moeilijker en moeilijker. Dat dwingt het onderwijs tot nadenken. Hoe moeten we studenten evalueren? Meer mondelinge evaluaties met de focus op kritisch denken? Ook de ‘autocorrect-functie’ in Microsoft Word was ooit nieuw en controversieel. Waarom behandelen we AI dan anders?
“Het is weinig waarschijnlijk dat technologie zich tegen ons zal keren. Er zit geen geest in de machine.” De groep gelooft niet sterk in ‘robots nemen de wereld over’. De deelnemers zien wel risico’s in AI-hallucinaties en menselijk misbruik. AI heeft (voorlopig) geen “goed/kwaad”-besef. Zonder moraliteit kan het gevaarlijk worden als AI-systemen autonoom handelen.
Ook zelfrijdende auto’s kwamen ter sprake. De discussie draaide rond ‘controle’ versus ‘afhankelijkheid’. Sommigen vinden het moeilijk om de controle volledig af te geven aan een computer, zelfs als die minder fouten zou maken. Deelnemers willen eerst bewijs zien dat het werkt. Nieuwe generaties zullen dit normaler vinden. Iemand haalde aan dat computers niet moe worden. Een vermoeide piloot of chirurg maakt fouten, terwijl een systeem foutloos kan zijn. Al blijft de vraag naar betrouwbaarheid.
Tegelijk bestonden veel hedendaagse problemen vroeger ook al: roddels, opiniebubbels (bv. op café), propaganda, … Maar technologie maakt verspreiding sneller en groter. Een voorbeeld: pesten stopte vroeger vaker na school, nu kan het doorlopen via online platformen. Wat verandert er als de schaal en de snelheid drastisch toenemen? En hoe gaan we om met systemen die overtuigend kunnen ‘verzinnen’ (hallucineren) en zo misinformatie voeden?
“Defensie moet investeren in robots en AI. Als machines onze oorlogen uitvechten is er minder menselijk leed.”
De groep was verdeeld. Sommigen zien ‘minder jongeren als kanonnenvoer’ als voordeel. Minder soldaten (vaak jongeren) moeten fysiek gaan vechten. Oorlog kost minder direct menselijk leven aan eigen kant. Anderen vrezen dat technologische oorlogsvoering oorlog net makkelijker en afstandelijker maakt. Meer technologie in oorlog maakt het gevaarlijker en verlaagt drempels: van ‘trekker overhalen’ naar ‘op knop drukken’ op afstand. Met minder directe confrontatie met gevolgen. Ook kunnen er fouten gebeuren door autonome systemen. Ten slotte; in een ideale wereld zouden we geen gesprek moeten voeren over deze stelling. Want er zou nergens meer oorlog moeten zijn.
Ten slotte…
Deelnemers vonden het een leuk gesprek. Standpunten uitwisselen, samen nadenken, … we moeten het meer doen! De stellingen leverden zelden eenduidige antwoorden op. Toch is het waardevol om verschillende invalshoeken te horen. Enkele slotbeschouwingen in het afsluitend rondje:


