TechTafels - Op bezoek bij UHasselt (Sociale Wetenschappen)

Dinsdag 22 april waren we te gast bij de UHasselt. Met de derdejaarsstudenten van het vak ‘Publieke waarden en digitale platformen’ organiseerden we een TechTafel. De studenten vertrokken vanuit persoonlijke ervaringen en gingen, met de hulp van stellingen, in gesprek over de voor -en nadelen van technologische vooruitgang. Met dank aan docente Fran Geys en opleidingsverantwoordelijke Jo Pierson.

Avansa techtafels CMY Kprint

Het gesprek begon heel concreet bij alledaagse prikkels: meldingen op smartphone of smartwatch. Verschillende studenten herkenden hoe een simpele notificatie je aandacht wegtrekt van waar je mee bezig bent. Sommigen benoemden dat dit sterk afhangt van context en van je eigen relatie tot die melding: een bericht van iemand dicht bij je weegt anders dan een algemene update. Tegelijk werd duidelijk dat er bij velen een automatische reflex meespeelt: ‘even kijken’ wordt snel ‘even blijven hangen’. Eén student vertelde hoe het verplaatsen van de gsm naar een andere ruimte tijdens het studeren opvallend goed werkt. Dat leidde tot de idee dat technologie niet alleen hulpmiddelen biedt, maar ook gedrag kan sturen via gewoontes.

Ook ging het gesprek over AI-tools zoals ChatGPT. De groep maakte daar een belangrijk onderscheid: AI kan nuttig zijn als ondersteuning, maar het wordt problematisch wanneer mensen al hun denkwerk uitbesteden. Studenten merkten op dat AI vaak erg overtuigend formuleert, ook wanneer de inhoud fout is. Daardoor ontstaat het risico dat gebruikers output sneller aanvaarden als ‘waar’ of ‘af’, zeker als ze minder gewend zijn om bronnen te controleren. Er werd verwezen naar voorbeelden uit de actualiteit waarin foutieve citaten of verzonnen bronnen zonder voldoende check werden overgenomen. Bijvoorbeeld Petra De Sutter die een foute AI-gegeneerdere quote gebruikte in één van haar speeches. Dit vergroot de bezorgdheid dat niet alleen individuele gebruikers, maar ook instellingen en media kwetsbaar zijn voor dit soort fouten.

Kleiner formaat

Tegelijk kwamen er nuances. De studenten gaven aan dat ze binnen hun opleiding net worden aangemoedigd om AI kritisch te benaderen: niet klakkeloos kopiëren, maar controleren, vergelijken en expliciet nagaan waar informatie vandaan komt. Ze zagen AI eerder als een partner om repetitieve taken te versnellen: structureren, samenvatten, ideeën genereren… Het mag zeker je eigen redeneerwerk niet vervangen. Nog een valkuil kwam ter sprake: AI kan het creatieve proces verkorten. Waar je anders lang zou puzzelen, brainstormen en wikken en wegen, kan een tool in enkele seconden een reeks opties geven. Dat is efficiënt, maar het kan ook maken dat je minder tijd doorbrengt in het ‘mentaal worstelen’ dat net tot originele inzichten leidt.

Het gesprek ging ook over verschillen tussen groepen in de samenleving. De studenten vermoedden dat hun kritische houding mede voortkomt uit opleiding en context, en dat dit niet vanzelfsprekend is voor iedereen. Er werd gesproken over oudere generaties die zich soms uitgesloten voelen door digitalisering, bijvoorbeeld wanneer basisdiensten vooral nog online toegankelijk zijn. Tegelijk merkten studenten dat sommige 60- à 70-plussers de lat voor zichzelf anders leggen en niet noodzakelijk de behoefte voelen om overal in mee te zijn. Het gesprek draaide daardoor niet alleen om ‘kunnen’, maar ook om ‘moeten’: in welke mate dwingt de samenleving mensen om mee te gaan, en wie draagt daar verantwoordelijkheid voor? Individu, bedrijven of beleid?

Whats App Image 2026 04 22 at 10 17 40

Die verantwoordelijkheid kwam opnieuw scherp naar voren bij het thema deepfakes en misbruik. Studenten haalden aan dat jongeren op steeds vroegere leeftijd geconfronteerd worden met AI-toepassingen die schadelijk kunnen zijn, bijvoorbeeld door beelden te vervalsen of iemand te framen. De bezorgdheid ging niet alleen over de technologie zelf, maar vooral over de gevolgen: reputatieschade, machtsmisbruik, en de moeilijkheid om nog te bewijzen wat ‘echt’ is wanneer overtuigend nep-materiaal circuleren kan. Dat maakte de roep om mediawijsheid en kritische vaardigheden nog dringender, zeker bij jongeren die AI als vanzelfsprekend gebruiken.

Daarna keerde het gesprek naar de vraag hoeveel controle mensen nog hebben over technologie. Veel deelnemers waren het eens dat technologie diep in het dagelijks leven verweven is geraakt en dat volledige ‘controle’ in de praktijk lastig is. Ze beschreven die controle als een samenspel: gebruikers moeten bewuste keuzes kunnen maken, platformen moeten transparanter zijn en verantwoordelijkheid opnemen. Beleidsmakers moeten regels opstellen én afdwingen. Vooral bij AI werd het gevoel uitgesproken dat de ontwikkelingen snel gaan en dat het moeilijk is voor regelgeving om hetzelfde tempo te houden. Tegelijk benadrukten ze dat technologie niet neutraal is: wie systemen bouwt, brengt waarden en vooroordelen mee. AIs die ‘gevoed’ wordt met eenzijdige datasets, kunnen AI-systemen ongelijkheden versterken en zelfs discrimineren.

Whats App Image 2026 04 22 at 12 05 58

Een ander thema dat veel reacties opriep was identiteit en zelfpresentatie op sociale media. De groep vond het herkenbaar dat mensen online vaak een selectieve versie van zichzelf tonen: zelfs ‘authentieke’ posts zijn uiteindelijk gekozen momenten. Tegelijk ontstond er discussie over de neiging om influencers als groep snel te veroordelen. Enkele studenten wilden vermijden om iedereen over één kam te scheren: niet alles is per definitie onecht of manipulatief. Anderen benadrukten dan weer dat de logica van geld, bereik en algoritmische beloning een sterke druk zet op wat wel of niet getoond wordt. De nuance die bleef hangen: online identiteit is zelden volledig ‘nep’ of volledig ‘echt’, maar beweegt binnen de grenzen van publieksverwachting, platformlogica en sociale normen.

Het gesprek raakte ook aan zwaardere toepassingen, zoals defensie en autonome wapensystemen. Daar was de groep overwegend kritisch: als machines oorlog ‘efficiënter’ maken, betekent dat niet automatisch minder leed. Integendeel, het kan drempels verlagen en verantwoordelijkheid vertroebelen. De studenten vermoedden dat investeringen in dit soort technologie eerder gestuurd worden door geopolitieke macht dan door humanitaire motieven. In dezelfde sfeer kwam het onderwerp zelfrijdende auto’s aan bod. Studenten zagen voordelen op vlak van veiligheid, maar stelden vragen bij technische haalbaarheid in complexe situaties. Maar ook bij het verlies van persoonlijke controle. Ook hier kwam een terugkerend patroon naar voren: zelfs wanneer technologie veiliger wordt, willen mensen vaak nog een vorm van autonomie behouden.

Whats App Image 2026 04 22 at 12 23 05

Tegen het einde verschoof het gesprek naar algoritmes en hoe die bepalen wat we te zien krijgen. De groep vond de stelling “door onze filterbubbel gaan we nooit meer nieuwe dingen zien” te hard. Velen ervaren dat ze soms ook inhoud buiten hun ‘filterbubbel’ zien. Tegelijk werd dat verklaard vanuit de ‘aandachtseconomie’: platformen tonen soms net tegengestelde of prikkelende inhoud om reactie en betrokkenheid uit te lokken. Over smartphonegebruik en verslavingsmechanismen was er opvallend veel eensgezindheid: algoritmes en app-ontwerp zijn erop gericht om je zo lang mogelijk vast te houden, en dat heeft impact op welzijn, concentratie en gewoonten.

In het laatste rondje gaven ze aan hoe weinig zwart-wit het onderwerp is. Technologie is tegelijk handig, krachtig en riskant. De juiste houding lijkt voor hen een combinatie van kritisch denken, bewuste keuzes en duidelijke maatschappelijke afspraken. Meerdere studenten vonden het ook gewoon een leuke ‘les’: laagdrempelig en interactief. Tegelijk werd uitgesproken dat het extra interessant zou zijn om dit soort gesprekken te voeren met meer gemengde groepen, precies omdat achtergrond, kennis en ervaring sterk bepalen hoe mensen technologie vertrouwen, gebruiken en beoordelen.

Datum bericht vr 24 april '26