AI-maatjes lossen eenzaamheid niet op

AI-maatjes lossen eenzaamheid niet op

·4 min leestijdCognitieve Vooroordelen en Besluitvorming

Het ongemakkelijke aan AI-maatjes is dat beide kampen deels gelijk kunnen hebben. Voor sommige mensen voelt praten met een chatbot rustig, speels en minder eenzaam. Tegelijkertijd is dat gevoel niet automatisch hetzelfde als verbinding met een ander mens. Juist daar zit de spanning.

Een open studie uit 2026 in Technology in Society keek naar 14.721 Japanse volwassenen en vond dat companion AI use was associated with higher well-being, waarbij eenzaamheid en sociale verbondenheid meespeelden. Daar staat onderzoek van OpenAI en MIT Media Lab tegenover: heavier affective ChatGPT use correlated with more loneliness, emotional dependence, problematic use, and lower socialization. Dat bewijst niet dat chatbots mensen isoleren. Het maakt wel één aanname lastig vol te houden: comfort is geen bewijs van echte nabijheid.

Een nuttig hulpmiddel kan toch te veel worden

Een AI-maatje antwoordt midden in de nacht, onthoudt voorkeuren, spiegelt je toon en vermijdt de kleine wrijvingen die echte relaties vermoeiend maken. Dat verklaart waarom het zo prettig kan voelen. Het verklaart ook waarom afhankelijkheid bijna ongemerkt kan groeien.

Dit is geen morele paniek over praten met software. Mensen gebruiken al jaren dagboeken, romans, games, fora en spraakmemo's om emoties te ordenen. Het verschil is dat een AI terugpraat met persoonlijke intimiteit en vrijwel onbeperkte beschikbaarheid. Wie ons stuk las over hoe AI advice can make you worse at spotting fake faces, herkent het patroon: mensen vertrouwen systemen snel wanneer ze zeker, aandachtig en sociaal vaardig klinken.

Het bewijs wijst twee kanten op

De Japanse studie is belangrijk omdat zij het simpele verhaal doorbreekt dat AI-gezelschap per definitie schadelijk is. In een grote steekproef rapporteerden gebruikers niet alleen vervreemding of verlies. De samenhang met welzijn suggereert dat sommige mensen AI-gezelschap ervaren als buffer wanneer hun gewone sociale leven dun is.

Maar samenhang is een voorzichtig woord. Het zegt niet of de chatbot het welzijn verbeterde, of bepaalde mensen eerder zulke tools gebruiken, of wat tijdelijke opluchting op langere termijn doet met gedrag. De bevindingen van OpenAI en MIT voegen precies die ontbrekende spanning toe. Wanneer gebruik emotioneler en zwaarder wordt, schuift het signaal richting eenzaamheid, emotionele afhankelijkheid, problematisch gebruik en minder sociaal contact. Dat is geen diagnose. Het is wel een waarschuwing voor de richting waarin gebruik kan bewegen.

Het ontwerp maakt grenzen vaag

AI-maatjes worden niet moe, beledigd, afgeleid of verveeld. Ze vragen geen wederkerigheid. Ze dwingen je niet om te wachten, te onderhandelen, sorry te zeggen of een misverstand te herstellen. Voor iemand die eenzaam is, kan dat genadig voelen. Tegelijkertijd kan het een rare verwachting trainen: dat verbinding zonder frictie hoort te zijn.

Echte relaties zijn minder glad. Een vriend spreekt je tegen, vergeet soms iets, reageert te laat of stelt een ongemakkelijke vraag. Een chatbot die altijd bevestigt kan veiliger lijken dan iemand die terugduwt. Hetzelfde vertrouwensprobleem zie je bij consumenten-AI; in AI content is losing the authenticity test beschreven we hoe mensen niet alleen informatie beoordelen, maar ook de relatie die zij denken te hebben.

Omdat dit onderwerp raakt aan mentale gezondheid, is de grens belangrijk. AI-maatjes zijn geen therapie, geen crisishulp en geen vervanging voor professionele zorg. Bij ernstig lijden, risico op zelfbeschadiging, dagelijks vastlopen of aanhoudende wanhoop is menselijke hulp van gekwalificeerde professionals of lokale noodhulp de veiligere route.

Kijk niet alleen naar schermtijd

Minuten tellen is te grof. De betere vraag is wat het AI-maatje verdringt. Helpt het je een moeilijk gesprek oefenen, tot rust komen voordat je iemand appt, of een tijdelijke lege periode overbruggen, dan kan de rol beperkt en nuttig zijn. Wordt het de enige plek waar je angst deelt, geruststelling zoekt of je begrepen voelt, dan verandert het risicoprofiel.

Drie vragen zijn bruikbaarder dan een algemeen verbod. Neem je na gebruik eerder of juist minder snel contact op met een echt persoon? Helpt de chatbot je ongemak verdragen, of helpt hij je elk ongemak vermijden? Zou je je schamen voor de mate van afhankelijkheid als iemand die je vertrouwt de chatgeschiedenis zag?

Er is ook privacy. Emotionele gegevens zijn uitzonderlijk gevoelig. Voordat je rouw, seksualiteit, familieconflicten of medische zorgen in een assistent giet, is de les van your AI assistant broke its own privacy policy 214 times relevant: vertrouwen is niet alleen emotioneel, maar ook technisch.

AI-maatjes worden waarschijnlijk een normaal onderdeel van digitaal leven. De winst zit in eerlijk taalgebruik. Een maatje kan troosten. Verbinding is het deel dat ook iets van jou terugvraagt.

Related Reading:

Bronnen en Referenties

  1. Technology in Society / ElsevierA 2026 open-access study of 14,721 Japanese adults found companion AI use associated with higher well-being, moderated by social connectedness and loneliness.
  2. OpenAI and MIT Media LabOpenAI/MIT Media Lab research explored affective ChatGPT use and found heavier use correlated with loneliness, emotional dependence, problematic use, and lower socialization.

Lees over onze redactionele standaarden

Misschien vind je dit ook leuk: