Waarom top-downmodellen van lezen (en waarneming in het algemeen) letters in woorden misschien beter te herkennen zijn
Mooi artikel met illustraties te gebruiken voor start minor psychologie in september 2021
Kunnen woorden ons helpen om letters duidelijker te zien?
RADBOUD RECHARGE DINSDAG 15 JUNI 2021
Letters kun je makkelijker herkennen als ze onderdeel zijn van een woord. We hebben dit waarschijnlijk allemaal wel eens ervaren, bijvoorbeeld tijdens het rijden met slecht weer: het is dan makkelijker om een woord of naam te lezen (zoals een verkeersbord) dan een willekeurige reeks tekens (zoals een kentekenplaat). Maar waarom?
Historisch gezien zijn er twee verklaringen voor dit fenomeen, geïnspireerd door twee totaal verschillende perspectieven op de werking van het brein.
Ten eerste is er het bottom-up perspectief, dat inhoudt dat informatieverwerking in de hersenen puur ‘van onderaf’ werkt: als eerste – aan de ‘onderkant’ – verwerken de hersenen eenvoudige tekens (zoals lijnen), vervolgens vormen (zoals letters), helemaal ‘omhoog’ tot complexe objecten (zoals woorden). Cruciaal is dat informatie alleen in deze ‘opwaartse’ richting stroomt.
Daarom kunnen in bottom-up modellen de effecten van complexe verbanden (zoals woorden) alleen voorkomen aan het einde van de verwerkingsketen – nadat de letters zijn waargenomen. Anders gezegd, deze modellen beweren dat woorden je niet helpen om letters duidelijker te zien, maar alleen om beter te kunnen raden wat je ziet:
Bottom-up modellen beweren dat de context van een woordcontext je over beslissingen informeert, en niet over jouw waarneming.
Top-down-modellen, daarentegen, zijn gebaseerd op het idee dat informatie in de hersenen in beide richtingen kan stromen, dus dat kennis van woorden de waarneming “van bovenaf” kan verbeteren.
Bij deze verklaring helpt de context van woorden je dus niet alleen bij het raden van de letters die je ziet, maar ook bij letterlijk bij het zien van de letters:
Volgens top-downmodellen kan kennis van de context (hier het woord ‘TIME’) ons helpen de afzonderlijke lijnen van de letter (hier de letter ‘E’) waar te nemen
Misschien verrassend, maar het top-down-model is op dit moment het meest invloedrijk – dit model zult u in de studieboeken vinden. Dit komt door een mooie reeks gedragsexperimenten die het top-downmodel ondersteunen.
En toch was het debat nooit helemaal beslecht – deels omdat er geen neurobiologisch bewijs bestond dat woordcontext je helpt de letters beter te zien – in plaats van ze gewoon beter te raden.
Dit is wat we wilden testen in onze studie.
Ons idee was als volgt. Als woorden de deelnemers kunnen helpen letters daadwerkelijk beter te zien, dan zouden we deze perceptuele verbetering misschien al kunnen meten in de vroege visuele cortex (verantwoordelijk voor de waarneming van lijnen en randen).
Aan de andere kant, als woorden niet zouden veranderen hoe proefpersonen de letters zien, dan zouden we dergelijke veranderingen in vroege visuele gebieden ook niet moeten waarnemen.
Om dit idee te testen, hebben we de hersenactiviteit van de proefpersonen vergeleken terwijl ze stromen van woorden (dat wil zeggen letters in context) of niet-woorden (willekeurige reeksen van letters) bekeken. In elke stroom stond de middelste letter vast (een U of een N), terwijl de buitenste letters varieerden, waardoor ze een woordcontext of een niet-woordcontext (nonsens) vormden. We hebben ruis toegevoegd om de letters moeilijker zichtbaar te maken (waardoor context extra nuttig wordt).
Dit is een illustratie van wat een proefpersoon in de scanner zou zien:
Om de hoeveelheid sensorische informatie in de vroege visuele delen van de hersenen te onderzoeken, hebben we een computermodel ‘getraind’ om de middelste letter te identificeren op basis van de hersenactiviteit van de deelnemers in de vroege visuele cortex:
We hebben eerst een computermodel getraind op de hersenactiviteit van deelnemers die alleen letters (U of N) bekijken. Vervolgens gebruikten we dat computermodel om de middelste letter van het woord te voorspellen op basis van de sensorische informatie in het vroege visuele brein.
Als deelnemers de letter nu beter kunnen zien in de context van een woord dan in een onzincontext – zoals top-downmodellen voorspellen – dan zouden we uit de hersenactiviteit moeten kunnen aflezen welke letter een deelnemer ziet, meer nog in de woordcontext dan in een onzincontext.
En dat is dus precies wat we vinden: letters worden gemakkelijker uitgelezen vanuit de vroege visuele cortex wanneer ze zijn ingebed in een woord dan wanneer ze zijn ingebed in een niet-woord:
Kwaliteit van letterinformatie in woorden en niet-woorden voorspeld door modellen (A) en waargenomen in hersenen van deelnemers (B).
Zoals te zien is in panel A, voorspelt het top-downmodel dat de kwaliteit (of ‘getrouwheid’) van letterinformatie wordt verbeterd door woordcontexten, terwijl het bottom-upmodel voorspelt dat de informatie niet verschillend mag zijn tussen woorden en niet-woorden. Zoals te zien is in panel B, komen de waargenomen resultaten in vroege visuele hersengebieden overeen met de top-down voorspellingen: letterinformatie is betrouwbaarder (dwz gemakkelijker ‘uit te lezen’) in woorden in vergelijking met niet-woorden. Dit werd gevonden met behulp van twee onafhankelijke methoden (‘classificatie’ en ‘patrooncorrelatie’). Grijze stippen met verbindingslijnen geven observaties (B) en voorspellingen (A) van individuele deelnemers weer. De sterren geven aan dat het verschil ‘statistisch significant’ is. Met andere woorden, dat het onwaarschijnlijk is dat verschil willekeurig is opgetreden: ** betekent minder dan 1%, en *** minder dan 0,1% kans om willekeurig te gebeuren. Dit betekent dat we er zeer zeker van kunnen zijn dat het verschil dat we waarnemen betrouwbaar was en geen statistische toevalstreffer vanwege willekeurige ruis.
Ten slotte ontdekten we dat activiteit in sleutelgebieden in het leesnetwerk van de hersenen correleerde met het versterkende effect in de visuele cortex. Dit suggereert dat onze woordkennis van het leesnetwerk onze waarneming van eenvoudige vormen en letters ‘van boven naar beneden’ verbetert.
Al met al ondersteunen deze resultaten top-downmodellen van lezen (en waarneming in het algemeen), en suggereren dat u letters in woorden misschien beter kunt herkennen omdat u ze, vrij letterlijk, beter kunt zien.
Dit blogbericht van Micha Heilbron verscheen eerder op Het Talige Brein. Het artikel is gebaseerd op een geïllustreerd Twitter-bericht, dat je hier kunt vinden. Het volledige verhaal is te vinden in het gepubliceerde artikel: DOI: 10.1038 / s41467-019-13996-4