Wat gebeurt er in ons brein wanneer we ons in een volle, rumoerige zaal op één stem proberen te richten? Onderzoekers zijn eruit!

Stel: u bevindt zich op een feestje. Er is muziek, mensen praten en opeens ziet u een oude bekende. U begint een gesprekje. Dan start het cocktailparty-effect. U bent, ondanks alle geluiden in uw omgeving, in staat om de ander te verstaan. Sterker nog: de andere geluiden in uw omgeving neemt u op het moment dat u praat niet meer bewust waar. Wat gebeurt er op dat moment in het brein? En is dat op scans zichtbaar? Onderzoekers van de universiteit van Californië zetten een experiment op om dat uit te zoeken.

Elektroden
Aan het experiment namen drie proefpersonen deel. De proefpersonen hadden een ernstige vorm van epilepsie en zouden binnenkort geopereerd worden. Voor die operatie hadden ze 256 elektroden onder hun schedel geplaatst gekregen. Deze maten de hersenactiviteit. En daar maakten ook de onderzoekers gebruik van.

Aan de slag!

Het cocktailparty-effect in actie zien? Probeer het dan eens zelf. Klik hier en doe de test onder het kopje ‘The Art of Selective Hearing’.

Experiment
De wetenschappers lieten de patiënten twee toespraken horen. De toespraken verschilden van inhoud en waren door twee verschillende stemmen uitgesproken. De toespraken werden tegelijkertijd afgespeeld. De proefpersonen moesten woorden die één van de sprekers uitsprak, volgen. De onderzoekers bestudeerden ondertussen de hersenactiviteit van de proefpersonen. Ze ontdekten dat het brein alleen reageerde op de woorden die door die ene spreker werden uitgesproken. De onderzoekers bleken op basis van de hersenactiviteit zelfs te kunnen achterhalen naar welke spreker de proefpersonen luisterden.

Horen
Het onderzoek wijst erop dat we niet alles wat zich in onze omgeving afspeelt, horen. In plaats daarvan horen we alleen wat we willen of moeten horen. Dat stellen de onderzoekers in het blad Nature.

Het onderzoek heeft meerdere implicaties. Zo kunnen we meer te weten komen over taal en taalproblemen. Maar ook techneuten zijn geïnteresseerd. Want wij kunnen die ene stem in een rumoerige omgeving wel verstaan, maar apparaten hebben daar moeite mee. Zij kunnen achtergrondgeluiden lastig uitfilteren. En dat is een nadeel, zeker nu spraakherkenning (denk aan Siri in de iPhone) enorm in opkomst is. Die spraakherkenning zal echter pas echt doorbreken als apparaten in staat zijn om zich alleen op uw stem te focussen. Door te achterhalen hoe wij mensen dat doen, kunnen we die gave in de toekomst wellicht ook aan apparaten meegeven.